JP5792401B2 - Autofocus device - Google Patents

Autofocus device Download PDF

Info

Publication number
JP5792401B2
JP5792401B2 JP2014559024A JP2014559024A JP5792401B2 JP 5792401 B2 JP5792401 B2 JP 5792401B2 JP 2014559024 A JP2014559024 A JP 2014559024A JP 2014559024 A JP2014559024 A JP 2014559024A JP 5792401 B2 JP5792401 B2 JP 5792401B2
Authority
JP
Japan
Prior art keywords
focus
area
phase difference
eye
comparison
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014559024A
Other languages
Japanese (ja)
Other versions
JPWO2014208224A1 (en
Inventor
塩田 敬司
敬司 塩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014559024A priority Critical patent/JP5792401B2/en
Application granted granted Critical
Publication of JP5792401B2 publication Critical patent/JP5792401B2/en
Publication of JPWO2014208224A1 publication Critical patent/JPWO2014208224A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G02B21/244Devices for focusing using image analysis techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/365Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals by analysis of the spatial frequency components of the image

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Automatic Focus Adjustment (AREA)
  • Microscoopes, Condenser (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Studio Devices (AREA)

Description

本発明は、手術等に際して術部を観察する装置として好適なオートフォーカス装置に関する。   The present invention relates to an autofocus device suitable as a device for observing a surgical site during surgery or the like.

近年、手術等の医療行為に際して術部を観察するための内視鏡や手術用顕微鏡等の医療用観察装置が普及している。例えば、脳神経外科などにおいては、術部を手術するために手術用顕微鏡が用いられる。脳神経外科の手術では、様々な重要組織を避けながら、腫瘍などを切り取る手術が行なわれている。このため、手術時には、手術用顕微鏡は様々な方向に移動される。   In recent years, medical observation apparatuses such as endoscopes and surgical microscopes for observing a surgical site during medical treatment such as surgery have become widespread. For example, in neurosurgery and the like, a surgical microscope is used to operate an operation part. In neurosurgery, surgery is performed to remove tumors while avoiding various important tissues. For this reason, at the time of surgery, the surgical microscope is moved in various directions.

ところが、手術用顕微鏡は、観察倍率が高く被写界深度が浅いことから、少しの移動でも簡単にピントがズレてしまうという問題がある。殆どの手術用顕微鏡には電動フォーカス機構が装備されており、術者は、顕微鏡の移動時には、フットスイッチまたはハンドスイッチを用いて電動フォーカス機構を駆動し、手動でピントを合わせ直すようになっている。   However, the surgical microscope has a problem that since the observation magnification is high and the depth of field is shallow, the focus can be easily shifted even with a slight movement. Most surgical microscopes are equipped with an electric focusing mechanism, and when moving the microscope, the surgeon drives the electric focusing mechanism using a foot switch or hand switch and manually adjusts the focus. Yes.

このような煩雑なフォーカス操作を省略するために、オートフォーカス機能が組み込まれた手術用顕微鏡も開発されている。例えば手術用顕微鏡の移動終了時に自動的にオートフォーカス制御を行う装置が開示されている。   In order to omit such a complicated focus operation, a surgical microscope incorporating an autofocus function has been developed. For example, an apparatus that automatically performs autofocus control at the end of movement of a surgical microscope is disclosed.

ところで、通常、オートフォーカス制御は、日本国特開2013−25132号公報に開示されているように、観察画像中のいずれかのエリア(合焦領域)にピントを合わせるように制御が行われる。例えば、ユーザは観察範囲の中央等の位置を合焦領域として指定することができる。この場合には、ユーザが主要被写体を観察範囲の中央に位置させることで、合焦が行われる。   By the way, normally, the autofocus control is performed so as to focus on any area (in-focus area) in the observation image, as disclosed in Japanese Unexamined Patent Publication No. 2013-25132. For example, the user can designate a position such as the center of the observation range as the focus area. In this case, the user performs focusing by positioning the main subject at the center of the observation range.

また、観察範囲中に設けられた複数の合焦領域のうち、主要被写体があるであろうエリアを被写体のパターン認識によって推定して、そのエリアに自動的に合焦させるフォーカス制御が採用されることもある。また、複数の合焦領域のうち、観察範囲中の画像から人物の顔等の特定のパターンを検出して、このパターンが位置する合焦領域に自動的に合焦させるフォーカス制御が採用されることもある。   In addition, focus control is adopted in which an area where the main subject is likely to be present is estimated by subject pattern recognition among a plurality of focusing areas provided in the observation range, and the area is automatically focused. Sometimes. Also, focus control is adopted in which a specific pattern such as a person's face is detected from an image in the observation range among a plurality of focus areas, and the focus area where this pattern is located is automatically focused. Sometimes.

ところで、被写体パターンや特定パターンの認識によって自動的に合焦させるオートフォーカス制御を採用するためには、被写体パターンや特定パターンの認識のためのデータベースが必要である。人物や顔等のデータベースは既に構築されており、人物や風景等を撮影する一般的なカメラのオートフォーカス制御に利用されている。しかしながら、手術の状況は診療科や施設毎に術式が異なるだけでなく同じ症例でも患者の個人差によって千差万別であり、常に関心領域にフォーカス制御を行うためには診療科毎または施設毎に膨大な手術データを解析してデータベースを作る必要があり、現時点ではそのような技術は確立できていない。また特定の鉗子などを認識して合焦させることも考えられるが、鉗子類は頻繁に改善が図られるために、常に最新の鉗子情報へのアップデートが必要となるなど、現実的ではない。   By the way, in order to employ autofocus control that automatically focuses by recognizing a subject pattern or a specific pattern, a database for recognizing the subject pattern or the specific pattern is required. A database of people, faces, etc. has already been constructed, and is used for autofocus control of a general camera that photographs a person, a landscape, and the like. However, the surgical situation varies not only depending on the department or facility, but also varies depending on the individual patient even in the same case. In order to always perform focus control on the region of interest, It is necessary to create a database by analyzing a huge amount of surgical data every time, and such technology has not been established at present. Although it is conceivable to recognize and focus on a specific forceps or the like, since the forceps are frequently improved, it is not practical because it is necessary to always update to the latest forceps information.

また、ユーザが指定した合焦領域に合焦させるオートフォーカス制御を採用する場合には、術者は関心領域が当該合焦領域に位置するように、観察範囲を移動させる操作を行う。しかしながら、手術中は術部に血液等で濁った水が溜まっていたり、脳実質や骨など、コントラストが低い被写体が関心領域となるケースが多いため、精度良く合焦ができないケースが発生する。また、視野を移動した後に合焦領域の位置を設定し直すことも考えられるが、手術を行なっている時には両手が塞がっている場合が多く、設定作業が煩わしいという課題がある。   Further, when adopting autofocus control for focusing on a focusing area designated by the user, the operator performs an operation of moving the observation range so that the region of interest is located in the focusing area. However, during surgery, turbid water such as blood accumulates in the surgical site, and subjects with low contrast, such as brain parenchyma and bones, often become regions of interest. Although it is conceivable to reset the position of the in-focus area after moving the field of view, there is a problem that both hands are often closed during the operation, and the setting work is troublesome.

本発明は、関心領域又はその近傍に自動的に確実に合焦させることができるオートフォーカス装置を提供することを目的とする。   An object of the present invention is to provide an autofocus device that can automatically and surely focus on a region of interest or in the vicinity thereof.

本発明に係るオートフォーカス装置は、右目用及び左目用の光学像を結像する対物レンズを有する対物光学系と、前記対物光学系により結像された前記右目用及び左目用の光学像を撮像して右目用の映像信号及び左目用の映像信号を生成する撮像部と、前記右目用の映像信号があらわす右目用画像と、前記左目用の映像信号があらわす左目用画像とのいずれか一方の画像に対して所定の大きさの基準領域を設定するとともに、他方の画像に対して前記基準領域よりも小さい大きさの比較領域を設定する領域設定部と、前記基準領域内の映像信号及び前記比較領域内の映像信号を検波する検波部と、前記基準領域の中から前記比較領域のサイズと等しい大きさに切り出した切り出し領域の検波結果と、前記比較領域の検波結果とを比較し、該比較結果が一致するまで前記切り出し領域を所定の移動方向に沿って移動させながら比較を行い、前記基準領域内の検波結果に一致させるために要した前記切り出し領域の移動量を前記右目用画像と左目用画像との位相差として算出する位相差演算部と、前記位相差に基づいて前記対物レンズの合焦位置を算出する合焦位置演算部と、前記対物レンズを駆動して前記合焦位置演算部によって算出された合焦位置に移動させる対物レンズ駆動部と、を具備し、前記領域設定部は、前記位相差演算部による演算結果によって前記基準領域の全範囲において前記比較領域との検波結果が一致しなかった場合、前記比較領域の前記移動方向における大きさを拡大させるように前記比較領域の大きさを設定する。 An autofocus device according to the present invention captures an objective optical system having an objective lens that forms optical images for right eye and left eye, and optical images for right eye and left eye formed by the objective optical system. And an imaging unit that generates a right-eye video signal and a left-eye video signal, a right-eye image represented by the right-eye video signal, and a left-eye image represented by the left-eye video signal. An area setting unit that sets a reference area of a predetermined size for an image and sets a comparison area of a size smaller than the reference area for the other image, a video signal in the reference area, and the A detection unit for detecting a video signal in the comparison region, a detection result of the cutout region cut out to a size equal to the size of the comparison region from the reference region, and a detection result of the comparison region, ratio Result compares while moving along the cutout region in the predetermined direction of movement until it matches, the left and the right eye image movement amount of the cut-out regions required in order to match the detection result of the reference field a phase difference calculating unit for calculating a phase difference between the use image, a focusing position calculation unit for calculating the focus position of the objective lens based on the phase difference, the focus position calculated by driving the objective lens An objective lens driving unit that moves to the in-focus position calculated by the unit, and the region setting unit detects the comparison result with the comparison region in the entire range of the reference region based on the calculation result by the phase difference calculation unit. If they do not match, the size of the comparison area is set so as to enlarge the size of the comparison area in the moving direction.

本発明に係るオートフォーカス装置は、右目用及び左目用の光学像を結像する対物レンズを有する対物光学系と、前記対物光学系により結像された前記右目用及び左目用の光学像を撮像して右目用の映像信号及び左目用の映像信号を生成する撮像部と、前記右目用の映像信号があらわす右目用画像と、前記左目用の映像信号があらわす左目用画像とのいずれか一方の画像に対して所定の大きさの基準領域を設定するとともに、他方の画像に対して前記基準領域よりも小さい大きさの比較領域を設定する領域設定部と、前記基準領域内の映像信号及び前記比較領域内の映像信号を検波する検波部と、前記基準領域の映像信号の検波結果と、前記比較領域の映像信号の検波結果とに基づいて、前記右目用画像と左目用画像との位相差を算出する位相差演算部と、前記位相差に基づいて前記対物レンズの合焦位置を算出する合焦位置演算部と、前記対物レンズを駆動して前記合焦位置演算部によって算出された合焦位置に移動させる対物レンズ駆動部と、を具備する。 An autofocus device according to the present invention captures an objective optical system having an objective lens that forms optical images for right eye and left eye, and optical images for right eye and left eye formed by the objective optical system. And an imaging unit that generates a right-eye video signal and a left-eye video signal, a right-eye image represented by the right-eye video signal, and a left-eye image represented by the left-eye video signal. An area setting unit that sets a reference area of a predetermined size for an image and sets a comparison area of a size smaller than the reference area for the other image, a video signal in the reference area, and the A phase difference between the right-eye image and the left-eye image based on a detection unit that detects a video signal in the comparison area, a detection result of the video signal in the reference area, and a detection result of the video signal in the comparison area To calculate A difference calculation unit; a focus position calculation unit that calculates a focus position of the objective lens based on the phase difference; and a drive to the focus position calculated by the focus position calculation unit by driving the objective lens An objective lens driving unit .

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1は本発明の第1の実施の形態に係るオートフォーカス装置が組み込まれた医療用観察装置の概略構成を示す構成図である。本実施の形態はビデオ観察式の手術用顕微鏡に適用した例であるが、光学観察式の手術用顕微鏡や、内視鏡やその他の医療用の観察装置にも適用可能である。
(First embodiment)
FIG. 1 is a configuration diagram showing a schematic configuration of a medical observation apparatus incorporating an autofocus device according to a first embodiment of the present invention. Although this embodiment is an example applied to a video observation type surgical microscope, the present embodiment can also be applied to an optical observation type surgical microscope, an endoscope, and other medical observation apparatuses.

図1において、医療用観察装置1は、顕微鏡10、カメラコントロールユニット(以下、CCUという)20、3Dモニタ30及びAF制御部40によって構成される。顕微鏡10は、架台50のアーム51に支持されて、術野に移動自在に配置される。顕微鏡10は、観察画像を3D観察するためのものであり、観察部としての撮像部14R,14Lを有している。右目用及び左目用の観察画像は撮像部14R,14Lによって光電変換されて、右目用の画像及び左目用の画像が取得される。顕微鏡10は、3D観察を可能にするために、観察部位側から撮像部14R,14Lの撮像面に至る光軸上に、対物レンズ11、ズームレンズ12R,12L及び結像レンズ13R,13Lが配置された光学系を有する。   In FIG. 1, the medical observation apparatus 1 includes a microscope 10, a camera control unit (hereinafter referred to as CCU) 20, a 3D monitor 30, and an AF control unit 40. The microscope 10 is supported by the arm 51 of the gantry 50 and is movably disposed in the operative field. The microscope 10 is used for 3D observation of an observation image, and includes imaging units 14R and 14L as observation units. The observation images for the right eye and the left eye are photoelectrically converted by the imaging units 14R and 14L, and a right eye image and a left eye image are acquired. In order to enable 3D observation, the microscope 10 includes an objective lens 11, zoom lenses 12R and 12L, and imaging lenses 13R and 13L on the optical axis from the observation region side to the imaging surfaces of the imaging units 14R and 14L. Having an optical system.

対物レンズ11は、モータ15に駆動されて光軸方向に移動することで、フォーカス(合焦)状態を設定する。モータ(M)15は後述するモータドライバ46に制御されて回転することで、対物レンズ11を光軸方向に進退移動させる。   The objective lens 11 is driven by the motor 15 and moves in the optical axis direction, thereby setting a focus (in-focus) state. The motor (M) 15 is controlled and rotated by a motor driver 46 described later, thereby moving the objective lens 11 forward and backward in the optical axis direction.

対物レンズ11の近傍にはエンコーダ(E)16も配設されている。エンコーダ16は、対物レンズ11の可動領域内における位置(レンズ位置)を検出して、検出結果を後述するレンズ位置検出部44に出力するようになっている。   An encoder (E) 16 is also provided in the vicinity of the objective lens 11. The encoder 16 detects the position (lens position) in the movable region of the objective lens 11 and outputs the detection result to a lens position detection unit 44 described later.

ズームレンズ12R,12Lは、対物レンズ11を介して入射した観察画像を変倍制御するためのものであり、ズームレンズ12Rは右目用の観察画像のズーム変倍を行い、ズームレンズ12Lは左目用の観察画像のズーム変倍を行う。結像レンズ13R,13Lは、ズーム変倍された右目用及び左目用の観察画像を夫々撮像部14L,14Rの撮像面に導く。   The zoom lenses 12R and 12L are for controlling the magnification of an observation image incident through the objective lens 11. The zoom lens 12R performs zoom magnification of the observation image for the right eye, and the zoom lens 12L is for the left eye. Zooming of the observed image is performed. The imaging lenses 13R and 13L guide the observation images for the right eye and the left eye that have been zoomed to the imaging surfaces of the imaging units 14L and 14R, respectively.

撮像部14R,14Lは、CCDやCMOSセンサ等の撮像素子によって構成され、夫々撮像面に入射した観察画像を光電変換して右目用画像及び左目用画像を得る。撮像部14R,14Lからの右目用及び左目用の画像信号は、CCU20に供給される。なお、本実施の形態においては、顕微鏡10として3D観察画像を取得する例を示しているが、2D観察画像を取得するものにも同様に適用可能である。   The imaging units 14R and 14L are configured by an imaging element such as a CCD or a CMOS sensor, and obtain an image for the right eye and an image for the left eye by photoelectrically converting the observation images incident on the imaging surface, respectively. The image signals for the right eye and the left eye from the imaging units 14R and 14L are supplied to the CCU 20. In the present embodiment, an example in which a 3D observation image is acquired as the microscope 10 is shown, but the present invention can be similarly applied to an apparatus that acquires a 2D observation image.

CCU20は、入力された右目用及び左目用の画像信号に対し所定の画像信号処理を施して、標準的な3D映像信号に変換するようになっている。CCU20からの3D映像信号は3Dモニタ30に供給される。3Dモニタ30は、入力された3D映像信号に基づいて、表示画面上に顕微鏡観察画像を映出するようになっている。   The CCU 20 performs predetermined image signal processing on the input image signals for the right eye and left eye, and converts them into standard 3D video signals. The 3D video signal from the CCU 20 is supplied to the 3D monitor 30. The 3D monitor 30 displays a microscope observation image on a display screen based on the input 3D video signal.

本実施の形態においては、CCU20からの映像信号は架台50内に配設されたAF制御部40にも供給される。AF制御部40は、顕微鏡10の撮像領域(観察視野範囲)中にユーザの設定に基づいて所定サイズの複数の合焦領域を設定可能であり、合焦領域の画像部分が自動的に合焦するように、フォーカス制御を行うものである。更に、本実施の形態においては、合焦領域を変更することで、確実なフォーカス制御を可能にする。   In the present embodiment, the video signal from the CCU 20 is also supplied to the AF control unit 40 provided in the gantry 50. The AF control unit 40 can set a plurality of focus areas of a predetermined size in the imaging area (observation visual field range) of the microscope 10 based on the user setting, and the image portion of the focus area is automatically focused. Thus, focus control is performed. Furthermore, in the present embodiment, it is possible to perform reliable focus control by changing the focus area.

AF制御部40の検波部41には、CCU20からの映像信号が入力される。検波部41は、合焦領域設定部42によって設定された合焦領域における映像信号の検波処理を行い、検波結果をコントラスト演算部43に出力する。コントラスト演算部43は、制御部49に制御されて、検波部41の検波処理結果に基づいて、合焦領域のコントラストを求める。   The video signal from the CCU 20 is input to the detection unit 41 of the AF control unit 40. The detection unit 41 performs a detection process on the video signal in the in-focus area set by the in-focus area setting unit 42 and outputs the detection result to the contrast calculation unit 43. The contrast calculation unit 43 is controlled by the control unit 49 and obtains the contrast of the in-focus area based on the detection processing result of the detection unit 41.

また、コントラスト演算部43には、レンズ位置検出部44の出力も与えられる。レンズ位置検出部44は、顕微鏡10のエンコーダ16から対物レンズ11の可動領域内における位置の検出結果が与えられる。レンズ位置検出部44は、エンコーダ16の出力に基づいて、現在のレンズ位置を求めてレンズ位置情報をコントラスト演算部43に出力する。コントラスト演算部43は、図示しないメモリを有しており、対物レンズ11の各レンズ位置における合焦領域のコントラスト値をメモリに記憶させる。   The contrast calculation unit 43 is also given the output of the lens position detection unit 44. The lens position detection unit 44 is given a detection result of the position in the movable region of the objective lens 11 from the encoder 16 of the microscope 10. The lens position detection unit 44 obtains the current lens position based on the output of the encoder 16 and outputs lens position information to the contrast calculation unit 43. The contrast calculation unit 43 has a memory (not shown), and stores the contrast value of the focus area at each lens position of the objective lens 11 in the memory.

コントラスト演算部43がメモリに記憶させた各レンズ位置における合焦領域のコントラスト値は、制御部49を介して合焦位置演算制御部45に与えられる。制御部49は、コントラスト値が所定の閾値(以下、合焦判定閾値という)を超えた場合にのみ、ピーク値が検出できるものと判定して、コントラスト演算部43からのコントラスト値及びレンズ位置の情報を合焦位置演算制御部45に与えるようになっている。また、制御部49は、コントラスト値のピーク値が合焦判定閾値以下であったか否かの範囲結果を合焦領域設定部42に与えるようになっている。   The contrast value of the focus area at each lens position stored in the memory by the contrast calculation unit 43 is given to the focus position calculation control unit 45 via the control unit 49. The control unit 49 determines that the peak value can be detected only when the contrast value exceeds a predetermined threshold value (hereinafter referred to as an in-focus determination threshold value), and determines the contrast value and the lens position from the contrast calculation unit 43. Information is given to the in-focus position calculation control unit 45. In addition, the control unit 49 is configured to give a range result indicating whether or not the peak value of the contrast value is equal to or less than the focus determination threshold value to the focus region setting unit 42.

モータドライバ46は、合焦位置演算制御部45に制御されて、モータ15を駆動し、対物レンズ11を進退移動させるようになっている。合焦位置演算制御部45は、このモータドライバ46を制御することで、対物レンズ11を所望の位置に進退移動させることができる。   The motor driver 46 is controlled by the in-focus position calculation control unit 45 to drive the motor 15 and move the objective lens 11 forward and backward. The in-focus position calculation control unit 45 can move the objective lens 11 to a desired position by controlling the motor driver 46.

合焦位置演算制御部45は、制御部49に制御されて対物レンズ11を進退移動させると共に、各レンズ位置における合焦領域のコントラスト値に基づいて、いずれのレンズ位置の場合に合焦状態が得られるかを求める。例えば、合焦位置演算制御部45は、コントラスト値のピーク検出によって、合焦状態の対物レンズ11のレンズ位置(以下、合焦位置という)を求める。合焦位置演算制御部45は、合焦状態が得られるレンズ位置となるように、モータドライバ46を制御して対物レンズ11を移動させる。   The in-focus position calculation control unit 45 is controlled by the control unit 49 to move the objective lens 11 forward and backward, and based on the contrast value of the in-focus area at each lens position, the in-focus state is in any lens position. Find out if you can get it. For example, the focus position calculation control unit 45 obtains the lens position of the objective lens 11 in focus (hereinafter referred to as the focus position) by detecting the peak of the contrast value. The in-focus position calculation control unit 45 controls the motor driver 46 to move the objective lens 11 so that the lens position at which the in-focus state is obtained is obtained.

合焦領域設定部42は、コントラスト値のピーク値が合焦判定閾値以下であるか否かによって合焦領域を変更するか否かを決定する。即ち、合焦領域設定部42は、初期状態ではユーザが設定した領域を合焦領域に設定すると共に、フォーカス動作時に、メモリに記録されたコントラスト値が合焦判定閾値を超えない場合には、制御部49に制御されて合焦領域を変化させるようになっている。この場合には、合焦領域設定部42は、ユーザが設定した合焦領域に近接する位置に新たな合焦領域を設定する。また、合焦領域設定部42は、直前に設定している合焦領域を含む合焦領域を新たに設定してもよい。合焦領域設定部42は、コントラスト値が合焦判定閾値を超えるまで、合焦領域を変化させる。   The focus area setting unit 42 determines whether or not to change the focus area depending on whether or not the peak value of the contrast value is equal to or less than the focus determination threshold value. That is, in the initial state, the focus area setting unit 42 sets the area set by the user as the focus area, and when the contrast value recorded in the memory does not exceed the focus determination threshold during the focus operation, The focusing area is changed under the control of the control unit 49. In this case, the focusing area setting unit 42 sets a new focusing area at a position close to the focusing area set by the user. Further, the focusing area setting unit 42 may newly set a focusing area including the focusing area set immediately before. The focus area setting unit 42 changes the focus area until the contrast value exceeds the focus determination threshold value.

図2及び図3は合焦領域の設定を説明するための説明図である。図2は観察視野範囲61中にユーザが指定した合焦領域62を示している。図2の例は、ユーザが観察視野範囲61の中央に合焦領域を設定したことを示している。   2 and 3 are explanatory diagrams for explaining the setting of the focus area. FIG. 2 shows a focusing area 62 designated by the user in the observation visual field range 61. The example of FIG. 2 shows that the user has set the focus area at the center of the observation visual field range 61.

図3はコントラスト値が合焦判定閾値以下である場合に、合焦領域設定部42が、新たに設定する合焦領域を示している。合焦領域設定部42は、コントラスト値が合焦判定閾値以下である場合には、ユーザが設定した合焦領域62に近接した位置、図3では合焦領域の右又は左に隣接する位置に、新たな合焦領域63aを設定する。なお、合焦領域設定部42は、合焦領域62の左右の両側に新たに合焦領域63aを設定してもよく、左右の合焦領域63aの一方を先に設定し、その合焦領域のコントラスト値が合焦判定閾値以下であった場合に他方の合焦領域63aを設定するようにしてもよい。また、合焦領域設定部42は、合焦領域62,2つの合焦領域63aを含む領域を新たな合焦領域に設定してもよい。   FIG. 3 shows an in-focus area newly set by the in-focus area setting unit 42 when the contrast value is equal to or less than the in-focus determination threshold value. When the contrast value is equal to or smaller than the focus determination threshold value, the focus area setting unit 42 is positioned at a position close to the focus area 62 set by the user, or a position adjacent to the right or left of the focus area in FIG. A new focusing area 63a is set. The focus area setting unit 42 may newly set the focus areas 63a on both the left and right sides of the focus area 62, and sets one of the left and right focus areas 63a first, and the focus area 63a. If the contrast value is equal to or less than the focus determination threshold value, the other focus area 63a may be set. The focus area setting unit 42 may set a focus area 62 and an area including the two focus areas 63a as a new focus area.

新たな合焦領域63aのコントラスト値が合焦判定閾値以下であった場合には、合焦領域設定部42は、合焦領域63aの左右に新たな合焦領域63bを更に設定する。この場合にも、合焦領域設定部42は、合焦領域63aの左右の両側に新たに合焦領域63bを設定してもよく、左右の合焦領域63bの一方を先に設定し、その合焦領域のコントラスト値が合焦判定閾値以下であった場合に他方の合焦領域63bを設定するようにしてもよい。また、合焦領域設定部42は、合焦領域62,2つの合焦領域63a及び2つの合焦領域63bを含む領域を新たな合焦領域に設定してもよい。   When the contrast value of the new focus area 63a is equal to or less than the focus determination threshold value, the focus area setting unit 42 further sets new focus areas 63b on the left and right sides of the focus area 63a. Also in this case, the focus area setting unit 42 may newly set the focus areas 63b on both the left and right sides of the focus area 63a, and set one of the left and right focus areas 63b first, When the contrast value of the focus area is equal to or less than the focus determination threshold value, the other focus area 63b may be set. Further, the focus area setting unit 42 may set an area including the focus area 62, the two focus areas 63a, and the two focus areas 63b as a new focus area.

以後同様にして、合焦領域設定部42は、コントラスト値が合焦判定閾値を超えるまで、合焦領域を変化させる。なお、図3では新たに設定する合焦領域を、ユーザが設定した合焦領域62の左右に広げる例を示したが、上下に広げるように合焦領域を設定してもよく、上下左右に広げるように合焦領域を設定してもよいことは明らかである。本実施の形態においては、ユーザが設定した合焦領域に近接する位置から離間する位置に向かって合焦領域を順次切換え又は広げるように変化させればよい。   Thereafter, in the same manner, the focus area setting unit 42 changes the focus area until the contrast value exceeds the focus determination threshold value. Although FIG. 3 shows an example in which the newly set focus area is extended to the left and right of the focus area 62 set by the user, the focus area may be set so as to extend vertically, Obviously, the focus area may be set so as to widen. In the present embodiment, the focus area may be changed so as to be sequentially switched or expanded from a position close to the focus area set by the user to a position away from the focus area.

次にこのように構成された実施の形態の動作について図4乃至図8を参照して説明する。図4は合焦時の動作を説明するためのフローチャートである。図5及び図7は観察画像の一例を示す説明図である。また、図6及び図8はレンズ位置に対するコントラスト値の変化を示す説明図である。   Next, the operation of the embodiment configured as described above will be described with reference to FIGS. FIG. 4 is a flowchart for explaining the operation during focusing. 5 and 7 are explanatory diagrams illustrating examples of observation images. 6 and 8 are explanatory diagrams showing changes in contrast values with respect to lens positions.

いま、顕微鏡10によって図5の観察視野範囲70が得られているものとする。観察視野範囲70は、例えば、脳外科手術等の術部であり、顕微鏡10によって観察視野範囲70における観察画像71が得られることを示している。観察画像71は、例えば脳実質72の一部に血管73が存在することを示している。なお、脳実質72は、一般的に、色及び凹凸の変化が乏しい。   Now, it is assumed that the observation visual field range 70 of FIG. The observation visual field range 70 is, for example, a surgical part such as a brain surgery, and shows that an observation image 71 in the observation visual field range 70 is obtained by the microscope 10. The observation image 71 indicates that the blood vessel 73 exists in a part of the brain parenchyma 72, for example. Note that the brain parenchyma 72 generally has little change in color and unevenness.

いま、観察視野範囲70の観察画像71が非合焦状態であるものとする。AF制御部40は、所定のタイミングで図4に示す合焦動作を実施する。また、AF制御部40は、所定の時間間隔で合焦動作を実行してもよい。   Assume that the observation image 71 in the observation visual field range 70 is in an out-of-focus state. The AF control unit 40 performs the focusing operation shown in FIG. 4 at a predetermined timing. Further, the AF control unit 40 may perform the focusing operation at a predetermined time interval.

ステップS1において、合焦領域設定部42は、ユーザによって予め指定されている合焦領域62を検波部41に設定する。検波部41は、ステップS2において、CCU20の出力のうち設定された合焦領域の映像信号を検波して検波結果をコントラスト演算部43に出力する。コントラスト演算部43には、レンズ位置検出部44から対物レンズ11の現在のレンズ位置の情報も与えられており、検波部41の検波結果からコントラスト値を求める(ステップS3)と共に、現在のレンズ位置とコントラスト値とを対応付けてメモリに記憶させる(ステップS4)。   In step S <b> 1, the focusing area setting unit 42 sets the focusing area 62 specified in advance by the user in the detection unit 41. In step S <b> 2, the detection unit 41 detects the video signal in the set in-focus area from the output of the CCU 20 and outputs the detection result to the contrast calculation unit 43. The contrast calculation unit 43 is also provided with information on the current lens position of the objective lens 11 from the lens position detection unit 44, and obtains a contrast value from the detection result of the detection unit 41 (step S3), and the current lens position. And the contrast value are stored in the memory in association with each other (step S4).

制御部49は、合焦位置演算制御部45を制御して、対物レンズ11のレンズ位置を変化させながら(ステップS6)、コントラスト演算部43のメモリに記憶されたコントラスト値を読み出し、コントラスト値のピークを検出する。制御部49は、コントラスト値のピークが検出できない場合には、合焦位置演算制御部45を制御してステップS6における対物レンズの移動を繰り返し、コントラスト値のピーク検出ができると、ステップS7においてコントラスト値のピーク値が合焦判定閾値を超えたか否かを判定する。   The control unit 49 controls the in-focus position calculation control unit 45 to read the contrast value stored in the memory of the contrast calculation unit 43 while changing the lens position of the objective lens 11 (step S6). Detect peaks. If the peak of the contrast value cannot be detected, the control unit 49 controls the in-focus position calculation control unit 45 to repeat the movement of the objective lens in step S6, and if the peak of the contrast value can be detected, the contrast is determined in step S7. It is determined whether or not the peak value of the value exceeds a focus determination threshold value.

図6は図5に対応したものであり、横軸に対物レンズ11のレンズ位置をとり縦軸にコントラスト値をとって、レンズ位置の変化に応じたコントラスト値の変化を示している。図5の観察視野範囲70においては、ユーザが予め指定した合焦領域62上を血管73が通っており、合焦領域62におけるコントラスト値は十分に高い。これにより、図6に示すように、コントラスト値は、合焦判定閾値を超えている。   FIG. 6 corresponds to FIG. 5 and shows the change in the contrast value according to the change in the lens position, with the horizontal axis representing the lens position of the objective lens 11 and the vertical axis representing the contrast value. In the observation visual field range 70 of FIG. 5, the blood vessel 73 passes over the focusing area 62 designated in advance by the user, and the contrast value in the focusing area 62 is sufficiently high. Thereby, as shown in FIG. 6, the contrast value exceeds the focus determination threshold value.

この場合には、制御部49は、コントラスト値及びレンズ位置の情報を合焦位置演算制御部45に出力する。合焦位置演算制御部45は、コントラスト値のピークが得られるレンズ位置となるように、モータドライバ46を駆動する。こうして、対物レンズ11は、合焦状態が得られるレンズ位置に進退駆動される(ステップS9)。   In this case, the control unit 49 outputs the contrast value and lens position information to the in-focus position calculation control unit 45. The in-focus position calculation control unit 45 drives the motor driver 46 so that the lens position at which the peak of the contrast value is obtained is obtained. Thus, the objective lens 11 is driven back and forth to the lens position where the in-focus state is obtained (step S9).

次に、顕微鏡10によって図7の観察視野範囲80が得られているものとする。観察視野範囲80は、図6の観察視野範囲70から少しずれた範囲であり、その観察画像81は、血管73が観察視野範囲80の周辺領域に存在することを示している。   Next, it is assumed that the observation visual field range 80 of FIG. The observation visual field range 80 is a range slightly deviated from the observation visual field range 70 in FIG. 6, and the observation image 81 indicates that the blood vessel 73 exists in the peripheral region of the observation visual field range 80.

この場合にも、AF制御部40の合焦領域設定部42は、ステップS1において、ユーザによって予め指定されている合焦領域62を検波部41に設定する。この合焦領域62において、ステップS2〜S6の処理が繰り返されて、コントラスト値及びレンズ位置が求められ、コントラスト値のピークが合焦判定閾値を超えたか否かが判定される(ステップS7)。   Also in this case, the focusing area setting unit 42 of the AF control unit 40 sets the focusing area 62 specified in advance by the user in the detection unit 41 in step S1. In this in-focus area 62, the processes in steps S2 to S6 are repeated to obtain the contrast value and the lens position, and it is determined whether or not the contrast value peak has exceeded the in-focus determination threshold (step S7).

合焦領域62上には血管73が通っておらず、脳実質72は色及び凹凸の変化に乏しいことから、この場合には、合焦領域62におけるコントラスト値は比較的低い。図8は図7に対応したものであり、図6と同様の表記方法によってレンズ位置に対するコントラスト値の変化を示している。図8(a)は合焦領域62についてのコントラスト値の変化を示している。図8に示すように、いずれのレンズ位置においてもコントラスト値は低く、合焦判定閾値以下である。コントラスト値が合焦判定閾値以下である場合には、合焦位置の検出は困難であるものと考えられる。   In this case, the contrast value in the in-focus area 62 is relatively low because the blood vessel 73 does not pass over the in-focus area 62 and the brain parenchyma 72 is poor in color and unevenness. FIG. 8 corresponds to FIG. 7, and shows the change in contrast value with respect to the lens position by the same notation method as in FIG. FIG. 8A shows a change in contrast value for the in-focus area 62. As shown in FIG. 8, the contrast value is low at any lens position, and is below the focus determination threshold value. When the contrast value is less than or equal to the focus determination threshold, it is considered difficult to detect the focus position.

この場合には、制御部49は、コントラスト値が合焦判定閾値以下であることを合焦領域設定部42に通知して、合焦領域設定部42に合焦領域を変化させる(ステップS8)。合焦領域設定部42は、合焦領域63aを検波部41に設定する。こうして、合焦領域63aについて、ステップS2〜S6の処理が繰り返されて、コントラスト値及びレンズ位置が求められ、コントラスト値のピークが合焦判定閾値を超えたか否かが判定される(ステップS7)。   In this case, the control unit 49 notifies the in-focus area setting unit 42 that the contrast value is equal to or less than the in-focus determination threshold, and causes the in-focus area setting unit 42 to change the in-focus area (step S8). . The focusing area setting unit 42 sets the focusing area 63a in the detection unit 41. Thus, the processing of steps S2 to S6 is repeated for the in-focus area 63a, the contrast value and the lens position are obtained, and it is determined whether or not the peak of the contrast value has exceeded the in-focus determination threshold value (step S7). .

図7の例では、合焦領域63a上にも血管73は通っておらず、合焦領域63aにおけるコントラスト値も比較的低い。即ち、この場合にも、コントラスト値の変化は、図8(a)と同様となり、いずれのレンズ位置においてもコントラスト値は合焦判定閾値以下となる。   In the example of FIG. 7, the blood vessel 73 does not pass over the focus area 63a, and the contrast value in the focus area 63a is relatively low. That is, also in this case, the change in the contrast value is the same as in FIG. 8A, and the contrast value is equal to or less than the focus determination threshold value at any lens position.

合焦領域設定部42は、合焦領域63aのコントラスト値が合焦判定閾値以下であることから、合焦領域を更に変化させ、検波部41に合焦領域63bを設定する(ステップS8)。こうして、合焦領域63bについて、ステップS2〜S6の処理が繰り返されて、コントラスト値及びレンズ位置が求められ、コントラスト値のピークが合焦判定閾値を超えたか否かが判定される(ステップS7)。   Since the contrast value of the focus area 63a is equal to or less than the focus determination threshold, the focus area setting unit 42 further changes the focus area and sets the focus area 63b in the detection unit 41 (step S8). Thus, the processing of steps S2 to S6 is repeated for the in-focus region 63b, the contrast value and the lens position are obtained, and it is determined whether or not the peak of the contrast value has exceeded the in-focus determination threshold value (step S7). .

図7の観察視野範囲80においては、合焦領域63b上を血管73が通っており、合焦領域63におけるコントラスト値は十分に高く、コントラスト値の変化は、例えば図8(b)に示すものとなる。即ち、この場合には、コントラスト値は合焦判定閾値を超える。こうして、合焦位置演算制御部45は、コントラスト値のピークが得られるレンズ位置となるように、モータドライバ46を駆動し、合焦状態が得られる(ステップS9)。   In the observation visual field range 80 of FIG. 7, the blood vessel 73 passes over the focusing area 63b, and the contrast value in the focusing area 63 is sufficiently high. The change in the contrast value is, for example, that shown in FIG. It becomes. That is, in this case, the contrast value exceeds the focus determination threshold value. Thus, the in-focus position calculation control unit 45 drives the motor driver 46 so that the lens position at which the peak of the contrast value is obtained, and an in-focus state is obtained (step S9).

このように本実施の形態においては、ユーザが予め指定した合焦領域において合焦位置が得られない場合には、ユーザが設定した合焦領域に近接する位置から離間する位置に向かって合焦領域を順次切換え又は広げるように変化させて、合焦位置を得るようになっている。これにより、術者が指定した例えば観察視野範囲中央の合焦領域に関心領域が位置しない場合でも、合焦領域が自動的に切換って合焦位置が得られる。また、術部等の関心領域に血液が溜まってコントラストが低い状態であっても、関心領域近傍の領域のコントラスト高い合焦領域において合焦位置が求められる。こうして、関心領域又はその近傍に自動的に確実に合焦させることが可能である。また、合焦動作は自動的に行われることから、手術等のように両手が塞がっている場合でも、確実な合焦が可能であり、利便性に優れている。また、合焦のために、被写体パターンや特定パターンの認識のためのデータベースは不要であり、比較的簡単な構成で、確実なオートフォーカス制御が可能である。   As described above, in this embodiment, when the in-focus position cannot be obtained in the in-focus area designated by the user in advance, the in-focus position is moved away from the position close to the in-focus area set by the user. The focus position is obtained by sequentially changing or expanding the area. Thereby, even when the region of interest is not located in the focus region in the center of the observation visual field range designated by the surgeon, the focus region is automatically switched to obtain the focus position. In addition, even in a state where blood accumulates in a region of interest such as a surgical site and the contrast is low, a focus position is obtained in a focus region having a high contrast in a region near the region of interest. In this way, it is possible to automatically and reliably focus on the region of interest or the vicinity thereof. In addition, since the focusing operation is automatically performed, even when both hands are closed as in the case of surgery or the like, it is possible to perform focusing in a reliable manner, which is excellent in convenience. In addition, a database for recognizing a subject pattern or a specific pattern is not required for focusing, and reliable autofocus control is possible with a relatively simple configuration.

ところで、図4の例は、合焦領域のコントラスト値のピークが合焦判定閾値以下である場合に合焦領域設定部42において合焦領域を変化させる例を示したが、複数の合焦領域についてコントラスト値を算出しておき、各合焦領域について求めたコントラスト値に応じて、フォーカス制御に用いる合焦領域を決定して、合焦位置を求めるようにすることも可能である。   The example in FIG. 4 shows an example in which the focus area is changed in the focus area setting unit 42 when the peak contrast value of the focus area is equal to or less than the focus determination threshold value. It is also possible to calculate the contrast value for, determine the in-focus area used for focus control in accordance with the contrast value obtained for each in-focus area, and obtain the in-focus position.

図9はこの場合の合焦動作を説明するためのフローチャートであり、図10は合焦領域の決定方法を説明するための説明図である。図9において図4と同一の手順には同一符号を付して説明を省略する。   FIG. 9 is a flowchart for explaining the focusing operation in this case, and FIG. 10 is an explanatory diagram for explaining a method of determining the focusing area. In FIG. 9, the same steps as those in FIG.

図9のステップS11において、合焦領域設定部42は、ユーザが指定した合焦領域及びその周囲の1つ以上の合焦領域を検波部41に設定する。合焦領域設定部42が設定したこれらの複数の合焦領域について、ステップS2〜S6の処理が繰り返されて、コントラスト値及びレンズ位置が求められて記憶される。即ち、この場合には、レンズ位置毎に、全ての合焦位置のコントラスト値が求められて、最終的に合焦位置毎にピーク検出が行われる。   In step S <b> 11 of FIG. 9, the focusing area setting unit 42 sets the focusing area specified by the user and one or more focusing areas around the focusing area in the detection unit 41. With respect to the plurality of in-focus areas set by the in-focus area setting unit 42, the processes in steps S2 to S6 are repeated, and the contrast value and the lens position are obtained and stored. That is, in this case, the contrast values of all in-focus positions are obtained for each lens position, and finally peak detection is performed for each in-focus position.

全ての合焦領域についてのコントラスト値のピーク検出が終了すると、制御部49は、ステップS13において、コントラスト値のピーク値が合焦判定閾値を超えた合焦領域が存在するか否かを判定する。存在しない場合には、合焦領域設定部42は、ステップS11で設定した合焦領域の周囲に新たな合焦領域を設定するか又は広げて、合焦領域を再設定し(ステップS14)、ステップS2〜S6,S13の処理を繰り返す。   When the peak detection of the contrast value for all the in-focus areas is completed, the control unit 49 determines whether or not there is an in-focus area in which the peak value of the contrast value exceeds the in-focus determination threshold in step S13. . If it does not exist, the focus area setting unit 42 sets or expands a new focus area around the focus area set in step S11, and resets the focus area (step S14). The processes in steps S2 to S6 and S13 are repeated.

コントラスト値のピークが合焦判定閾値を超えた合焦領域が存在する場合には、制御部49は、これらの合焦領域のうち、ユーザが予め設定した合焦領域に最も近い合焦領域を選択し、選択した合焦領域について求めたコントラストピークのレンズ位置を合焦位置演算制御部45に与える。これにより、合焦位置演算制御部45は、モータドライバ46を制御して対物レンズ11のレンズ位置を合焦位置に移動させる。   When there is an in-focus area where the peak of the contrast value exceeds the in-focus determination threshold, the control unit 49 selects an in-focus area that is closest to the in-focus area set in advance by the user. Then, the lens position of the contrast peak obtained for the selected in-focus area is given to the in-focus position calculation control unit 45. Thereby, the focus position calculation control unit 45 controls the motor driver 46 to move the lens position of the objective lens 11 to the focus position.

例えば、顕微鏡10によって図10の観察視野範囲90が得られているものとする。観察視野範囲90は、図6の観察視野範囲70から少しずれた範囲であり、その観察画像91は、血管73が観察視野範囲90の中央から若干ずれた領域に存在することを示している。また、図10は合焦領域設定部42が、ステップS11において、ユーザにより指定された合焦領域62及びその周辺の8つの合焦領域92a〜92hを設定することを示している。   For example, it is assumed that the observation visual field range 90 of FIG. The observation visual field range 90 is a range slightly deviated from the observation visual field range 70 in FIG. 6, and the observation image 91 indicates that the blood vessel 73 exists in a region slightly deviated from the center of the observation visual field range 90. FIG. 10 shows that the focus area setting unit 42 sets the focus area 62 designated by the user and the eight focus areas 92a to 92h in the vicinity thereof in step S11.

図10の例では、合焦領域92d,92g,92hにおいて血管73が通過しており、これらの合焦領域92d,92g,92hのコントラスト値のみが合焦判定閾値を超えるものと考えられる。また、血管73の多くの部分が領域内を通過することから、合焦領域92dのコントラスト値が他の合焦領域92g,92hのコントラスト値よりも高いものと考えられる。しかしこの場合でも、合焦領域92gがユーザ設定の合焦領域62に最も近いので、制御部49は、ステップS15において合焦領域92gを選択し、合焦位置演算制御部45を制御して、合焦領域92gについて求めたコントラストピークのレンズ位置を用いて、合焦位置を決定させる。   In the example of FIG. 10, the blood vessel 73 passes through the focus areas 92d, 92g, and 92h, and it is considered that only the contrast values of these focus areas 92d, 92g, and 92h exceed the focus determination threshold value. In addition, since many portions of the blood vessel 73 pass through the region, it is considered that the contrast value of the in-focus region 92d is higher than the contrast values of the other in-focus regions 92g and 92h. However, even in this case, since the in-focus area 92g is closest to the in-focus area 62 set by the user, the control unit 49 selects the in-focus area 92g in step S15 and controls the in-focus position calculation control unit 45, The focus position is determined using the lens position of the contrast peak obtained for the focus area 92g.

このように、図9の例では、全ての合焦領域のコントラスト値を同時に求めることができ、合焦動作における処理時間を短縮することができる。また、ユーザ設定の合焦領域からの距離によって合焦領域を選択しており、ユーザが意図した合焦状態を得やすい。   Thus, in the example of FIG. 9, the contrast values of all the in-focus areas can be obtained simultaneously, and the processing time in the in-focus operation can be shortened. Further, since the focus area is selected based on the distance from the focus area set by the user, it is easy to obtain the focus state intended by the user.

(第2の実施の形態)
図11は本発明の第2の実施の形態を示す構成図である。図11において図1と同一の構成要素には同一符号を付して説明を省略する。本実施の形態は、顕微鏡10が右目用及び左目用の観察画像を取得可能であることを利用して、位相差法によるフォーカス制御を行うものである。なお、顕微鏡が2次元用のものである場合でも、撮像部がオートフォーカス用のAF画素を有している場合や位相検出用のセンサを有していれば、本実施の形態を適用可能である。
(Second Embodiment)
FIG. 11 is a block diagram showing a second embodiment of the present invention. In FIG. 11, the same components as those in FIG. In the present embodiment, focus control by the phase difference method is performed using the fact that the microscope 10 can acquire observation images for the right eye and the left eye. Even when the microscope is a two-dimensional one, this embodiment can be applied if the imaging unit has an AF pixel for autofocus or a sensor for phase detection. is there.

本実施の形態における医療用観察装置100は、合焦領域設定部42、コントラスト演算部43及び合焦位置演算制御部45に代えて夫々合焦領域設定部102、位相差演算部103及び合焦位置演算制御部105を用いたAF制御部101を採用した点が第1の実施の形態と異なる。   The medical observation apparatus 100 according to the present embodiment replaces the focus area setting unit 42, the contrast calculation unit 43, and the focus position calculation control unit 45 with the focus area setting unit 102, the phase difference calculation unit 103, and the focus, respectively. The point which employ | adopted AF control part 101 using the position calculation control part 105 differs from 1st Embodiment.

本実施の形態においては、合焦領域設定部102は、右目用の観察画像と左目用の観察画像とで異なる合焦領域を検波部41に設定する。例えば、合焦領域設定部102は、右目又は左目用の観察画像のいずれか一方に対して、比較的広い合焦領域である基準合焦領域を設定すると共に、他方の観察画像に対して比較的狭い合焦領域である比較合焦領域を設定する。   In the present embodiment, the focusing area setting unit 102 sets different focusing areas in the detection unit 41 for the observation image for the right eye and the observation image for the left eye. For example, the in-focus area setting unit 102 sets a reference in-focus area that is a relatively wide in-focus area for either one of the observation images for the right eye or the left eye, and compares it with the other observation image. A comparative focusing area, which is a narrow focusing area, is set.

検波部41は、右目用及び左目用に夫々設定された基準及び比較合焦領域の映像信号を検波して検波結果を位相差演算部103に出力する。位相差演算部103は、比較合焦領域が設定された観察画像に対する検波結果(以下、比較検波結果という)を基準合焦領域が設定された観察画像に対する検波結果(以下、基準検波結果という)上でシフトさせながら、基準検波結果と比較検波結果との一致比較を行う。即ち、位相差演算部103は、比較検波結果が基準合焦領域のうちのいずれの領域の基準検波結果に一致するかを求め、一致した領域と比較合焦領域との位置のずれを位相差として検出する。なお、位相差演算部103は、例えば、輝度分布や色毎のレベル分布等によって一致を判定する。   The detection unit 41 detects video signals in the reference and comparison focus areas set for the right eye and the left eye, respectively, and outputs the detection result to the phase difference calculation unit 103. The phase difference calculation unit 103 detects a detection result (hereinafter referred to as a comparative detection result) for the observation image in which the comparative focus area is set (hereinafter referred to as a reference detection result) for the observation image in which the reference focus area is set. While shifting up, the comparison between the reference detection result and the comparative detection result is performed. That is, the phase difference calculation unit 103 obtains which of the reference in-focus areas the reference detection result matches with the reference detection result, and calculates the position shift between the matched area and the comparison in-focus area as the phase difference. Detect as. Note that the phase difference calculation unit 103 determines a match based on, for example, a luminance distribution or a level distribution for each color.

位相差演算部103が求めた位相差は、顕微鏡10のピントずれに対応する。位相差演算部103が求めた位相差の情報は、制御部49を介して合焦位置演算部104に与えられる。合焦位置演算制御部104は、位相差演算部103が求めた位相差に基づいて合焦位置を演算して求める。合焦位置演算制御部104は、モータドライバ46を制御して対物レンズ11を進退移動させて合焦位置に移動させる。これにより、顕微鏡10は合焦状態となる。   The phase difference obtained by the phase difference calculation unit 103 corresponds to the focus shift of the microscope 10. Information on the phase difference obtained by the phase difference calculation unit 103 is given to the in-focus position calculation unit 104 via the control unit 49. The in-focus position calculation control unit 104 calculates and determines the in-focus position based on the phase difference obtained by the phase difference calculation unit 103. The in-focus position calculation control unit 104 controls the motor driver 46 to move the objective lens 11 forward and backward to move to the in-focus position. As a result, the microscope 10 is brought into focus.

ところで、位相差演算部103は、基準合焦領域及び比較合焦領域の両方の領域に、合焦に必要な特徴点を有する観察画像が含まれることによって、一致比較が可能である。しかし、比較合焦領域を比較的広い領域に設定した場合には、基準合焦領域及び比較合焦領域の両方に、似通った多くの特徴点を有する観察画像が含まれることとなり、一致比較が困難となる可能性がある。そこで、比較合焦領域については、比較的狭い領域に設定することで、比較合焦領域内に含まれる特徴点を少なくなるようにして、位相差の検出精度を向上させる。   By the way, the phase difference calculation unit 103 can perform coincidence comparison by including observation images having feature points necessary for focusing in both the reference focusing area and the comparative focusing area. However, when the comparative focusing area is set to a relatively wide area, both the reference focusing area and the comparative focusing area include observation images having many similar feature points, and matching comparison is performed. It can be difficult. Therefore, the comparative focus area is set to a relatively narrow area so that the number of feature points included in the comparative focus area is reduced, and the phase difference detection accuracy is improved.

しかしながら、基準合焦領域として十分広い合焦領域を設定することで合焦に必要な特徴点を有する観察画像が基準合焦領域内に含まれる可能性が高い一方、比較合焦領域は比較的狭い領域に設定されることから、合焦に必要な特徴点を有する観察画像が含まれない可能性がある。この場合には、位相差演算部103において正しい位相差を検出することができない。   However, by setting a sufficiently wide focusing area as the reference focusing area, an observation image having a feature point necessary for focusing is likely to be included in the reference focusing area, while the comparative focusing area is relatively Since it is set to a narrow area, there is a possibility that an observation image having a feature point necessary for focusing is not included. In this case, the phase difference calculation unit 103 cannot detect a correct phase difference.

そこで、本実施の形態においては、制御部49は、位相差演算部103の演算結果が、比較合焦領域の全てのシフト位置において所定の閾値に到達しない場合には、位相差検出が不能であるものと判定して、判定結果を合焦領域設定部102に与えるようになっている。   Therefore, in the present embodiment, the control unit 49 cannot detect the phase difference when the calculation result of the phase difference calculation unit 103 does not reach a predetermined threshold at all the shift positions in the comparison focus area. It is determined that there is, and the determination result is given to the in-focus area setting unit 102.

合焦領域設定部102は、位相差検出が不能であると判定された場合には、比較合焦領域をシフト又は広げることで、合焦に必要な特徴点を有する観察画像が比較合焦領域にも含まれるように制御するようになっている。   When it is determined that the phase difference cannot be detected, the focusing area setting unit 102 shifts or widens the comparison focusing area so that the observation image having the feature points necessary for focusing is compared with the comparison focusing area. It is designed to be included in.

次に、このように構成された実施の形態の動作について図12乃至図14を参照して説明する。図12は合焦動作を説明するためのフローチャートである。図13及び図14は位相差法による合焦動作を説明するための説明図である。図13は比較合焦領域に特徴点が含まれる場合の例を示している。   Next, the operation of the embodiment configured as described above will be described with reference to FIGS. FIG. 12 is a flowchart for explaining the focusing operation. 13 and 14 are explanatory diagrams for explaining the focusing operation by the phase difference method. FIG. 13 shows an example in which a feature point is included in the comparative focus area.

図13(a)は左目用の観察視野範囲111Lを示しており、図13(b)は右目用の観察視野範囲111Rを示している。観察視野範囲111Lの観察画像112Lは、例えば脳実質113Lの一部に血管114Lが存在することを示している。同様に、観察視野範囲111Rの観察画像112Rは、例えば脳実質113Rの一部に血管114Rが存在することを示している。脳実質113L,113Rは相互に同一の観察物であり、血管114L,114Rも相互に同一の観察物である。観察視野範囲111L,111R上における各観察物の位置のずれ(位相差)が、ピントのずれ量に対応する。   FIG. 13A shows an observation visual field range 111L for the left eye, and FIG. 13B shows an observation visual field range 111R for the right eye. The observation image 112L in the observation visual field range 111L indicates, for example, that the blood vessel 114L exists in a part of the brain parenchyma 113L. Similarly, the observation image 112R in the observation visual field range 111R indicates that the blood vessel 114R exists in a part of the brain parenchyma 113R, for example. The brain parenchyma 113L and 113R are the same observation object, and the blood vessels 114L and 114R are also the same observation object. The positional shift (phase difference) of each observation object on the observation visual field ranges 111L and 111R corresponds to the focus shift amount.

この位相差を検出するために、合焦領域設定部102は、図12のステップS21において、基準合焦領域及び比較合焦領域を設定する。図13の例では、左目用の観察視野範囲111Lに基準合焦領域115Lを設定し、右目用の観察視野範囲111Rに基準合焦領域115Rを設定した例を示している。   In order to detect this phase difference, the focusing area setting unit 102 sets a reference focusing area and a comparative focusing area in step S21 of FIG. The example of FIG. 13 shows an example in which the reference focusing area 115L is set in the observation visual field range 111L for the left eye and the reference focusing area 115R is set in the observation visual field range 111R for the right eye.

検波部41は、これらの合焦領域115L,115Rの映像信号を検波して検波結果を位相差演算部103に出力する(ステップS22)。図13(c)は合焦領域115L,115Rの検波結果を画像によって示している。基準合焦領域115Lにおいては、略中央に血管114Lの画像部分114Laが含まれる。一方、比較合焦領域115Rにおいては、右端に血管114Rの画像部分114Raが含まれる。位相差演算部103は、ステップS23において、比較合焦領域115Rの検波結果を例えば画素単位でステップ移動させながら、同一サイズの基準合焦領域115Lの検波結果との一致比較を行う。   The detection unit 41 detects the video signals in the focus areas 115L and 115R and outputs the detection result to the phase difference calculation unit 103 (step S22). FIG. 13C shows the detection results of the in-focus areas 115L and 115R as images. In the reference focusing area 115L, the image portion 114La of the blood vessel 114L is included in the approximate center. On the other hand, the comparison focus area 115R includes the image portion 114Ra of the blood vessel 114R at the right end. In step S23, the phase difference calculation unit 103 performs a coincidence comparison with the detection result of the reference focusing area 115L of the same size while moving the detection result of the comparative focusing area 115R step by pixel, for example.

図13(c)の破線に示す範囲に、比較合焦領域115Rの検波結果をステップ移動させることにより、同一サイズの基準合焦領域115Lの検波結果と一致する。この場合の移動量が位相差に相当する。位相差演算部103は求めた位相差を合焦位置演算制御部104に出力する。なお、制御部49は、一致演算の演算結果が所定の閾値に到達しなかった場合には、ステップS24において位相差が検出不能であるものと判定する。   By moving the detection result of the comparative in-focus area 115R stepwise to the range indicated by the broken line in FIG. 13C, the detection result of the reference in-focus area 115L of the same size is matched. The amount of movement in this case corresponds to the phase difference. The phase difference calculation unit 103 outputs the obtained phase difference to the focus position calculation control unit 104. In addition, when the calculation result of the coincidence calculation does not reach the predetermined threshold value, the control unit 49 determines that the phase difference cannot be detected in step S24.

位相差が検出できた場合には、合焦位置演算制御部104は、位相差演算部103が求めた位相差からピントのずれ量を演算し合焦位置を求める(ステップS25)。合焦位置演算制御部104は、ステップS26において、モータドライバ46を制御して対物レンズ11を進退移動させて合焦位置に移動させる。こうして、顕微鏡10を合焦状態にすることができる。   When the phase difference can be detected, the in-focus position calculation control unit 104 calculates the focus shift amount from the phase difference obtained by the phase difference calculation unit 103, and obtains the in-focus position (step S25). In step S26, the focus position calculation control unit 104 controls the motor driver 46 to move the objective lens 11 forward and backward to move to the focus position. Thus, the microscope 10 can be brought into focus.

図13は合焦領域設定部102が最初に設定した比較合焦領域に血管等の特徴点の観察画像が含まれる例を示した。しかし、観察視野範囲や倍率によっては、基準合焦領域に特徴点が含まれていても比較合焦領域には特徴点が含まれないこともある。或いは、図13の状態から倍率を上げた場合には、比較合焦領域に特徴点が含まれなくなることもある。   FIG. 13 shows an example in which an observation image of a feature point such as a blood vessel is included in the comparison focus area initially set by the focus area setting unit 102. However, depending on the observation visual field range and magnification, even if feature points are included in the reference focus region, the feature points may not be included in the comparative focus region. Alternatively, when the magnification is increased from the state of FIG. 13, the feature point may not be included in the comparative focus area.

図14はこの場合の例を示しており、図14(a),(b)は図13(a),(b)の状態から倍率を高くした場合の観察視野範囲121L,121Rを示している。観察画像112Lは拡大されて観察画像122Lとなり、観察画像112Rは拡大されて観察画像122Rとなっている。また、拡大の結果、血管114Lは血管124Lとして観察され、血管114Rは血管124Rとして観察される。このため、基準合焦領域115Lには、血管124Lの特徴点が含まれる一方、比較合焦領域115Rには、血管124Rの特徴点が含まれなくなる。   FIG. 14 shows an example of this case, and FIGS. 14A and 14B show the observation visual field ranges 121L and 121R when the magnification is increased from the state of FIGS. 13A and 13B. . The observation image 112L is enlarged to become an observation image 122L, and the observation image 112R is enlarged to become an observation image 122R. As a result of the enlargement, the blood vessel 114L is observed as the blood vessel 124L, and the blood vessel 114R is observed as the blood vessel 124R. For this reason, the reference focusing area 115L includes the feature points of the blood vessel 124L, while the comparative focusing area 115R does not include the feature points of the blood vessel 124R.

この場合には、位相差演算部103の演算結果は所定の閾値に到達せず、制御部49は、ステップS24において位相差検出が不能であるものと判定して、判定結果を合焦領域設定部102に出力する。合焦領域設定部102は、ステップS27において、比較合焦領域を拡大させる。   In this case, the calculation result of the phase difference calculation unit 103 does not reach the predetermined threshold value, and the control unit 49 determines that the phase difference detection is impossible in step S24, and sets the determination result as the focus area setting. Output to the unit 102. In step S27, the focusing area setting unit 102 enlarges the comparison focusing area.

図14(c)は、比較合焦領域115Rが比較合焦領域125Rに拡大されたことを示している。この比較合焦領域125Rには、血管124Rのエッジ部分が特徴点として含まれている。これにより位相差演算部103によって位相差の検出が可能となり、ステップS22,S23によって、位相差が検出され、ステップS25,S26において、合焦位置の演算及び合焦位置への対物レンズ11の移動が行われる。   FIG. 14C shows that the comparative focusing area 115R is expanded to the comparative focusing area 125R. This comparative focusing area 125R includes the edge portion of the blood vessel 124R as a feature point. Accordingly, the phase difference can be detected by the phase difference calculation unit 103, and the phase difference is detected in steps S22 and S23. In steps S25 and S26, the calculation of the in-focus position and the movement of the objective lens 11 to the in-focus position are performed. Is done.

このように本実施の形態においては、位相差法を用いたフォーカス制御において、位相差検出のための合焦領域を設定すると共に、この合焦領域に特徴点が含まれるように合焦領域を次第に広げながら位相差検出を行うよう制御される。これにより、確実な位相差検出を可能にして、合焦状態を設定することが可能である。例えば、拡大倍率を高くした場合等においても、合焦領域が拡大されて位相差検出が行われるので、合焦状態を確実に維持することが可能である。また、位相差法による高速なフォーカス制御が可能であるという利点もある。   As described above, in the present embodiment, in the focus control using the phase difference method, the focus area for detecting the phase difference is set, and the focus area is set so that the feature point is included in the focus area. Control is performed to detect the phase difference while gradually expanding. As a result, it is possible to reliably detect the phase difference and set the in-focus state. For example, even when the enlargement magnification is increased, the in-focus state is enlarged and the phase difference is detected, so that the in-focus state can be reliably maintained. In addition, there is an advantage that high-speed focus control by the phase difference method is possible.

(第3の実施の形態)
図15は本発明の第3の実施の形態を示す構成図である。図15において図1及び図11と同一の構成要素には同一符号を付して説明を省略する。本実施の形態は、第1の実施の形態におけるコントラスト法によるフォーカス制御と、第2の実施の形態における位相差法によるフォーカス制御を組み合わせたものである。
(Third embodiment)
FIG. 15 is a block diagram showing a third embodiment of the present invention. 15, the same components as those in FIGS. 1 and 11 are denoted by the same reference numerals, and the description thereof is omitted. This embodiment is a combination of the focus control by the contrast method in the first embodiment and the focus control by the phase difference method in the second embodiment.

本実施の形態における医療用観察装置130は、合焦領域設定部42,102の機能を有する合焦領域設定部132、コントラスト演算部43及び位相差演算部103の機能を有するコントラスト・位相差演算部133、合焦位置演算制御部45,105の機能を有する合焦位置演算制御部135を用いたAF制御部131を採用した点が第1及び第2の実施の形態と異なる。   The medical observation apparatus 130 in the present embodiment has a contrast / phase difference calculation having the functions of the focus area setting unit 132 having the functions of the focus area setting units 42 and 102, the contrast calculation unit 43, and the phase difference calculation unit 103. The point which employ | adopted AF control part 131 using the focus position calculation control part 135 which has the function of the part 133 and the focus position calculation control parts 45 and 105 differs from 1st and 2nd embodiment.

次にこのように構成された実施の形態の動作について図16のフローチャートを参照して説明する。   Next, the operation of the embodiment configured as described above will be described with reference to the flowchart of FIG.

本実施の形態においては、コントラスト法によるフォーカス制御時の動作は第1の実施の形態と同様であり、位相差法によるフォーカス制御時の動作は第2の実施の形態と同様である。本実施の形態においては、コントラスト法と位相差法とを図16のフローチャートに従って切換えるようになっている。   In this embodiment, the operation at the time of focus control by the contrast method is the same as that of the first embodiment, and the operation at the time of focus control by the phase difference method is the same as that of the second embodiment. In the present embodiment, the contrast method and the phase difference method are switched according to the flowchart of FIG.

位相差法においては、コントラスト法に比べて高速なフォーカス制御が可能である。一方、コントラスト法は、位相差法に比べて高い精度のフォーカス制御が可能である。そこで、本実施の形態においては、先ず位相差法を先に採用して高速なフォーカス制御を可能にする。位相差法による制御によって、対物レンズ11は、略コントラストピークが得られる位置近傍に位置することになり、この位置近傍のみで対物レンズ11を移動させてコントラスト法を採用することにより、比較的短時間に高精度のフォーカス制御が可能となる。   In the phase difference method, focus control can be performed at a higher speed than in the contrast method. On the other hand, the contrast method can perform focus control with higher accuracy than the phase difference method. Therefore, in the present embodiment, the phase difference method is first adopted to enable high-speed focus control. By the control by the phase difference method, the objective lens 11 is positioned in the vicinity of a position where a substantially contrast peak is obtained. By adopting the contrast method by moving the objective lens 11 only in the vicinity of this position, the objective lens 11 is relatively short. High-precision focus control is possible over time.

先ず、ステップS31において、合焦領域設定部132は、例えば図10等で示したコントラスト法による複数の合焦領域を設定すると共に、図13等で示した位相差法による合焦領域を設定する。検波部41は設定された合焦領域の映像信号を検波し、検波結果をコントラスト・位相差演算部133に出力する。コントラスト・位相差演算部133は、ステップS33においてコントラスト値及び位相差を求める。なお、ステップS33では、コントラスト値については、所定の対物レンズ位置のコントラスト値のみが求まる。   First, in step S31, the focus area setting unit 132 sets, for example, a plurality of focus areas by the contrast method shown in FIG. 10 and the like, and sets a focus area by the phase difference method shown in FIG. . The detection unit 41 detects the video signal in the set focus area and outputs the detection result to the contrast / phase difference calculation unit 133. The contrast / phase difference calculator 133 obtains the contrast value and the phase difference in step S33. In step S33, only the contrast value at a predetermined objective lens position is obtained as the contrast value.

制御部49は、ステップS34においてコントラスト・位相差演算部133によって位相差が検出できたか否かを判定する。位相差が検出できなかった場合には、ステップS38,S39を経て、合焦領域設定部132は、図14に示したように、比較合焦領域を広げる。こうして、コントラスト・位相差演算部133において位相差が検出できると、ステップS34,S35を経てステップS36に処理が移行し、合焦位置演算制御部135は位相差に基づき合焦位置を算出し、ステップS37においてモータドライバ46を制御して、対物レンズ11を合焦位置に移動させる。   The control unit 49 determines whether or not the phase difference is detected by the contrast / phase difference calculation unit 133 in step S34. When the phase difference cannot be detected, the focus area setting unit 132 widens the comparison focus area as shown in FIG. 14 through steps S38 and S39. When the phase difference can be detected in the contrast / phase difference calculation unit 133 in this way, the process proceeds to step S36 through steps S34 and S35, and the focus position calculation control unit 135 calculates the focus position based on the phase difference, In step S37, the motor driver 46 is controlled to move the objective lens 11 to the in-focus position.

このように、位相差法を採用することにより、レンズ位置を移動させることなく高速での合焦位置演算が可能となる。しかしながら、対物レンズ11の位置によっては、ピントのずれが大きく、画像が大きくボケて、合焦領域を広げても位相差を検出することができないことがある。   In this way, by adopting the phase difference method, it is possible to calculate the in-focus position at high speed without moving the lens position. However, depending on the position of the objective lens 11, there may be a case where the focus difference is large, the image is greatly blurred, and the phase difference cannot be detected even if the in-focus area is widened.

この場合には、位相差法によるフォーカス制御から、コントラスト法によるフォーカス制御に切換える。即ち、処理はステップS34からステップS38,39,S45を経てステップS46に移行して、合焦位置演算制御部135は、対物レンズ11を移動させる。次いで、ステップS32,S33が繰り返される。   In this case, the focus control by the phase difference method is switched to the focus control by the contrast method. That is, the process proceeds from step S34 to steps S46 through steps S38, 39, and S45, and the focus position calculation control unit 135 moves the objective lens 11. Next, steps S32 and S33 are repeated.

なお、ステップS46の対物レンズ移動処理においては、直前のコントラスト値との比較からコントラスト値の変化方向が検出され、コントラスト値が増加する方向に対物レンズ11を移動させるように移動方向の制御が行われる。こうして、コントラスト法によって、対物レンズ11が合焦位置に近づくと、再び位相差が検出可能となることがある。この場合には、処理がステップS38からステップS40に移行して比較合焦領域を初期化して狭くした後、ステップS32,S33が繰り返される。こうして、再度、位相差法によるフォーカス制御が行われて、比較的高速に合焦状態に移行する。   In the objective lens movement process in step S46, the change direction of the contrast value is detected from the comparison with the previous contrast value, and the movement direction is controlled so as to move the objective lens 11 in the direction in which the contrast value increases. Is called. Thus, when the objective lens 11 approaches the in-focus position by the contrast method, it may be possible to detect the phase difference again. In this case, the process proceeds from step S38 to step S40, the comparison focus area is initialized and narrowed, and then steps S32 and S33 are repeated. Thus, focus control by the phase difference method is performed again, and the focus state is shifted to a relatively high speed.

ステップS37において、位相差法によって合焦が得られた場合、或いはコントラスト法によるフォーカス制御途中で位相差検出可能にならなかった場合には、コントラスト法によるフォーカス制御が新たに又は継続して行われる。即ち、ステップS37,S35,S39から処理がステップS45に移行し、ピークが検出されるまで、対物レンズ11が移動制御される(ステップS46)。ピークが検出されると、合焦位置演算制御部135は、ステップS47においてコントラスト法による合焦位置演算を行い、モータドライバ46を制御して対物レンズ11を合焦位置に移動させる(ステップS48)。これにより、高精度のフォーカス制御が行われることになる。   In step S37, when focus is obtained by the phase difference method, or when phase difference cannot be detected during focus control by the contrast method, focus control by the contrast method is newly or continuously performed. . That is, the process proceeds from step S37, S35, S39 to step S45, and the objective lens 11 is controlled to move until a peak is detected (step S46). When the peak is detected, the focus position calculation control unit 135 performs focus position calculation by the contrast method in step S47, and controls the motor driver 46 to move the objective lens 11 to the focus position (step S48). . Thereby, high-precision focus control is performed.

このように本実施の形態においては、第1及び第2の実施の形態と同様の効果が得られると共に、位相差法による高速なフォーカス制御と、コントラスト法による高精度のフォーカス制御とを組み合わせることで、高速且つ高精度のフォーカス制御を可能にすることができる。   As described above, in this embodiment, the same effects as those of the first and second embodiments can be obtained, and high-speed focus control by the phase difference method and high-precision focus control by the contrast method are combined. Thus, high-speed and high-precision focus control can be realized.

また、本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Further, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.


本出願は、2013年6月24日に日本国に出願された特願2013−131723号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。

This application is filed on the basis of the priority claim of Japanese Patent Application No. 2013-131723 filed in Japan on June 24, 2013, and the above disclosed contents include the present specification, claims, It shall be cited in the drawing.

Claims (1)

右目用及び左目用の光学像を結像する対物レンズを有する対物光学系と、
前記対物光学系により結像された前記右目用及び左目用の光学像を撮像して右目用の映像信号及び左目用の映像信号を生成する撮像部と、
前記右目用の映像信号があらわす右目用画像と、前記左目用の映像信号があらわす左目用画像とのいずれか一方の画像に対して所定の大きさの基準領域を設定するとともに、他方の画像に対して前記基準領域よりも小さい大きさの比較領域を設定する領域設定部と、
前記基準領域内の映像信号及び前記比較領域内の映像信号を検波する検波部と、
前記基準領域の中から前記比較領域のサイズと等しい大きさに切り出した切り出し領域の検波結果と、前記比較領域の検波結果とを比較し、該比較結果が一致するまで前記切り出し領域を所定の移動方向に沿って移動させながら比較を行い、前記基準領域内の検波結果に一致させるために要した前記切り出し領域の移動量を前記右目用画像と左目用画像との位相差として算出する位相差演算部と、
前記位相差に基づいて前記対物レンズの合焦位置を算出する合焦位置演算部と、
前記対物レンズを駆動して前記合焦位置演算部によって算出された合焦位置に移動させる対物レンズ駆動部と、
を具備し、
前記領域設定部は、前記位相差演算部による演算結果によって前記基準領域の全範囲において前記比較領域との検波結果が一致しなかった場合、前記比較領域の前記移動方向における大きさを拡大させるように前記比較領域の大きさを設定することを特徴とするオートフォーカス装置。
An objective optical system having an objective lens for forming optical images for the right eye and the left eye;
An imaging unit that captures the right-eye and left-eye optical images formed by the objective optical system to generate a right-eye video signal and a left-eye video signal;
A reference area having a predetermined size is set for one of the image for the right eye represented by the video signal for the right eye and the image for the left eye represented by the video signal for the left eye, and the other image An area setting unit for setting a comparison area having a size smaller than the reference area,
A detector for detecting the video signal in the reference region and the video signal in the comparison region;
The detection result of the cutout area cut out from the reference area to the same size as the comparison area is compared with the detection result of the comparison area, and the cutout area is moved by a predetermined amount until the comparison result matches. A phase difference calculation that performs a comparison while moving along a direction, and calculates a movement amount of the cutout region required to match the detection result in the reference region as a phase difference between the right-eye image and the left-eye image And
A focus position calculator that calculates a focus position of the objective lens based on the phase difference;
An objective lens driving unit that drives the objective lens to move to the in-focus position calculated by the in-focus position calculation unit;
Equipped with,
The region setting unit enlarges the size of the comparison region in the moving direction when the detection result with the comparison region does not match in the entire range of the reference region according to the calculation result of the phase difference calculation unit. And setting the size of the comparison area .
JP2014559024A 2013-06-24 2014-05-21 Autofocus device Active JP5792401B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014559024A JP5792401B2 (en) 2013-06-24 2014-05-21 Autofocus device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013131723 2013-06-24
JP2013131723 2013-06-24
JP2014559024A JP5792401B2 (en) 2013-06-24 2014-05-21 Autofocus device
PCT/JP2014/063496 WO2014208224A1 (en) 2013-06-24 2014-05-21 Autofocus device

Publications (2)

Publication Number Publication Date
JP5792401B2 true JP5792401B2 (en) 2015-10-14
JPWO2014208224A1 JPWO2014208224A1 (en) 2017-02-23

Family

ID=52141576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014559024A Active JP5792401B2 (en) 2013-06-24 2014-05-21 Autofocus device

Country Status (2)

Country Link
JP (1) JP5792401B2 (en)
WO (1) WO2014208224A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3851894A1 (en) * 2020-01-20 2021-07-21 CellaVision AB System and method for digital microscopy imaging

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6525809B2 (en) * 2015-08-18 2019-06-05 キヤノン株式会社 Focus detection apparatus and control method thereof
JP7255288B2 (en) * 2019-03-29 2023-04-11 ソニーグループ株式会社 Image processing system, image processing apparatus, and image processing method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6317416A (en) * 1986-06-09 1988-01-25 Minolta Camera Co Ltd Focus detecting device
JPH085905A (en) * 1995-01-17 1996-01-12 Canon Inc Camera with focus detecting device
JP2000102040A (en) * 1998-09-28 2000-04-07 Olympus Optical Co Ltd Electronic stereo camera
JP2001092968A (en) * 1999-09-22 2001-04-06 Fuji Heavy Ind Ltd Device and method for stereo matching and method for specifying corresponding infinite-point
JP2001203883A (en) * 2000-01-21 2001-07-27 Sharp Corp Image processor
JP2009014445A (en) * 2007-07-03 2009-01-22 Konica Minolta Holdings Inc Range finder
JP2013041103A (en) * 2011-08-15 2013-02-28 Canon Inc Image pickup apparatus, control method thereof, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0529015U (en) * 1991-09-27 1993-04-16 株式会社ニコン Autofocus camera
JP4747003B2 (en) * 2005-06-22 2011-08-10 富士フイルム株式会社 Automatic focusing control device and control method thereof
JP2007310004A (en) * 2006-05-16 2007-11-29 Citizen Holdings Co Ltd Automatic focusing apparatus
JP2009210815A (en) * 2008-03-04 2009-09-17 Olympus Imaging Corp Automatic focus adjustment device
JP5149467B2 (en) * 2010-08-30 2013-02-20 オリンパスメディカルシステムズ株式会社 Endoscope device
JP5973708B2 (en) * 2011-10-21 2016-08-23 オリンパス株式会社 Imaging apparatus and endoscope apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6317416A (en) * 1986-06-09 1988-01-25 Minolta Camera Co Ltd Focus detecting device
JPH085905A (en) * 1995-01-17 1996-01-12 Canon Inc Camera with focus detecting device
JP2000102040A (en) * 1998-09-28 2000-04-07 Olympus Optical Co Ltd Electronic stereo camera
JP2001092968A (en) * 1999-09-22 2001-04-06 Fuji Heavy Ind Ltd Device and method for stereo matching and method for specifying corresponding infinite-point
JP2001203883A (en) * 2000-01-21 2001-07-27 Sharp Corp Image processor
JP2009014445A (en) * 2007-07-03 2009-01-22 Konica Minolta Holdings Inc Range finder
JP2013041103A (en) * 2011-08-15 2013-02-28 Canon Inc Image pickup apparatus, control method thereof, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3851894A1 (en) * 2020-01-20 2021-07-21 CellaVision AB System and method for digital microscopy imaging

Also Published As

Publication number Publication date
WO2014208224A1 (en) 2014-12-31
JPWO2014208224A1 (en) 2017-02-23

Similar Documents

Publication Publication Date Title
US11835702B2 (en) Medical image processing apparatus, medical image processing method, and medical observation system
JP5284731B2 (en) Stereoscopic image display system
CN108697308B (en) Image processing apparatus, image processing method, and recording medium
JP5178553B2 (en) Imaging device
WO2015186339A1 (en) Image processing apparatus and image processing method
US20140111628A1 (en) Focus control device, endoscope device, and focus control method
JP2020114491A (en) Surgical microscope having data unit and method for overlaying images
US10827906B2 (en) Endoscopic surgery image processing apparatus, image processing method, and program
JP6574448B2 (en) Endoscope apparatus and focus control method for endoscope apparatus
WO2020095366A1 (en) Imaging device, endoscope device, and method for operating imaging device
JP2017038285A (en) Medical treatment observation device, controller, and operation method and operation program of controller
WO2017221507A1 (en) Endoscope system
US20210019921A1 (en) Image processing device, image processing method, and program
JPWO2017138209A1 (en) Medical image processing apparatus, system, method and program
JP5792401B2 (en) Autofocus device
JP2015220643A (en) Stereoscopic observation device
JP2014175965A (en) Camera for surgical operation
JP2013043007A (en) Focal position controller, endoscope, and focal position control method
JP4668581B2 (en) Surgical microscope
JP2003334160A (en) Stereoscopic endoscope system
JP7207296B2 (en) IMAGING DEVICE, FOCUS CONTROL METHOD, AND FOCUS DETERMINATION METHOD
CN112970242B (en) Imaging device, endoscope device, and method for operating imaging device
JP6045280B2 (en) Imaging device
EP4205691A1 (en) Medical image processing device and medical observation system
JP6882016B2 (en) Imaging device, imaging system, imaging device control method, and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150805

R151 Written notification of patent or utility model registration

Ref document number: 5792401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250