WO2015012096A1 - 医療用観察装置 - Google Patents

医療用観察装置 Download PDF

Info

Publication number
WO2015012096A1
WO2015012096A1 PCT/JP2014/068097 JP2014068097W WO2015012096A1 WO 2015012096 A1 WO2015012096 A1 WO 2015012096A1 JP 2014068097 W JP2014068097 W JP 2014068097W WO 2015012096 A1 WO2015012096 A1 WO 2015012096A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
imaging
imaging unit
contrast
image
Prior art date
Application number
PCT/JP2014/068097
Other languages
English (en)
French (fr)
Inventor
哲郎 奈良
公 後田
塩田 敬司
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Publication of WO2015012096A1 publication Critical patent/WO2015012096A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/18Arrangements with more than one light path, e.g. for comparing two specimens
    • G02B21/20Binocular arrangements
    • G02B21/22Stereoscopic arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0012Surgical microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2423Optical details of the distal end
    • G02B23/243Objectives for endoscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals

Definitions

  • the present invention relates to a medical observation apparatus used in, for example, a surgical operation.
  • an endoscope is used for observing a surgical part such as a stomach part or an intestinal part of a subject, for example, a stomach part of a human body.
  • a surgical microscope is used for magnifying and observing the surgical site of the head.
  • Medical observation devices such as endoscopes and microscopes all pick up an image of the surgical site and display the image on a monitor.
  • three-dimensional (3D) imaging is performed using at least two observation optical systems, and an image of the surgical site acquired by this imaging is displayed as a 3D image of the surgical site that can be stereoscopically viewed. 3D imaging is progressing.
  • Some medical observation apparatuses are equipped with a focusing mechanism for focusing the observation optical system.
  • autofocus AF
  • AF autofocus
  • a focal position with respect to a subject is determined based on an image acquired by one of two observation optical systems on the left and right.
  • AF it is considered good to adopt a contrast method in order to reduce the size of a body such as an endoscope or a microscope.
  • contrast-type AF the contrast of a specific area in an image is obtained while driving the focus lens, the focus lens position where the contrast reaches a peak is found, and the focus lens is automatically driven and controlled at the focus lens position.
  • Such AF technology is disclosed in, for example, Patent Documents 1 to 3.
  • Patent Document 1 relates to an automatic focus adjustment apparatus that moves a focus lens to a focus position based on an AF evaluation value.
  • Patent Document 1 obtains an AF evaluation value based on a HIS data (hue, saturation, luminance) group, and manually selects a color state mode of a subject, for example, each mode of coloring, staining, or discoloration, and these modes. It is disclosed that the AF evaluation value calculation method is switched according to the above, and the focus adjustment can be performed with high accuracy in the optimum mode.
  • Patent Document 2 an observation image of a subject is divided into a plurality of areas, and focusing is performed based on a selected divided area among these divided areas.
  • Patent Document 2 determines a focus control exclusion area from a plurality of divided areas by selecting a predetermined change in an observation image for a predetermined period, and selects a focus control target area from a plurality of areas excluding these areas.
  • Patent Document 3 irradiates an observation target with illumination light including excitation light, acquires a fluorescence image of the observation target, acquires a reference image in a state where the observation target is not focused, and uses this reference image. Thus, it is disclosed that unnecessary information included in the reference image is suppressed by correcting the fluorescence image to obtain a fluorescence image having quantitative intensity information regardless of the angle and distance of the excitation light.
  • the contrast type AF has a drawback that it is difficult to match the AF when the contrast is low.
  • an enlarged image of, for example, a surgical part of the head is observed through a surgical microscope.
  • the enlarged image of the surgical part of the head has a main monotone color such as red or white.
  • red or white a main monotone color
  • the contrast of the image at the time of bleeding is lowered, and it is difficult to determine where the contrast peaks. As a result, it becomes difficult to drive and control the focus lens to the focus lens position.
  • ICG indocyanine green
  • the lens of one of the left and right observation optical systems may become dirty. In this case, an accurate AF operation cannot be performed. Even in such a state where the AF operation cannot be performed, the operation must be continued in an emergency. In a 3D medical observation apparatus that cannot perform an AF operation accurately, the usability is very poor.
  • An object of the present invention is to provide a medical observation apparatus capable of performing an AF operation reliably and accurately under any circumstances.
  • the medical observation apparatus acquires a plurality of imaging units that capture images of a subject and output image signals, and obtains focus information for the subject from the image signals output from the imaging unit.
  • a focus information acquisition unit a selection unit that selects the imaging unit suitable for focusing on the subject based on the focus information acquired by the focus information acquisition unit, and a selection unit selected by the selection unit
  • a focus control unit that performs focusing on the subject based on the image signal output from the imaging unit.
  • FIG. 1 is a block diagram showing a digestive tract videoscope to which a first embodiment of a medical observation apparatus according to the present invention is applied.
  • FIG. 2 is a diagram showing a change in contrast with respect to the movement amount of the focus lens on the normal light side acquired by the apparatus.
  • FIG. 3 is a diagram showing a change in contrast with respect to the focus lens movement amount on the IRI side acquired by the apparatus.
  • FIG. 4 is a block diagram showing a second embodiment of the 3D medical observation apparatus according to the present invention.
  • FIG. 5 is a diagram showing a large contrast change amount when the focus lens in the apparatus is moved by a preset distance.
  • FIG. 6 is a diagram illustrating a small contrast change amount when the focus lens in the apparatus is moved by a preset distance.
  • FIG. 7 is a schematic diagram showing each imaging range and each ranging point of the first and second imaging units when 3D imaging is performed by the same apparatus.
  • FIG. 8 is a schematic diagram showing a shift of a distance measuring point when 3D imaging is performed in the apparatus.
  • FIG. 9 is a schematic diagram showing a shift of a distance measuring point when 3D imaging is performed in the apparatus.
  • FIG. 10 is a configuration diagram showing a third embodiment of the medical observation apparatus according to the present invention.
  • FIG. 11A is a schematic diagram showing the amount of change in contrast with respect to the amount of movement of the focus lens of the image data acquired by the red monochromatic video signal Rt in the same apparatus.
  • FIG. 11B is a schematic diagram illustrating the amount of change in contrast with respect to the amount of movement of the focus lens of image data acquired from a green monochrome video signal in the same apparatus.
  • FIG. 11C is a schematic diagram illustrating the amount of change in contrast with respect to the amount of movement of the focus lens of image data acquired from a blue monochromatic video signal in the apparatus.
  • FIG. 12 is a block diagram showing a fourth embodiment of the medical observation apparatus according to the present invention.
  • FIG. 13 is a schematic diagram showing an image sensor having R pixels, G pixels, and B pixels according to the Bayer arrangement in the apparatus.
  • FIG. 14 is a block diagram showing a fifth embodiment of the 3D medical observation apparatus according to the present invention.
  • FIG. 1 shows a configuration diagram of a medical observation apparatus applied to a digestive tract videoscope.
  • This apparatus enables normal light observation and infrared light observation (Infra-Red Imaging: IRI).
  • IRI is highly expected to irradiate a subject with infrared light to perform, for example, vascular growth in the deep mucosa, which is considered to be involved in cancer invasion, observation of blood flow information, and the like.
  • a light guide 2 is provided in the insertion portion 1.
  • the light guide 2 has one end disposed at the distal end of the insertion portion 1 and the other end connected to the light source portion 3.
  • the light guide 2 irradiates the subject Q with normal light (white light) or infrared light output from the light source unit 3.
  • the light source unit 3 includes a light source 4 such as a xenon lamp, and a filter 5 for excitation light provided on an optical path of normal light emitted from the light source 4.
  • the excitation light filter 5 has, for example, two infrared regions (790 to 820 nm / 905 to 970 nm) as light transmission regions.
  • the excitation light filter 5 transmits normal light emitted from the light source 4 to two infrared regions (790 to 820 nm / 905 to 970 nm) to obtain infrared light.
  • the excitation light filter 5 can be inserted into and removed from the optical path of normal light emitted from the light source 4. When the filter 5 deviates from the optical path, the apparatus is used for normal light observation. When the filter 5 is inserted in the same optical path, this apparatus is used for IRI.
  • an objective lens 10, a focus lens 11, an imaging lens 12, and a dichroic mirror 13 are provided on the same optical axis.
  • the objective lens 10, the imaging lens 12, and the dichroic mirror 13 are fixed to the insertion portion 1.
  • the focus lens 11 is provided so as to be movable in the optical axis direction.
  • a screw screw 15 is provided on the focus lens 11 via a support portion 14.
  • the support 14 is threaded on its inner diameter.
  • a screw screw 15 is screwed to the screw.
  • the screw screw 15 is provided with a motor 17 via a drive conversion mechanism 16.
  • the drive conversion mechanism 16 converts the drive of the motor 17 into the rotation of the screw screw 15.
  • the dichroic mirror 13 branches into light in two wavelength regions, normal light and infrared light in the infrared region for IRI (790 to 820 nm / 905 to 970 nm). Here, the dichroic mirror 13 reflects normal light and transmits infrared light.
  • An imaging unit 20 for normal light is provided on the normal light side of the dichroic mirror 13. On the IRI side, an imaging unit 21 for IRI is provided. Each of the imaging units 20 and 21 is configured by arranging a plurality of imaging elements in the vertical and horizontal directions.
  • the imaging unit 20 receives normal light out of the reflected light from the subject Q and outputs the image signal.
  • a distance measurement contrast calculation unit (focus information acquisition unit) 23 and an AF control unit 24 are connected to an output terminal of the imaging unit 20 via a video processor 22.
  • the video processor 22 receives an image signal output from the imaging unit 20 and performs various image processing on the image signal to acquire image data.
  • the distance measurement contrast calculation unit 23 acquires contrast as focus information at each of a plurality of distance measurement points described later on the image data acquired by the video processor 22.
  • the plurality of distance measuring points are points for measuring the in-focus state with respect to the subject Q in order to focus on the subject Q.
  • Each distance measuring point is provided at predetermined intervals in the vertical and horizontal directions on the image data, for example.
  • the imaging unit 20 is configured by arranging a plurality of imaging elements in the vertical and horizontal directions.
  • the imaging unit 20 is provided with a plurality of AF detection elements at predetermined intervals in the vertical and horizontal directions where the imaging elements are arranged.
  • the arrangement point of each AF detection element corresponds to a distance measuring point.
  • the AF control unit 24 extracts high-frequency components at each of a plurality of distance measuring points on the image data acquired by the video processor 22 and acquires the AF focus evaluation value by integrating the extracted high-frequency components. .
  • the AF control unit 24 outputs a focus lens drive signal to the motor drive unit 25 while evaluating the contrast of the image data according to the acquired focus evaluation value, and adjusts the focus lens 11 to a position where the focus lens 11 is brought into focus.
  • the imaging unit 21 receives infrared light in the reflected light from the subject Q and outputs the image signal.
  • a distance measurement contrast calculation unit 27 and an AF control unit 28 are connected to an output terminal of the imaging unit 21 via a video processor 26.
  • the video processor 26 receives the image signal output from the imaging unit 21, performs various image processing on the image signal, and acquires image data.
  • the distance measurement contrast calculation unit 27 acquires contrast at a plurality of distance measurement points on the image data acquired by the video processor 26, similarly to the distance measurement contrast calculation unit 23.
  • a plurality of AF detection elements are provided at predetermined intervals in the vertical and horizontal directions in each imaging element in the imaging unit 21.
  • the distance measuring points correspond to the arrangement points of the AF detection elements provided at predetermined intervals in the vertical and horizontal directions in the image sensors of the image capturing unit 21, similarly to the distance measuring points.
  • the AF control unit 28 extracts high-frequency components at a plurality of distance measurement points on the image data acquired by the video processor 26, and acquires an in-focus evaluation value for AF by integrating the extracted high-frequency components. .
  • the AF control unit 28 outputs a focus lens drive signal to the motor drive unit 25 while evaluating the contrast of the image data according to the acquired focus evaluation value, and moves the focus lens 11 to a position where the focus lens 11 is brought into focus.
  • the comparison unit (selection unit) 29 inputs the contrast acquired by the ranging contrast calculation unit 23 on the normal light side, and inputs the contrast acquired by the ranging contrast calculation unit 43 on the IRI side.
  • the comparison unit 29 selects the imaging unit 20 or 21 suitable for performing AF by moving the focus lens 11 to a position where the focus lens 11 is brought into focus based on each input contrast.
  • the comparison unit 29 inputs the contrast acquired by the ranging contrast calculation unit 23 on the normal light side, and inputs the contrast acquired by the ranging contrast calculation unit 27 on the IRI side.
  • Compare The comparison unit 29 causes the AF control unit on the higher contrast side of the AF control unit 24 and the AF control unit 28 to execute the AF operation as a result of the comparison of the contrasts.
  • the AF operation may be prohibited for the AF control unit on the low contrast side.
  • the comparison unit 29 may select the imaging unit 20 or the imaging unit 21 in which the contrast change amount or the contrast with a large peak value appears.
  • the motor drive unit 25 inputs a focus lens drive signal from the AF control unit 24 or the AF control unit 28, and drives the motor 17 in accordance with the focus lens drive signal.
  • the drive of the motor 17 is transmitted to the support portion 14 via the drive conversion mechanism 16 and the screw screw 15.
  • the support portion 14 moves in the axial direction of the screw screw 15.
  • the focus lens 11 moves in the optical axis direction in accordance with the movement of the support portion 14 and is adjusted to a position where it is in focus.
  • the imaging unit 20 on the normal light side receives normal light out of the reflected light from the subject Q and outputs the image signal.
  • the video processor 22 receives an image signal output from the imaging unit 20, performs various image processing on the image signal, and acquires image data.
  • the distance measurement contrast calculation unit 23 acquires contrast at each of a plurality of distance measurement points on the image data acquired by the video processor 22.
  • the imaging unit 21 on the IRI side receives infrared light in the reflected light from the subject Q and outputs the image signal.
  • the video processor 26 receives the image signal output from the imaging unit 21, performs various image processing on the image signal, and acquires image data.
  • the distance measurement contrast calculation unit 27 acquires the contrast at each of a plurality of distance measurement points on the image data acquired by the video processor 26.
  • the comparison unit 29 inputs the contrast acquired by the distance measurement contrast calculation unit 23 on the normal light side.
  • infrared light is output from the light source unit 3. Infrared light passes through the light guide 2 and is output from the distal end portion of the insertion portion 1 to irradiate the subject Q.
  • reflected light is generated from the subject Q, a part of the reflected light enters the objective lens 10 at the distal end of the insertion portion 1.
  • the reflected light from the subject Q that has entered the objective lens 10 enters the dichroic mirror 13 through the focus lens 11 and the imaging lens 12, and is branched into normal light and infrared light for IRI by the dichroic mirror 13. Is done.
  • the imaging unit 20 on the normal light side receives normal light out of the reflected light from the subject Q and outputs the image signal.
  • the distance measurement contrast calculation unit 23 acquires contrast at each of a plurality of distance measurement points on the image data acquired by the video processor 22.
  • the imaging unit 21 on the IRI side receives infrared light in the reflected light from the subject Q and outputs the image signal.
  • the distance measurement contrast calculation unit 27 acquires the contrast at each of a plurality of distance measurement points on the image data acquired by the video processor 26.
  • the contrast acquired by the ranging contrast calculation unit 23 on the normal light side is not adopted and the ranging contrast calculation on the IRI side is not adopted.
  • the contrast acquired by the unit 27 is adopted. That is, the comparison unit 29 inputs the contrast acquired by the distance measurement contrast calculation unit 27 on the IRI side.
  • the comparison unit 29 includes the contrast acquired by the normal light side distance measurement contrast calculation unit 23 when the excitation light filter 5 is removed, and the IRI side distance measurement contrast calculation unit when the excitation light filter 5 is inserted. 27 is compared with the contrast acquired in step 27 to determine whether the contrast is higher on the normal light side or the IRI side. If the result of determination is that the contrast has increased to the normal light side, the comparison unit 29 causes the AF control unit 24 to execute an AF operation. If the contrast is higher on the IRI side, the comparison unit 29 causes the AF control unit 28 to execute the AF operation.
  • FIG. 2 shows changes in contrast on the normal light side
  • FIG. 3 shows changes in contrast on the IRI side.
  • the comparison unit 29 causes the AF control unit 24 on the normal light side to execute the AF operation.
  • the AF control unit 24 on the normal light side extracts high-frequency components of image data acquired by the video processor 22 and integrates the extracted high-frequency components to acquire a focus evaluation value for AF.
  • the AF control unit 24 outputs a focus lens drive signal to the motor drive unit 25 while evaluating the contrast of the image data according to the acquired focus evaluation value, and adjusts the focus lens 11 to a position where the focus lens 11 is brought into focus.
  • the motor drive unit 25 receives a control signal from the AF control unit 24 and drives the motor 17 in accordance with the control signal. Since the drive of the motor 17 is transmitted to the support portion 14 via the drive conversion mechanism 16 and the screw screw 15, the support portion 14 moves in the axial direction of the screw screw 15. In accordance with the movement of the support portion 14, the focus lens 11 moves in the optical axis direction and is adjusted to a position where it is in focus.
  • the comparison unit 29 causes the AF control unit 28 on the IRI side to execute the AF operation. Similar to the AF control unit 24, the IRI side AF control unit 28 evaluates the contrast of the image data acquired by the video processor 26 and adjusts the focus lens 11 to a position where the focus lens 11 is brought into focus. A drive signal is output to the motor drive unit 25.
  • the motor drive unit 25 receives the focus lens drive signal from the AF control unit 24 and drives the motor 17 in accordance with the focus lens drive signal to adjust the focus lens 11 to a position where the focus lens 11 is brought into focus.
  • the contrast is acquired from the image data based on the image signal output from the imaging unit 20 on the normal light side, and the image signal output from the imaging unit 21 on the IRI side is obtained. Contrast is acquired from the image data based on the comparison, these contrasts are compared, and the AF control unit 24 or AF control unit 28 on the higher contrast side executes the AF operation.
  • an image obtained by enlarging an operation part of the head as a subject becomes a monotone color such as red or white.
  • the AF operation is performed reliably and accurately on the surgical site of the head, which is the subject, using image data with high contrast on the normal light side or IRI side. can do.
  • This apparatus can easily switch from IRI to narrow band imaging (NBI).
  • NBI narrow band imaging
  • the excitation light filter 5 and the dichroic mirror 13 are exchanged for NBI.
  • the NBI excitation light filter 5 transmits normal light emitted from the light source 4 to, for example, two infrared filters (390 to 445 nm / 530 to 550 nm) to form infrared light.
  • the dichroic mirror 13 branches into light in two wavelength regions, normal light and infrared light in the NBI infrared region (390 to 445 nm / 530 to 550 nm).
  • contrast is acquired from image data based on an image signal output from the imaging unit 20 on the normal light side.
  • the contrast is acquired from the image data based on the image signal output from the imaging unit 21 on the NBI side.
  • the first embodiment compares the contrast of image data acquired by imaging of the normal light side imaging unit 20 with the contrast of image data acquired by imaging of the imaging unit 21 on the IRI side.
  • the present invention is not limited to the contrast, and any one of the brightness or brightness of each image data may be compared.
  • the normal light side imaging unit 20 or the NBI side imaging unit 21 that acquires image data in which the higher brightness or luminance appears is selected, and the selected normal light side imaging unit 20 is selected.
  • the AF operation may be performed by the AF control unit 24 or the AF control unit 28 based on the image data acquired by the imaging unit 21 on the NBI side.
  • the imaging unit 20 on the normal light side or the imaging unit 21 on the NBI side may be selected using at least one of contrast, brightness of each image data, or brightness.
  • FIG. 4 shows a configuration diagram of a 3D medical observation apparatus.
  • the present apparatus is used to stereoscopically view the subject Q by providing two imaging units and to enlarge and observe the surgical part of the head.
  • the apparatus includes a microscope main body 30.
  • An objective lens 31 is provided at the tip of the microscope body 30.
  • a pair of focus lenses 32 and 33 for acquiring 3D image data of the subject Q and a pair of first and second imaging units 34 and 35 are provided.
  • the focus lens 32 and the first imaging unit 34 constitute an observation system 36 for the left side, for example.
  • the focus lens 33 and the second imaging unit 35 constitute, for example, an observation system 37 for the right side.
  • the left and right observation systems 36 and 37 are provided so as to observe the subject Q with a convergence angle ⁇ .
  • the pair of focus lenses 32 and 33 are provided integrally via a support portion 36 and are provided on the screw screw 15 via the support portion 36.
  • the motor 17 is provided on the screw screw 15 via the drive conversion mechanism 16 as in FIG.
  • the drive conversion mechanism 16 converts the drive of the motor 17 into the rotation of the screw screw 15.
  • a first imaging unit 34 and a second imaging unit 35 are provided.
  • the first imaging unit 34 receives light from the subject Q on one viewpoint side for 3D and outputs the image signal.
  • An output terminal of the first imaging unit 34 is connected to a communication control unit (CCU) 40.
  • the second imaging unit 35 receives light from the subject Q on the other viewpoint side for 3D and outputs the image signal.
  • An output terminal of the second imaging unit 35 is connected to the CCU 40.
  • the CCU 40 receives the image signal output from the first imaging unit 34 and the image signal output from the second imaging unit 35, and performs preset image processing on each image signal. Each image data is acquired, and each image data is output from each output terminal. To each output terminal of the CCU 40, a 3D processor 41 and distance measurement contrast calculation units 43 and 44 are connected.
  • the 3D processor 41 performs various image processing on each image signal image-processed by the CCU 40 and acquires 3D image data that can be displayed on the 3D monitor 42.
  • the 3D processor 41 drives the acquired 3D image data to be displayed on the 3D monitor 42.
  • the 3D monitor 42 is formed of, for example, a liquid crystal display, and displays 3D image data of the subject Q by display driving of the 3D processor 41.
  • the ranging contrast calculation unit 43 sends a focus lens driving signal for moving the focus lenses 32 and 33 by a preset distance in the optical axis direction to the AF control unit 46.
  • the distance measurement contrast calculation unit 43 is acquired by image data acquired by the image processing of the CCU 40 during the period in which the focus lenses 32 and 33 are moving, that is, by imaging of the first imaging unit (for the left side) 34.
  • the amount of contrast change is acquired at a plurality of distance measuring points on the image data.
  • the distance measurement contrast calculation unit 43 sends the image data acquired by the image processing of the CCU 40 to the changeover switch unit 45 without performing any processing.
  • the distance measurement contrast calculation unit 44 sends a focus lens drive signal for moving the focus lenses 32 and 33 by a preset distance in the optical axis direction to the AF control unit 46, similarly to the distance measurement contrast calculation unit 43.
  • the focus lens driving signal may be set so as to be output from either the distance measurement contrast calculation unit 43 or the distance measurement contrast calculation unit 44.
  • the distance measurement contrast calculation unit 44 is acquired by image data acquired by the image processing of the CCU 40 during the period in which the focus lenses 32 and 33 are moving, that is, by imaging by the second imaging unit (for the right side) 35.
  • the amount of contrast change is acquired at a plurality of distance measuring points on the image data.
  • the distance measurement contrast calculation unit 44 sends the image data acquired by the image processing of the CCU 40 to the changeover switch unit 45 without performing any processing.
  • the comparison unit 29 inputs the amount of change in the contrast for the left side acquired by the distance measurement contrast calculation unit 43 for the left side, and changes in the contrast for the right side acquired by the distance measurement contrast calculation unit 44 for the right side together with this. An amount is input and the amount of change in each contrast is compared, and it is determined whether the observation system 36 or 37 for the left side or the right side has a high contrast. As a result of the determination, if the left side observation system 36 has a high contrast, the comparison unit 29 uses the image data acquired by the imaging of the first imaging unit (for the left side) 34 to use the AF control unit. A switching signal for executing the AF operation is sent to the changeover switch unit 45 by 46.
  • the comparison unit 29 performs the AF operation by the AF control unit 46 using the image data acquired by the imaging of the second imaging unit (for the right side) 35. Is sent to the changeover switch unit 45.
  • the switching signal indicates, for example, the first or second imaging unit 34 or 35 on the side where the contrast change amount is large.
  • FIG. 5 and 6 show the amount of change in contrast when the focus lenses 32 and 33 are moved by a preset distance d, respectively.
  • FIG. 5 shows a large amount of contrast change
  • FIG. 6 shows a small amount of contrast change.
  • Each image signal output from the first or second imaging unit 34, 35 indicates the amount of contrast change shown in FIG. 5 or FIG.
  • the comparison unit 29 is configured to execute the AF operation using any one of the image signals output from the first or second imaging units 34 and 35 and indicating the amount of contrast change shown in FIG. 5 or FIG.
  • a switching signal is sent to the selector switch unit 45.
  • the amount of change in contrast between the image data acquired by the first and second imaging units 34 and 35 is different as shown in FIG. 5 or FIG.
  • the amount of change in contrast of one of the image signals as shown in FIG. 6 due to the influence of the dirt. Depends on the decrease.
  • the changeover switch unit 45 includes a switching terminal 45a connected to the output terminal of the distance measurement contrast calculation unit 43 for the left side, a switching terminal 45b connected to the output terminal of the distance measurement contrast calculation unit 44 for the right side, and a switching terminal. And a switch end 45c that is switched and connected to either one of 45a and 45b.
  • the change-over switch unit 45 receives the switch signal from the comparison unit 29, the switch end portion is connected to the switch terminal 45a or 45b corresponding to the first or second image pickup unit 34 or 35 on the higher contrast side indicated by the switch signal. 45c is switched and connected.
  • An AF control unit 46 is connected to the output side of the switch end 45c.
  • the AF control unit 46 receives image data acquired by the imaging of the first imaging unit (for the left side) 34 or the imaging of the second imaging unit (for the right side) 35 sent via the changeover switch unit 45. Input the acquired image data.
  • the AF control unit 46 extracts high frequency components at a plurality of distance measuring points on the input image data, and obtains an AF focus evaluation value by integrating the extracted high frequency components.
  • the AF control unit 46 outputs a focus lens drive signal to the motor drive unit 25 while evaluating the contrast of the image data according to the acquired focus evaluation value, and moves the focus lenses 32 and 33 to a position where the focus lens 32 and 33 are brought into focus.
  • the light from the subject Q enters the first imaging unit 34 via the objective lens 31 and one focus lens 32.
  • the first imaging unit 34 receives light from the subject Q and outputs the image signal.
  • the light from the subject Q enters the second imaging unit 35 via the objective lens 31 and the other focus lens 33.
  • the second imaging unit 35 receives light from the subject Q and outputs the image signal.
  • the CCU 40 receives the image signal output from the first imaging unit 34 and the image signal output from the second imaging unit 35, and performs preset image processing on each of the image signals. Each image data is output from each output terminal. Each image data output from the CCU 40 is sent to the 3D processor 41 and also sent to the distance measurement contrast calculation units 43 and 44.
  • the 3D processor 41 performs various image processing on each image signal image-processed by the CCU 40 to obtain 3D image data that can be displayed on the 3D monitor 42 such as a liquid crystal display.
  • the 3D processor 41 displays and drives 3D image data on the 3D monitor 42.
  • One distance measurement contrast calculation unit 43 sends a focus lens drive signal for moving the focus lenses 32 and 33 by a preset distance in the optical axis direction to the AF control unit 46.
  • the AF control unit 46 integrally moves the focus lenses 32 and 33 in the optical axis direction according to the focus lens drive signal.
  • the distance measurement contrast calculation unit 43 is acquired by image data acquired by the image processing of the CCU 40, that is, by imaging of the first imaging unit (for the left side) 34.
  • a contrast change amount or peak value is acquired at a plurality of distance measuring points on the image data.
  • the distance measurement contrast calculation unit 43 sends the image data acquired by the image processing of the CCU 40 to the changeover switch unit 45 without performing any processing.
  • the other distance measurement contrast calculation unit 44 is the image data acquired by the image processing of the CCU 40 during the period in which the focus lenses 32 and 33 are moving, that is, the second The contrast change amount or peak value is acquired at a plurality of distance measuring points on the image data acquired by the imaging unit (for the right side) 35.
  • the distance measurement contrast calculation unit 44 sends the image data acquired by the image processing of the CCU 40 to the changeover switch unit 45 without performing any processing.
  • the comparison unit 29 inputs the contrast for the left side acquired by the distance measurement contrast calculation unit 43 for the left side, and inputs the contrast for the right side acquired by the distance measurement contrast calculation unit 44 for the right side. Compare contrast. As a result of the comparison, the comparison unit 29 generates a switching signal for performing an AF operation using the image signal output from the first or second imaging unit 34 or 35 on the side where the contrast change amount is large. 45.
  • the switch end portion When the change-over switch unit 45 receives the switch signal from the comparison unit 29, the switch end portion is connected to the switch terminal 45a or 45b corresponding to the first or second image pickup unit 34 or 35 on the higher contrast side indicated by the switch signal. 45c is switched and connected.
  • the AF control unit 46 receives image data acquired by the imaging of the first imaging unit (for the left side) 34 or the imaging of the second imaging unit (for the right side) 35 sent via the changeover switch unit 45. Input the acquired image data.
  • the AF control unit 46 extracts high frequency components at a plurality of distance measuring points on the input image data, and obtains an AF focus evaluation value by integrating the extracted high frequency components.
  • the AF control unit 46 outputs a focus lens drive signal to the motor drive unit 25 while evaluating the contrast of the image data in accordance with the acquired focus evaluation value, so that each of the focus lenses 32 and 33 is integrated at a position where the focus lens is brought into focus. Move to.
  • the motor drive unit 25 inputs a control signal from the AF control unit 24 and drives the motor 17 in accordance with the control signal. Since the drive of the motor 17 is transmitted to the support portion 36 via the drive conversion mechanism 16 and the screw screw 15, the support portion 36 moves in the axial direction of the screw screw 15. In accordance with the movement of the support portion 36, the focus lenses 32 and 33 are moved in the optical axis direction and adjusted to positions at which they are in focus.
  • the contrast is obtained from the image data based on the image signal output from the first imaging unit (for the left side) 34, and the second imaging unit (for the right side) 35 is obtained.
  • the contrast is obtained from the image data based on the image signal output from the image signal, the contrasts are compared, and the image data obtained by the imaging of the first or second imaging unit 34 or 35 on the side where the contrast change amount is large is obtained. Based on this, an AF operation is performed.
  • the surgical part of the head that is the subject Q is enlarged. Even if the obtained image becomes monotonous color such as red or white or bleeds from the surgical site to become a solid red color, by performing AF operation on the subject Q using image data with high contrast, The AF operation can be reliably and accurately performed on the surgical site.
  • the imaging when imaging the subject Q, the imaging is performed with a convergence angle ⁇ .
  • the reflected light of the illumination light enters one of the first or second imaging units 34 and 35, and the luminance of the image data of the subject Q May increase uniformly and lower the contrast.
  • the AF operation may be performed using the image data of the first or second imaging unit 34 or 35 having a high contrast of the image data without using the image data whose luminance is uniformly increased. it can.
  • the imaging of the first or second imaging unit 34, 35 There is a possibility that the contrast of the acquired image data becomes low and it is difficult to perform the AF operation accurately.
  • the AF operation is performed using the image data of the first or second imaging unit 34 or 35 on the high contrast side, even if the objective lens 31 is contaminated, it is soiled. Thus, the AF operation can be performed reliably and accurately using the image data of the first or second imaging unit 34 or 35 with less influence.
  • the imaging ranges of the first and second imaging units 34 and 35 are the first and second imaging ranges as shown in FIG.
  • the imaging range of the first imaging unit 34 is W1
  • the imaging range of the second imaging unit 35 is W2.
  • each distance measuring point T1 of the AF operation is T1.
  • T2 includes a shift S corresponding to the focal length and the convergence angle ⁇ of the first and second imaging units 34 and 35, and the interval between the first and second imaging units 34 and 35.
  • the distance measurement contrast calculation units 43 and 44 respectively set the distance measurement points T1 and T2 to the first image pickup unit 34 side or the second image pickup according to the focal lengths of the first and second image pickup units 34 and 35. Shift to the part 35 side.
  • the distance between the subject Q and the first imaging unit 34 is within the focal length. 8, for example, as shown in FIG. 8, the distance measuring point T ⁇ b> 1 for obtaining contrast is shifted to the second imaging unit 35 side. Shift to the opposite side.
  • the distance measuring point T2 for obtaining the contrast is shifted to the first imaging unit 34 side, and if it is equal to or longer than the focal length, the distance measuring point T2 is opposite to the first imaging unit 34 side. Shift to.
  • the distance measurement contrast calculation units 43 and 44 can detect the first and second distance measurement points T1 and T2 in the AF operation according to the distance between the first and second imaging units 34 and 35 even if there is a deviation S.
  • the distance measuring points T1 and T2 are shifted to the first imaging unit 34 side or the second imaging unit 35 side.
  • the shift S between the distance measuring points T1 and T2 is corrected, and the AF operation is performed using the image data of the first or second imaging unit 34 or 35 having a large contrast change amount of the image data as described above. The reliability of doing can be improved.
  • FIG. 10 is a configuration diagram of the medical observation apparatus.
  • the imaging unit 50 images the subject Q and outputs red (R), green (G), and blue (B) image signals for each wavelength band.
  • the imaging unit 50 includes a variable focus optical system 51 and an imaging unit 52.
  • the variable focus optical system 51 focuses the subject Q.
  • the variable focus optical system 51 includes an objective lens 53, a focus lens 54, and an imaging lens 55 arranged on the same optical axis.
  • the focus lens 54 is provided on the screw screw 57 via the support portion 56.
  • the support portion 56 is threaded on the inner diameter, and a screw screw 57 is screwed onto the screw.
  • a motor 58 is provided at one end of the screw screw 57.
  • the motor 58 rotates the screw screw 57 by being driven.
  • the support portion 56 and the focus lens 54 are integrally moved in the axial direction of the screw screw 57, that is, the optical axis direction in response to the rotation of the screw screw 57.
  • the imaging unit 52 captures a light image from the subject Q incident through the variable focus optical system 51 and outputs RGB image signals.
  • the imaging unit 52 includes a color separation filter 50f and a plurality of imaging elements for each of R, G, and B wavelength bands, for example, three imaging elements 59R, 59G, and 59B.
  • the color separation filter 50f separates the light from the variable focus optical system 51 into light for each of the R, G, and B wavelength bands.
  • Each image sensor 59R, 59G, 59B is formed by arranging a plurality of solid-state image sensors (CCD) as light receiving elements.
  • CCD solid-state image sensors
  • Each of the image sensors 59R, 59G, and 59B is provided with at least two types of filters having a plurality of different wavelength regions, for example, an R filter, a G filter, and a B filter.
  • the image sensors 59R, 59G, and 59B receive R, G, and B light beams separated by the color separation filter 50f, and output RGB image signals.
  • Each imaging element 59R, 59G, 59B is called a so-called three-plate CCD.
  • a focus position sensor 60 is provided in the variable focus optical system 51.
  • the focus position sensor 60 outputs a focus position signal Fa when the focus lens 54 moves to the focus position with respect to the subject Q.
  • the focus position sensor 60 includes, for example, a light emitting element and a light receiving element.
  • the focus position sensor 60 emits light from the light emitting element, receives reflected light from the support portion 56 that supports the focus lens 54, and outputs a focus position signal corresponding to the light receiving position.
  • the focus position signal is sent to the AF control unit 63.
  • the image processor 61 inputs RGB image signals from the imaging unit 52, performs predetermined image processing on the image signals, and performs normal image signal J composed of RGB image signals and RGB. Are generated and output as video signals J, Rt, Gt, and Bt.
  • the AF input switching unit 62 inputs a normal video signal J and RGB single-color video signals Rt, Gt, and Bt, respectively, and converts each of the video signals J, Rt, Gt, and Bt into one video signal. Switch to output.
  • the AF input switching unit 62 is provided with selector switches 61J, 61R, 61G, and 61B for each video signal J, Rt, Gt, and Bt.
  • the AF input switching unit 62 receives, for example, a manual operation, and any one of the changeover switches 61J, 61R, 61G, and 61B is turned on. Any one of the change-over switches 61J, 61R, 61G, or 61B may be automatically turned on (ON) at regular intervals.
  • the video signal J, Rt, Gt or Bt output from the AF input switching unit 62 is sent to the AF control unit 63.
  • the AF control unit 63 acquires image data from each video signal J, Rt, Gt, or Bt sent from AF input switching unit 62.
  • the AF control unit 63 extracts high-frequency components at a plurality of distance measurement points on the acquired image data, and acquires the AF focus evaluation value by integrating the extracted high-frequency components.
  • the AF control unit 63 outputs an operation stop signal to the motor drive unit 64 while evaluating the contrast of the image data according to the acquired focus evaluation value, and stops the focus lens 54 at the focus position.
  • the AF control unit 63 includes a contrast calculation unit 65 and a comparison unit 66.
  • the contrast calculation unit 65 sets the focus lens 54 in the optical axis direction in advance at regular intervals.
  • a focus lens driving signal for moving the distance is sent to the focus control unit 63.
  • the focus control unit 63 moves the focus lens 54 by a preset distance.
  • the contrast calculation unit 65 acquires image data from each video signal Rt, Gt, or Bt sent from the AF input switching unit 62, and a plurality of the image data on the image data. The amount of contrast change or peak value is acquired at the distance measuring point.
  • the comparison unit 66 compares each contrast change amount or each peak value for each monochrome image signal Rt, Gt, Bt acquired from the contrast calculation unit 65 with each other. As a result of the comparison, the comparison unit 66 determines the image sensor 59R, 59G, or 59B that outputs the monochrome video signal Rt, Gt, or Bt that indicates the highest contrast change amount among the contrast change amounts. As a result of the determination, the comparison unit 66 sends a selection signal for executing the AF operation to the AF control unit 63 using the image signal output from the image sensor 59R, 59G, or 59B showing the highest contrast change amount. .
  • FIG. 11A, FIG. 11B, and FIG. 11C show an example of the amount of change in contrast.
  • FIG. 11A shows the amount of change in contrast of image data acquired by the monochromatic video signal Rt
  • FIG. 11B shows the amount of change in the monochromatic video signal Gt
  • FIG. 11C shows the amount of contrast change of image data acquired by the monochromatic video signal Bt.
  • the comparison unit 29 compares each contrast change amount for each of the monochrome video signals Rt, Gt, and Bt, and performs an AF operation using, for example, an image signal output from the image sensor 59G that indicates the highest contrast change amount.
  • a selection signal for execution is sent to the AF control unit 63.
  • the AF control unit 63 acquires image data from the selected single-color video signal Rt, Gt, or Bt, acquires an AF focus evaluation value from the image data in the same manner as described above, and according to the focus evaluation value While evaluating the contrast, an operation stop signal is output to the motor drive unit 64 to stop the focus lens 54 at the focus position.
  • the imaging elements 59R, 59G, and 59B of the imaging unit 52 capture a light image from the subject Q that is incident through the variable focus optical system 51, and output RGB image signals.
  • the image processor 61 inputs RGB image signals from the imaging unit 52, performs predetermined image processing on the image signals, and performs normal image signal J composed of RGB image signals and RGB. Are generated and output.
  • the AF input switching unit 62 inputs a normal video signal J and RGB single-color video signals Rt, Gt, and Bt, and switches to any one of the video signals Rt, Gt, and Bt. Output.
  • the AF input switching unit 62 automatically switches each of the changeover switches 61R, 61G, and 61B sequentially at regular intervals so that any one of the changeover switches 61R, 61G, or 61B is turned on.
  • the monochromatic video signal Rt, Gt or Bt output from the AF input switching unit 62 is sent to the AF control unit 63.
  • the contrast calculation unit 65 of the AF control unit 63 moves the focus lens 54 in the optical axis direction at regular intervals.
  • a focus lens driving signal for moving the lens by a preset distance is sent to the focus control unit 63.
  • the focus control unit 63 moves the focus lens 54 by a preset distance in the optical axis direction.
  • the contrast calculation unit 65 acquires image data from each monochrome video signal Rt, Gt, or Bt sent from the AF input switching unit 62, and the image data on the image data The amount of change in each contrast or each peak value for each monochromatic video signal Rt, Gt, or Bt is acquired at a plurality of ranging points.
  • the comparison unit 66 compares the amount of change in each contrast for each monochrome video signal Rt, Gt, Bt acquired from the contrast calculation unit 65 with each other. As a result of the comparison, the comparison unit 66 determines the image sensor 59R, 59G, or 59B that outputs the monochrome image signal Rt, Gt, or Bt having the highest contrast change amount among the contrast change amounts. The comparison unit 66 sends a selection signal for executing the AF operation to the AF control unit 63 using the determined monochrome image signal Rt, Gt, or Bt output from the image sensor 59R, 59G, or 59B.
  • the AF control unit 63 acquires image data from the selected single-color video signal Rt, Gt, or Bt, and acquires a focus evaluation value for AF from the image data in the same manner as described above.
  • the AF control unit 63 outputs an operation stop signal for stopping the focus lens 54 at the focus position to the motor driving unit 64 while evaluating the contrast according to the acquired focus evaluation value.
  • the RGB image signals output from the image sensors 59R, 59G, and 59B are converted into the normal video signal J and the RGB single-color video signals Rt, Gt, and Bt. Are processed, and the amount of change in each contrast for each monochromatic video signal Rt, Gt, or Bt is obtained by switching the respective switches 61J, 61R, 61G, 61B in the AF input switching unit 62, and the change in each contrast
  • the AF operation is performed using the image sensor 59R, 59G, or 59B that outputs the monochrome image signal Rt, Gt, or Bt having the highest contrast change amount.
  • an image obtained by enlarging an operation part of the head that is the subject Q is monotonous color such as red or white. Even if it becomes a red color due to bleeding from the surgical site, the AF operation is performed on the subject Q using image data with high contrast among RGB, so that the surgical site of the head can be reliably and accurately AF operation can be performed.
  • the illumination light irradiating the subject Q is special light having a certain wavelength band, for example, the monochrome image signal having the highest contrast change amount among the change amounts of the contrast for each of the monochrome image signals Rt, Gt, or Bt. Since the AF operation is performed using the image sensor 59R, 59G, or 59B that outputs Rt, Gt, or Bt, the image sensor 59R, 59G, or 59B having the highest contrast change corresponding to the special light is selected. The AF operation can be performed reliably and accurately.
  • the AF operation is performed on the subject Q using image data with high contrast among RGB, so that the surgical site of the head can be reliably and reliably operated.
  • the AF operation can be performed accurately. Since the highest contrast change amount for each monochrome image signal Rt, Gt, or Bt is obtained, even if the gain of each RGB image signal output from the image sensor 59R, 59G, or 59B is increased, the highest contrast is obtained. It is not affected by the noise component included in each image signal of the other image sensor 59R, 59G, or 59B that has not been changed.
  • FIG. 12 shows a configuration diagram of the medical observation apparatus.
  • the imaging unit 52 includes an imaging element 70.
  • the image sensor 70 is formed by arranging a plurality of CCDs in the vertical and horizontal directions.
  • Each CCD of the image sensor 70 is provided with filters having different wavelength ranges, such as an R filter, a G filter, and a B filter.
  • the CCD in which the R filter is arranged becomes the R pixel
  • the CCD in which the G filter is arranged becomes the G pixel
  • the CCD in which the B filter is arranged becomes the B pixel.
  • FIG. 13 is a schematic diagram of one configuration of the image sensor 70.
  • the image sensor 70 follows a Bayer array including R pixels, G pixels, and B pixels.
  • the image sensor 70 is formed by grouping one R pixel, two G pixels, and one B pixel, and arranging the groups at regular intervals in the vertical and horizontal directions.
  • the image sensor 70 generates an electrical signal for each of the R pixel, the G pixel, and the B pixel, and outputs it as an RGB image signal.
  • each RGB image signal output from the image sensor 70 is converted into a normal image signal.
  • Image processing is performed on the video signal J and RGB single-color video signals Rt, Gt, and Bt, and the single-color video signals Rt, Gt, or R are switched by switching the selector switches 61J, 61R, 61G, and 61B in the AF input switching unit 62.
  • the amount of change in each contrast for each Bt is acquired, and the AF operation is executed using the monochrome video signal Rt, Gt, or Bt having the highest amount of change in contrast among the amount of change in each contrast.
  • FIG. 14 shows a configuration diagram of a 3D medical observation apparatus.
  • the microscope main body 30 includes a pair of first imaging unit (for left side) 80 and a second imaging unit (for right side) 81.
  • the first imaging unit 80 captures a light image from the subject Q and outputs RGB image signals.
  • the first image pickup unit 80 includes three image pickup element groups in which a plurality of solid-state image pickup elements (CCD) are arranged vertically and horizontally.
  • CCD solid-state image pickup elements
  • the first imaging unit 80 includes the R imaging element 80r, the G imaging element 80g, and the B imaging element 80b.
  • the first imaging unit 80 is called a so-called three-plate CCD.
  • the second imaging unit 81 captures a light image from the subject Q and outputs RGB image signals.
  • the second image pickup unit 81 includes three image pickup element groups in which a plurality of solid-state image pickup elements (CCD) are arranged vertically and horizontally. An R filter, a G filter, and a B filter are arranged for each image sensor group. Accordingly, the second imaging unit 81 includes the R imaging element 81r, the G imaging element 81g, and the B imaging element 81b.
  • the second imaging unit 81 is called a so-called three-plate CCD.
  • Each of the first and second imaging units 80 and 81 includes a color separation filter 50f (not shown), and separates the optical image from the subject Q into each wavelength band of R, G, and B, and each imaging device 80r. , 80g, ..., 81b.
  • the ranging contrast calculating unit 82 sends a focus lens driving signal for moving the focus lenses 32 and 33 by a preset distance in the optical axis direction to the AF control unit 46.
  • the distance measurement contrast calculation unit 82 is the image data acquired by the image processing of the CCU 40 during the period in which the focus lenses 32 and 33 are moving, here the image output from the first imaging unit (for the left side) 80.
  • the amount of change in each contrast is acquired for each RGB at a plurality of distance measurement points on each image data for each RGB obtained by image processing of the signal.
  • the distance measurement contrast calculation unit 82 sends the image data to the changeover switch unit 85 without performing any processing on the image data for each RGB acquired by the image processing of the CCU 40.
  • the ranging contrast calculation unit 82 obtains the image data of the subject Q from the RGB image signals output from the first imaging unit (for the left side) 80 as well as the image data acquired by the image processing of the CCU 40.
  • the contrast change amount of the image data may be acquired.
  • the distance measurement contrast calculation unit 83 sends a focus lens drive signal for moving the focus lenses 32 and 33 by a preset distance in the optical axis direction to the AF control unit 46, similarly to the distance measurement contrast calculation unit 82.
  • the distance measurement contrast calculation unit 83 is the image data acquired by the image processing of the CCU 40 during the period in which the focus lenses 32 and 33 are moving, here the image output from the second imaging unit (for the right side) 81.
  • the amount of change in each contrast is acquired for each RGB at a plurality of distance measurement points on each image data for each RGB obtained by image processing of the signal.
  • the distance measurement contrast calculation unit 83 sends the image data to the changeover switch unit 85 without performing any processing on the image data for each RGB acquired by the image processing of the CCU 40.
  • the distance measurement contrast calculation unit 83 is not limited to the image data acquired by the image processing of the CCU 40 as in the case of the distance measurement contrast calculation unit 82, but the RGB output from the second imaging unit (for the right side) 81.
  • the image data of the subject Q may be obtained from each image signal, and the contrast change amount of the image data may be acquired.
  • the comparison unit 84 inputs the amount of change in each contrast for each left-side RGB acquired by the left-side ranging contrast calculation unit 82, and the right-side RGB acquired by the right-side ranging contrast calculation unit 83. The amount of change in each contrast is input, and the amount of change in each contrast is compared. As a result of the comparison, the comparison unit 84 outputs the image signal having the highest contrast change amount, that is, the imaging elements 80r of the first and second imaging units (for the right side and for the left side) 80 and 81, A changeover signal is sent to the changeover switch unit 85 in order to execute the AF operation using the image signal having the highest contrast change amount among the image signals output from 80g, 80b, 81r, 81g, 81b.
  • the comparison unit 84 compares the left-side contrast change amount acquired by the left-side distance measurement contrast calculation unit 82 with the right-side contrast change amount acquired by the right-side distance measurement contrast calculation unit 83.
  • a changeover signal may be sent to the changeover switch unit 85.
  • the change-over switch unit 85 receives the switching signal from the comparison unit 84, and each imaging element 80r of the first imaging unit (for the right side) 80 and the second imaging unit (for the left side) 81 instructed by the switching signal. , 80g, 80b, 81r, 81g, or 81b is sent to the AF control unit 46.
  • the changeover switch unit 85 inputs a switching signal for executing the AF operation using the image signal output from the first imaging unit (for the right side) 80 or the second imaging unit (for the left side) 81, An image signal output from the first imaging unit (for the right side) 80 or the second imaging unit (for the left side) 81 instructed by the switching signal may be sent to the AF control unit 46.
  • the distance measurement contrast calculation unit 82 sends a focus lens drive signal for moving the focus lenses 32 and 33 in the optical axis direction to the AF control unit 46 and moves the focus lenses 32 and 33 by a preset distance.
  • the first imaging unit 80 captures a light image from the subject Q and outputs RGB image signals.
  • the second imaging unit 81 captures a light image from the subject Q and outputs RGB image signals.
  • the CCU 40 inputs the RGB image signals output from the first image pickup unit 80 and the RGB image signals output from the second image pickup unit 81, and each of the RGB image signals is input to the CCU 40.
  • Image processing set in advance is performed, and each image data is sent from each output terminal to the 3D processor 41 and each distance measurement contrast calculation unit 82 and 83.
  • the distance measurement contrast calculation unit 82 is the image data acquired by the image processing of the CCU 40 during the period in which the focus lenses 32 and 33 are moving, here the image output from the first imaging unit (for the left side) 80.
  • the amount of change in each contrast is acquired for each RGB at a plurality of distance measurement points on each image data for each RGB obtained by image processing of the signal.
  • the distance measurement contrast calculation unit 82 sends the image data to the changeover switch unit 85 without performing any processing on the image data for each RGB acquired by the image processing of the CCU 40.
  • the distance measurement contrast calculation unit 83 is the image data acquired by the image processing of the CCU 40 during the period in which the focus lenses 32 and 33 are moving, here the image output from the second imaging unit (for the right side) 81.
  • the amount of change in each contrast is acquired for each RGB at a plurality of distance measurement points on each image data for each RGB obtained by image processing of the signal.
  • the distance measurement contrast calculation unit 83 sends the image data to the changeover switch unit 85 without performing any processing on the image data for each RGB acquired by the image processing of the CCU 40.
  • the comparison unit 84 inputs the amount of change in each contrast for each left-side RGB acquired by the left-side ranging contrast calculation unit 82, and the right-side RGB acquired by the right-side ranging contrast calculation unit 83.
  • the amount of change in each contrast is input, and the amount of change in each contrast is compared.
  • the comparison unit 84 obtains the image signal having the highest contrast change amount, that is, each of the imaging elements 80r, 80g of the first imaging unit (for the right side) 80 and the second imaging unit (for the left side) 81,
  • a changeover signal for executing the AF operation is sent to the changeover switch unit 85 using the image signal indicating the highest contrast change amount from the image signals output from 80b, 81r, 81g, 81b.
  • the change-over switch unit 85 includes the image sensors 80r, 80g, 80b, and 81r in the first imaging unit (for the right side) 80 and the second imaging unit (for the left side) 81 that are instructed by the switching signal from the comparison unit 84. , 81g and 81b, the image signal indicating the highest contrast change amount is sent to the AF control unit 46.
  • the AF control unit 46 extracts high frequency components at a plurality of distance measuring points on the image data acquired from the image signal sent via the changeover switch unit 85, and integrates the extracted high frequency components to perform AF. Get the focus evaluation value for use.
  • the AF control unit 46 outputs a focus lens drive signal for integrally moving the focus lenses 32 and 33 to the in-focus position while evaluating the contrast of the image data according to the acquired focus evaluation value. Output to.
  • the motor drive unit 25 drives the motor 17 in accordance with a control signal from the AF control unit 24.
  • the focus lenses 32 and 33 are integrally moved in the optical axis direction by driving the motor 17 and are adjusted to positions where they are in focus.
  • the imaging elements 80r, 80g, 80b, 81r, 81g, 81b of the first imaging unit (for the right side) 80 and the second imaging unit (for the left side) 81 are used. Since the AF operation is performed based on the image signal having the highest contrast change amount among the image signals output from, the same effects as in the second embodiment can be obtained.
  • this invention is not limited to said each embodiment, You may deform
  • an imaging unit or an imaging element that exhibits a large contrast change in image data is selected.
  • an imaging unit that exhibits a large change in brightness or brightness is selected to perform an AF operation. May be performed.
  • the imaging unit 52 shown in FIG. 10 includes RGB imaging elements 59R, 59G, and 59B.
  • the imaging unit 52 is not limited to this, and instead of the wavelength filters arranged in the imaging elements 59R, 59G, and 59B, the imaging unit 52
  • the 52 image sensors 59R, 59G, and 59B may be used for normal light, infrared light, and fluorescent light, respectively.
  • the RGB imaging elements 80r, 80g, 80b, and the RGB imaging units Including, but not limited to, the image sensors 81r, 81g, 81b, the wavelength filters arranged in the respective image sensors are replaced with the image sensors 80r, 81r, the image sensors 80g, 81g, and the image sensors 80b, 81b may be used for normal light, infrared light, and fluorescent light, respectively.
  • an imaging unit with the highest contrast, brightness, or luminance is selected to observe the subject Q, and AF operation is performed. Even under circumstances, AF operation can be performed reliably and accurately.
  • the focus state with respect to the subject Q is measured in order to focus on the subject Q.
  • an active autofocus (AF) method for example, an active autofocus (AF) method, position A phase difference AF method, a mountain climbing AF method, or the like may be used.
  • AF method active autofocus
  • phase difference AF method a defocus amount is obtained from phase difference information of a subject image output from a pair of image sensors.
  • the hill-climbing AF method uses an image sensor such as a CCD for photographing, and detects a high-frequency component of an image signal of a subject output from the image sensor as a focus evaluation value while driving a focus lens in the photographing lens at a predetermined interval.
  • the focus lens position at which the focus evaluation value (contrast) is maximized is obtained.
  • the distance measurement contrast calculation unit (focus information acquisition unit) 23 includes noise components (each image) included in each image signal respectively output from the normal light imaging unit 20 and the IRI imaging unit 21 illustrated in FIG. Signal SN ratio) is extracted.
  • the comparison unit 29 compares the extracted noise components (each SN ratio), and selects the imaging unit 20 for normal light or the imaging unit 21 for IRI having a small noise component (large SN ratio). May be.
  • the selection of the imaging unit having a small noise component is performed by selecting either the first imaging unit 34 or the second imaging unit 35 illustrated in FIG. 4 or any one of the imaging elements 59R, 59G, and 59B illustrated in FIG. Selection, selection of R, G, and B pixel image signals output from the image sensor 70 shown in FIG.
  • the present invention can also be applied to image signals output from the respective image pickup devices 80r, 80g, 80b, 81r, 81g, or 81b (for the left side) 81.
  • This apparatus can be applied to an endoscope or a microscope.
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying constituent elements without departing from the scope of the invention in the implementation stage.
  • various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment.
  • constituent elements over different embodiments may be appropriately combined.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automatic Focus Adjustment (AREA)
  • Endoscopes (AREA)
  • Studio Devices (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

 医療用観察装置は、撮像部と、焦点情報取得部と、選択部と、フォーカス制御部とを含む。前記焦点情報取得部は、前記撮像部から出力される画像信号から被検体に対する焦点情報を取得する。前記選択部は、前記各焦点情報に基づいて前記被検体に対してフォーカスするのに適した前記撮像部を選択する。前記フォーカス制御部は、前記選択部により選択された前記撮像部から出力される前記画像信号に基づいて前記被検体に対するフォーカスを行う。

Description

医療用観察装置
 本発明は、例えば外科手術等に用いられる医療用観察装置に関する。
 一般に、外科手術等では、被検体である例えば人体の腹部内部の胃部位や腸部位などの術部の観察に内視鏡が用いられる。脳神経外科領域においては、頭部の術部を拡大観察するために手術用の顕微鏡が用いられる。 
 内視鏡や顕微鏡などの医療用観察装置は、いずれも術部を撮像してその画像をモニタに表示する。この術部のモニタ表示では、少なくとも2つの観察光学系を用いて3次元(3D)用の撮像を行い、この撮影により取得された術部の画像を立体視可能な術部の3D画像として表示する3D画像化が進んでいる。
 このような医療用観察装置には、観察光学系の焦点を合わせるためのフォーカス機構を搭載したものがある。フォーカス機構では、術中における術部に対するピント合わせの煩わしさを軽減するためにオートフォーカス(AF)化が望まれている。AFには、各種の方式がある。3Dの医療用観察装置に適用するシンプルなAFの一般的な例としては、例えば左右2つの観察光学系のうちいずれか一方の観察光学系により取得された画像に基づいて被検体に対する焦点位置を検出し、この焦点位置に基づいて左右2つの観察光学系のフォーカスレンズの位置を調整するものがある。
 AFでは、内視鏡や顕微鏡などの鏡体の大きさを小型化するためにコントラスト方式を採用することが良いものと考えられている。コントラスト方式のAFは、フォーカスレンズを駆動しながら画像中の特定領域のコントラストを求め、コントラストがピークとなるフォーカスレンズ位置を探し出し、当該フォーカスレンズ位置にフォーカスレンズを自動的に駆動制御する。 
 このようなAFの技術は、例えば特許文献1乃至3に開示されている。特許文献1は、AF評価値に基づいてフォーカスレンズをピント位置に移動する自動焦点調節装置に関する。この特許文献1は、HISデータ(色相、彩度、輝度)群に基いてAF評価値を求め、被写体の色状態モード、例えば着色、染色又は変色状態の各モードを手動により選択し、これらモードに応じてAF評価値の算出方法を切り替え、最適なモードで高精度に焦点調整を可能とすることを開示する。 
 特許文献2は、被写体の観察画像を複数の領域に分割し、これら分割領域のうち選択した分割領域に基づいてフォーカスを行う。この特許文献2は、観察画像の所定の変化が所定期間継続することによって、複数の分割領域のうちフォーカス制御除外領域を決定し、これら領域を除く複数の領域からフォーカス制御の対象の領域を選択することを開示する。 
 特許文献3は、観察対象に励起光を含む照明光を照射し、観察対象の蛍光画像を取得し、観察対象に対して合焦していない状態の参照画像を取得し、この参照画像を用いて蛍光画像を補正することによって、参照画像に含まれる不要な情報を抑制し、励起光の角度、距離に拘わらず定量的な強度情報を有する蛍光画像を得ることを開示する。
特開2004-272039号公報 特開2011-139760号公報 特開2010-220890号公報
 しかしながら、コントラスト方式のAFでは、コントラストが低いと、AFを合わせづらいという欠点がある。脳神経外科での手術では、手術用顕微鏡を通して例えば頭部の術部を拡大した画像を観察する。この頭部の術部の拡大画像は、赤色又は白色等がメインの単調色になる場合が多い。特に、術部からの出血時には、画像が赤色一色になってしまう。このため、コントラスト方式のAFでは、出血時の画像のコントラストが低くなり、当該コントラストのピークとなるところを判断することが困難となる。この結果、フォーカスレンズをフォーカスレンズ位置に駆動制御することが難しくなる。
 近年の脳神経外科での手術では、インドシアニン・グリーン(ICG)試験等の特殊光観察を行う場合が多い。この場合でも、黄色又は黒色、又は緑色又は黒色等の等がメインの単調色になる場合が多い。このため、上記同様に、コントラストのピークとなるところを判断することが困難となり、フォーカスレンズをフォーカスレンズ位置に駆動制御することが難しくなる。
 3Dの医療用観察装置のAFでは、左右の観察光学系のうちいずれか一方の観察光学系のレンズが汚れてしまう場合がある。この場合、正確なAF動作ができなくなってしまう。このようなAF動作ができない状態においても、緊急時には、手術を続行しなければならない。正確にAF動作が出来ない3Dの医療用観察装置では、使い勝手が非常に悪いものとなる。
 本発明の目的は、如何なる状況下にあっても確実かつ正確にAF動作ができる医療用観察装置を提供することにある。
 本発明に係る医療用観察装置は、被検体を撮像してそれぞれ画像信号を出力する複数の撮像部と、前記撮像部から出力される前記各画像信号から前記被検体に対する焦点情報をそれぞれ取得する焦点情報取得部と、前記焦点情報取得部により取得された前記各焦点情報に基づいて前記被検体に対してフォーカスするのに適した前記撮像部を選択する選択部と、前記選択部により選択された前記撮像部から出力される前記画像信号に基づいて前記被検体に対するフォーカスを行うフォーカス制御部とを具備する。
 本発明によれば、如何なる状況下にあっても確実かつ正確にAF動作ができる医療用観察装置を提供できる。
図1は、本発明に係る医療用観察装置の第1の実施の形態を適用した消化管ビデオスコープを示す構成図である。 図2は、同装置により取得された通常光側のフォーカスレンズ移動量に対するコントラストの変化を示す図である。 図3は、同装置により取得されたIRI側のフォーカスレンズ移動量に対するコントラストの変化を示す図である。 図4は、本発明に係る3D用の医療用観察装置の第2の実施の形態を示す構成図である。 図5は、同装置におけるフォーカスレンズを予め設定された距離だけ移動させたときの大きなコントラストの変化量を示す図である。 図6は、同装置におけるフォーカスレンズを予め設定された距離だけ移動させたときの小さなコントラストの変化量を示す図である。 図7は、同装置により3D撮像する場合における第1及び第2の撮像部の各撮像範囲と各測距ポイントとを示す模式図である。 図8は、同装置における3D撮像する場合における測距ポイントのシフトを示す模式図である。 図9は、同装置における3D撮像する場合における測距ポイントのシフトを示す模式図である。 図10は、本発明に係る医療用観察装置の第3の実施の形態を示す構成図である。 図11Aは、同装置における赤色の単色映像信号Rtにより取得される画像データのフォーカスレンズ移動量に対するコントラストの変化量を示す模式図である。 図11Bは、同装置における緑色の単色映像信号により取得される画像データのフォーカスレンズ移動量に対するコントラストの変化量を示す模式図である。 図11Cは、同装置における青色の単色映像信号により取得される画像データのフォーカスレンズ移動量に対するコントラストの変化量を示す模式図である。 図12は、本発明に係る医療用観察装置の第4の実施の形態を示す構成図である。 図13は、同装置におけるベイヤー配列に従ったR画素、G画素、B画素を有する撮像素子を示す模式図である。 図14は、本発明に係る3D医療用観察装置の第5の実施の形態を示す構成図である。
[第1の実施の形態]
 以下、本発明の第1の実施の形態について図面を参照して説明する。 
 図1は消化管ビデオスコープに適用した医療用観察装置の構成図を示す。本装置は、通常光観察と、赤外光観察(Infra-Red Imaging:IRI)とを可能とする。IRIは、被検体に赤外光を照射して例えば癌の浸潤に関与すると考えられる粘膜深部の血管増生や血流情報の観察等を行うことに期待するところが大きいものである。 
 挿入部1内には、ライトガイド2が設けられている。ライトガイド2は、一端が挿入部1の先端部に配置され、他端が光源部3に接続されている。ライトガイド2は、光源部3から出力された通常光(白色光)又は赤外光を被検体Qに照射する。
 光源部3には、例えばキセノンランプ等の光源4と、光源4から発せられる通常光の光路上に設けられた励起光用フィルタ5とを含む。励起光用フィルタ5は、例えば光の透過領域として例えば2つの赤外領域(790~820nm/905~970nm)を有する。励起光用フィルタ5は、2つの赤外領域(790~820nm/905~970nm)に光源4から発せられた通常光を透過させて赤外光を得る。励起光用フィルタ5は、光源4から発せられる通常光の光路上に挿脱可能である。フィルタ5は、同光路上から外れると、本装置を通常光観察用とする。フィルタ5は、同光路上に挿入されると、本装置をIRI用とする。
 挿入部1内には、対物レンズ10と、フォーカスレンズ11と、結像レンズ12と、ダイクロイックミラー13とが同一光軸上に設けられている。対物レンズ10と結像レンズ12とダイクロイックミラー13とは、挿入部1に固定して設けられている。フォーカスレンズ11は、光軸方向に移動可能に設けられている。フォーカスレンズ11には、支持部14を介してスクリューネジ15が設けられている。支持部14には、内径にネジが切ってある。当該ネジには、スクリューネジ15が螺合している。スクリューネジ15には、駆動変換機構16を介してモータ17が設けられている。駆動変換機構16は、モータ17の駆動をスクリューネジ15の回転に変換する。ダイクロイックミラー13は、通常光と、IRI用の赤外領域(790~820nm/905~970nm)の赤外光との2つの波長領域の光に分岐する。ここでは、ダイクロイックミラー13は、通常光を反射し、赤外光を透過させる。
 ダイクロイックミラー13の通常光側には、通常光用の撮像部20が設けられている。IRI側には、IRI用の撮像部21が設けられている。各撮像部20、21は、それぞれ複数の撮像素子を縦横方向に配置して成る。撮像部20は、被検体Qからの反射光のうち通常光を受光してその画像信号を出力する。撮像部20の出力端子には、ビデオプロセッサ22を介して測距コントラスト演算部(焦点情報取得部)23が接続されると共に、AF制御部24が接続されている。ビデオプロセッサ22には、撮像部20から出力される画像信号を入力し、この画像信号に対して各種画像処理を行って画像データを取得する。
 測距コントラスト演算部23は、ビデオプロセッサ22により取得される画像データ上の後述する複数の測距ポイントにおいてそれぞれ焦点情報としてコントラストを取得する。 
 複数の測距ポイントは、それぞれ被検体Qに対してフォーカスを行うために被検体Qに対する合焦の状態を測定する点である。各測距ポイントは、例えば画像データ上における縦横方向に所定間隔毎に設けられる。
 具体的に撮像部20は、複数の撮像素子を縦横方向に配置して成る。撮像部20は、各撮像素子が配置されている縦横方向の所定間隔毎に複数のAF用検出素子が設けられている。各AF用検出素子の配置点は、それぞれ測距ポイントに対応する。
 AF制御部24は、ビデオプロセッサ22により取得される画像データ上の複数の測距ポイントにおいてそれぞれ高周波成分を抽出し、当該抽出した高周波成分を積算することによりAF用の合焦評価値を取得する。AF制御部24は、取得した合焦評価値に従って画像データのコントラストを評価しながらフォーカスレンズ駆動信号をモータ駆動部25に出力し、フォーカスレンズ11を合焦状態となる位置に調整する。
 撮像部21は、被検体Qからの反射光のうち赤外光を受光してその画像信号を出力する。撮像部21の出力端子には、ビデオプロセッサ26を介して測距コントラスト演算部27とAF制御部28とが接続されている。ビデオプロセッサ26は、撮像部21から出力される画像信号を入力し、当該画像信号に対して各種画像処理を行って画像データを取得する。
 測距コントラスト演算部27は、測距コントラスト演算部23と同様に、ビデオプロセッサ26により取得される画像データ上の複数の測距ポイントにおいてコントラストを取得する。撮像部21における各撮像素子中の縦横方向の所定間隔毎には、複数のAF用検出素子が設けられている。上記各測距ポイントは、上記測距ポイントと同様に、撮像部21の各撮像素子中の縦横方向の所定間隔毎に設けられている各AF用検出素子の配置点に対応する。
 AF制御部28は、ビデオプロセッサ26により取得される画像データ上の複数の測距ポイントにおいての高周波成分を抽出し、当該抽出した高周波成分を積算することによりAF用の合焦評価値を取得する。AF制御部28は、取得した合焦評価値に従って画像データのコントラストを評価しながらフォーカスレンズ駆動信号をモータ駆動部25に出力し、フォーカスレンズ11を合焦状態となる位置に移動する。
 比較部(選択部)29は、通常光側の測距コントラスト演算部23により取得されたコントラストを入力すると共に、IRI側の測距コントラスト演算部43により取得されたコントラストを入力する。比較部29は、入力した各コントラストに基づいてフォーカスレンズ11を合焦状態となる位置に移動させてAFを行うのに適した撮像部20又は21を選択する。 
 具体的に、比較部29は、通常光側の測距コントラスト演算部23により取得されたコントラストを入力すると共に、IRI側の測距コントラスト演算部27により取得されたコントラストを入力し、当該各コントラストを比較する。比較部29は、各コントラストの比較の結果、AF制御部24及びAF制御部28のうち、コントラストの高い側のAF制御部によってAF動作を実行させる。コントラストの低い側のAF制御部に対しては、AF動作を禁止するようにしてもよい。当該比較部29は、各コントラストを比較する場合、当該各コントラストのうち当該コントラストの変化量又はピーク値の大きなコントラストが現れる撮像部20又は撮像部21を選択するようにしてもよい。
 モータ駆動部25は、AF制御部24又はAF制御部28からのフォーカスレンズ駆動信号を入力し、当該フォーカスレンズ駆動信号に従ってモータ17を駆動する。モータ17の駆動は、駆動変換機構16、スクリューネジ15を介して支持部14に伝達される。これにより、支持部14は、スクリューネジ15の軸方向に移動する。当該支持部14の移動に応じてフォーカスレンズ11は、光軸方向に移動し、合焦状態となる位置に調整される。
 次に、上記の如く構成された装置の動作について説明する。 
 光源部3において励起光用フィルタ5が光源4の光路上から外されると、光源部3からは、通常光が出力される。通常光は、ライトガイド2を通って挿入部1の先端部から出力され、被検体Qに照射される。通常光が被検体Qに照射されると、当該被検体Qからの反射光の一部が挿入部1の先端部の対物レンズ10に入射する。 
 対物レンズ10に入射した被検体Qからの反射光は、フォーカスレンズ11、結像レンズ12を通ってダイクロイックミラー13に入射し、当該ダイクロイックミラー13によって通常光とIRI用の赤外光とに分岐される。
 通常光側の撮像部20は、被検体Qからの反射光のうち通常光を受光してその画像信号を出力する。ビデオプロセッサ22は、撮像部20から出力される画像信号を入力し、当該画像信号に対して各種画像処理を行って画像データを取得する。 
 測距コントラスト演算部23は、ビデオプロセッサ22により取得される画像データ上の複数の測距ポイントにおいてそれぞれコントラストを取得する。
 IRI側の撮像部21は、被検体Qからの反射光のうち赤外光を受光してその画像信号を出力する。ビデオプロセッサ26は、撮像部21から出力される画像信号を入力し、当該画像信号に対して各種画像処理を行って画像データを取得する。 
 測距コントラスト演算部27は、ビデオプロセッサ26により取得される画像データ上の複数の測距ポイントにおいてそれぞれコントラストを取得する。
 以上のように励起光用フィルタ5を光源4の光路上から外したときは、通常光側の測距コントラスト演算部23により取得したコントラストを採用し、IRI側の測距コントラスト演算部27により取得したコントラストを不採用とする。すなわち、比較部29は、通常光側の測距コントラスト演算部23により取得したコントラストを入力する。
 一方、励起光用フィルタ5が光源4の光路上にから挿入されると、光源部3からは、赤外光が出力される。赤外光は、ライトガイド2を通って挿入部1の先端部から出力され、被検体Qに照射される。被検体Qから反射光が生じると、当該反射光の一部は、挿入部1の先端部の対物レンズ10に入射する。対物レンズ10に入射した被検体Qからの反射光は、フォーカスレンズ11、結像レンズ12を通ってダイクロイックミラー13に入射し、当該ダイクロイックミラー13によって通常光とIRI用の赤外光とに分岐される。
 通常光側の撮像部20は、上記同様に、被検体Qからの反射光のうち通常光を受光してその画像信号を出力する。測距コントラスト演算部23は、ビデオプロセッサ22により取得される画像データ上の複数の測距ポイントにおいてそれぞれコントラストを取得する。 
 IRI側の撮像部21は、被検体Qからの反射光のうち赤外光を受光してその画像信号を出力する。測距コントラスト演算部27は、ビデオプロセッサ26により取得される画像データ上の複数の測距ポイントにおいてそれぞれコントラストを取得する。
 このように励起光用フィルタ5を光源4の光路上に挿入したときに、上記同様に、通常光側の測距コントラスト演算部23により取得したコントラストを不採用とし、IRI側の測距コントラスト演算部27により取得したコントラストを採用とする。すなわち、比較部29は、IRI側の測距コントラスト演算部27により取得したコントラストを入力する。
 比較部29は、励起光用フィルタ5を外したときの通常光側の測距コントラスト演算部23により取得されたコントラストと、励起光用フィルタ5を挿入したときのIRI側の測距コントラスト演算部27により取得されたコントラストとを比較し、コントラストが高くなったのが通常光側又はIRI側であるのかを判定する。判定の結果、コントラストが高くなったのが通常光側であれば、比較部29は、AF制御部24によりAF動作を実行させる。コントラストが高くなったのがIRI側であれば、比較部29は、AF制御部28によりAF動作を実行させる。
 例えば図2は通常光側のコントラストの変化を示し、図3はIRI側のコントラストの変化を示す。これら図に示すように通常光側のコントラストがIRI側のコントラストよりも高ければ、比較部29は、通常光側のAF制御部24に対してAF動作を実行させる。
 通常光側のAF制御部24は、ビデオプロセッサ22により取得される画像データの高周波成分を抽出し、抽出した高周波成分を積算することによりAF用の合焦評価値を取得する。AF制御部24は、取得した合焦評価値に従って画像データのコントラストを評価しながらフォーカスレンズ駆動信号をモータ駆動部25に出力し、フォーカスレンズ11を合焦状態となる位置に調整する。 
 モータ駆動部25は、AF制御部24からの制御信号を入力し、当該制御信号に従ってモータ17を駆動する。モータ17の駆動は、駆動変換機構16、スクリューネジ15を介して支持部14に伝達するので、当該支持部14は、スクリューネジ15の軸方向に移動する。この支持部14の移動に応じてフォーカスレンズ11は、光軸方向に移動し、合焦状態となる位置に調整される。
 IRI側のコントラストが通常光側のコントラストよりも高ければ、比較部29は、IRI側のAF制御部28に対してAF動作を実行させる。IRI側のAF制御部28は、上記AF制御部24と同様に、ビデオプロセッサ26により取得される画像データのコントラストを評価しながらフォーカスレンズ11を合焦状態となる位置に調整するためのフォーカスレンズ駆動信号をモータ駆動部25に出力する。モータ駆動部25は、AF制御部24からのフォーカスレンズ駆動信号を入力し、当該フォーカスレンズ駆動信号に従ってモータ17を駆動することにより、フォーカスレンズ11を合焦状態となる位置に調整する。
 このように上記第1の実施の形態によれば、通常光側の撮像部20から出力される画像信号に基づく画像データからコントラストを取得し、IRI側の撮像部21から出力される画像信号に基づく画像データからコントラストを取得し、これらコントラストを比較し、コントラストの高い側のAF制御部24又はAF制御部28によってAF動作を実行させる。これにより、本実施の形態によれば、如何なる状況下にあっても、例えば、脳神経外科の手術において、被検体である頭部の術部を拡大した画像が赤色又は白色等の単調色になったり、術部から出血して赤色一色になったとしても、通常光側又はIRI側のコントラストの高い画像データを用いて被検体である頭部の術部に対いて確実かつ正確にAF動作をすることができる。
 本装置は、IRIから狭帯域光観察(Narrow Band Imaging:NBI)への切り替えが容易である。NBIへの切り替えは、励起光用フィルタ5と、ダイクロイックミラー13とをNBI用に交換する。 
 NBI用の励起光用フィルタ5は、光源4から発せられる通常光を、例えば2つの赤外領域(390~445nm/530~550nm)のフィルタに透過させて赤外光とする。 
 ダイクロイックミラー13は、通常光と、NBI用の赤外領域(390~445nm/530~550nm)の赤外光との2つの波長領域の光に分岐する。
 このようなNBIであれば、通常光側の撮像部20から出力される画像信号に基づく画像データからコントラストが取得される。これと共にNBI側の撮像部21から出力される画像信号に基づく画像データからコントラストが取得される。これらコントラストは、比較され、コントラストの高い側のAF制御部24又はAF制御部28によってAF動作が実行されるので、上記IRIと同様の効果を奏することが出来る。
 なお、上記第1の実施の形態は、通常光側の撮像部20の撮像により取得される画像データのコントラストと、IRI側の撮像部21の撮像により取得される画像データのコントラストとを比較しているが、コントラストに限らず、各画像データの各明度、又は各輝度のうちいずれか1つ同士を比較してもよい。この比較の結果、いずれか大きい方の明度、又は輝度が現れる画像データを取得する通常光側の撮像部20又はNBI側の撮像部21を選択し、当該選択された通常光側の撮像部20又はNBI側の撮像部21により取得される画像データに基づいてAF制御部24又はAF制御部28によってAF動作を実行させてもよい。 
 コントラスト、各画像データの各明度、又は各輝度のうち少なくとも1つを用いて通常光側の撮像部20又はNBI側の撮像部21を選択するようにしてもよい。
[第2の実施の形態]
 次に、本発明の第2の実施の形態について図面を参照して説明する。 
 図4は3D用の医療用観察装置の構成図を示す。本装置は、例えば脳神経外科領域において、2つの撮像部を備えて被検体Qを立体視し、頭部の術部を拡大観察するために使用される。 
 本装置は、顕微鏡本体30を含む。顕微鏡本体30の先端部には、対物レンズ31が設けられている。顕微鏡本体30内には、被検体Qの3D画像データを取得するための一対のフォーカスレンズ32、33と、一対の第1と第2の撮像部34、35とが設けられている。フォーカスレンズ32と第1の撮像部34とにより例えば左側用の観察系36が構成される。フォーカスレンズ33と第2の撮像部35とにより例えば右側用の観察系37が構成される。左側用と右側用の観察系36、37は、互いに輻輳角φを持って被写体Qを観察するように設けられている。
 一対のフォーカスレンズ32、33は、支持部36を介して一体的に設けられ、かつ当該支持部36を介してスクリューネジ15に設けられている。一対のフォーカスレンズ32、33は、上記図1と同様に、スクリューネジ15に駆動変換機構16を介してモータ17が設けられている。駆動変換機構16は、モータ17の駆動をスクリューネジ15の回転に変換する。
 3D用の撮像系として第1の撮像部34と第2の撮像部35とが設けられている。 
 第1の撮像部34は、3D用の一方の視点側において、被検体Qからの光を受光してその画像信号を出力する。第1の撮像部34の出力端子は、通信制御ユニット(CCU)40に接続されている。 
 第2の撮像部35は、3D用の他方の視点側において、被検体Qからの光を受光してその画像信号を出力する。第2の撮像部35の出力端子は、CCU40に接続されている。
 CCU40は、第1の撮像部34から出力された画像信号と、第2の撮像部35から出力された画像信号とを入力し、各画像信号に対してそれぞれ予め設定された画像処理を行って各画像データを取得し、当該各画像データを各出力端子から出力する。CCU40の各出力端子には、3Dプロセッサ41と、各測距コントラスト演算部43、44とが接続されている。
 3Dプロセッサ41は、CCU40により画像処理された各画像信号に対してそれぞれ各種画像処理を行い、3Dモニタ42において表示可能な3D画像データを取得する。3Dプロセッサ41は、取得した3D画像データを3Dモニタ42に表示駆動する。 
 3Dモニタ42は、例えば液晶デイスプレイから成り、3Dプロセッサ41の表示駆動によって被検体Qの3D画像データを表示する。
 測距コントラスト演算部43は、フォーカスレンズ32、33を光軸方向に予め設定された距離だけ移動させるフォーカスレンズ駆動信号をAF制御部46に送る。測距コントラスト演算部43は、フォーカスレンズ32、33が移動している期間中に、CCU40の画像処理により取得された画像データ、すなわち第1の撮像部(左側用)34の撮像により取得される画像データ上における複数の測距ポイントにおいてコントラストの変化量を取得する。これと共に測距コントラスト演算部43は、CCU40の画像処理により取得された画像データに対して処理を加えずに切替スイッチ部45に送る。
 測距コントラスト演算部44は、上記測距コントラスト演算部43と同様に、フォーカスレンズ32、33を光軸方向に予め設定された距離だけ移動させるフォーカスレンズ駆動信号をAF制御部46に送る。当該フォーカスレンズ駆動信号は、測距コントラスト演算部43又は測距コントラスト演算部44のうちいずれか一方から出力されるように設定すればよい。
 測距コントラスト演算部44は、フォーカスレンズ32、33が移動している期間中に、CCU40の画像処理により取得された画像データ、すなわち第2の撮像部(右側用)35の撮像により取得される画像データ上における複数の測距ポイントにおいてコントラストの変化量を取得する。これと共に、測距コントラスト演算部44は、CCU40の画像処理により取得された画像データに対して処理を加えずに切替スイッチ部45に送る。
 比較部29は、左側用の測距コントラスト演算部43により取得された左側用のコントラストの変化量を入力し、これと共に右側用の測距コントラスト演算部44により取得された右側用のコントラストの変化量を入力し、当該各コントラストの変化量を比較し、コントラストが高くなったのが左側用又は右側用の観察系36、37であるのかを判定する。判定の結果、コントラストが高くなったのが左側用の観察系36であれば、比較部29は、第1の撮像部(左側用)34の撮像により取得された画像データを用いてAF制御部46によりAF動作を実行させるための切替信号を切替スイッチ部45に送る。
コントラストが高くなったのが右側用の観察系37であれば、比較部29は、第2の撮像部(右側用)35の撮像により取得された画像データを用いてAF制御部46によりAF動作を実行させるための切替信号を切替スイッチ部45に送る。当該切替信号は、例えばコントラストの変化量の大きい側の第1又は第2の撮像部34、35を示す。
 図5及び図6はそれぞれフォーカスレンズ32、33を予め設定された距離dだけ移動させたときのコントラストの変化量を示す。図5はコントラストの変化量が大きく、図6はコントラストの変化量が小さくなっている。第1又は第2の撮像部34、35から出力される各画像信号は、当該図5又は図6に示すコントラストの変化量を示す。
 比較部29は、第1又は第2の撮像部34、35から出力され、上記図5又は図6に示すコントラストの変化量を示す各画像信号のいずれかを用いてAF動作を実行させるための切替信号を切替スイッチ部45に送る。第1と第2の撮像部34、35により取得される各画像データのコントラストの変化量が上記図5又は図6に示すように相違するのは、例えば脳神経外科の手術中、対物レンズ31に汚れが付着し、当該汚れが第1又は第2の撮像部34、35の視野内に入った場合、当該汚れの影響により図6に示すように例えばいずれか一方の画像信号のコントラストの変化量が小さくなることに拠る。
 切替スイッチ部45は、左側用の測距コントラスト演算部43の出力端子に接続された切替端子45aと、右側用の測距コントラスト演算部44の出力端子に接続された切替端子45bと、切替端子45a又は45bのいずれか一方に切替接続するスイッチ端部45cとを含む。切替スイッチ部45は、比較部29からの切替信号を入力すると、当該切替信号により示すコントラストの高い側の第1又は第2の撮像部34、35に対応する切替端子45a又は45bにスイッチ端部45cを切替接続する。スイッチ端部45cの出力側には、AF制御部46が接続されている。
 AF制御部46は、切替スイッチ部45を介して送られてくる第1の撮像部(左側用)34の撮像により取得された画像データ、又は第2の撮像部(右側用)35の撮像により取得された画像データを入力する。AF制御部46は、入力した画像データ上における複数の測距ポイントにおいて高周波成分を抽出し、当該抽出した高周波成分を積算することによりAF用の合焦評価値を取得する。AF制御部46は、取得した合焦評価値に従って画像データのコントラストを評価しながらフォーカスレンズ駆動信号をモータ駆動部25に出力し、フォーカスレンズ32、33を合焦状態となる位置に移動させる。
 次に、上記の如く構成された装置の動作について説明する。 
 一方の視点側において、被検体Qからの光は、対物レンズ31と、一方のフォーカスレンズ32とを介して第1の撮像部34に入射する。第1の撮像部34は、被検体Qからの光を受光してその画像信号を出力する。 
 他方の視点側において、被検体Qからの光は、対物レンズ31と、他方のフォーカスレンズ33とを介して第2の撮像部35に入射する。第2の撮像部35は、被検体Qからの光を受光してその画像信号を出力する。
 CCU40は、第1の撮像部34から出力された画像信号と、第2の撮像部35から出力された画像信号とを入力し、当該各画像信号に対してそれぞれ予め設定された画像処理を行ってその各画像データを各出力端子から出力する。CCU40から出力された各画像データは、3Dプロセッサ41に送られると共に、各測距コントラスト演算部43、44に送られる。
 3Dプロセッサ41は、CCU40により画像処理された各画像信号に対してそれぞれ各種画像処理を行って液晶デイスプレイ等の3Dモニタ42において表示可能な3D画像データを取得する。3Dプロセッサ41は、3D画像データを3Dモニタ42に表示駆動する。
 一方の測距コントラスト演算部43は、各フォーカスレンズ32、33を光軸方向に予め設定された距離だけ移動させるフォーカスレンズ駆動信号をAF制御部46に送る。AF制御部46は、フォーカスレンズ駆動信号に従って各フォーカスレンズ32、33を一体的に光軸方向に移動させる。 
 各フォーカスレンズ32、33が移動している期間中、測距コントラスト演算部43は、CCU40の画像処理により取得された画像データ、すなわち第1の撮像部(左側用)34の撮像により取得される画像データ上の複数の測距ポイントにおいてコントラストの変化量又はピーク値を取得する。これと共に、測距コントラスト演算部43は、CCU40の画像処理により取得された画像データに対して処理を加えずに切替スイッチ部45に送る。
 他方の測距コントラスト演算部44は、上記測距コントラスト演算部43と同様に、各フォーカスレンズ32、33が移動している期間中、CCU40の画像処理により取得された画像データ、すなわち第2の撮像部(右側用)35の撮像により取得される画像データ上の複数の測距ポイントにおいてコントラストの変化量又はピーク値を取得する。これと共に、測距コントラスト演算部44は、CCU40の画像処理により取得された画像データに対して処理を加えずに切替スイッチ部45に送る。
 比較部29は、左側用の測距コントラスト演算部43により取得された左側用のコントラストを入力すると共に、右側用の測距コントラスト演算部44により取得された右側用のコントラストを入力し、当該各コントラストを比較する。比較の結果、比較部29は、コントラストの変化量の大きい側の第1又は第2の撮像部34、35から出力される画像信号を用いてAF動作を実行させるための切替信号を切替スイッチ部45に送る。
 切替スイッチ部45は、比較部29からの切替信号を入力すると、当該切替信号により示すコントラストの高い側の第1又は第2の撮像部34、35に対応する切替端子45a又は45bにスイッチ端部45cを切替接続する。
 AF制御部46は、切替スイッチ部45を介して送られてくる第1の撮像部(左側用)34の撮像により取得された画像データ、又は第2の撮像部(右側用)35の撮像により取得された画像データを入力する。AF制御部46は、入力した画像データ上における複数の測距ポイントにおいて高周波成分を抽出し、当該抽出した高周波成分を積算することによりAF用の合焦評価値を取得する。AF制御部46は、取得した合焦評価値に従って画像データのコントラストを評価しながらフォーカスレンズ駆動信号をモータ駆動部25に出力し、各フォーカスレンズ32、33を合焦状態となる位置に一体的に移動する。
 モータ駆動部25は、AF制御部24からの制御信号を入力し、当該制御信号に従ってモータ17を駆動する。モータ17の駆動は、駆動変換機構16、スクリューネジ15を介して支持部36に伝達するので、当該支持部36は、スクリューネジ15の軸方向に移動する。この支持部36の移動に応じてフォーカスレンズ32、33は、光軸方向に移動し、合焦状態となる位置に調整される。
 このように上記第2の実施の形態によれば、第1の撮像部(左側用)34から出力される画像信号に基づく画像データからコントラストを取得し、第2の撮像部(右側用)35から出力される画像信号に基づく画像データからコントラストを取得し、これらコントラストを比較し、コントラストの変化量の大きい側の第1又は第2の撮像部34、35の撮像により取得される画像データに基づいてAF動作を行う。これにより、本実施の形態によれば、上記第1の実施の形態と同様に、如何なる状況下にあっても、例えば、脳神経外科の手術において、被検体Qである頭部の術部を拡大した画像が赤色又は白色等の単調色になったり、術部から出血して赤色一色になったとしても、コントラストの高い画像データを用いて被検体Qに対するAF動作を行うことにより、頭部の術部に対いて確実かつ正確にAF動作をすることができる。
 例えば、第1と第2の撮像部34、35では、被検体Qを撮像するときに互いに輻輳角φを持って撮像する。これにより、被検体Qを照射する照明光の入射角によっては、第1又は第2の撮像部34、35のいずれか一方に照明光の反射光が入射し、被検体Qの画像データの輝度が一様に高くなってしまいコントラストが低くなるおそれがある。このような場合でも、輝度が一様に高くなった画像データを用いずに、画像データのコントラストの高い第1又は第2の撮像部34、35の画像データを用いてAF動作をすることができる。
 脳神経外科の手術中に、対物レンズ31に汚れが付着し、第1又は第2の撮像部34、35の視野内に汚れが入ると、第1又は第2の撮像部34、35の撮像により取得される画像データのコントラストが低くなって正確にAF動作をすることが難しくなるおそれがある。これに対して本実施の形態は、コントラストの高い側の第1又は第2の撮像部34、35の画像データを用いてAF動作するので、対物レンズ31に汚れが付着していても、汚れの影響の少ない第1又は第2の撮像部34、35の画像データを用いて確実かつ正確にAF動作をすることができる。
 第1及び第2の撮像部34、35により被写体Qを3D撮像する場合、第1及び第2の撮像部34、35の各撮像範囲は、図7に示すように当該第1及び第2の撮像部34、35の撮像により取得される各画像データ上において、第1の撮像部34の撮像範囲がW1となり、第2の撮像部35の撮像範囲がW2となる。
 画像データ上において、複数の測距ポイントのうち例えば第1の撮像部34の測距ポイントをT1とし、第2の撮像部35の測距ポイントをT2とすると、AF動作の各測距ポイントT1、T2の間隔には、第1と第2の撮像部34、35の焦点距離や輻輳角φ、第1と第2の撮像部34、35の間隔に応じたずれSがある。
 従って、各測距コントラスト演算部43、44は、第1と第2の撮像部34、35の焦点距離に応じて各測距ポイントT1、T2を第1の撮像部34側又は第2の撮像部35側にシフトする。 
 具体的に、測距コントラスト演算部43では、第1の撮像部34から出力される画像信号に基づいてコントラストを取得する場合、被検体Qと第1の撮像部34との距離が焦点距離以内であれば、例えば図8に示すようにコントラストを取得する測距ポイントT1を第2の撮像部35側にシフトし、焦点距離以上であれば、測距ポイントT1を第2の撮像部35側とは反対側にシフトする。
 一方、測距コントラスト演算部44では、第2の撮像部35から出力される画像信号からコントラストを取得する場合、被検体Qと第2の撮像部35との距離が焦点距離以内であれば、例えば図9に示すようにコントラストを取得する測距ポイントT2を第1の撮像部34側にシフトし、焦点距離以上であれば、測距ポイントT2を第1の撮像部34側とは反対側にシフトする。
 このように測距コントラスト演算部43、44では、第1と第2の撮像部34、35の間隔に応じてAF動作の各測距ポイントT1、T2にずれSがあっても、第1と第2の撮像部34、35の焦点距離に応じて各測距ポイントをT1、T2を第1の撮像部34側又は第2の撮像部35側にシフトする。これにより、各測距ポイントT1、T2のずれSが補正され、上記のように画像データのコントラストの変化量の大きい第1又は第2の撮像部34、35の画像データを用いてAF動作をすることの信頼性を向上することができる。
[第3の実施の形態]
 次に、本発明の第3の実施の形態について図面を参照して説明する。 
 図10は医療用観察装置の構成図を示す。撮像部50は、被検体Qを撮像して波長帯別の赤(R)、緑(G)、青(B)の各画像信号を出力する。撮像部50は、焦点可変光学系51と、撮像ユニット52とを含む。焦点可変光学系51は、被検体Qに対してフォーカスを行う。焦点可変光学系51は、対物レンズ53と、フォーカスレンズ54と、結像レンズ55とを同一光軸上に配置してなる。フォーカスレンズ54は、支持部56を介してスクリューネジ57に設けられている。支持部56には、内径にネジが切ってあり、当該ネジにスクリューネジ57が螺合している。スクリューネジ57の一端部には、モータ58が設けられている。モータ58は、駆動することによりスクリューネジ57を回転させる。スクリューネジ57が回転すると、当該スクリューネジ57の回転に応動して支持部56とフォーカスレンズ54とが一体的にスクリューネジ57の軸方向、すなわち光軸方向に移動する。
 撮像ユニット52は、焦点可変光学系51を介して入射する被検体Qからの光像を撮像してRGBの各画像信号を出力する。撮像ユニット52は、色分離フィルタ50fと、R、G、Bの波長帯別の複数の撮像素子、例えば3つの撮像素子59R、59G、59Bとを含む。 
 色分離フィルタ50fは、焦点可変光学系51からの光をR、G、Bの各波長帯別の各光に分離する。
 各撮像素子59R、59G、59Bは、それぞれ受光素子として複数の固体撮像素子(CCD)を配列して成る。各撮像素子59R、59G、59Bには、少なくとも2種類以上の互いに異なる複数の波長領域のフィルタ、例えばRフィルタ、Gフィルタ、Bフィルタが配置されている。各撮像素子59R、59G、59Bは、それぞれ色分離フィルタ50fにより分離されたR、G、Bの各波長帯別の光を受光してRGBの各画像信号を出力する。各撮像素子59R、59G、59Bは、いわゆる3板CCDと呼ばれる。
 フォーカス位置センサ60が焦点可変光学系51に設けられている。フォーカス位置センサ60は、フォーカスレンズ54が被検体Qに対してフォーカス位置に移動したときにフォーカス位置信号Faを出力する。フォーカス位置センサ60は、例えば発光素子と受光素子とから成る。フォーカス位置センサ60は、発光素子から光を発光し、かつフォーカスレンズ54を支持する支持部56からの反射光を受光し、当該受光位置に応じたフォーカス位置信号を出力する。フォーカス位置信号は、AF制御部63に送られる。
 画像処理プロセッサ61は、撮像ユニット52からのRGBの各画像信号を入力し、当該各画像信号に対してそれぞれ所定の画像処理を行い、RGBの各映像信号から成る通常の映像信号Jと、RGBの各単色映像信号Rt、Gt、Btとを作成し、各映像信号J、Rt、Gt、Bt出力する。 
 AF入力切替部62は、通常の映像信号Jと、RGBの各単色映像信号Rt、Gt、Btとをそれぞれ入力し、各映像信号J、Rt、Gt、Btのうちいずれか1つの映像信号に切り替えて出力する。AF入力切替部62には、各映像信号J、Rt、Gt、Bt別の各切替スイッチ61J、61R、61G、61Bが設けられている。AF入力切替部62は、例えば手動操作を受けていずれか1つの切替スイッチ61J、61R、61G、61Bがオン(ON)になる。各切替スイッチ61J、61R、61G、又は61Bは、自動的に一定間隔毎に、順次いずれか1つがオン(ON)になるようにしてもよい。AF入力切替部62から出力された映像信号J、Rt、Gt又はBtは、AF制御部63に送られる。
 AF制御部63は、AF入力切替部62から送られてくる各映像信号J、Rt、Gt、又はBtから画像データを取得する。AF制御部63は、取得した画像データ上における複数の測距ポイントにおいての高周波成分を抽出し、当該抽出した高周波成分を積算することによりAF用の合焦評価値を取得する。AF制御部63は、取得した合焦評価値に従って画像データのコントラストを評価しながら動作ストップ信号をモータ駆動部64に出力し、フォーカスレンズ54をフォーカス位置で停止させる。AF制御部63は、コントラスト演算部65と、比較部66とを含む。
 コントラスト演算部65は、AF入力切替部62における各切替スイッチ61J、61R、61G、61Bが例えば一定期間毎に順次切り替わると、当該一定期間毎に、フォーカスレンズ54を光軸方向に予め設定された距離だけ移動させるフォーカスレンズ駆動信号をフォーカス制御部63に送る。このフォーカス制御部63は、フォーカスレンズ54を予め設定された距離だけ移動させる。当該フォーカスレンズ54が移動している期間中に、コントラスト演算部65は、AF入力切替部62から送られてくる各映像信号Rt、Gt又はBtから画像データを取得し、当該画像データ上における複数の測距ポイントにおいてコントラストの変化量又はピーク値を取得する。
 比較部66は、コントラスト演算部65より取得された各単色映像信号Rt、Gt、Bt毎の各コントラストの変化量又は各ピーク値を互いに比較する。比較の結果、比較部66は、各コントラストの変化量のうち最も高いコントラストの変化量を示す単色映像信号Rt、Gt、又はBtを出力する撮像素子59R、59G、又は59Bを判定する。判定の結果、比較部66は、最も高いコントラストの変化量を示す撮像素子59R、59G、又は59Bから出力される画像信号を用いてAF動作を実行させるための選択信号をAF制御部63に送る。
 図11A、図11B、図11Cは、コントラストの変化量の一例を示すもので、図11Aは単色映像信号Rtにより取得される画像データのコントラストの変化量を示し、図11Bは単色映像信号Gtにより取得される画像データのコントラストの変化量を示し、図11Cは単色映像信号Btにより取得される画像データのコントラストの変化量を示す。
 比較部29は、単色映像信号Rt、Gt、Bt毎の各コントラストの変化量を互いに比較し、例えば、最も高いコントラストの変化量を示す撮像素子59Gから出力される画像信号を用いてAF動作を実行させるための選択信号をAF制御部63に送る。
 AF制御部63は、選択された単色映像信号Rt、Gt、又はBtから画像データを取得し、上記同様に、当該画像データからAF用の合焦評価値を取得し、当該合焦評価値に従ってコントラストを評価しながら動作ストップ信号をモータ駆動部64に出力し、フォーカスレンズ54をフォーカス位置で停止させる。
 次に、上記の如く構成された装置の動作について説明する。 
 撮像ユニット52の撮像素子59R、59G、59Bは、焦点可変光学系51を介して入射する被検体Qからの光像を撮像し、RGBの各画像信号を出力する。 
 画像処理プロセッサ61は、撮像ユニット52からのRGBの各画像信号を入力し、当該各画像信号に対してそれぞれ所定の画像処理を行い、RGBの各映像信号から成る通常の映像信号Jと、RGBの各単色映像信号Rt、Gt、Btとを作成し、出力する。
 AF入力切替部62は、通常の映像信号Jと、RGBの各単色映像信号Rt、Gt、Btとをそれぞれ入力し、当該各映像信号Rt、Gt、Btのうちいずれか1つの映像信号に切り替えて出力する。この場合、AF入力切替部62は、各切替スイッチ61R、61G、61Bを自動的に一定間隔毎に順次いずれか1つの切替スイッチ61R、61G、又は61Bがオン(ON)になるようにする。AF入力切替部62から出力された単色映像信号Rt、Gt又はBtは、AF制御部63に送られる。
 AF制御部63のコントラスト演算部65は、AF入力切替部62における各切替スイッチ61J、61R、61G、61Bが例えば一定期間毎に順次切り替わると、当該一定期間毎に、フォーカスレンズ54を光軸方向に予め設定された距離だけ移動させるフォーカスレンズ駆動信号をフォーカス制御部63に送る。フォーカス制御部63は、フォーカスレンズ54を光軸方向に予め設定された距離だけ移動させる。
 フォーカスレンズ54が移動している期間中に、コントラスト演算部65は、AF入力切替部62から送られてくる各単色映像信号Rt、Gt、又はBtから画像データを取得し、当該画像データ上における複数の測距ポイントにおいて各単色映像信号Rt、Gt、又はBt毎の各コントラストの変化量又は各ピーク値を取得する。
 比較部66は、コントラスト演算部65より取得された各単色映像信号Rt、Gt、Bt毎の各コントラストの変化量を互いに比較する。比較の結果、比較部66は、各コントラストの変化量のうち最も高いコントラストの変化量の単色映像信号Rt、Gt、又はBtを出力する撮像素子59R、59G、又は59Bを判定する。比較部66は、判定した撮像素子59R、59G、又は59Bから出力される単色映像信号Rt、Gt、又はBt用いてAF動作を実行させるための選択信号をAF制御部63に送る。
 AF制御部63は、選択された単色映像信号Rt、Gt、又はBtから画像データを取得し、上記同様に、当該画像データからAF用の合焦評価値を取得する。AF制御部63は、取得した合焦評価値に従ってコントラストを評価しながらフォーカスレンズ54をフォーカス位置で停止するための動作ストップ信号をモータ駆動部64に出力する。
 このように上記第3の実施の形態によれば、撮像素子59R、59G、59Bから出力されるRGBの各画像信号を通常の映像信号Jと、RGBの各単色映像信号Rt、Gt、Btとを画像処理し、AF入力切替部62における各切替スイッチ61J、61R、61G、61Bの切り替わりにより各単色映像信号Rt、Gt、又はBt毎の各コントラストの変化量を取得し、当該各コントラストの変化量のうち最も高いコントラストの変化量の単色映像信号Rt、Gt、又はBtを出力する撮像素子59R、59G、又は59Bを用いてAF動作を実行させる。
 これにより、本実施の形態によれば、如何なる状況下にあっても、例えば、脳神経外科の手術において、被検体Qである頭部の術部を拡大した画像が赤色又は白色等の単調色になったり、術部から出血して赤色一色になったとしても、RGBのうちコントラストの高い画像データを用いて被検体Qに対するAF動作を行うことにより、頭部の術部に対いて確実かつ正確にAF動作をすることができる。
 被検体Qに照射する照明光が例えばある波長帯を有する特殊光である場合でも、単色映像信号Rt、Gt、又はBt毎の各コントラストの変化量のうち最も高いコントラストの変化量の単色映像信号Rt、Gt、又はBtを出力する撮像素子59R、59G、又は59Bを用いてAF動作を行うので、特殊光に対応して最もコントラストの変化量の高くなる撮像素子59R、59G、又は59Bを選択でき、確実かつ正確にAF動作をすることができる。
 脳神経外科の手術中に、対物レンズ31に汚れが付着した場合でも、RGBのうちコントラストの高い画像データを用いて被検体Qに対するAF動作を行うことにより、頭部の術部に対いて確実かつ正確にAF動作をすることができる。 
 単色映像信号Rt、Gt、又はBt毎の最も高いコントラストの変化量を求めるので、撮像素子59R、59G、又は59Bから出力されるRGBの各画像信号のゲインを高くしたとしても、最も高いコントラストの変化量とならなかった他の撮像素子59R、59G、又は59Bの各画像信号に含まれるノイズ成分の影響を受けなくなる。
[第4の実施の形態]
 次に、本発明の第4の実施の形態について図面を参照して説明する。なお、図10と同一部分には同一符号を付してその詳しい説明は省略し、相違する点について説明する。 
 図12は医療用観察装置の構成図を示す。撮像ユニット52は、撮像素子70を含む。撮像素子70は、複数のCCDを縦横方向に配列して成る。撮像素子70の各CCDには、それぞれ互いに異なる波長領域のフィルタ、例えばRフィルタ、Gフィルタ、Bフィルタが配置されている。これにより、撮像素子70の各CCDは、Rフィルタが配置されたCCDがR画素となり、Gフィルタが配置されたCCDがG画素となり、Bフィルタが配置されたCCDがB画素となる。
 図13は撮像素子70の一構成の模式図を示す。撮像素子70は、R画素、G画素、B画素から成るベイヤー配列に従っている。撮像素子70は、1つのR画素と2つのG画素と1つのB画素とを1グループ化し、当該グループを縦横方向に一定間隔で配列して成る。撮像素子70は、R画素、G画素、B画素の各別に電気信号を発生し、RGBの各画像信号として出力する。
 このような上記第4の実施の形態であれば、R画素、G画素、B画素をベイヤー配列した撮像素子70を設けたので、当該撮像素子70から出力されるRGBの各画像信号を通常の映像信号Jと、RGBの各単色映像信号Rt、Gt、Btとに画像処理し、AF入力切替部62における各切替スイッチ61J、61R、61G、61Bの切り替わりにより各単色映像信号Rt、Gt、又はBt毎の各コントラストの変化量を取得し、当該各コントラストの変化量のうち最も高いコントラストの変化量の単色映像信号Rt、Gt、又はBtを用いてAF動作を実行させる。これにより、上記本実施の形態は、上記第3の実施の形態と同様の効果を奏することができる。
[第5の実施の形態]
 次に、本発明の第5の実施の形態について図面を参照して説明する。なお、図4と同一部分には同一符号を付してその詳しい説明は省略し、相違する点について説明する。 
 図14は3D医療用観察装置の構成図を示す。顕微鏡本体30には、一対の第1の撮像ユニット(左側用)80と第2の撮像ユニット(右側用)81とを含む。 
 第1の撮像ユニット80は、被検体Qからの光像を撮像してRGBの各画像信号を出力する。具体的に、第1の撮像ユニット80は、複数の固体撮像素子(CCD)を縦横に配列した3つの撮像素子群を含む。各撮像素子群別には、Rフィルタ、Gフィルタ、Bフィルタが配置されている。これにより、第1の撮像ユニット80は、R用の撮像素子80rと、G用の撮像素子80gと、B用の撮像素子80bとを含むものとなる。第1の撮像ユニット80は、いわゆる3板CCDと呼ばれる。
 第2の撮像ユニット81は、上記第1の撮像ユニット80と同様に、被検体Qからの光像を撮像してRGBの各画像信号を出力する。具体的に、第2の撮像ユニット81は、複数の固体撮像素子(CCD)を縦横に配列した3つの撮像素子群を含む。各撮像素子群別には、Rフィルタ、Gフィルタ、Bフィルタが配置されている。これにより、第2の撮像ユニット81は、R用の撮像素子81rと、G用の撮像素子81gと、B用の撮像素子81bとを含むものとなる。第2の撮像ユニット81は、いわゆる3板CCDと呼ばれる。 
 第1と第2の撮像ユニット80、81は、それぞれ色分離フィルタ50f(不図示)を含み、被検体Qからの光像をR、G、Bの各波長帯別に分離して各撮像素子80r、80g、…、81bに送る。
 測距コントラスト演算部82は、フォーカスレンズ32、33を光軸方向に予め設定された距離だけ移動させるフォーカスレンズ駆動信号をAF制御部46に送る。測距コントラスト演算部82は、フォーカスレンズ32、33が移動している期間中に、CCU40の画像処理により取得される画像データ、ここでは第1の撮像ユニット(左側用)80から出力される画像信号を画像処理したRGB毎の各画像データ上の複数の測距ポイントにおいてRGB毎に各コントラストの変化量を取得する。これと共に、測距コントラスト演算部82は、CCU40の画像処理により取得されたRGB毎の各画像データに対して処理を加えずに当該各画像データを切替スイッチ部85に送る。測距コントラスト演算部82は、CCU40の画像処理により取得された画像データに限らず、第1の撮像ユニット(左側用)80から出力されるRGBの各画像信号から被検体Qの画像データを求め、当該画像データのコントラストの変化量を取得してもよい。
 測距コントラスト演算部83は、上記測距コントラスト演算部82と同様に、フォーカスレンズ32、33を光軸方向に予め設定された距離だけ移動させるフォーカスレンズ駆動信号をAF制御部46に送る。測距コントラスト演算部83は、フォーカスレンズ32、33が移動している期間中に、CCU40の画像処理により取得される画像データ、ここでは第2の撮像ユニット(右側用)81から出力される画像信号を画像処理したRGB毎の各画像データ上の複数の測距ポイントにおいてRGB毎に各コントラストの変化量を取得する。これと共に、測距コントラスト演算部83は、CCU40の画像処理により取得されたRGB毎の各画像データに対して処理を加えずに当該各画像データを切替スイッチ部85に送る。当該測距コントラスト演算部83は、上記測距コントラスト演算部82と同様に、CCU40の画像処理により取得された画像データに限らず、第2の撮像ユニット(右側用)81から出力されるRGBの各画像信号から被検体Qの画像データを求め、当該画像データのコントラストの変化量を取得してもよい。
 比較部84は、左側用の測距コントラスト演算部82により取得された左側用のRGB毎の各コントラストの変化量を入力し、右側用の測距コントラスト演算部83により取得された右側用のRGB毎の各コントラストの変化量を入力し、当該各コントラストの変化量を比較する。 
 比較の結果、比較部84は、最も高いコントラストの変化量となる画像信号を出力する撮像ユニット、すなわち第1及び第2の撮像ユニット(右側用、左側用)80、81の各撮像素子80r、80g、80b、81r、81g、81bから出力される各画像信号のうち最も高いコントラストの変化量となる画像信号を用いてAF動作を実行させるために切替信号を切替スイッチ部85に送る。
 比較部84は、左側用の測距コントラスト演算部82により取得された左側用のコントラストの変化量と、右側用の測距コントラスト演算部83により取得された右側用のコントラストの変化量とを比較し、最も高いコントラストの変化量となる画像信号、すなわち第1の撮像ユニット(右側用)80又は第2の撮像ユニット(左側用)81から出力される画像信号を用いてAF動作を実行させるために切替信号を切替スイッチ部85に送るようにしてもよい。
 切替スイッチ部85は、比較部84からの切替信号を入力し、当該切替信号により指示された第1の撮像ユニット(右側用)80及び第2の撮像ユニット(左側用)81の各撮像素子80r、80g、80b、81r、81g、又は81bから出力される画像信号をAF制御部46に送る。 
 切替スイッチ部85は、第1の撮像ユニット(右側用)80又は第2の撮像ユニット(左側用)81から出力される画像信号を用いてAF動作を実行させるための切替信号を入力すると、当該切替信号により指示された第1の撮像ユニット(右側用)80又は第2の撮像ユニット(左側用)81から出力される画像信号をAF制御部46に送るようにしてもよい。
 次に、上記の如く構成された装置の動作について説明する。 
 測距コントラスト演算部82は、フォーカスレンズ32、33を光軸方向に移動させるためのフォーカスレンズ駆動信号をAF制御部46に送り、各フォーカスレンズ32、33を予め設定された距離だけ移動させる。 
 各フォーカスレンズ32、33が予め設定された距離だけ移動している期間中に、第1の撮像ユニット80は、被検体Qからの光像を撮像してRGBの各画像信号を出力する。これと共に、第2の撮像ユニット81は、被検体Qからの光像を撮像してRGBの各画像信号を出力する。
 CCU40は、第1の撮像ユニット80から出力されたRGBの各画像信号と、第2の撮像ユニット81から出力されたRGBの各画像信号とを入力し、当該RGBの各画像信号に対してそれぞれ予め設定された画像処理を行って各出力端子からそれぞれ各画像データを3Dプロセッサ41と、各測距コントラスト演算部82、83とに送る。 
 測距コントラスト演算部82は、フォーカスレンズ32、33が移動している期間中に、CCU40の画像処理により取得される画像データ、ここでは第1の撮像ユニット(左側用)80から出力される画像信号を画像処理したRGB毎の各画像データ上の複数の測距ポイントにおいてRGB毎に各コントラストの変化量を取得する。これと共に、測距コントラスト演算部82は、CCU40の画像処理により取得されたRGB毎の各画像データに対して処理を加えずに当該各画像データを切替スイッチ部85に送る。
 測距コントラスト演算部83は、フォーカスレンズ32、33が移動している期間中に、CCU40の画像処理により取得される画像データ、ここでは第2の撮像ユニット(右側用)81から出力される画像信号を画像処理したRGB毎の各画像データ上の複数の測距ポイントにおいてRGB毎に各コントラストの変化量を取得する。これと共に、測距コントラスト演算部83は、CCU40の画像処理により取得されたRGB毎の各画像データに対して処理を加えずに当該各画像データを切替スイッチ部85に送る。
 比較部84は、左側用の測距コントラスト演算部82により取得された左側用のRGB毎の各コントラストの変化量を入力し、右側用の測距コントラスト演算部83により取得された右側用のRGB毎の各コントラストの変化量を入力し、当該各コントラストの変化量を比較する。 
 比較の結果、比較部84は、最も高いコントラストの変化量となる画像信号、すなわち第1の撮像ユニット(右側用)80及び第2の撮像ユニット(左側用)81の各撮像素子80r、80g、80b、81r、81g、81bから出力される各画像信号から最も高いコントラストの変化量を示す画像信号を用いてAF動作を実行させるための切替信号を切替スイッチ部85に送る。
 切替スイッチ部85は、比較部84からの切替信号により指示されている第1の撮像ユニット(右側用)80及び第2の撮像ユニット(左側用)81における各撮像素子80r、80g、80b、81r、81g、81bから出力される画像信号のうち最も高いコントラストの変化量を示す画像信号をAF制御部46に送る。
 AF制御部46は、切替スイッチ部85を介して送られてくる画像信号から取得される画像データ上の複数の測距ポイントにおいて高周波成分を抽出し、当該抽出した高周波成分を積算することによりAF用の合焦評価値を取得する。AF制御部46は、取得した合焦評価値に従って画像データのコントラストを評価しながらフォーカスレンズ32、33を合焦状態となる位置に一体的に移動するためのフォーカスレンズ駆動信号をモータ駆動部25に出力する。モータ駆動部25は、AF制御部24からの制御信号に従ってモータ17を駆動する。モータ17の駆動により各フォーカスレンズ32、33は、一体的に光軸方向に移動し、合焦状態となる位置に調整される。
 このように上記第5の実施の形態によれば、第1の撮像ユニット(右側用)80及び第2の撮像ユニット(左側用)81の各撮像素子80r、80g、80b、81r、81g、81bから出力される各画像信号のうち最もコントラストの変化量の高い画像信号に基づいてAF動作を行うので、上記第2の実施の形態と同様の効果を奏することができる。
 なお、本発明は、上記各実施の形態に限定されるものでなく、以下のように変形してもよい。 
 上記各実施の形態では、画像データにおける大きなコントラストの変化が現れる撮像部や撮像素子を選択しているが、これに限らず、明度、又は輝度の大きい変化が現れる撮像部を選択してAF動作を行うようにしてもよい。
 図10に示す撮像ユニット52は、RGBの各撮像素子59R、59G、59Bを備えているが、これに限らず、当該各撮像素子59R、59G、59Bに配置する波長フィルタを代えて、撮像ユニット52の各撮像素子59R、59G、59Bをそれぞれ通常光用と、赤外光用と、蛍光用としてもよい。 
 同様に、図14に示す一対の第1の撮像ユニット(左側用)80と第2の撮像ユニット(右側用)81とでは、RGB用の各撮像素子80r、80g、80bと、RGB用の各撮像素子81r、81g、81bとを含むが、これに限らず、各撮像素子に配置する波長フィルタを代えて、各撮像素子80r、81rと、各撮像素子80g、81gと、各撮像素子80b、81bとをそれぞれ通常光用と、赤外光用と、蛍光用としてもよい。 
 このように通常光用と、赤外光用と、蛍光用とにすれば、被検体Qを観察する上で最もコントラス、明度、又は輝度の大きい撮像部を選択してAF動作を行い、如何なる状況下にあっても確実かつ正確にAF動作ができる。
 各測距ポイントでは、それぞれ被検体Qに対してフォーカスを行うために被検体Qに対する合焦の状態を測定するが、合焦の状態の測定では、例えば、アクティブオートフォーカス(AF)方式、位相差AF方式、又は山登りAF方式などを用いてもよい。AF方式は、赤外光を被写体に投射して三角測距により被写体距離を求める。位相差AF方式は、一対の撮像素子から出力される被写体像の位相差情報からデフォーカス量を求める。山登りAF方式は、撮影用のCCD等の撮像素子を利用し、撮影レンズ内のフォーカスレンズを所定間隔で駆動しながら撮像素子から出力される被写体の像信号の高周波成分を焦点評価値として検出し、当該焦点評価値(コントラスト)が最大となるフォーカスレンズ位置を求める。
 測距コントラスト演算部(焦点情報取得部)23は、図1に示す通常光用の撮像部20とIRI用の撮像部21とからそれぞれ出力される各画像信号に含まれる各ノイズ成分(各画像信号のSN比)を抽出する。比較部29は、当該抽出された各ノイズ成分(各SN比)を比較し、ノイズ成分の小さい(SN比の大きい)通常光用の撮像部20又はIRI用の撮像部21を選択するようにしてもよい。 
 このようにノイズ成分の小さい撮像部の選択は、図4に示す第1の撮像部34又は第2の撮像部35の選択、図10に示す撮像素子59R、59G、59Bのうちいずれか1つの選択、図12に示す撮像素子70から出力されるR画素、G画素、B画素の各別の画像信号の選択、図14に示す第1の撮像ユニット(右側用)80及び第2の撮像ユニット(左側用)81の各撮像素子80r、80g、80b、81r、81g、又は81bから出力される画像信号にも適用できる。 
 本装置は、内視鏡や顕微鏡に適用することが可能である。
 なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
 Q:被検体、1:挿入部、2:ライトガイド、3:光源部、4:光源、5:励起光用フィルタ、10:対物レンズ、11:フォーカスレンズ、12:結像レンズ、13:ダイクロイックミラー、14:支持部、15:スクリューネジ、16:駆動変換機構、17:モータ、20:通常光用の撮像部、21:IRI用の撮像部、22,26:ビデオプロセッサ、23,27:測距コントラスト演算部、24:AF制御部、25:モータ駆動部、28:AF制御部、29:比較部、30:顕微鏡本体、31:対物レンズ、32,33:フォーカスレンズ、34:第1の撮像部、35:第2の撮像部、36:左側用の観察系、37:右側用の観察系、40:通信制御ユニット(CCU)、41:3Dプロセッサ、42:3Dモニタ、43,44:測距コントラスト演算部、45:切替スイッチ部、45a,45b:切替端子、45c:スイッチ端部、46:AF制御部、50:撮像部、51:焦点可変光学系、52:撮像ユニット、53:対物レンズ、54:フォーカスレンズ、55:結像レンズ、56:支持部、57:スクリューネジ、58:モータ、59R,59G,59B:撮像素子、50f:色分離フィルタ、60:フォーカス位置センサ、62:AF入力切替部、61J,61R,61G,61B:切替スイッチ、63:AF制御部、64:モータ駆動部、65:コントラスト演算部、66:比較部、70:撮像素子、80:第1の撮像ユニット(左側用)、81:第2の撮像ユニット(右側用)、80r,80g,80b:撮像素子、81r,81g,81b:撮像素子、82:測距コントラスト演算部、83:測距コントラスト演算部、84:比較部、85:切替スイッチ部。

Claims (17)

  1.  被検体を撮像してそれぞれ画像信号を出力する複数の撮像部と、
     前記撮像部から出力される前記各画像信号から前記被検体に対する焦点情報をそれぞれ取得する焦点情報取得部と、
     前記焦点情報取得部により取得された前記各焦点情報に基づいて前記被検体に対してフォーカスするのに適した前記撮像部を選択する選択部と、
     前記選択部により選択された前記撮像部から出力される前記画像信号に基づいて前記被検体に対するフォーカスを行うフォーカス制御部と、
    を具備することを特徴とする医療用観察装置。
  2.  前記焦点情報取得部は、前記複数の撮像部からそれぞれ出力される前記画像信号毎にそれぞれ前記焦点情報としてコントラスト、明度、輝度のうち少なくとも1つを算出し、
     前記選択部は、前記焦点情報取得部により算出された前記各コントラスト、前記各明度、又は前記各輝度のうちいずれかの前記焦点情報同士を比較し、大きい方の前記コントラスト、前記明度、又は前記輝度が現れる前記撮像部を選択する、
    ことを特徴とする請求項1記載の医療用観察装置。
  3.  前記選択部は、前記複数の撮像部からそれぞれ出力される前記各画像信号からそれぞれ前記焦点情報としての各コントラストのうち変化量の大きな前記コントラストが現れる前記撮像部を選択することを特徴とする請求項1記載の医療用観察装置。
  4.  前記複数の撮像部は、前記被検体に対するフォーカスを行うためのフォーカスレンズを含み、
     前記選択部は、前記フォーカスレンズを予め設定された距離だけ移動させることにより前記コントラストの変化量を求め、当該変化量の大きな前記コントラストが現れる前記撮像部を選択する、
    ことを特徴とする請求項3記載の医療用観察装置。
  5.  前記複数の撮像部は、それぞれ互いに波長領域の異なる複数の光を撮像し、
     前記選択部は、前記複数の撮像部のうち前記コントラスト、前記明度、又は前記輝度の大きい前記撮像部を選択する、
    ことを特徴とする請求項1記載の医療用観察装置。
  6.  前記被検体に励起光を含む白色光を照射すると、前記被検体は、前記白色光を反射すると共に、蛍光を発し、
     前記複数の撮像部は、前記被検体に励起光を含む白色光を照射したときに、前記被検体からの前記白色光を撮像するための第1の撮像部と、前記被検体からの前記蛍光を撮像するための第2の撮像部とを含み、
     前記選択部は、前記コントラスト、前記明度、又は前記輝度の大きい前記第1又は前記第2の撮像部を選択する、
    ことを特徴とする請求項5記載の医療用観察装置。
  7.  前記被検体に励起光を含む白色光を照射すると、前記被検体は、前記白色光を反射すると共に、赤外線領域の光を発し、
     前記複数の撮像部は、前記被検体に励起光を含む白色光を照射したときに、前記白色光を撮像するための第1の撮像部と、前記被検体からの前記赤外線領域の光を撮像するための第2の撮像部とを含み、
     前記選択部は、前記コントラスト、前記明度、又は前記輝度の大きい前記第1又は前記第2の撮像部を選択する、
    ことを特徴とする請求項5記載の医療用観察装置。
  8.  前記複数の撮像部は、一対の第1と第2の撮像部を含み、
     前記選択部は、前記コントラスト、前記明度、又は前記輝度の大きい前記第1又は前記第2の撮像部を選択する、
    ことを特徴とする請求項1記載の医療用観察装置。
  9.  前記一対の第1と第2の撮像部は、前記被検体の3次元画像取得用として左側用又は右側用として設けられることを特徴とする請求項8記載の医療用観察装置。
  10.  前記複数の撮像部は、赤色光用の第1の撮像部と、緑色光用の第2の撮像部と、青色光用の第3の撮像部とを含み、
     前記選択部は、前記大きなコントラストが現れる前記第1、前記第2、又は前記第3の撮像部を選択する、
    ことを特徴とする請求項2記載の医療用観察装置。
  11.  前記焦点情報取得部は、前記複数の撮像部からそれぞれ出力される前記各画像信号のSN比を抽出し、
     前記選択部は、前記焦点情報取得部により抽出された前記各SN比を比較し、前記SN比の大きい前記画像信号を出力する前記撮像部を選択する、
    ことを特徴とする請求項1記載の医療用観察装置。
  12.  前記複数の撮像部は、それぞれ複数の受光素子を配列して成る受光素子群を形成する少なくとも1つの撮像素子を含み、
     前記受光素子群には、少なくとも2種類以上の互いに異なる複数の波長領域のフィルタが配置される、
    ことを特徴とする請求項1記載の医療用観察装置。
  13.  前記撮像部は、複数の受光素子を縦横方向に配列して成り、
     前記複数の受光素子には、互いに異なる複数の波長領域のフィルタが所定間隔毎に配置されている、
    ことを特徴とする請求項1記載の医療用観察装置。
  14.  前記互いに異なる波長領域のフィルタは、赤色光用フィルタと、緑色光用フィルタと、青色光用フィルタとを含むことを特徴とする請求項12記載の医療用観察装置。
  15.  前記互いに異なる波長領域のフィルタは、赤色光用フィルタと、緑色光用フィルタと、青色光用フィルタとを含むことを特徴とする請求項13記載の医療用観察装置。
  16.  前記焦点情報取得部は、前記第1又は前記第2の撮像部から出力される前記画像信号に基づいて取得される画像上において、前記焦点情報の取得位置を、前記被検体と前記第1及び第2の撮像部との間の距離に応じて前記第1の撮像部側又は前記第2の撮像部側にシフトすることを特徴とする請求項8記載の医療用観察装置。
  17.  前記焦点情報取得部は、前記第1の撮像部から出力される前記画像信号に基づいて前記焦点情報を取得する場合、前記被検体と前記第1の撮像部との距離が焦点距離以内であれば、前記焦点情報の取得位置を前記第2の撮像部側にシフトし、前記焦点距離以上であれば、前記焦点情報の取得位置を前記第2の撮像部側とは反対側にシフトし、
     一方、前記第2の撮像部から出力される前記画像信号から前記焦点情報を取得する場合、前記被検体と前記第2の撮像部との距離が焦点距離以内であれば、前記焦点情報の取得位置を前記第1の撮像部側にシフトし、前記焦点距離以上であれば、前記焦点情報の取得位置を前記第1の撮像部側とは反対側にシフトする、
    ことを特徴とする請求項16記載の医療用観察装置。
PCT/JP2014/068097 2013-07-22 2014-07-07 医療用観察装置 WO2015012096A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-151926 2013-07-22
JP2013151926A JP2016170182A (ja) 2013-07-22 2013-07-22 医療用観察装置

Publications (1)

Publication Number Publication Date
WO2015012096A1 true WO2015012096A1 (ja) 2015-01-29

Family

ID=52393144

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/068097 WO2015012096A1 (ja) 2013-07-22 2014-07-07 医療用観察装置

Country Status (2)

Country Link
JP (1) JP2016170182A (ja)
WO (1) WO2015012096A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017010157A1 (ja) * 2015-07-15 2017-01-19 ソニー株式会社 医療用観察装置及び医療用観察方法
CN109475270A (zh) * 2016-11-01 2019-03-15 奥林巴斯株式会社 活体观察系统
JP2019165855A (ja) * 2018-03-22 2019-10-03 ソニー・オリンパスメディカルソリューションズ株式会社 内視鏡装置及び医療用撮像装置
JP2020156560A (ja) * 2019-03-25 2020-10-01 株式会社Jvcケンウッド 硬性内視鏡システム
CN113038864A (zh) * 2018-11-07 2021-06-25 索尼集团公司 配置为生成三维信息并计算估计区域的医学观察系统和相应方法
US20210290036A1 (en) * 2020-03-17 2021-09-23 Sony Olympus Medical Solutions Inc. Control device and medical observation system
US20210290035A1 (en) * 2020-03-18 2021-09-23 Sony Olympus Medical Solutions Inc. Medical control device and medical observation system
US20210290037A1 (en) * 2020-03-17 2021-09-23 Sony Olympus Medical Solutions Inc. Medical image processing apparatus and medical observation system

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6860378B2 (ja) * 2017-02-24 2021-04-14 ソニー・オリンパスメディカルソリューションズ株式会社 内視鏡装置
WO2018211590A1 (ja) 2017-05-16 2018-11-22 オリンパス株式会社 内視鏡のための画像処理装置及び内視鏡システム
JPWO2019087557A1 (ja) * 2017-11-06 2020-12-03 オリンパス株式会社 内視鏡システム
JPWO2019198189A1 (ja) * 2018-04-11 2021-05-13 エア・ウォーター・バイオデザイン株式会社 顕微鏡装置
JP6949383B2 (ja) * 2019-10-17 2021-10-13 株式会社吉田製作所 歯科用撮像画像取得装置
JP7454417B2 (ja) 2020-03-18 2024-03-22 ソニー・オリンパスメディカルソリューションズ株式会社 医療用制御装置及び医療用観察システム

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02201408A (ja) * 1989-01-31 1990-08-09 Canon Inc 画像読取装置および画像読取方法
JPH0667081A (ja) * 1991-02-25 1994-03-11 Mitsubishi Electric Corp オートフォーカス装置
JPH07123314A (ja) * 1993-09-02 1995-05-12 Asahi Optical Co Ltd スチルビデオカメラの自動焦点調節装置
JPH09101450A (ja) * 1995-10-05 1997-04-15 Olympus Optical Co Ltd 撮像装置
JPH1198315A (ja) * 1997-09-18 1999-04-09 Fuji Photo Film Co Ltd 画像読取装置
JP2002207162A (ja) * 2001-01-12 2002-07-26 Minolta Co Ltd デジタルカメラ
JP2002214513A (ja) * 2001-01-16 2002-07-31 Minolta Co Ltd 光学系制御装置、光学系制御方法および記録媒体
JP2004109570A (ja) * 2002-09-19 2004-04-08 Nikon Corp 焦点検出装置
JP2005173270A (ja) * 2003-12-11 2005-06-30 Canon Inc 立体撮影用光学装置、撮影装置、立体撮影システム及び立体撮影装置
JP2007082769A (ja) * 2005-09-22 2007-04-05 Fujifilm Corp 試料分析装置
JP2008304809A (ja) * 2007-06-11 2008-12-18 Canon Inc 撮像装置及びフォーカス制御方法
JP2011193983A (ja) * 2010-03-18 2011-10-06 Olympus Corp 内視鏡システム、撮像装置及び制御方法
JP2013050689A (ja) * 2011-08-31 2013-03-14 Sharp Corp 撮像装置、撮像装置の合焦制御方法及びコンピュータプログラム

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02201408A (ja) * 1989-01-31 1990-08-09 Canon Inc 画像読取装置および画像読取方法
JPH0667081A (ja) * 1991-02-25 1994-03-11 Mitsubishi Electric Corp オートフォーカス装置
JPH07123314A (ja) * 1993-09-02 1995-05-12 Asahi Optical Co Ltd スチルビデオカメラの自動焦点調節装置
JPH09101450A (ja) * 1995-10-05 1997-04-15 Olympus Optical Co Ltd 撮像装置
JPH1198315A (ja) * 1997-09-18 1999-04-09 Fuji Photo Film Co Ltd 画像読取装置
JP2002207162A (ja) * 2001-01-12 2002-07-26 Minolta Co Ltd デジタルカメラ
JP2002214513A (ja) * 2001-01-16 2002-07-31 Minolta Co Ltd 光学系制御装置、光学系制御方法および記録媒体
JP2004109570A (ja) * 2002-09-19 2004-04-08 Nikon Corp 焦点検出装置
JP2005173270A (ja) * 2003-12-11 2005-06-30 Canon Inc 立体撮影用光学装置、撮影装置、立体撮影システム及び立体撮影装置
JP2007082769A (ja) * 2005-09-22 2007-04-05 Fujifilm Corp 試料分析装置
JP2008304809A (ja) * 2007-06-11 2008-12-18 Canon Inc 撮像装置及びフォーカス制御方法
JP2011193983A (ja) * 2010-03-18 2011-10-06 Olympus Corp 内視鏡システム、撮像装置及び制御方法
JP2013050689A (ja) * 2011-08-31 2013-03-14 Sharp Corp 撮像装置、撮像装置の合焦制御方法及びコンピュータプログラム

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107847107B (zh) * 2015-07-15 2021-09-24 索尼公司 医疗用观察装置与医疗用观察方法
CN107847107A (zh) * 2015-07-15 2018-03-27 索尼公司 医疗用观察装置与医疗用观察方法
JPWO2017010157A1 (ja) * 2015-07-15 2018-05-24 ソニー株式会社 医療用観察装置及び医療用観察方法
EP3300650A4 (en) * 2015-07-15 2019-02-06 Sony Corporation MEDICAL OBSERVATION DEVICE AND MEDICAL OBSERVATION METHOD
US10568492B2 (en) 2015-07-15 2020-02-25 Sony Corporation Medical observation device and medical observation method
WO2017010157A1 (ja) * 2015-07-15 2017-01-19 ソニー株式会社 医療用観察装置及び医療用観察方法
CN109475270A (zh) * 2016-11-01 2019-03-15 奥林巴斯株式会社 活体观察系统
US10631721B2 (en) 2016-11-01 2020-04-28 Olympus Corporation Living body observation system
CN109475270B (zh) * 2016-11-01 2021-04-27 奥林巴斯株式会社 活体观察系统
JP2019165855A (ja) * 2018-03-22 2019-10-03 ソニー・オリンパスメディカルソリューションズ株式会社 内視鏡装置及び医療用撮像装置
CN113038864A (zh) * 2018-11-07 2021-06-25 索尼集团公司 配置为生成三维信息并计算估计区域的医学观察系统和相应方法
JP2020156560A (ja) * 2019-03-25 2020-10-01 株式会社Jvcケンウッド 硬性内視鏡システム
JP7239821B2 (ja) 2019-03-25 2023-03-15 株式会社Jvcケンウッド 硬性内視鏡システム
US20210290037A1 (en) * 2020-03-17 2021-09-23 Sony Olympus Medical Solutions Inc. Medical image processing apparatus and medical observation system
US20210290036A1 (en) * 2020-03-17 2021-09-23 Sony Olympus Medical Solutions Inc. Control device and medical observation system
US11684238B2 (en) * 2020-03-17 2023-06-27 Sony Olympus Medical Solutions Inc. Control device and medical observation system
JP7486331B2 (ja) 2020-03-17 2024-05-17 ソニー・オリンパスメディカルソリューションズ株式会社 制御装置および医療用観察システム
US20210290035A1 (en) * 2020-03-18 2021-09-23 Sony Olympus Medical Solutions Inc. Medical control device and medical observation system

Also Published As

Publication number Publication date
JP2016170182A (ja) 2016-09-23

Similar Documents

Publication Publication Date Title
WO2015012096A1 (ja) 医療用観察装置
US10362930B2 (en) Endoscope apparatus
JP6072374B2 (ja) 観察装置
WO2018211885A1 (ja) 画像取得システム、制御装置及び画像取得方法
JP6581984B2 (ja) 内視鏡システム
KR20060036059A (ko) 주사식 내시경
US20160128545A1 (en) Endoscope apparatus and method for controlling endoscope apparatus
JP2011147707A (ja) 撮像装置、内視鏡システム及び撮像装置の制御方法
US10805512B2 (en) Dual path endoscope
EP3586716B1 (en) Endoscope device
KR20200037244A (ko) 촬상 소자 및 촬상 장치
US20230308628A1 (en) Medical imaging system, medical imaging device, and operation method
US9451876B2 (en) Endoscope system and focus control method for endoscope system
US10278628B2 (en) Light source device for endoscope and endoscope system
JP6859554B2 (ja) 観察補助装置、情報処理方法、およびプログラム
WO2019069414A1 (ja) 内視鏡装置、画像処理方法およびプログラム
WO2014156604A1 (ja) 内視鏡システム及びその作動方法並びにプロセッサ装置
JP4716801B2 (ja) 内視鏡撮像システム
JP6120491B2 (ja) 内視鏡装置及び内視鏡装置のフォーカス制御方法
US11684238B2 (en) Control device and medical observation system
JP5383076B2 (ja) 眼科装置
JPH0980323A (ja) 内視鏡装置
KR20140053790A (ko) 안저 촬상장치 및 제어방법
WO2022059282A1 (ja) 撮像制御装置、内視鏡システム、および撮像制御方法
US20230397801A1 (en) Medical imaging system, medical imaging device, and operation method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14828988

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14828988

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP