WO2014199980A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2014199980A1
WO2014199980A1 PCT/JP2014/065333 JP2014065333W WO2014199980A1 WO 2014199980 A1 WO2014199980 A1 WO 2014199980A1 JP 2014065333 W JP2014065333 W JP 2014065333W WO 2014199980 A1 WO2014199980 A1 WO 2014199980A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
optical
image
endoscope system
insertion unit
Prior art date
Application number
PCT/JP2014/065333
Other languages
English (en)
French (fr)
Inventor
高山 大樹
裕子 阿部
鶴岡 建夫
誠 富岡
萩原 雅博
Original Assignee
オリンパスメディカルシステムズ株式会社
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社, オリンパス株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to JP2014552998A priority Critical patent/JP5767412B2/ja
Priority to EP14810568.7A priority patent/EP2957217A4/en
Priority to CN201480015651.6A priority patent/CN105338881B/zh
Publication of WO2014199980A1 publication Critical patent/WO2014199980A1/ja
Priority to US14/851,244 priority patent/US20160000306A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00059Operational features of endoscopes provided with identification means for the endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00101Insertion part of the endoscope body characterised by distal tip features the distal tip features being detachable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00112Connection or coupling means
    • A61B1/00121Connectors, fasteners and adapters, e.g. on the endoscope handle
    • A61B1/00126Connectors, fasteners and adapters, e.g. on the endoscope handle optical, e.g. for light supply cables
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00195Optical arrangements with eyepieces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device

Definitions

  • the present invention relates to an endoscope system, and more particularly to an endoscope system having an insertion portion that is detachably connected to an imaging apparatus.
  • an operation is conventionally performed in which a surgical procedure is performed on an affected part in the subject while observing the affected part with an endoscope inserted into the subject.
  • the insertion portion can be inserted into the subject, and the insertion portion that receives the return light emitted from the observation object in the subject and the insertion portion are detachably connected.
  • an endoscope system that includes a camera unit that captures an image of the object to be observed obtained by imaging the return light is conventionally used.
  • Japanese Patent Laid-Open No. 2005-334462 discloses a stereoscopic rigid endoscope having a function corresponding to the above-described insertion portion and a structure having a function corresponding to the above-described camera unit.
  • the electrode group provided in the stereoscopic rigid endoscope and the electrode group provided in the stereoscopic TV camera are electrically connected
  • a configuration is disclosed in which identification information used for identifying the type of stereoscopic rigid endoscope connected to the stereoscopic TV camera is acquired.
  • 2005-334462 discloses a configuration for performing focus adjustment on a captured image for the right eye and a captured image for the left eye based on the identification information acquired as described above.
  • the endoscope system of Japanese Patent Application Laid-Open No. 2011-147707 there is a configuration for performing focus adjustment according to one observation mode selected from the close-up observation mode and the distant view observation mode. It is disclosed.
  • an electrode group is provided on at least one of a stereoscopic rigid endoscope and a stereoscopic TV camera. If not, the aforementioned identification information cannot be acquired.
  • a configuration for performing focus adjustment according to a stereoscopic rigid endoscope connected to a stereoscopic TV camera is provided. There is a problem that it becomes complicated.
  • Japanese Patent Application Laid-Open No. 2011-147707 discloses focus adjustment on the premise of an imaging unit that is substantially equivalent to a unit in which the aforementioned insertion unit and camera unit are integrated.
  • the focus adjustment (when the above-described insertion unit and the camera unit are configured separately) targeted for the insertion unit having a configuration that can be detachably connected.
  • the endoscope system disclosed in Japanese Patent Application Laid-Open No. 2011-147707, it is not possible to perform focus adjustment according to various insertion portions that are detachably connected to the camera unit. The problem that has arisen.
  • the present invention has been made in view of the above-described circumstances, and is an endoscope system capable of performing focus adjustment according to various insertion portions detachably connected to an imaging apparatus with a simple configuration.
  • the purpose is to provide.
  • An endoscope system is configured such that an insertion portion having an objective optical system is detachable, and light from an observation object transmitted by the objective optical system of the insertion portion is captured as an optical image and output as an imaging signal.
  • An imaging device configured to, a focus changing unit provided in the imaging device and having a drive unit capable of changing a focus of the imaging device, and the focus in a state where the insertion unit is attached to the imaging device.
  • a control unit configured to generate a control signal for automatically controlling the optical image in a focused state with respect to the driving unit of the changing unit, and used when the control unit generates the control signal
  • an optical property acquisition unit configured to acquire optical properties of the insertion unit.
  • the figure which shows an example of a structure of the principal part of the endoscope system which concerns on an Example The figure which shows an example of a structure of the camera unit in the endoscope system which concerns on an Example.
  • the figure which shows an example of the process performed before using the endoscope system which concerns on an Example The figure which shows an example of the process performed in use of the endoscope system which concerns on an Example.
  • the figure which shows the example different from FIG. 4A of the process performed before use of the endoscope system which concerns on an Example The figure which shows the example different from FIG.
  • the figure for demonstrating the structure of the eyepiece part which has a wireless tag The figure for demonstrating the structure of the light guide post which has a wireless tag.
  • the figure for demonstrating the structure of the band member which has a wireless tag The figure which shows the example when the band member of FIG. 9 is mounted
  • FIG. 1 is a diagram illustrating an example of a configuration of a main part of an endoscope system according to an embodiment of the present invention.
  • the endoscope system 1 includes a light source device 2, a rigid endoscope imaging device 3, a processor 4, and a monitor 5.
  • the light source device 2 is configured to be connectable to the rigid endoscope imaging device 3 via an optical cable LC.
  • the light source device 2 is configured to emit light having different spectral characteristics. Further, the light source device 2 is configured to be able to supply light having spectral characteristics corresponding to an observation mode selected by operating an observation mode changeover switch (not shown) as illumination light to the optical cable LC.
  • the light source device 2 is configured to supply white light as illumination light to the optical cable LC, for example, when the white light observation mode is selected by operating the observation mode switch.
  • the light source device 2 is configured to supply special light such as narrow-band light to the optical cable LC as illumination light when the special light observation mode is selected by operating the observation mode changeover switch, for example. .
  • the rigid endoscope imaging device 3 includes a rigid endoscope 10 and a camera unit 20 as shown in FIG.
  • the rigid endoscope 10 has a function as an insertion part, and can be inserted into a body cavity of a subject and is detachably connected to the camera unit 20.
  • the rigid endoscope 10 includes a cylindrical body portion 11 formed in an elongated cylindrical shape, a grip portion 12 provided at the rear end portion of the cylindrical body portion 11,
  • the optical connector portion 13 has a function as a connection port of the optical cable LC, and the eyepiece portion 14 is detachably attached to the rear end portion of the grip portion 12.
  • the rigid endoscope 10 is configured to be detachably connected to the camera unit 20 in a state where the eyepiece 14 is attached to the rear end of the grip 12.
  • a light guide (not used) for guiding illumination light supplied from the light source device 2 to the distal end part of the cylindrical body part 11 through the optical cable LC. (Shown) is provided.
  • An illumination window (not shown) for irradiating the observation object with the illumination light transmitted by the light guide is provided at the distal end portion (the distal end surface thereof) of the cylindrical body portion 11 and the observation object accompanying the illumination light irradiation.
  • an objective lens (not shown) having a function as a light incident portion for entering the return light emitted from.
  • the cylindrical body part 11 and the grip part 12 have a function as an optical transmission part for transmitting the return light incident on the objective lens to the rear end part of the grip part 12, and are configured by a plurality of lenses.
  • An optical system (not shown) is provided.
  • the optical connector portion 13 has a light guide post 13A that is detachably attached to the side portion of the grip portion 12.
  • An imaging lens (not shown) having a function as an imaging unit for imaging the return light emitted from the rear end portion of the gripping unit 12 through the relay optical system is provided inside the eyepiece unit 14. ing.
  • the rigid endoscope imaging apparatus 3 of the present embodiment is configured such that the return light imaged by the rigid endoscope 10 is incident on the camera unit 20 connected to the rear end portion of the rigid endoscope 10.
  • the camera unit 20 is configured to be connected to the processor 4 via a signal cable SC provided at the rear end. Further, an optical window (not shown) through which light from the outside is incident is provided at a connection portion between the distal end surface of the camera unit 20 and the eyepiece unit 14. Further, as shown in FIG. 2, the camera unit 20 includes a focus lens 21, a lens driving unit 22, and an image sensor 23.
  • FIG. 2 is a diagram illustrating an example of a configuration of a camera unit in the endoscope system according to the embodiment.
  • the focus lens 21 is configured to be able to adjust the focus of the optical image picked up by the image pickup device 23 by moving on the optical axis within a predetermined movable range in accordance with the driving of the lens drive unit 22. ing.
  • the lens drive unit 22 is configured to drive the focus lens 21 based on the lens drive control signal output from the processor 4.
  • the lens driving unit 22 is configured to move the focus lens 21 along the optical axis direction by driving the focus lens 21.
  • the lens drive unit 22 moves the focus lens 21 along the optical axis direction based on the lens drive control signal from the processor 4 (drive). By doing so, the optical image picked up by the image pickup device 23 can be brought into a focused state. That is, the focus lens 21 and the lens driving unit 22 have a function as a focus adjustment unit that performs an operation related to the focus adjustment of the camera unit 20.
  • the image pickup device 23 is configured to receive an optical image corresponding to light that has passed through the image pickup lens group on the image pickup surface, and to pick up the received optical image and generate an image pickup signal. Then, the imaging signal generated by the imaging element 23 is output to the processor 4 (via the signal cable SC).
  • the processor 4 is configured to be connectable to a monitor 5 via a video cable VC as shown in FIG.
  • the processor 4 includes an imaging signal input unit 41, a storage unit 42, an image processing unit 43, a CPU 44, and a display control unit 45.
  • FIG. 3 is a diagram illustrating an example of a configuration of a processor in the endoscope system according to the embodiment.
  • the imaging signal input unit 41 is configured to generate image data by subjecting the imaging signal output from the camera unit 20 to signal processing such as noise removal and A / D conversion. Then, the image data generated by the imaging signal input unit 41 is output to the image processing unit 43 and the CPU 44 via the bus BS.
  • the storage unit 42 includes, for example, a nonvolatile memory.
  • the storage unit 42 is configured to store various data such as a program and a database used for the processing of the CPU 44.
  • the image processing unit 43 is configured to perform various image processing on the image data generated by the imaging signal input unit 41. Then, the image data subjected to the image processing by the image processing unit 43 is output to the storage unit 42 and the display control unit 45 via the bus BS.
  • the CPU 44 is configured to allow each unit of the processor 4 to perform an operation in accordance with, for example, a program read from the storage unit 42 and an operation of an input interface (not shown) such as a switch.
  • the CPU 44 is configured to be able to control each unit of the processor 4 via a bus BS or a signal line (not shown).
  • the CPU 44 having a function as a control unit generates a lens drive control signal for performing focus adjustment according to the rigid endoscope 10 used at the same time as the camera unit 20 by performing the processing described later.
  • the generated lens drive control signal is configured to be output to the lens drive unit 22 of the camera unit 20 (via the signal cable SC).
  • the display control unit 45 is configured to generate a video signal by performing various processes according to the control of the CPU 44 on the image data subjected to the image processing by the image processing unit 43.
  • the video signal generated by the display control unit 45 is output to the monitor 5 (via the video cable VC).
  • the endoscope system 1 may be configured such that one or more of the units of the processor 4 are provided in the camera unit 20.
  • the monitor 5 is configured to display an image or the like corresponding to the video signal output from the processor 4 via the video cable VC on the screen.
  • FIG. 4A is a diagram illustrating an example of a process performed before using the endoscope system according to the embodiment.
  • FIG. 4B is a diagram illustrating an example of processing performed during use of the endoscope system according to the embodiment.
  • a user such as a surgeon connects each part of the endoscope system 1 as shown in FIG. 1 and turns on the power (step S1 in FIG. 4A). Thereafter, the user arranges the distal end portion of the cylindrical body portion 11 so as to capture a predetermined test chart including white and black oblique edges as shown in FIG.
  • the AF switch (not shown) is pressed (step S2 in FIG. 4A).
  • FIG. 5 is a diagram illustrating an example of diagonal edges included in the test chart used in the process of FIG. 4A.
  • the CPU 44 detects luminance values of white and black diagonal edge portions in each of a plurality of predetermined frequency components of the acquired image data (FIG. 4A). Step S3). Specifically, for example, the CPU 44 detects the luminance values of the white and black oblique edge portions in each of three frequency components set in advance so as to satisfy FD1 ⁇ FD2 ⁇ FD3.
  • the frequency component refers to a spatial frequency component.
  • the spatial frequency component is generally used as a parameter representing the pitch of the change in shading on the image.
  • one image includes a plurality of spatial frequency components. For this reason, for example, in a region where there are many low-frequency components in an image including a plurality of spatial frequency components, the density interval becomes wide, while in an image where there are many high-frequency components in the image, the density interval becomes narrow.
  • CPU44 of a present Example decomposes
  • the CPU 44 having the function as the frequency component specifying unit has a predetermined threshold TH1 that is the difference between the white luminance value and the black luminance value among the predetermined frequency components used in the process of step S3 in FIG. 4A.
  • the frequency component FC1 with which the contrast value is equal to or greater than the predetermined threshold TH1 is specified (step S4 in FIG. 4A).
  • CPU44 provided with the function as an optical characteristic acquisition part acquires frequency component FC1 as an optical characteristic of rigid endoscope 10 by processing of Step S4 of Drawing 4A.
  • the CPU 44 determines that the difference between the white luminance value and the black luminance value among the three frequency components FD1, FD2, and FD3 is equal to or greater than a predetermined threshold TH1 in the frequency component FD1.
  • the frequency component FD1 is specified as the frequency component FC1.
  • the frequency component FD1 suitable for the rigid endoscope 10 connected to the camera unit 20, that is, the rigid endoscope 10 used in combination with the camera unit 20, can be specified.
  • the predetermined frequency components used in the process of step S3 of FIG. 4A are separated from each other to the extent that one frequency component FC1 can be specified by the process of step S4 of FIG. 4A. It is necessary to set.
  • the CPU 44 having a function as a control information acquisition unit acquires control information used when generating a lens drive control signal corresponding to the frequency component FC1 specified in step S4 of FIG. 4A (step S5 of FIG. 4A). Specifically, the CPU 44, for example, a value obtained by halving (or approximately halving) the frequency component FC1 specified in step S4 of FIG. 4A as control information used when generating the lens drive control signal. Control information including at least That is, according to the process of step S5 of FIG. 4A, different control information is acquired according to the magnitude of the frequency component FC1 specified by the process of step S4 of FIG. 4A.
  • the cylinder is located near the desired observation site in the body cavity of the subject. An operation for arranging the tip of the part 11 is performed.
  • the CPU 44 generates a lens drive control signal for bringing the optical image picked up by the camera unit 20 (image pickup device 23) into focus with the frequency component FC1 based on the control information acquired in step S5 of FIG. 4A. Output (step S6 in FIG. 4B).
  • the CPU 44 determines whether or not the contrast value of the image data is less than a predetermined threshold value THL ( ⁇ TH1) based on the image data input after performing the process of step S6 in FIG. 4B (FIG. 4B). Step S7). Then, according to the processing of step S7 in FIG. 4B, for example, when a determination result that the contrast value of the image data is equal to or greater than a predetermined threshold value THL is obtained, the image is captured by the camera unit 20 (image sensor 23). The optical image is in focus. Further, according to the process of step S7 in FIG. 4B, for example, when a determination result that the contrast value of the image data is less than the predetermined threshold value THL is obtained, the image is picked up by the camera unit 20 (image pickup device 23). It is shown that the optical image is out of focus.
  • THL a predetermined threshold value
  • the CPU 44 When the CPU 44 obtains a determination result that the contrast value of the image data is equal to or greater than the predetermined threshold value THL in the process of step S7 in FIG. 4B, the CPU 44 inputs the determination result after obtaining the determination result. Based on the image data, the process of step S7 in FIG. 4B is performed again.
  • step S7 in FIG. 4B when a determination result that the contrast value of the image data is equal to or greater than the predetermined threshold value THL is obtained, a new lens drive control signal is not generated, so the focus lens 21 Is maintained at the current position.
  • the CPU 44 obtains a determination result that the contrast value of the image data is less than the predetermined threshold value THL in the process of step S7 of FIG. 4B, the CPU 44 returns to step S6 of FIG. 4B to perform the process.
  • the lens when the determination result that the contrast value of the image data is less than the predetermined threshold value THL is obtained in the process of step S7 of FIG. 4B, the lens newly generated by the process of step S6 of FIG. 4B.
  • the arrangement position of the focus lens 21 moves from the current position in accordance with the drive control signal.
  • the camera unit 20 is based on the image data obtained when a predetermined test chart is imaged with the rigid endoscope 10 connected to the camera unit 20.
  • a lens drive control signal for bringing the optical image picked up by the (image pickup device 23) into focus is generated and output. Therefore, according to the processing of FIGS. 4A and 4B, the frequency component FC1 can be individually acquired for each of various insertion units that are detachably connected to the imaging device, and thus the focal point corresponding to the insertion unit. Adjustment can be performed with a simple configuration.
  • the lens drive control signal for identifying the type of the rigid endoscope 10 used simultaneously with the camera unit 20 and performing the focus adjustment based on the identified type of the rigid endoscope 10 is provided. You may make it produce
  • FIG. 6A is a diagram illustrating an example different from FIG. 4A of processing performed before using the endoscope system according to the embodiment.
  • FIG. 6B is a diagram illustrating an example different from FIG. 4B of the processing performed during use of the endoscope system according to the embodiment.
  • a user such as a surgeon connects each part of the endoscope system 1 as shown in FIG. 1 and turns on the power (step S11 in FIG. 6A).
  • the user confirms an image displayed on the monitor 5 and identifies information including information related to the type of the rigid endoscope 10 among the outer surfaces of the rigid endoscope 10.
  • the camera unit 20 is arranged at a position where a portion (for example, the eyepiece unit 14) where the code (one-dimensional code or two-dimensional code) is displayed can be imaged.
  • the CPU 44 having a function as an identification unit reads the identification code included in the image data based on the image data generated by the imaging signal input unit 41, so that the rigid endoscope 10 used simultaneously with the camera unit 20 is used.
  • the type is identified (step S12 in FIG. 6A).
  • the CPU 44 is used for the type of one rigid endoscope that is detachably connected to the camera unit 20 and the focus adjustment in the one rigid endoscope in conjunction with the execution of the process of step S12 in FIG. 6A.
  • a database DB1 having a plurality of data associated with control information is read from the storage unit.
  • the control information included in the database DB1 includes, for example, the depth of field of one rigid endoscope that is detachably connected to the camera unit 20, and the evaluation area when performing focus adjustment of the one rigid endoscope.
  • optical characteristics such as a frequency component FC2 in which the contrast value of the image data obtained when the object to be observed is imaged using the one rigid endoscope is greater than or equal to a predetermined threshold TH2.
  • data such as control information included in the database DB1 is stored in advance in the storage unit 42 at a timing before the camera unit 20 is used, for example, at the time of factory shipment. That is, the CPU 44 having a function as an optical characteristic acquisition unit acquires optical characteristics corresponding to the type of the rigid endoscope 10 identified by the process of step S12 in FIG. 6A.
  • the CPU 44 having a function as a control information acquisition unit acquires control information corresponding to the type of the rigid endoscope 10 identified in step S12 of FIG. 6A by referring to the database DB1 read from the storage unit 42 (FIG. 6). 6A, step S13).
  • the cylinder is located in the vicinity of the desired observation site in the body cavity of the subject. An operation for arranging the tip of the part 11 is performed.
  • the CPU 44 generates and outputs a lens drive control signal for achieving a focusing state corresponding to the type of the rigid endoscope 10 used simultaneously with the camera unit 20 based on the control information acquired in step S13 of FIG. 6A ( Step S14 in FIG. 6B). That is, according to the process of step S14 in FIG. 6B, an evaluation area corresponding to the type of the rigid endoscope 10 identified in step S12 of FIG. 6A is set in the image data, and the set evaluation area is The control signal for achieving the in-focus state is generated.
  • the CPU 44 determines whether or not the contrast value of the image data is less than a predetermined threshold value THM ( ⁇ TH2) based on the image data input after the processing of step S14 in FIG. 6B (FIG. 6B). Step S15).
  • the CPU 44 When the CPU 44 obtains a determination result that the contrast value of the image data is equal to or greater than the predetermined threshold value THM in the process of step S15 in FIG. 6B, the CPU 44 receives the next determination result after obtaining the determination result. Based on the image data, the process of step S15 in FIG. 6B is performed again.
  • the CPU 44 obtains a determination result that the contrast value of the image data is less than the predetermined threshold value THM in the process of step S15 of FIG. 6B, the CPU 44 returns to step S14 of FIG. 6B to perform the process.
  • the lens when the determination result that the contrast value of the image data is less than the predetermined threshold value THM is obtained in the process of step S15 of FIG. 6B, the lens newly generated by the process of step S14 of FIG. 6B.
  • the arrangement position of the focus lens 21 moves from the current position in accordance with the drive control signal.
  • the frequency component FC2 can be individually acquired for each of various insertion units that are detachably connected to the imaging device, and thus the focal point corresponding to the insertion unit. Adjustment can be performed with a simple configuration.
  • the type of rigid endoscope 10 used simultaneously with the camera unit 20 is identified by performing the processing described below during the period from step S11 to step S12 in FIG. 6A. You may be made to do.
  • FIG. 7 is a diagram for explaining a configuration of an eyepiece unit having a wireless tag.
  • the eyepiece 14 ⁇ / b> A has the same shape and function as the eyepiece 14, and is detachably attached to the rear end portion of the grip portion 12 instead of the eyepiece 14. It is configured as follows. Further, as shown in FIG. 7, the eyepiece 14A is provided with a wireless tag 61 having a function as a wireless transmission unit capable of transmitting ID information associated with the type of the rigid endoscope 10 as a wireless signal. Yes.
  • the ID information associated with the type of the rigid endoscope 10 is transmitted from the wireless tag 61 as a wireless signal. Therefore, for example, the CPU 44 can identify the type of the rigid endoscope 10 that is used simultaneously with the camera unit 20 based on ID information included in a wireless signal received by a wireless reception unit (not shown) of the camera unit 20. it can.
  • FIG. 8 is a diagram for explaining the configuration of a light guide post having a wireless tag.
  • the light guide post 13B has the same shape and function as the light guide post 13A, and is detachably attached to the side portion of the grip portion 12 instead of the light guide post 13A. It is configured. Further, as shown in FIG. 8, the light guide post 13B is provided with a wireless tag 61 having a function as a wireless transmission unit capable of transmitting ID information associated with the type of the rigid endoscope 10 as a wireless signal. Yes.
  • the ID information associated with the type of the rigid endoscope 10 is transmitted from the wireless tag 61 as a wireless signal. Therefore, for example, the CPU 44 can identify the type of the rigid endoscope 10 that is used simultaneously with the camera unit 20 based on the ID information included in the wireless signal received by the wireless reception unit of the camera unit 20.
  • FIG. 9 is a diagram for explaining a configuration of a band member having a wireless tag.
  • the band member 15 is formed of, for example, an elastic member such as rubber, and is configured to be detachably attached to the grip portion 12 in a manner as shown in FIG. Further, as shown in FIG. 9, the band member 15 is provided with a wireless tag 61 having a function as a wireless transmission unit capable of transmitting ID information associated with the type of the rigid endoscope 10 as a wireless signal. .
  • FIG. 10 is a diagram illustrating an example in which the band member of FIG. 9 is attached to the grip portion.
  • the ID information associated with the type of the rigid endoscope 10 is transmitted from the wireless tag 61 as a wireless signal. Therefore, for example, the CPU 44 can identify the type of the rigid endoscope 10 that is used simultaneously with the camera unit 20 based on the ID information included in the wireless signal received by the wireless reception unit of the camera unit 20.
  • test chart shown in FIG. 5 may be drawn on the inner peripheral surface of a white balance cap used for white balance adjustment.
  • the arrangement position of the focus lens 21 in the in-focus state in the control information already obtained with the illumination light before switching having the first spectral characteristic is switched to the first spectral characteristic.
  • New control information suitable for the illumination light after the switching can be obtained by performing a process of shifting by a predetermined value corresponding to the difference between the second spectral characteristic of the later illumination light and the second spectral characteristic. . Therefore, according to the endoscope system 1 configured to perform such processing, it is possible to reduce the complexity of work related to focus adjustment and perform focus adjustment according to the spectral characteristics of illumination light. be able to.
  • the camera unit 20 of the endoscope system 1 is connected not only to the rigid endoscope 10 but also to a fiberscope configured by replacing, for example, the relay optical system inside the cylindrical portion 11 and the grip portion 12 with a fiber bundle. It may be possible. Therefore, according to the present embodiment, for example, the contrast value corresponding to the detection result of the luminance value in step S3 of FIG. 4A is calculated by the CPU 44, and either the rigid endoscope 10 or the fiberscope is based on the calculated contrast value. Even if the endoscope system 1 is configured such that the CPU 44 identifies whether the camera unit 20 is used at the same time, and a lens driving control signal corresponding to the identified result is output from the CPU 44 to the lens driving unit 22. Good.
  • the CPU 44 identifies which of the rigid endoscope 10 and the fiberscope is used simultaneously with the camera unit 20, and depends on the identified result.
  • the lens drive control signal may be output from the CPU 44 to the lens drive unit 22.
  • the endoscope system 1 can be configured so that the processing described below is performed when an identification result that the fiberscope is used simultaneously with the camera unit 20 is obtained. Good.
  • step S7 and step S15 of FIG. 6B may be performed. Specifically, for example, only in a period of time S7 in FIG. 4B and step S15 in FIG.
  • the CPU 44 sets the contrast value of the image data generated by the imaging signal input unit 41.
  • a lens drive control signal for moving the focus lens 21 to an arrangement position shifted by a predetermined amount from the arrangement position where the maximum value is obtained may be output.
  • endoscope system 1 constituted so that such operation may be performed, it is possible to reduce moiré that occurs in an image obtained when an object is imaged using a fiberscope.
  • the image processing unit 43 when an identification result indicating that the fiberscope is used simultaneously with the camera unit 20 is obtained, the image processing unit 43 generates the image data generated by the imaging signal input unit 41. Image processing such as blurring the boundary line between white (bright part) and black (dark part) may be performed. According to the endoscope system 1 configured to perform such image processing, it is possible to reduce moiré that occurs in an image obtained when an object is imaged using a fiberscope.
  • a liquid crystal plate (not shown) on which light that has passed through the imaging lens group of the camera unit 20 is incident
  • a birefringence plate (not on which light that has passed through the liquid crystal plate is incident)
  • the CPU 44 Based on the frame rate of the image sensor 23, the CPU 44 captures a first optical image without a pixel shift with respect to each pixel position of the image sensor 23, and horizontally and vertically from each pixel position of the image sensor 23.
  • the liquid crystal plate is driven so that the state in which the second optical image shifted by the pixel pitch of 1 ⁇ 2 pixel is picked up is switched during a period of one frame.
  • the image data IG1 corresponding to the first optical image and the image data IG2 corresponding to the second optical image are generated during a period of one frame. Generated by the imaging signal input unit 41.
  • the image processing unit 43 After that, the image processing unit 43 generates image data IG3 by superimposing the image data IG1 and IG2 output from the imaging signal input unit 41.
  • the image processing unit 43 performs pixel interpolation processing on the image data IG3 generated as described above, thereby providing a pixel pitch that is 1 ⁇ 2 times the pixel pitch in the image data IG1 and IG2, and the image data IG3.
  • Image data IG4 having four times the number of pixels in data IG1 and IG2 is generated.
  • the image processing unit 43 generates the image data IG5 by performing a process on the image data IG4, for example, until the number of pixels is the same as the number of pixels in the image data IG1 and IG2, and the generated image data IG5 Is output to the display control unit 45. With the operation of the image processing unit 43, an image corresponding to the image data IG5 is displayed on the monitor 5.
  • the spatial frequency of the moire component included in the image data IG1 and IG2 is FMA
  • the spatial frequency of the moire component included in the image data IG4 is FMB
  • the spatial frequency FMB of the moiré component May be removed. Then, according to the endoscope system 1 configured to generate the image data IG5 in a state where the spatial frequency FMB is removed, the moire is not substantially displayed on the monitor 5 while suppressing the deterioration of the resolution. be able to.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

 内視鏡システムは、対物光学系を有する挿入部が着脱可能で、挿入部の対物光学系が伝達する被観察物からの光を光学像として撮像し撮像信号として出力するように構成された撮像装置と、撮像装置に設けられ、撮像装置の焦点を変更可能な駆動部を有する焦点変更部と、挿入部が撮像装置に装着された状態で焦点変更部の駆動部に対して光学像を合焦状態に自動で制御するための制御信号を生成するように構成された制御部と、制御部が制御信号を生成する際に用いられる挿入部の光学特性を取得するように構成された光学特性取得部と、を有する。

Description

内視鏡システム
 本発明は、内視鏡システムに関し、特に、撮像装置に対して着脱可能に接続される挿入部を有する内視鏡システムに関するものである。
 医療分野においては、被検体内に挿入した内視鏡により患部を観察しながら、当該被検体内の患部に対して外科的な処置を施すような手術が従来行われている。また、前述の手術においては、例えば、被検体内に挿入可能であるとともに、当該被検体内の被観察物から発せられた戻り光を受光する挿入部と、当該挿入部が着脱可能に接続されるとともに、当該戻り光を結像して得られた当該被観察物の像を撮像するカメラユニットと、を有して構成された内視鏡システムが従来用いられている。
 具体的には、例えば、日本国特開2005-334462号公報には、前述の挿入部に相当する機能を備えた立体視硬性内視鏡と、前述のカメラユニットに相当する機能を備えた構成の立体TVカメラと、を有する立体視内視鏡システムにおいて、当該立体視硬性内視鏡に設けられた電極群と、当該立体TVカメラに設けられた電極群と、が電気的に接続された際に、当該立体TVカメラに接続された立体視硬性内視鏡の種類の識別に利用される識別情報を取得する構成が開示されている。また、日本国特開2005-334462号公報には、前述のように取得した識別情報に基づき、右目用の撮像画像及び左目用の撮像画像における焦点調節を行うための構成が開示されている。一方、例えば、日本国特開2011-147707号公報の内視鏡システムによれば、近接観察モード及び遠景観察モードの中から選択された一の観察モードに応じた焦点調節を行うための構成が開示されている。
 しかし、日本国特開2005-334462号公報に開示された立体視内視鏡システムによれば、例えば、立体視硬性内視鏡及び立体TVカメラのうちの少なくともいずれか一方に電極群が設けられていない場合には、前述の識別情報を取得することができない。その結果、日本国特開2005-334462号公報に開示された立体視内視鏡システムによれば、立体TVカメラに接続される立体視硬性内視鏡に応じた焦点調節を行うための構成が煩雑化してしまう、という課題が生じている。
 また、日本国特開2011-147707号公報には、前述の挿入部及びカメラユニットを一体化したものに略相当する撮像部を前提とした焦点調節が開示されている一方で、カメラユニットに対して着脱可能に接続されるような構成を具備する挿入部を対象とした(前述の挿入部とカメラユニットとが別体に構成されている場合の)焦点調節については特に開示等されていない。その結果、日本国特開2011-147707号公報に開示された内視鏡システムによれば、カメラユニットに対して着脱可能に接続される様々な挿入部に応じた焦点調節を行うことができない、という課題が生じている。
 本発明は、前述した事情に鑑みてなされたものであり、撮像装置に対して着脱可能に接続される様々な挿入部に応じた焦点調節を簡便な構成で行うことが可能な内視鏡システムを提供することを目的としている。
 本発明の一態様の内視鏡システムは、対物光学系を有する挿入部が着脱可能で、前記挿入部の対物光学系が伝達する被観察物からの光を光学像として撮像し撮像信号として出力するように構成された撮像装置と、前記撮像装置に設けられ、前記撮像装置の焦点を変更可能な駆動部を有する焦点変更部と、前記挿入部が前記撮像装置に装着された状態で前記焦点変更部の前記駆動部に対して前記光学像を合焦状態に自動で制御するための制御信号を生成するように構成された制御部と、前記制御部が前記制御信号を生成する際に用いられる前記挿入部の光学特性を取得するように構成された光学特性取得部と、を有する。
実施例に係る内視鏡システムの要部の構成の一例を示す図。 実施例に係る内視鏡システムにおけるカメラユニットの構成の一例を示す図。 実施例に係る内視鏡システムにおけるプロセッサの構成の一例を示す図。 実施例に係る内視鏡システムの使用前において行われる処理の一例を示す図。 実施例に係る内視鏡システムの使用中において行われる処理の一例を示す図。 図4Aの処理において用いられるテストチャートに含まれる斜めエッジの一例を示す図。 実施例に係る内視鏡システムの使用前において行われる処理の、図4Aとは異なる例を示す図。 実施例に係る内視鏡システムの使用中において行われる処理の、図4Bとは異なる例を示す図。 無線タグを有する接眼部の構成を説明するための図。 無線タグを有するライトガイドポストの構成を説明するための図。 無線タグを有するバンド部材の構成を説明するための図。 図9のバンド部材が把持部に装着された場合の例を示す図。
 以下、本発明の実施の形態について、図面を参照しつつ説明を行う。
 図1から図10は、本発明の実施例に係るものである。図1は、本発明の実施例に係る内視鏡システムの要部の構成の一例を示す図である。
 内視鏡システム1は、図1に示すように、光源装置2と、硬性鏡撮像装置3と、プロセッサ4と、モニタ5と、を有して構成されている。
 光源装置2は、図1に示すように、光ケーブルLCを介して硬性鏡撮像装置3に接続できるように構成されている。また、光源装置2は、互いに異なる分光特性の光を発することができるように構成されている。さらに、光源装置2は、観察モード切替スイッチ(不図示)の操作により選択された観察モードに応じた分光特性を有する光を照明光として光ケーブルLCに供給することができるように構成されている。具体的には、光源装置2は、例えば、観察モード切替スイッチの操作により白色光観察モードが選択された場合には、白色光を照明光として光ケーブルLCに供給するように構成されている。また、光源装置2は、例えば、観察モード切替スイッチの操作により特殊光観察モードが選択された場合には、狭帯域光等の特殊光を照明光として光ケーブルLCに供給するように構成されている。
 硬性鏡撮像装置3は、図1に示すように、硬性鏡10と、カメラユニット20と、を有して構成されている。
 硬性鏡10は、挿入部としての機能を有し、被検者の体腔内に挿入可能であるとともに、カメラユニット20に対して着脱可能に接続されるように構成されている。
 具体的には、硬性鏡10は、例えば、図1に示すように、細長の円筒形状に形成された筒体部11と、筒体部11の後端部に設けられた把持部12と、光ケーブルLCの接続口としての機能を具備する光コネクタ部13と、把持部12の後端部に対して着脱可能に装着される接眼部14と、を有して構成されている。また、硬性鏡10は、接眼部14が把持部12の後端部に装着された状態において、カメラユニット20に対して着脱可能に接続されるように構成されている。
 筒体部11、把持部12及び光コネクタ部13の内部には、光ケーブルLCを介して光源装置2から供給される照明光を筒体部11の先端部へ導光するためのライトガイド(不図示)が設けられている。筒体部11の先端部(の先端面)には、ライトガイドにより伝送された照明光を被観察物へ照射するための照明窓(不図示)と、照明光の照射に伴って被観察物から発せられる戻り光を入射する光入射部としての機能を具備する対物レンズ(不図示)と、が設けられている。筒体部11及び把持部12の内部には、対物レンズに入射された戻り光を把持部12の後端部へ伝送する光伝送部としての機能を具備し、複数のレンズにより構成されたリレー光学系(不図示)が設けられている。
 光コネクタ部13は、把持部12の側部に対して着脱可能に装着されるライトガイドポスト13Aを有して構成されている。
 接眼部14の内部には、リレー光学系を経て把持部12の後端部から出射される戻り光を結像する結像部としての機能を具備する結像レンズ(不図示)が設けられている。
 すなわち、本実施例の硬性鏡撮像装置3は、硬性鏡10により結像された戻り光が、硬性鏡10の後端部に接続されたカメラユニット20に入射されるように構成されている。
 カメラユニット20は、図1に示すように、後端部に設けられた信号ケーブルSCを介してプロセッサ4に接続できるように構成されている。また、カメラユニット20の先端面における接眼部14との接続部分には、外部からの光を入射する光学窓(不図示)が設けられている。さらに、カメラユニット20は、図2に示すように、フォーカスレンズ21と、レンズ駆動部22と、撮像素子23と、を有して構成されている。図2は、実施例に係る内視鏡システムにおけるカメラユニットの構成の一例を示す図である。
 フォーカスレンズ21は、レンズ駆動部22の駆動に応じ、所定の可動範囲内で光軸上を移動することにより、撮像素子23により撮像される光学像の焦点調節を行うことができるように構成されている。
 レンズ駆動部22は、プロセッサ4から出力されるレンズ駆動制御信号に基づき、フォーカスレンズ21を駆動することができるように構成されている。レンズ駆動部22は、フォーカスレンズ21を駆動することにより、フォーカスレンズ21を光軸方向に沿って移動させることができるように構成されている。
 以上に述べたようなフォーカスレンズ21及びレンズ駆動部22の構成によれば、レンズ駆動部22がプロセッサ4からのレンズ駆動制御信号に基づいてフォーカスレンズ21を光軸方向に沿って移動させる(駆動する)ことにより、撮像素子23により撮像される光学像を合焦状態にすることができる。すなわち、フォーカスレンズ21及びレンズ駆動部22は、カメラユニット20の焦点調節に係る動作を行う焦点調節部としての機能を有している。
 撮像素子23は、撮像レンズ群を通過した光に応じた光学像を撮像面において受光し、当該受光した光学像を撮像して撮像信号を生成するように構成されている。そして、撮像素子23により生成された撮像信号は、(信号ケーブルSCを介して)プロセッサ4へ出力される。
 プロセッサ4は、図1に示すように、ビデオケーブルVCを介してモニタ5に接続できるように構成されている。また、プロセッサ4は、図3に示すように、撮像信号入力部41と、記憶部42と、画像処理部43と、CPU44と、表示制御部45と、を有して構成されている。図3は、実施例に係る内視鏡システムにおけるプロセッサの構成の一例を示す図である。
 撮像信号入力部41は、カメラユニット20から出力された撮像信号に対し、ノイズ除去及びA/D変換等の信号処理を施して画像データを生成するように構成されている。そして、撮像信号入力部41により生成された画像データは、バスBSを介して画像処理部43及びCPU44へ出力される。
 記憶部42は、例えば、不揮発性メモリ等を有して構成されている。記憶部42は、CPU44の処理に用いられるプログラム及びデータベース等の様々なデータを格納できるように構成されている。
 画像処理部43は、撮像信号入力部41により生成された画像データに対して種々の画像処理を施すように構成されている。そして、画像処理部43により画像処理が施された画像データは、バスBSを介して記憶部42及び表示制御部45へ出力される。
 CPU44は、例えば、記憶部42から読み込んだプログラム、及び、スイッチ等の入力インターフェース(不図示)の操作に応じた動作をプロセッサ4の各部に対して行わせることができるように構成されている。CPU44は、バスBSまたは信号線(不図示)を介し、プロセッサ4の各部を制御することができるように構成されている。
 一方、制御部としての機能を備えたCPU44は、後述の処理を行うことにより、カメラユニット20と同時に使用される硬性鏡10に応じた焦点調節を行うためのレンズ駆動制御信号を生成し、当該生成したレンズ駆動制御信号を(信号ケーブルSCを介して)カメラユニット20のレンズ駆動部22へ出力するように構成されている。
 表示制御部45は、画像処理部43により画像処理が施された画像データに対し、CPU44の制御等に応じた種々の処理を施して映像信号を生成するように構成されている。そして、表示制御部45により生成された映像信号は、(ビデオケーブルVCを介して)モニタ5へ出力される。
 なお、本実施例によれば、例えば、プロセッサ4の各部のうちの1つ以上がカメラユニット20に設けられるように内視鏡システム1を構成してもよい。
 モニタ5は、ビデオケーブルVCを介してプロセッサ4から出力される映像信号に応じた画像等を画面上に表示することができるように構成されている。
 次に、本実施例の内視鏡システム1において、図4A及び図4Bに示す処理が行われる場合の例について説明する。図4Aは、実施例に係る内視鏡システムの使用前において行われる処理の一例を示す図である。図4Bは、実施例に係る内視鏡システムの使用中において行われる処理の一例を示す図である。
 まず、術者等のユーザは、内視鏡システム1の各部を図1に示すように接続して電源を投入する(図4AのステップS1)。その後、ユーザは、例えば図5に示すような、白色及び黒色の斜めエッジを含む所定のテストチャートを撮像することができるように筒体部11の先端部を配置し、カメラユニット20に設けられたAFスイッチ(不図示)を押下する(図4AのステップS2)。図5は、図4Aの処理において用いられるテストチャートに含まれる斜めエッジの一例を示す図である。
 その後、CPU44は、所定のテストチャートが撮像された画像データを取得すると、当該取得した画像データの所定の複数の周波数成分各々において、白色及び黒色の斜めエッジ部分の輝度値を検出する(図4AのステップS3)。具体的には、CPU44は、例えば、FD1<FD2<FD3となるように予め設定された3つの周波数成分各々において、白色及び黒色の斜めエッジ部分の輝度値を検出する。
 なお、本実施例において、周波数成分とは、空間周波数成分のことを指す。ここで、空間周波数成分は、一般的に、画像上の濃淡変化のピッチを表すパラメータとして用いられる。また、一般的に、1枚の画像には複数の空間周波数成分が含まれている。そのため、例えば、複数の空間周波数成分を含む画像内における低周波成分が多い領域では濃淡の間隔が広くなる一方で、当該画像内における高周波成分が多い画像では濃淡の間隔が狭くなる。そして、本実施例のCPU44は、例えば、取得した画像データを周波数成分毎に分解し、当該分解した周波数成分毎の輝度値を検出する処理を行うことにより、図4AのステップS3の処理結果を得ている。
 周波数成分特定部としての機能を備えたCPU44は、図4AのステップS3の処理において用いた所定の複数の周波数成分の中から、白色の輝度値と黒色の輝度値との差が所定の閾値TH1以上になる周波数成分、すなわち、コントラスト値が所定の閾値TH1以上になる周波数成分FC1を特定する(図4AのステップS4)。そして、光学特性取得部としての機能を備えたCPU44は、図4AのステップS4の処理により、周波数成分FC1を硬性鏡10の光学特性として取得する。
 具体的には、CPU44は、例えば、前述の3つの周波数成分FD1、FD2及びFD3のうち、白色の輝度値と黒色の輝度値との差が周波数成分FD1において所定の閾値TH1以上になることを検出した場合に、当該周波数成分FD1を周波数成分FC1として特定する。そして、このような処理により、カメラユニット20に接続されている硬性鏡10、すなわち、カメラユニット20と組み合わせて使用する硬性鏡10に適した周波数成分FD1を特定することができる。換言すると、本実施例によれば、図4AのステップS3の処理において用いられる所定の複数の周波数成分を、図4AのステップS4の処理により1つの周波数成分FC1を特定可能な程度まで互いに離して設定しておく必要がある。
 制御情報取得部としての機能を備えたCPU44は、図4AのステップS4により特定した周波数成分FC1に対応するレンズ駆動制御信号の生成の際に用いる制御情報を取得する(図4AのステップS5)。具体的には、CPU44は、例えば、レンズ駆動制御信号の生成の際に用いる制御情報として、図4AのステップS4により特定した周波数成分FC1を1/2倍(または略1/2倍)した値を少なくとも含む制御情報を取得する。すなわち、図4AのステップS5の処理によれば、図4AのステップS4の処理により特定された周波数成分FC1の大きさに応じて異なる制御情報が取得される。
 一方、ユーザは、例えば、モニタ5に表示される画像を確認することにより、図4Aに示した一連の処理の完了を認識すると、被検者の体腔内における所望の観察部位の近傍に筒体部11の先端部を配置させるための操作を行う。
 CPU44は、図4AのステップS5により取得した制御情報に基づき、カメラユニット20(撮像素子23)により撮像される光学像を周波数成分FC1で合焦状態にするためのレンズ駆動制御信号を生成して出力する(図4BのステップS6)。
 CPU44は、図4BのステップS6の処理を行った後で入力される画像データに基づき、当該画像データのコントラスト値が所定の閾値THL(<TH1)未満になったか否かを判定する(図4BのステップS7)。そして、図4BのステップS7の処理によれば、例えば、画像データのコントラスト値が所定の閾値THL以上であるとの判定結果が得られた場合に、カメラユニット20(撮像素子23)により撮像される光学像が合焦状態であることが示される。また、図4BのステップS7の処理によれば、例えば、画像データのコントラスト値が所定の閾値THL未満であるとの判定結果が得られた場合に、カメラユニット20(撮像素子23)により撮像される光学像が合焦状態からずれていることが示される。
 そして、CPU44は、図4BのステップS7の処理において、画像データのコントラスト値が所定の閾値THL以上であるとの判定結果を得た場合には、当該判定結果を得た後で入力される次の画像データに基づき、図4BのステップS7の処理を再度行う。
 すなわち、図4BのステップS7の処理において、画像データのコントラスト値が所定の閾値THL以上であるとの判定結果が得られた場合には、新規のレンズ駆動制御信号が生成されないため、フォーカスレンズ21の配置位置が現在の位置に維持される。
 また、CPU44は、図4BのステップS7の処理において、画像データのコントラスト値が所定の閾値THL未満であるとの判定結果を得た場合には、図4BのステップS6に戻って処理を行う。
 すなわち、図4BのステップS7の処理において、画像データのコントラスト値が所定の閾値THL未満であるとの判定結果が得られた場合には、図4BのステップS6の処理により新規に生成されたレンズ駆動制御信号に応じ、フォーカスレンズ21の配置位置が現在の位置から移動する。
 以上に述べたように、図4A及び図4Bの処理によれば、硬性鏡10をカメラユニット20に接続した状態で所定のテストチャートが撮像された際に得られる画像データに基づき、カメラユニット20(撮像素子23)により撮像される光学像を合焦状態にするためのレンズ駆動制御信号が生成及び出力される。そのため、図4A及び図4Bの処理によれば、撮像装置に対して着脱可能に接続される様々な挿入部毎に個別に周波数成分FC1を取得することができるため、当該挿入部に応じた焦点調節を簡便な構成で行うことができる。
 なお、本実施例によれば、例えば、カメラユニット20と同時に使用される硬性鏡10の種類を識別し、当該識別した硬性鏡10の種類に基づいて焦点調節を行うためのレンズ駆動制御信号を生成するようにしてもよい。このような場合に行われる処理について、図6A及び図6Bのフローチャートを主に参照しつつ説明する。図6Aは、実施例に係る内視鏡システムの使用前において行われる処理の、図4Aとは異なる例を示す図である。図6Bは、実施例に係る内視鏡システムの使用中において行われる処理の、図4Bとは異なる例を示す図である。
 まず、術者等のユーザは、内視鏡システム1の各部を図1に示すように接続して電源を投入する(図6AのステップS11)。
 その後、ユーザは、硬性鏡10をカメラユニット20に接続する前に、モニタ5に表示される画像を確認しながら、硬性鏡10の外表面のうち、硬性鏡10の種類に係る情報を含む識別コード(1次元コードまたは2次元コード)が表示された部分(例えば接眼部14)を撮像可能な位置にカメラユニット20を配置する。
 識別部としての機能を備えたCPU44は、撮像信号入力部41により生成された画像データに基づき、当該画像データに含まれる識別コードを読み取ることにより、カメラユニット20と同時に使用される硬性鏡10の種類を識別する(図6AのステップS12)。
 一方、CPU44は、図6AのステップS12の処理の実施に併せ、カメラユニット20に対して着脱可能に接続される一の硬性鏡の種類と、当該一の硬性鏡における焦点調節の際に用いられる制御情報と、が関連付けられたデータを複数具備するデータベースDB1を記憶部42から読み込む。なお、データベースDB1に含まれる制御情報には、例えば、カメラユニット20に対して着脱可能に接続される一の硬性鏡の被写界深度、当該一の硬性鏡の焦点調節を行う際の評価領域、及び、当該一の硬性鏡を用いて被観察物を撮像した際に得られる画像データのコントラスト値が所定の閾値TH2以上になる周波数成分FC2等の光学特性が含まれているものとする。また、データベースDB1に含まれる制御情報等のデータは、例えば、工場出荷時等のような、カメラユニット20が使用される前のタイミングで予め記憶部42に格納される。すなわち、光学特性取得部としての機能を備えたCPU44は、図6AのステップS12の処理により識別した硬性鏡10の種類に対応する光学特性を取得する。
 制御情報取得部としての機能を備えたCPU44は、記憶部42から読み込んだデータベースDB1を参照することにより、図6AのステップS12により識別した硬性鏡10の種類に対応する制御情報を取得する(図6AのステップS13)。
 一方、ユーザは、例えば、モニタ5に表示される画像を確認することにより、図6Aに示した一連の処理の完了を認識すると、被検者の体腔内における所望の観察部位の近傍に筒体部11の先端部を配置させるための操作を行う。
 CPU44は、図6AのステップS13により取得した制御情報に基づき、カメラユニット20と同時に使用される硬性鏡10の種類に応じた合焦状態にするためのレンズ駆動制御信号を生成して出力する(図6BのステップS14)。すなわち、このような図6BのステップS14の処理によれば、図6AのステップS12において識別された硬性鏡10の種類に対応する評価領域が画像データ内において設定され、当該設定された評価領域を合焦状態にするための前記制御信号が生成される。
 CPU44は、図6BのステップS14の処理を行った後で入力される画像データに基づき、当該画像データのコントラスト値が所定の閾値THM(<TH2)未満になったか否かを判定する(図6BのステップS15)。
 そして、CPU44は、図6BのステップS15の処理において、画像データのコントラスト値が所定の閾値THM以上であるとの判定結果を得た場合には、当該判定結果を得た後で入力される次の画像データに基づき、図6BのステップS15の処理を再度行う。
 すなわち、図6BのステップS15の処理において、画像データのコントラスト値が所定の閾値THM以上であるとの判定結果が得られた場合には、新規のレンズ駆動制御信号が生成されないため、フォーカスレンズ21の配置位置が現在の位置に維持される。
 また、CPU44は、図6BのステップS15の処理において、画像データのコントラスト値が所定の閾値THM未満であるとの判定結果を得た場合には、図6BのステップS14に戻って処理を行う。
 すなわち、図6BのステップS15の処理において、画像データのコントラスト値が所定の閾値THM未満であるとの判定結果が得られた場合には、図6BのステップS14の処理により新規に生成されたレンズ駆動制御信号に応じ、フォーカスレンズ21の配置位置が現在の位置から移動する。
 以上に述べたように、図6A及び図6Bの処理によれば、硬性鏡10の所定の部分に表示されたコードを撮像して得られた画像データに基づき、カメラユニット20と同時に使用される硬性鏡10の種類が識別され、当該識別された硬性鏡10の種類に応じた合焦状態にするためのレンズ駆動制御信号が生成及び出力される。そのため、図6A及び図6Bの処理によれば、撮像装置に対して着脱可能に接続される様々な挿入部毎に個別に周波数成分FC2を取得することができるため、当該挿入部に応じた焦点調節を簡便な構成で行うことができる。
 なお、本実施例によれば、図6AのステップS11からステップS12までの期間において、以下に述べるような処理等が行われることにより、カメラユニット20と同時に使用される硬性鏡10の種類が識別されるようにしてもよい。
 例えば、術者等のユーザは、内視鏡システム1の各部を図1に示すように接続して電源を投入した後、図7に示すような接眼部14Aを接眼部14の代わりに装着する。図7は、無線タグを有する接眼部の構成を説明するための図である。
 接眼部14Aは、図7に示すように、接眼部14と同様の形状及び機能を有し、接眼部14の代わりに把持部12の後端部に対して着脱可能に装着されるように構成されている。また、図7に示すように、接眼部14Aには、硬性鏡10の種類に関連付けられたID情報を無線信号として送信可能な無線送信部としての機能を具備する無線タグ61が設けられている。
 すなわち、前述のような接眼部14Aの構成によれば、硬性鏡10の種類に関連付けられたID情報が無線タグ61から無線信号として送信される。そのため、CPU44は、例えば、カメラユニット20の無線受信部(不図示)において受信された無線信号に含まれるID情報に基づき、カメラユニット20と同時に使用される硬性鏡10の種類を識別することができる。
 または、例えば、術者等のユーザは、内視鏡システム1の各部を図1に示すように接続して電源を投入した後、図8に示すようなライトガイドポスト13Bをライトガイドポスト13Aの代わりに装着する。図8は、無線タグを有するライトガイドポストの構成を説明するための図である。
 ライトガイドポスト13Bは、図8に示すように、ライトガイドポスト13Aと同様の形状及び機能を有し、ライトガイドポスト13Aの代わりに把持部12の側部に対して着脱可能に装着されるように構成されている。また、図8に示すように、ライトガイドポスト13Bには、硬性鏡10の種類に関連付けられたID情報を無線信号として送信可能な無線送信部としての機能を具備する無線タグ61が設けられている。
 すなわち、前述のようなライトガイドポスト13Bの構成によれば、硬性鏡10の種類に関連付けられたID情報が無線タグ61から無線信号として送信される。そのため、CPU44は、例えば、カメラユニット20の無線受信部において受信された無線信号に含まれるID情報に基づき、カメラユニット20と同時に使用される硬性鏡10の種類を識別することができる。
 または、例えば、術者等のユーザは、内視鏡システム1の各部を図1に示すように接続して電源を投入した後、図9に示すようなバンド部材15を把持部12に装着する。図9は、無線タグを有するバンド部材の構成を説明するための図である。
 バンド部材15は、例えば、ゴム等の弾性部材により形成されており、図10に示すような態様で把持部12に対して着脱可能に装着されるように構成されている。また、図9に示すように、バンド部材15には、硬性鏡10の種類に関連付けられたID情報を無線信号として送信可能な無線送信部としての機能を具備する無線タグ61が設けられている。図10は、図9のバンド部材が把持部に装着された場合の例を示す図である。
 すなわち、前述のようなバンド部材15の構成によれば、硬性鏡10の種類に関連付けられたID情報が無線タグ61から無線信号として送信される。そのため、CPU44は、例えば、カメラユニット20の無線受信部において受信された無線信号に含まれるID情報に基づき、カメラユニット20と同時に使用される硬性鏡10の種類を識別することができる。
 なお、本実施例によれば、例えば、図5に示したテストチャートが、ホワイトバランス調整に用いられるホワイトバランスキャップの内周面に描かれていてもよい。
 また、本実施例によれば、例えば、図4AのステップS5または図6AのステップS12の処理により制御情報を得た後で、観察モード切替スイッチの操作により光源装置2から供給される照明光が切り替えられた場合に、同様の処理を再度行わずとも、切り替え後の照明光に適した制御情報を得るようにすることができる。具体的には、例えば、第1の分光特性を具備する切り替え前の照明光で既に得られた制御情報において合焦状態となるフォーカスレンズ21の配置位置を、当該第1の分光特性と、切り替え後の照明光が具備する第2の分光特性と、の差異に応じた所定の値だけずらすような処理を行うことにより、当該切り替え後の照明光に適した新たな制御情報を得ることができる。そのため、このような処理が行われるように構成した内視鏡システム1によれば、焦点調節に係る作業の煩雑さを軽減することができるとともに、照明光の分光特性に応じた焦点調節を行うことができる。
 ところで、内視鏡システム1のカメラユニット20には、硬性鏡10のみならず、例えば、筒体部11及び把持部12の内部のリレー光学系をファイババンドルに置き換えて構成したファイバスコープが接続される場合も考えられる。そのため、本実施例によれば、例えば、図4AのステップS3の輝度値の検出結果に応じたコントラスト値がCPU44により算出され、当該算出されたコントラスト値に基づいて硬性鏡10またはファイバスコープのどちらがカメラユニット20と同時に使用されるかがCPU44により識別され、当該識別された結果に応じたレンズ駆動制御信号がCPU44からレンズ駆動部22へ出力されるように内視鏡システム1を構成してもよい。または、本実施例によれば、例えば、図6AのステップS12の処理において、硬性鏡10またはファイバスコープのどちらがカメラユニット20と同時に使用されるかがCPU44により識別され、当該識別された結果に応じたレンズ駆動制御信号がCPU44からレンズ駆動部22へ出力されるようにしてもよい。さらに、本実施例によれば、ファイバスコープがカメラユニット20と同時に使用されるとの識別結果が得られた際に、以下に述べる処理が行われるように内視鏡システム1を構成してもよい。
 一方、ファイバスコープがカメラユニット20と同時に使用される場合においては、当該ファイバスコープの接眼部14側の端面に対する焦点調整が行われる関係上、撮像素子23により撮像される光学像が合焦状態になった場合のフォーカスレンズ21の配置位置にずれが生じない。そのため、本実施例によれば、例えば、ファイバスコープがカメラユニット20と同時に使用されるとの識別結果が得られた際に、所定のタイミングから一定時間が経過するまでの間のみ、図4BのステップS7及び図6BのステップS15の処理が行われるようにしてもよい。具体的には、例えば、ファイバスコープがカメラユニット20と同時に使用されるとの識別結果が得られたタイミングから一定時間が経過するまでの間のみ、図4BのステップS7及び図6BのステップS15の処理が行われるようにしてもよい。そして、このような動作が行われるように構成した内視鏡システム1によれば、ファイバスコープがカメラユニット20と同時に使用されるとの識別結果が得られた際に、所定のタイミングから一定時間が経過するまでの間のみレンズ駆動制御信号が(生成及び)出力されるため、レンズ駆動制御信号の出力に起因して生じる消費電力の増加を抑制することができる。
 また、本実施例によれば、例えば、ファイバスコープがカメラユニット20と同時に使用されるとの識別結果が得られた際に、CPU44が、撮像信号入力部41により生成される画像データのコントラスト値が最大値となる配置位置から所定の量だけずらした配置位置にフォーカスレンズ21を移動させるためのレンズ駆動制御信号を出力するようにしてもよい。そして、このような動作が行われるように構成した内視鏡システム1によれば、ファイバスコープを用いて被観察物を撮像した際に得られる画像において生じるモアレを軽減することができる。
 また、本実施例によれば、例えば、ファイバスコープがカメラユニット20と同時に使用されるとの識別結果が得られた際に、画像処理部43が、撮像信号入力部41により生成された画像データ内の白色(明部)と黒色(暗部)との境界線に対してブラーをかけるような画像処理を行ってもよい。そして、このような画像処理が行われるように構成した内視鏡システム1によれば、ファイバスコープを用いて被観察物を撮像した際に得られる画像において生じるモアレを軽減することができる。
 一方、本実施例によれば、例えば、カメラユニット20の撮像レンズ群を通過した光が入射される液晶板(不図示)と、当該液晶板を通過した光が入射される複屈折板(不図示)と、が撮像素子23の前面に配置された構成において、ファイバスコープがカメラユニット20と同時に使用されるとの識別結果が得られた際に、以下に述べる処理等が行われるようにしてもよい。
 CPU44は、撮像素子23のフレームレートに基づき、撮像素子23の各画素位置に対する画素ずれのない第1の光学像が撮像される状態と、撮像素子23の各画素位置から水平方向及び垂直方向に1/2画素分の画素ピッチだけずらした第2の光学像が撮像される状態と、が1フレーム分の期間中に切り替わるように液晶板を駆動させる。そして、このようなCPU44の動作に伴い、1フレーム分の期間中において、前述の第1の光学像に応じた画像データIG1と、前述の第2の光学像に応じた画像データIG2と、が撮像信号入力部41により生成される。
 その後、画像処理部43は、撮像信号入力部41から出力される画像データIG1及びIG2を重畳して画像データIG3を生成する。
 さらに、画像処理部43は、前述のように生成した画像データIG3に対して画素補間処理を施すことにより、画像データIG1及びIG2における画素ピッチの1/2倍の画素ピッチを具備するとともに、画像データIG1及びIG2における画素数の4倍の画素数を具備する画像データIG4を生成する。
 そして、画像処理部43は、例えば、画像データIG1及びIG2における画素数と同数になるまで画素を間引く処理を画像データIG4に対して施すことにより画像データIG5を生成し、当該生成した画像データIG5を表示制御部45へ出力する。このような画像処理部43の動作に伴い、画像データIG5に応じた画像がモニタ5に表示される。
 ここで、画像データIG1及びIG2における画素ピッチをPとし、さらに、ファイバスコープに設けられたファイババンドルにおける各ファイバ間のピッチをP+δP(0<δP<P)とした場合、以下の数式(1)の演算を行うことにより、画像データIG1及びIG2に含まれるモアレ成分のピッチに相当するモアレ周期TMAを求めることができる。

TMA=P/δP  ・・・(1)

 また、画像データIG4の画素ピッチP/2を上記数式(1)に代入して下記数式(2)の演算を行うことにより、画像データIG4に含まれるモアレ成分のピッチに相当するモアレ周期TMBを求めることができる。

TMB=(P/2)/δP=P/4δP  ・・・(2)

 また、画像データIG1及びIG2に含まれるモアレ成分の空間周波数をFMAとし、さらに、画像データIG4に含まれるモアレ成分の空間周波数をFMBとした場合、以下の数式(3)及び(4)に示すような関係が成り立つ。

FMA=1/TMA=δP/P2  ・・・(3)
FMB=1/TMB=4×(δP/P)=4×FMA・・・(4)

 すなわち、画像データIG5においては、画像データIG1及びIG2に比べて高周波側へモアレ成分が移動している。そのため、画像データIG5が生成されるように構成した内視鏡システム1によれば、解像度の劣化を抑制しつつ、モニタ5に表示されるモアレの視認性を低下させることができる。
 なお、以上に述べた処理によれば、例えば、画像データIG4の画素を間引いて画像データIG5を生成する前に、画像データIG4に対してローパスフィルタを適用することにより、モアレ成分の空間周波数FMBを除去するようにしてもよい。そして、空間周波数FMBが除去された状態で画像データIG5が生成されるように構成した内視鏡システム1によれば、解像度の劣化を抑制しつつ、モニタ5にモアレを略表示させないようにすることができる。
 なお、本発明は、上述した実施例に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。
 本出願は、2013年6月12日に日本国に出願された特願2013-123886号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。

Claims (9)

  1.  対物光学系を有する挿入部が着脱可能で、前記挿入部の対物光学系が伝達する被観察物からの光を光学像として撮像し撮像信号として出力するように構成された撮像装置と、
     前記撮像装置に設けられ、前記撮像装置の焦点を変更可能な駆動部を有する焦点変更部と、
     前記挿入部が前記撮像装置に装着された状態で前記焦点変更部の前記駆動部に対して前記光学像を合焦状態に自動で制御するための制御信号を生成するように構成された制御部と、
     前記制御部が前記制御信号を生成する際に用いられる前記挿入部の光学特性を取得するように構成された光学特性取得部と、
     を有することを特徴とする内視鏡システム。
  2.  前記撮像装置に前記挿入部が装着された状態で所定のチャートを撮像した際に得られる画像のコントラスト値が所定の閾値以上となる周波数成分を特定する周波数成分特定部をさらに有し、
     前記光学特性取得部は、前記周波数成分特定部により特定された前記周波数成分に対応する前記挿入部の光学特性を取得する
     ことを特徴とする請求項1に記載の内視鏡システム。
  3.  前記挿入部の種類と、前記挿入部の光学特性を含む制御情報と、を関連付けた複数のデータを具備するデータベースが格納されている記憶部と、
     前記撮像信号に応じて生成される画像、または、前記挿入部に対して着脱可能に装着される所定の部材に設けられた無線送信部から送信される無線信号に含まれる情報のいずれかに基づき、前記撮像装置と同時に使用される前記挿入部の種類を識別するように構成された識別部と、をさらに有し、
     前記光学特性取得部は、前記識別部により識別された前記挿入部の種類に対応する前記制御情報を前記データベースから取得することにより、前記識別部により識別された前記挿入部の種類に対応する光学特性を取得する

     ことを特徴とする請求項1に記載の内視鏡システム。
  4.  前記識別部は、前記挿入部の外表面に表示された所定のコードが撮像された際に、当該撮像された画像に含まれる前記所定のコードを読み取ることにより、前記挿入部の種類を識別する
     ことを特徴とする請求項3に記載の内視鏡システム。
  5.  前記識別部は、前記撮像装置に前記挿入部が装着された状態で所定のチャートを撮像した際に得られる画像のコントラスト値を算出し、当該算出したコントラスト値に基づいて前記挿入部の種類を識別する
     ことを特徴とする請求項3に記載の内視鏡システム。
  6.  前記制御部は、前記識別部により識別された前記挿入部の種類に対応する評価領域を前記撮像信号に応じて生成される画像内において設定し、当該設定した評価領域を合焦状態にするための前記制御信号を生成する
     ことを特徴とする請求項3に記載の内視鏡システム。
  7.  前記制御部は、前記被観察物に照射される照明光の分光特性に応じた前記制御信号を前記焦点調節部へ出力するための処理を行う
     ことを特徴とする請求項3に記載の内視鏡システム。
  8.  前記制御部は、前記挿入部に設けられているとともに前記撮像装置が前記被観察物の光学像を撮像する際に用いられる光を伝送する光伝送部がファイババンドルにより構成されていることを示す識別結果が前記識別部により得られた際に、所定のタイミングから一定時間が経過するまでの間のみ前記制御信号を前記焦点調節部へ出力するように動作する
     ことを特徴とする請求項3に記載の内視鏡システム。
  9.  前記制御部は、前記挿入部に設けられているとともに前記撮像装置が前記被観察物の光学像を撮像する際に用いられる光を伝送する光伝送部がファイババンドルにより構成されていることを示す識別結果が前記識別部により得られた際に、前記焦点調節部に含まれるフォーカスレンズを、前記撮像信号に応じて生成される画像のコントラスト値が最大値となる配置位置から所定の量だけずらした配置位置に移動させるような前記制御信号を生成する
     ことを特徴とする請求項3に記載の内視鏡システム。
PCT/JP2014/065333 2013-06-12 2014-06-10 内視鏡システム WO2014199980A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014552998A JP5767412B2 (ja) 2013-06-12 2014-06-10 内視鏡システム
EP14810568.7A EP2957217A4 (en) 2013-06-12 2014-06-10 Endoscope system
CN201480015651.6A CN105338881B (zh) 2013-06-12 2014-06-10 内窥镜系统
US14/851,244 US20160000306A1 (en) 2013-06-12 2015-09-11 Endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-123886 2013-06-12
JP2013123886 2013-06-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/851,244 Continuation US20160000306A1 (en) 2013-06-12 2015-09-11 Endoscope system

Publications (1)

Publication Number Publication Date
WO2014199980A1 true WO2014199980A1 (ja) 2014-12-18

Family

ID=52022272

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/065333 WO2014199980A1 (ja) 2013-06-12 2014-06-10 内視鏡システム

Country Status (5)

Country Link
US (1) US20160000306A1 (ja)
EP (1) EP2957217A4 (ja)
JP (1) JP5767412B2 (ja)
CN (1) CN105338881B (ja)
WO (1) WO2014199980A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10582832B2 (en) * 2013-01-17 2020-03-10 Stryker Corporation System for altering functions of at least one surgical device dependent upon information saved in an endoscope related to the endoscope
US10537236B2 (en) 2013-01-17 2020-01-21 Stryker Corporation Anti-fogging device for endoscope
DE102014109888B4 (de) * 2014-07-15 2022-12-01 Karl Storz Se & Co. Kg Verfahren und Vorrichtung zum Prüfen der Licht- und/oder Bildübertragungseigenschaften eines endoskopischen oder exoskopischen Systems
EP3459430A4 (en) * 2016-05-17 2020-04-08 Kairos Co., Ltd. ENDOSCOPE DEVICE
CN107049214A (zh) * 2017-04-27 2017-08-18 苏州双威医疗器械科技有限公司 自动调焦显微内窥荧光成像系统
US11432712B2 (en) * 2017-06-28 2022-09-06 Karl Storz Imaging, Inc. Fluorescence imaging scope with dual mode focusing structures
CN108051913A (zh) * 2017-12-28 2018-05-18 北京凡星光电医疗设备股份有限公司 一种内窥镜系统及内窥镜摄像机光学系统一体化设计方法
JP7166821B2 (ja) * 2018-07-18 2022-11-08 ソニー・オリンパスメディカルソリューションズ株式会社 医療用撮像装置及び医療用観察システム
CN109459848B (zh) * 2018-10-31 2021-08-31 精微视达医疗科技(武汉)有限公司 探头式共聚焦显微内窥镜、其对焦装置及方法
WO2021072680A1 (zh) * 2019-10-16 2021-04-22 深圳迈瑞生物医疗电子股份有限公司 内窥镜摄像头和内窥镜摄像系统
CN112040121B (zh) * 2020-08-19 2021-08-13 江西欧迈斯微电子有限公司 调焦方法、装置、存储介质及终端
JP2022078863A (ja) * 2020-11-13 2022-05-25 ソニー・オリンパスメディカルソリューションズ株式会社 医療用制御装置及び医療用観察システム
DE102020132454B3 (de) * 2020-12-07 2021-11-25 Karl Storz Se & Co. Kg Endoskopische Vorrichtung und Verfahren zur Überprüfung einer Identität einer Komponente einer endoskopischen Vorrichtung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02207213A (ja) * 1989-02-06 1990-08-16 Olympus Optical Co Ltd 内視鏡装置
JP2005334462A (ja) 2004-05-28 2005-12-08 Olympus Corp 立体視内視鏡システム
JP2011147707A (ja) 2010-01-25 2011-08-04 Olympus Corp 撮像装置、内視鏡システム及び撮像装置の制御方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0783B2 (ja) * 1987-03-30 1995-01-11 株式会社東芝 電子内視鏡装置
US4905668A (en) * 1988-05-16 1990-03-06 Olympus Optical Co., Ltd. Endoscope apparatus
US5589874A (en) * 1993-06-09 1996-12-31 Origin Medsystems, Inc. Video imaging system with external area processing optimized for small-diameter endoscopes
JP3594254B2 (ja) * 1994-10-06 2004-11-24 オリンパス株式会社 内視鏡装置
JP3986988B2 (ja) * 2002-09-27 2007-10-03 富士フイルム株式会社 自動焦点調節方法および装置
JP4377745B2 (ja) * 2004-05-14 2009-12-02 オリンパス株式会社 電子内視鏡
DE102009058662A1 (de) * 2009-12-16 2011-06-22 Karl Storz GmbH & Co. KG, 78532 Verfahren zum Prüfen eines optischen Untersuchungssystems
JP5346856B2 (ja) * 2010-03-18 2013-11-20 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法及び撮像装置
JP5669529B2 (ja) * 2010-11-17 2015-02-12 オリンパス株式会社 撮像装置、プログラム及びフォーカス制御方法
EP2667231B1 (en) * 2011-01-18 2017-09-06 FUJIFILM Corporation Auto focus system
WO2012132096A1 (ja) * 2011-03-29 2012-10-04 オリンパスメディカルシステムズ株式会社 内視鏡用アダプタ、内視鏡用プロセッサ及び内視鏡システム
JP5253688B1 (ja) * 2011-08-10 2013-07-31 オリンパスメディカルシステムズ株式会社 内視鏡装置
TWI432167B (zh) * 2011-10-04 2014-04-01 Medimaging Integrated Solution Inc 主機、光學鏡頭模組以及其組成之數位診斷系統

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02207213A (ja) * 1989-02-06 1990-08-16 Olympus Optical Co Ltd 内視鏡装置
JP2005334462A (ja) 2004-05-28 2005-12-08 Olympus Corp 立体視内視鏡システム
JP2011147707A (ja) 2010-01-25 2011-08-04 Olympus Corp 撮像装置、内視鏡システム及び撮像装置の制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2957217A4

Also Published As

Publication number Publication date
US20160000306A1 (en) 2016-01-07
CN105338881A (zh) 2016-02-17
JPWO2014199980A1 (ja) 2017-02-23
JP5767412B2 (ja) 2015-08-19
EP2957217A1 (en) 2015-12-23
EP2957217A4 (en) 2017-03-01
CN105338881B (zh) 2017-07-28

Similar Documents

Publication Publication Date Title
JP5767412B2 (ja) 内視鏡システム
JP6329715B1 (ja) 内視鏡システムおよび内視鏡
EP3085300A1 (en) Endoscope device
JP2012125293A (ja) 制御装置、内視鏡装置及びフォーカス制御方法
WO2018211854A1 (ja) 3d内視鏡装置、及び、3d映像処理装置
WO2016185952A1 (ja) 制御装置及び医療用撮像システム
JP6736670B2 (ja) 内視鏡システム
JPWO2015025697A1 (ja) 内視鏡システム
US10089768B2 (en) Image processing device, image processing method, image processing program, and imaging system
US11571109B2 (en) Medical observation device
JP7016681B2 (ja) 内視鏡システム
JP6368886B1 (ja) 内視鏡システム
JP2014228851A (ja) 内視鏡装置、画像取得方法および画像取得プログラム
JP2019080623A (ja) 内視鏡装置
WO2015194204A1 (ja) 内視鏡装置
CN107405049B (zh) 立体内窥镜装置
JP2010082214A (ja) 表示装置、プログラム、及び方法
JP2019162371A (ja) 医療用撮像装置及び内視鏡装置
US10893186B2 (en) Medical imaging apparatus and medical observation system
US10542866B2 (en) Medical imaging device
US11109744B2 (en) Three-dimensional endoscope system including a two-dimensional display image portion in a three-dimensional display image
US10917555B2 (en) Imaging apparatus, focus control method, and focus determination method
US11298000B2 (en) Endoscopic device
US11418772B2 (en) Imaging device balancing depth of field and resolution
US20220222773A1 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480015651.6

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2014552998

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14810568

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2014810568

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE