WO2022185821A1 - 内視鏡システム及びその作動方法 - Google Patents

内視鏡システム及びその作動方法 Download PDF

Info

Publication number
WO2022185821A1
WO2022185821A1 PCT/JP2022/004048 JP2022004048W WO2022185821A1 WO 2022185821 A1 WO2022185821 A1 WO 2022185821A1 JP 2022004048 W JP2022004048 W JP 2022004048W WO 2022185821 A1 WO2022185821 A1 WO 2022185821A1
Authority
WO
WIPO (PCT)
Prior art keywords
evaluation
image
press
post
time
Prior art date
Application number
PCT/JP2022/004048
Other languages
English (en)
French (fr)
Inventor
空 難波
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2023503646A priority Critical patent/JPWO2022185821A1/ja
Priority to CN202280018655.4A priority patent/CN116981388A/zh
Publication of WO2022185821A1 publication Critical patent/WO2022185821A1/ja
Priority to US18/460,179 priority patent/US20230418044A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2423Optical details of the distal end
    • G02B23/243Objectives for endoscopes
    • G02B23/2438Zoom objectives
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device

Definitions

  • the present invention relates to an endoscope system that displays evaluated images and an operating method thereof.
  • an endoscope autofocus mechanism such as that of Patent Document 1.
  • the intraoral camera of Patent Literature 2 does not use an autofocus mechanism, and achieves a reduction in size and weight by obtaining an image while automatically moving a focus lens when an imaging instruction is input.
  • the endoscope of Patent Document 3 evaluates the brightness and the amount of blurring of the captured image and automatically selects an appropriate still image, thereby reducing the user's burden of selecting an appropriate still image. ing.
  • the autofocus mechanism has the problem of making the optical system for imaging large and heavy. There is a demand for a technology that acquires an image that is in focus while maintaining it and presents it to the user.
  • An object of the present invention is to provide an endoscope system that obtains a focused image while miniaturizing the optical system, and an operating method thereof.
  • the endoscope system of the present invention illuminates the subject and captures the light from the subject.
  • An endoscope system includes an endoscope and a processor device.
  • the endoscope captures an image of reflected light from a subject, and has a zoom lens and a lens driving processor for driving the zoom lens.
  • the processor device has an image acquisition processor.
  • the lens drive processor drives the zoom lens according to the depression of the freeze button.
  • the image acquisition processor acquires inspection images, which are images that are continuous in time series.
  • an inspection image is acquired in conjunction with the movement of the zoom lens driven by the lens driving processor, and the post-press evaluation frame is obtained from the inspection image acquired during the post-press evaluation time.
  • the evaluation value of the inspection image selected as the image is calculated, and among the post-press evaluation frame images for which the evaluation values have been calculated, the post-press evaluation frame image with the highest evaluation value is selected as the optimum image, and the optimum image is displayed. .
  • the image acquisition processor saves the inspection images for the evaluation holding frames as evaluation holding frame images from the inspection images acquired during the comprehensive evaluation time, and calculates the evaluation value of the saved evaluation holding frame images.
  • the total evaluation time is the sum of the post-press evaluation time and the pre-press evaluation time that is the time before the freeze button is pressed, and the evaluation holding frame image is the post-press evaluation frame image and the pre-press evaluation time.
  • the image acquisition processor preferably calculates an evaluation value for the post-press evaluation frame image and the pre-press evaluation frame image.
  • the image acquisition processor saves the inspection image excluding some frames as the pre-press evaluation frame image within the evaluation holding frame during the pre-press evaluation time, and inspects all the frames during the post-press evaluation time. It is preferable to save the image as an evaluation frame image after pressing.
  • the image acquisition processor saves the inspection image acquired during the comprehensive evaluation time as the evaluation holding frame image, excluding some frames, within the evaluation holding frame.
  • the total evaluation time is at least 0.5 seconds.
  • the post-press evaluation time is at least 0.3 seconds.
  • the evaluation value is preferably a contrast value.
  • the rating hold frame is at least 15 frames.
  • the image acquisition processor selects the image with the highest evaluation value from the pre-press evaluation frame images as the pre-press optimum image, and selects the post-press evaluation frame image from the post-press evaluation frame images with the highest evaluation value as the post-press optimum image. Then, it is preferable to select and display the image with the highest evaluation value from the pre-press optimum image and the post-press optimum image.
  • the image acquisition processor preferably displays the evaluation holding frame image whose evaluation value is equal to or higher than the threshold as the optimum image when the evaluation holding frame image whose evaluation value is equal to or higher than the threshold is obtained.
  • the image acquisition processor preferably drives the zoom lens when the distance between the subject and the tip of the endoscope is within the range of 2 mm or more and 6 mm or less.
  • a method of operating an endoscope system includes an endoscope having a zoom lens and a lens driving processor for driving the zoom lens; a processor device having a processor, wherein the lens driving processor drives the zoom lens in response to depression of the freeze button; and the image acquisition processor continues chronologically before the freeze button is depressed.
  • the endoscope system and its operating method of the present invention it is possible to provide an endoscope system and its operating method that obtains a focused image while downsizing the optical system.
  • FIG. 1 is a configuration diagram of an endoscope system;
  • FIG. 5 is an explanatory diagram showing driving of a zoom lens;
  • FIG. 4 is an explanatory diagram showing depth of field;
  • FIG. 4 is an explanatory diagram showing the relationship between the position of the zoom lens, the distance between subjects, and the depth of field;
  • FIG. 9 is an explanatory diagram showing a total evaluation time, a pre-press evaluation time, a post-press evaluation time, a pre-press evaluation frame image, and a post-press evaluation frame image;
  • FIG. 10 is an image diagram of a setting screen;
  • FIG. 10 is an image diagram of a custom screen;
  • FIG. 10 is an explanatory diagram showing an evaluation unit and a selection unit when no threshold is set;
  • FIG. 11 is an explanatory diagram showing an evaluation unit and a selection unit when a threshold value is set to 350;
  • FIG. 11 is an explanatory diagram showing an evaluation unit and a selection unit when a threshold is set to 300;
  • FIG. 4 is an image diagram of a display screen; 4 is a flow chart showing functions of the first embodiment;
  • FIG. 9 is a block diagram showing functions of an evaluation unit according to the second embodiment;
  • FIG. 9 is a block diagram showing functions of a selection unit according to the second embodiment;
  • FIG. 5 is an explanatory diagram showing functions of a pre-press evaluation unit, a post-press evaluation unit, a pre-press selection unit, a post-press selection unit, and a general selection unit;
  • 9 is a flow chart showing functions of the second embodiment;
  • an endoscope system 10 has an endoscope 12 , a light source device 13 , a processor device 14 , a display 15 and a user interface 16 .
  • the endoscope 12 is optically connected to the light source device 13 and electrically connected to the processor device 14 .
  • the endoscope 12 includes an insertion portion 12a to be inserted into the body of an observation target, an operation portion 12b provided at the proximal end portion of the insertion portion 12a, a bending portion 12c provided at the distal end side of the insertion portion 12a, and a distal end portion. and a portion 12d.
  • the bending portion 12c is bent by operating the angle knob 12e of the operation portion 12b.
  • the distal end portion 12d is directed in a desired direction by the bending motion of the bending portion 12c.
  • the operation unit 12b is provided with a freeze button 12h used to instruct acquisition of a still image of the subject, and a zoom operation unit 12i used to operate the zoom lens 42.
  • the endoscope 12 acquires inspection images, which are a series of moving images that are continuous in time series.
  • the inspection image includes a still image, an evaluation holding frame image, a pre-press evaluation frame image, and a post-press evaluation frame image. If a still image, which is one frame of the inspection image, is desired to be acquired while the inspection image is being picked up, a still image acquisition instruction is sent to the endoscope 12 and the processor device 14 by pressing the freeze button 12h. be done.
  • a memory (not shown) may be connected to the processor unit 14 for storing still images.
  • the processor device 14 is electrically connected with the display 15 and the user interface 16 .
  • the display 15 outputs and displays an inspection image, information attached to the inspection image, and the like.
  • the user interface 16 has a keyboard, mouse, touch pad, microphone, etc., and has a function of receiving input operations such as function settings.
  • the light source unit 20 of the light source device 13 emits illumination light for illuminating the subject.
  • the light source unit 20 includes a light source such as a laser diode, an LED (Light Emitting Diode), a xenon lamp, or a halogen lamp, and emits at least illumination light (white light) having a spectrum as shown in FIG. For white, a so-called Contains false white.
  • the light source unit 20 includes an optical filter or the like for adjusting the wavelength band, spectrum, amount of light, or the like of the illumination light, if necessary.
  • the light source control unit 22 controls the lighting or extinguishing of each light source constituting the light source unit 20, the amount of light emission, and the like.
  • illumination light emitted by the light source unit 20 enters the endoscope 12 through the light guide 23 .
  • An illumination optical system 30 and an imaging optical system 40 are provided at the distal end portion 12 d of the endoscope 12 .
  • the illumination optical system 30 has an illumination lens 31 , and the illumination light propagated by the light guide 23 is applied to the observation target via the illumination lens 31 .
  • the imaging optical system 40 has an objective lens 41 , a zoom lens 42 and an imaging sensor 43 . Light emitted from the object to be observed by illumination light enters the imaging sensor 43 via the objective lens 41 and the zoom lens 42 . As a result, an image of the observation target is formed on the imaging sensor 43 .
  • a zoom lens 42 is a lens group for enlarging or reducing an observation target (object). Specifically, as shown in FIG. 4, it is composed of four lens groups, lenses G1, G2, G3, and G4, in order from the distal end side of the distal end portion 12d of the endoscope 12. As shown in FIG. When observing a structure such as a thin blood vessel or when observing an object with close-up magnification when performing a surgical procedure, that is, when performing close-up photography, the zoom operation unit 12i is operated to bring the close-up into focus. Then, the zoom lens groups G2 and G3 are moved in the direction of increasing the number of steps.
  • the zoom operation unit 12i when observing a subject over a wide range such as when confirming the infiltration range of a relatively large lesion, that is, when photographing a distant view, the zoom operation unit 12i is operated to bring the distant view into focus.
  • the zoom lens groups G2 and G3 are moved in a direction in which the number of steps is small.
  • the lens drive processor 44 moves the zoom lens groups G2 and G3 between the farthest point (Step 1) and the closest point (Step 5) as shown in FIG. 4 according to the operation of the zoom operation unit 12i.
  • dotted lines indicate approximate positions of Steps 1 to 5 where the zoom lens groups G2 and G3 move.
  • the zoom lens groups G2 and G3 move from the position of Step 1 to the position of Step 5 toward the distal end side of the distal end portion 12d or toward the side opposite to the distal end side of the distal end portion 12d.
  • the zoom lens groups G1 and G4 are fixed.
  • the movement of the zoom lens groups G2 and G3 changes the depth of field, which is the range in which an image appears to be in focus. Note that the movement of the lens group is not limited to this.
  • the depth of field changes depending on the positions of the zoom lens groups G2 and G3.
  • the zoom lens groups G2 and G3 are in Step 1 (see FIG. 4)
  • the depth of field becomes deeper (the position in focus becomes wider).
  • the zoom lens groups G2 and G3 are in Step 2 to Step 5 (see FIG. 4)
  • the depth of field becomes shallower than when the zoom lens groups G2 and G3 are in Step 1 (the position of focus is narrow). Become).
  • the shallower the depth of field the more difficult it is to focus.
  • FIG. 6 in the case of close-up photography in which an inspection image is taken close to the subject Ob at a high magnification, the depth of field becomes shallow and the effects of movement of the subject such as peristalsis becomes larger, making it difficult to focus.
  • FIG. 6 shows an example of the relationship between the positions of the zoom lens groups G2 and G3, the distance between the subject Ob, and the depth of field.
  • the zoom lens groups G2 and G3 are positioned in Step 2, which is suitable for distant view photography in which a wide range is observed.
  • the zoom lens groups G2 and G3 are positioned at Step 3, which is suitable for close-up photography for magnifying and observing a smaller object. Out of focus.
  • Example 3 is an example in which close-up photography is performed as in Example 2, but the zoom lens groups G2 and G3 are positioned between Steps 2 and 3, and the depth of field is exactly on the surface of the subject Ob. fits.
  • the lens drive processor 44 drives the zoom lens groups G2 and G3 in response to pressing of the freeze button 12h in addition to the case where the zoom operation unit 12i is operated.
  • the freeze button 12h is pressed, the zoom lens groups G2 and G3 move at a constant speed toward the tip side of the tip portion 12d or the opposite side, and the zoom lens groups G2 and G3 driven by the lens drive processor 44 move.
  • An inspection image is acquired in conjunction with .
  • the zoom lens groups G2 and G3 After pressing the freeze button 12h, it is preferable to drive the zoom lens groups G2 and G3 when the distance between the subject and the tip of the endoscope 12 is within the range of 2 mm or more and 6 mm or less. This is because the distance between the subject and the tip of the endoscope 12 is within the range of 2 mm or more and 6 mm or less when the zoom lens groups G2 and G3 are in the positions of Step 2 to Step 3. In addition, since it is difficult to manually adjust the focus at a position where the depth of field changes greatly, it is also a range where it is preferable to assist with automatic shooting.
  • the range in which the zoom lens groups G2 and G3 are moved is not limited to Step 2 and Step 3 (the range in which the distance between the subject and the tip of the endoscope 12 is 2 mm or more and 6 mm or less).
  • the movement range of the zoom lens 42 can be set arbitrarily.
  • the zoom lens groups G2 and G3 When the zoom lens groups G2 and G3 are driven, the zoom lens groups G2 and G3 may be moved from the current position to the tip side or the opposite direction, and once the zoom lens groups G2 and G3 are moved to the starting position (for example, the position of Step 2 or Step 3). After being moved, it may be moved toward the distal side or the opposite side.
  • the starting position for example, the position of Step 2 or Step 3
  • the zoom lens groups G2 and G3 After being moved, it may be moved toward the distal side or the opposite side.
  • the imaging sensor 43 on which the reflected light from the subject through the objective lens 41 and the zoom lens 42 is imaged is a CMOS (Complementary Metal Oxide Semiconductor) sensor, a CCD (Charge-Coupled Device) sensor, or the like.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge-Coupled Device
  • the imaging sensor 43 is provided with a color filter for converting sensed light into a monochrome image signal in addition to a color image sensor provided with a color filter (such as a Bayer filter) that converts sensed light into a color image signal. It may also include a monochrome image sensor that is not supported. Note that the color imaging sensor may convert sensed light into CMY signals instead of RBG signals.
  • the image signals When acquiring a color image, the image signals include a B image signal output from the B pixel of the imaging sensor 43, a G image signal output from the G pixel of the imaging sensor 43, and an R pixel of the imaging sensor 43. contains the R image signal to be processed.
  • the image signal detected by the imaging sensor 43 is transmitted to the inspection image acquisition unit 51 of the processor device 14, and various signal processing and image processing such as noise reduction processing, color tone correction, and gradation correction are performed based on the image signal.
  • An inspection image is generated, which may be an image or a color image.
  • the processor device 14 includes a central control unit 50 , an inspection image acquisition unit 51 , a setting unit 60 , an evaluation unit 80 , a selection unit 90 and a display control unit 100 .
  • a temporary storage memory 17 is mounted on the processor device 14 .
  • the program in the program memory is operated by the central control unit 50 configured by the image acquisition processor, and the inspection image acquisition unit 51, the setting unit 60, the evaluation unit 80, the selection unit 90 and The functions of the display control unit 100 are realized.
  • the setting unit 60 when the freeze button 12h is pressed and a still image that is an inspection image for one frame is acquired, an optimal image candidate that is an inspection image that is most focused among the inspection images (still images) is selected. It is possible to set the selection method and the evaluation method of the inspection image.
  • an inspection image is transmitted from the inspection image acquisition unit 51 to the setting unit 60 , and the inspection image is transmitted to the evaluation unit 80 according to the settings of the setting unit 60 . Details of the setting unit 60 will be described below.
  • An evaluation frame refers to a frame for acquiring an inspection image that is an evaluation target for calculating an evaluation value.
  • the total evaluation time is a certain period of time before and after the freeze button 12h is pressed, during which the inspection image SI to be transmitted to the evaluation unit 80 is acquired. If the overall evaluation time is too long, the number of inspection images SI to be evaluated increases, which puts pressure on the computation of the processor unit 14 and the capacity of the temporary storage memory 17. If it is too short, the number of inspection images SI that are candidates for the optimum image decreases. . Therefore, the overall evaluation time is preferably at least 0.5 seconds or more, more preferably 1.0 seconds. A comprehensive evaluation time of 1.0 seconds is appropriate when the frame rate of the imaging sensor 43 is 60 fps.
  • one frame refers to a period (a period during which one inspection image is obtained) that includes at least a period from the timing when the image signal is received by the imaging sensor 43 to the completion of signal readout.
  • the comprehensive evaluation time can be arbitrarily set on a setting screen 70 to be described later.
  • the time before pressing the freeze button 12h is the evaluation time before pressing
  • the time after pressing the freeze button 12h is the evaluation time after pressing.
  • the post-press evaluation time is preferably the time required for the zoom lens groups G2 and G3 to move between steps. For example, if the time required for the zoom lens groups G2 and G3 to move from the position of Step 2 (see FIGS. 4 and 5) to the position of Step 3 (see FIGS. 4 and 5) is 0.33 seconds, press
  • the post-evaluation time is preferably at least 0.3 seconds or longer.
  • the pre-press evaluation time is the total evaluation time minus the post-press evaluation time. For example, if the overall evaluation time is 1.0 seconds and the post-press evaluation time is 0.3 seconds, the pre-press evaluation time is 0.7 seconds. Note that the pre-press evaluation time and the post-press evaluation time can be arbitrarily set on a setting screen 70 to be described later. It is also possible to set the pre-press evaluation time or the post-press evaluation time to 0 seconds.
  • the image of the frame selected as an evaluation target by the frame setting described later is used as the pre-press evaluation frame image.
  • the image of the frame selected as the evaluation target by the frame setting is set as the post-press evaluation frame image.
  • the pre-press evaluation frame image and the post-press evaluation frame image are stored in the temporary storage memory 17 in the processor device 14 and transmitted to the evaluation unit 80 .
  • the setting of the evaluation time including the comprehensive evaluation time, pre-press evaluation time, and post-press evaluation time is performed via the user interface 16 from the setting screen 70 as shown in FIG.
  • the total evaluation time, pre-press evaluation time, and post-press evaluation time can be entered from the input form 72 .
  • the input form 72 is not limited to this, and may be performed by tab input or voice input.
  • an evaluation holding frame which is the number of inspection images (frame number) to be stored in the temporary storage memory 17 within the total evaluation time, can be set. If the number of evaluation holding frames is too large, the number of inspection images to be evaluated will increase, and the calculation of the processor unit 14 and the capacity of the temporary storage memory 17 will be squeezed. Therefore, it is preferable that the evaluation holding frame is at least 15 frames or more.
  • the evaluation holding frame can be input from the input form 72 on the setting screen 70 .
  • the number of evaluation frames before pressing the freeze button 12h and the number of evaluation frames after pressing can also be input from the input form 72 on the setting screen 70.
  • the number of evaluation frames before pressing and the number of evaluation frames after pressing are added to the number of evaluation holding frames.
  • settings can also be made on a custom screen 76a as shown in FIG.
  • an evaluation frame pattern (hereinafter referred to as "pattern") of the inspection image to be evaluated can be arbitrarily set.
  • the evaluation time and evaluation frame settings input from the input form 72 may be reflected on the setting screen 70 .
  • hatched frames 76b indicate frames to be evaluated, and white frames 76c indicate frames not to be evaluated.
  • a frame can be selected by an alternate operation in which a frame is selected via the user interface 16 to become an evaluation target frame and selected again to be canceled, but the frame selection method is not limited to this. Templates of evaluation frame patterns such as patterns 1 to 5 may be selected with the radio button 76d. Note that FIG. 9 shows the custom screen 76a when the frame rate of the endoscope 12 is 60 fps.
  • Pattern 1 of FIG. 9 when the total evaluation time is 1.0 seconds, the post-press evaluation time is 0.3 seconds, and the evaluation holding frame is 30 frames, the test image is are stored as pre-press evaluation frame images every other frame, and the inspection images of all frames are stored as post-press evaluation frame images during the post-press evaluation time.
  • Pattern 1 is an evaluation frame pattern when the post-press evaluation frame image is to be obtained with priority over the pre-press evaluation frame image within a limited total evaluation time and evaluation holding frame.
  • Pattern 2 in FIG. 9 is acquired at the comprehensive evaluation time when the comprehensive evaluation time is 1.0 seconds, the post-press evaluation time is 0.3 seconds, and the evaluation holding frame is 30 frames.
  • An evaluation holding frame image is an inspection image captured in an evaluation holding frame. That is, pattern 2 is an evaluation frame pattern in which the inspection image is saved every other frame at both the pre-press evaluation time and the post-press evaluation time.
  • Pattern 2 is an evaluation frame pattern when it is desired to acquire post-press evaluation frame images and pre-press evaluation frame images in a well-balanced manner within a limited total evaluation time and evaluation holding frames.
  • Pattern 4 in FIG. 9 was acquired at the comprehensive evaluation time when the comprehensive evaluation time was 1.0 seconds, the post-press evaluation time was 0.4 seconds, and the evaluation holding frame was 30 frames. This is an example of storing an inspection image every other frame as an evaluation holding frame image.
  • Pattern 5 is an evaluation frame pattern when it is desired to increase the number of post-press evaluation frame images toward the beginning of the post-press evaluation time, considering that the user presses the freeze button 12h when the focus is on.
  • An inspection image may be acquired at the timing of pressing the freeze button 12h and added to the pre-press evaluation frame image or the post-press evaluation frame image.
  • the evaluation frame pattern can be created arbitrarily. For example, in pattern 1, an inspection image may be saved as a pre-press evaluation frame image every two or three frames during the pre-press evaluation time. Also, in pattern 2, inspection images acquired during the comprehensive evaluation time may be stored as evaluation holding frame images every two frames or three frames or more.
  • the inspection image is stored in the temporary storage memory 17 in the processor device 14 according to the above settings.
  • the freeze button 12 h is pressed, first, the inspection image for the evaluation holding frame at the evaluation time before pressing is stored in the temporary storage memory 17 .
  • the previous pre-press evaluation frame images are sequentially deleted in chronological order. be done. In this way, the post-press evaluation frame image is stored in the temporary storage memory 17 so as to fit within the evaluation holding frame, and the inspection image is stored so as not to overwhelm the temporary storage memory 17 .
  • either the total evaluation time or the evaluation holding frame may be prioritized. It is possible to arbitrarily set which of the total evaluation time and the evaluation holding frame has priority. With the above configuration, it is possible to set inspection images to be evaluated by selecting frames so as not to overload the processor and memory.
  • the evaluation value is a value obtained by evaluating the pixel value of the evaluation holding frame image, which is calculated by the evaluation unit 80 .
  • a threshold value is set for the evaluation value, when an evaluation holding frame image having an evaluation value equal to or higher than the threshold value is obtained, the evaluation holding frame image can be set as the optimum image (refer to FIGS. 11 and 12 to be described later). reference).
  • the evaluation value threshold can be input from the input form 72 .
  • the pre-press evaluation frame image and the post-press evaluation frame image are sent to the evaluation unit 80 in accordance with the setting of the setting unit 60 .
  • the evaluation unit 80 calculates an evaluation value from the evaluation holding frame image.
  • the evaluation holding frame image is one or more images including the pre-press evaluation frame image and the post-press evaluation frame image, and is an inspection image stored in the temporary storage memory 17 within the range of the evaluation holding frame.
  • the evaluation value is preferably a contrast value. Note that the edge amount, frequency, smoothing degree, brightness, etc. may be used as the evaluation value.
  • the pre-press evaluation frame image and the post-press evaluation frame image for which the evaluation value is calculated by the evaluation unit 80 are sequentially transmitted to the selection unit 90 .
  • the selection unit 90 selects the inspection image with the highest evaluation value from among the pre-press evaluation frame image and the post-press evaluation frame image (evaluation holding frame image) for which the evaluation value is calculated as the optimum image. do.
  • the evaluation holding frame image selected as the optimum image is transmitted to the display control section 100 .
  • Inspection image A81 is a pre-press evaluation frame image with an evaluation value of 10, inspection image B82 of 50, and inspection image C83 with an evaluation value of 300.
  • Inspection image D84 has an evaluation value of 390, and inspection image E85 has an evaluation value of 200. It is an evaluation frame image after pressing.
  • the inspection images are obtained in the order of inspection image A81, inspection image B82, inspection image C83, inspection image D84, and inspection image E85.
  • Inspection image A81 (evaluation value 10), inspection image B82 (evaluation value 50), inspection image C83 (evaluation value 300), inspection image D84 (evaluation value 390), and inspection image E85 (evaluation value 200) are sent.
  • the selection unit 90 selects the inspection image D84 (evaluation value 390) with the highest evaluation value from among these as the optimum image, and transmits it to the display control unit 100 .
  • FIG. 11 shows a specific example in which the evaluation value threshold is 350.
  • the selection unit 90 selects the inspection image D84 (evaluation value 390) to which the evaluation value equal to or higher than the threshold value (350) is attached. Select as best fit image.
  • a signal to that effect is sent to the lens drive processor 44, and the movement of the zoom lens groups G2 and G3 is even during the post-press evaluation time. is stopped.
  • inspection image A81 (evaluation value 10), inspection image B82 (evaluation value 50), inspection image C83 (evaluation value 300), and inspection image D84 (evaluation value 390) are acquired. Inspection image E85 is not acquired.
  • FIG. 12 shows a specific example in which the evaluation value threshold is 300.
  • the evaluation value of the inspection image C83 which is the pre-press evaluation frame image, is calculated as 300, and when the inspection image C83 is transmitted to the selection unit 90, the selection unit 90 selects the inspection image to which the evaluation value equal to or higher than the threshold value (300) is attached.
  • C83 evaluation value 300
  • C83 evaluation value 300
  • a signal to that effect is sent to the lens driving processor 44, and even if the freeze button 12h is pressed, the zoom lens groups G2 and G3 are not driven, and the inspection is performed.
  • Image C83 is displayed as the optimum image. 12, unlike the example in FIG.
  • inspection image A81 (evaluation value 10), inspection image B82 (evaluation value 50), and inspection image C83 (evaluation value 300) are acquired.
  • D84 and inspection image E85 are not acquired.
  • the display control unit 100 generates a display screen 100a as shown in FIG. 13 and outputs it to the display 15.
  • a current inspection image 100b and an optimum image 100c are displayed on the display screen 100a.
  • the save button 100d on the display screen 100a is selected via the user interface 16
  • the optimum image 100c is saved in a recording medium external to the processor unit 14, such as a report memory (not shown).
  • a cancel button 100e on the display screen 100a is selected, the display of the optimum image is canceled and the normal display state in which only the current inspection image 100b is displayed is displayed.
  • the optimum image can be checked and saved during inspection.
  • the inspection image acquisition unit 51 acquires an inspection image (step S101), and transmits it to the evaluation unit 80 according to the setting of the setting unit 60 (step S102).
  • An evaluation value is then calculated (step S103).
  • the selection unit 90 selects the optimum image (step S104), and the display screen 100a is generated by the display control unit 100 and displayed on the display 15 (step S105).
  • the evaluation unit 80 is provided with a pre-press evaluation unit 201 and a post-press evaluation unit 202 .
  • the selection unit 90 is provided with a selection unit 211 before pressing, a selection unit 212 after pressing, and a general selection unit 213 .
  • Other configurations are common to the first embodiment.
  • the first Description is omitted because it is common to the embodiment.
  • the evaluation frame image before pressing is sent to the evaluation unit 201 before pressing
  • the evaluation frame image after pressing is sent to the evaluation unit 202 after pressing.
  • the evaluation values of the pre-press evaluation frame image and the post-press evaluation frame image are calculated.
  • the pre-press evaluation frame image for which the evaluation value has been calculated is sent to the pre-press selection unit 211
  • the post-press evaluation frame image for which the evaluation value has been calculated is sent to the post-press selection unit 212 .
  • the pre-press selection unit 211 selects the image with the highest evaluation value from the pre-press evaluation frame images as the pre-press optimum image, and transmits it to the comprehensive selection unit 213 .
  • the post-press selection unit 212 selects an image with the highest evaluation value from the post-press evaluation frame images as the post-press optimum image, and transmits it to the comprehensive selection unit 213 .
  • the overall selection unit 213 selects, as the optimum image, whichever of the transmitted optimal image before pressing and the optimal image after pressing has the higher evaluation value, and transmits the selected image to the display control unit 100 .
  • Inspection image F221 is a pre-press evaluation frame image for which an evaluation value of 10, inspection image G222, and inspection image H223 are calculated as 10, 50, and 300, respectively.
  • the inspection images are obtained in the order of inspection image F221, inspection image G222, and inspection image H223.
  • Inspection image F 221 (evaluation value 10), inspection image G 222 (evaluation value 50), and inspection image H 223 (evaluation value 300) are sent to the pre-press selection unit 211 .
  • the pre-press selection unit 211 selects the inspection image H223 (evaluation value 300) having the highest evaluation value from inspection image F221 (evaluation value 10), inspection image G222 (evaluation value 50), and inspection image H223 (evaluation value 300). is selected as the optimum image before being pressed, and is transmitted to the comprehensive selection unit 213 .
  • the inspection image I224 is a post-press evaluation frame image in which an evaluation value of 390 and an inspection image J225 of 200 are calculated.
  • the inspection images are obtained in the order of inspection image I224 and inspection image J225.
  • the inspection image I 224 (evaluation value 390) and inspection image J 225 (evaluation value 200) are sent to the selection unit 212 after being pressed.
  • the post-press selection unit 212 selects the inspection image I224 (evaluation value 390) with the highest evaluation value from the inspection image I224 (evaluation value 390) and the inspection image J225 (evaluation value 200) as the post-press optimum image, and performs comprehensive selection. 213.
  • the general selection unit 213 compares the evaluation values of the inspection image H223 (evaluation value 300) that is the optimum image before pressing and the inspection image I224 (evaluation value 390) that is the optimum image after pressing.
  • the general selection unit 213 selects the inspection image I224 with the high evaluation value (evaluation value 390) as the optimum image.
  • the display screen 100a generated by the display control unit 100 is the same as that of the first embodiment, so the description thereof is omitted.
  • the settings for selecting the optimum image from the optimum image before pressing and the optimum image after pressing can be made in the setting unit 60 . Further, when the optimum image is selected by the method of the second embodiment, no threshold value is set. With the above configuration, the optimum image can be selected from as many inspection images as possible.
  • the pre-press evaluation frame image is transmitted to the pre-press evaluation unit 201, and an evaluation value is calculated (step S201).
  • the post-press evaluation frame image is transmitted to the post-press evaluation unit 202, and an evaluation value is calculated (step S202).
  • the pre-press selection unit 211 selects the image with the highest evaluation value from the pre-press evaluation frame images as the pre-press optimum image, and transmits it to the comprehensive selection unit 213 (step S203).
  • the post-press selection unit 212 selects the image with the highest evaluation value from the post-press evaluation frame images as the post-press optimum image, and transmits it to the comprehensive selection unit 213 (step S204).
  • the comprehensive selection unit 213 selects the image with the highest evaluation value from the pre-press optimum image and the post-press optimum image as the optimum image, and transmits it to the display control unit 100 (step S205).
  • the present invention is not limited to this, and other medical devices may be used. good.
  • a rigid scope or a flexible scope may be used as the endoscope 12 .
  • part or all of the central control unit 50, the inspection image acquisition unit 51, the setting unit 60, the evaluation unit 80, the selection unit 90, and the display control unit 100 of the endoscope system 10 communicate with the processor device 14, for example. can be provided in a medical image processing apparatus that cooperates with the endoscope system 10.
  • it can be provided in a diagnostic support device that acquires images captured by the endoscope 12 directly from the endoscope system 10 or indirectly from PACS (Picture Archiving and Communication Systems).
  • the endoscope system 10 is connected to various inspection devices such as the first inspection device, the second inspection device, .
  • a part or all of the central control unit 50, the inspection image acquisition unit 51, the setting unit 60, the evaluation unit 80, the selection unit 90, and the display control unit 100 can be provided.
  • processors include CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that run software (programs) and function as various processing units.
  • Programmable Logic Devices PLDs
  • PLDs Programmable Logic Devices
  • One processing unit may be configured by one of these various processors, and may be configured by a combination of two or more processors of the same type or different types (for example, multiple FPGAs or a combination of a CPU and an FPGA).
  • a plurality of processing units may be configured by one processor.
  • a plurality of processing units may be configured by one processor.
  • this processor functions as a plurality of processing units.
  • SoC System On Chip
  • SoC System On Chip
  • the hardware structure of these various processors is, more specifically, an electric circuit in the form of a combination of circuit elements such as semiconductor elements.
  • the hardware structure of the storage unit is a storage device such as an HDD (hard disc drive) or SSD (solid state drive).
  • endoscope system 12 endoscope 12a insertion portion 12b operation portion 12c bending portion 12d tip portion 12e angle knob 12h freeze button 12i zoom operation portion 13 light source device 14 processor device 15 display 16 user interface 17 temporary storage memory 20 light source portion 22 Light source controller 23 Light guide 30 Illumination optical system 31 Illumination lens 40 Imaging optical system 41 Objective lens 42 Zoom lens 43 Imaging sensor 44 Lens drive processor 50 Central control unit 51 Inspection image acquisition unit 60 Setting unit 70 Setting screen 72 Input form 76 Custom button 76a Custom screen 76b Hatched frame 76c Blank frame 76d Radio button 80 Evaluation unit 81 Inspection image A 82 inspection image B 83 inspection image C 84 inspection image D 85 inspection image E 90 selection unit 100 display control unit 100a display screen 100b current inspection image 100c optimum image 100d save button 100e cancel button 201 pre-press evaluation unit 202 post-press evaluation unit 211 pre-press selection unit 212 post-press selection unit 213 comprehensive selection unit 221 Inspection image F 222 inspection image G 223 inspection image H 224 inspection image

Landscapes

  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Multimedia (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

光学系を小型化しつつ、ピントが合った画像を得る内視鏡システム及びその作動方法を提供する。 レンズ駆動用プロセッサ(44)は、フリーズボタン(12h)の押下に従ってズームレンズ(42)を駆動させ、画像取得用プロセッサは、フリーズボタン(12h)の押下前後の一定時間のうち、押下後の時間の間、ズームレンズ(42)の動きに連動して取得された検査画像のうち、評価値が算出された検査画像である押下後評価フレーム画像(84、85、224、225)から、評価値が最も高い押下後評価フレーム画像(84、224)を最適画像として選択し、最適画像(100c)を表示する。

Description

内視鏡システム及びその作動方法
 本発明は、評価を行った画像を表示する内視鏡システム及びその作動方法に関する。
 内視鏡検査後に診断や術後評価を行うため、病変部等を発見した場合に静止画像を得ることが専ら行われている。検査中に撮影された画像の中には、観察部位にピントが合っていない画像が生じることがある。この原因の一つとして、画像撮影時に内視鏡と観察部位までの距離が近すぎる、又は遠すぎることで被写界深度から外れていること(アウトフォーカス)が挙げられる。この際、内視鏡を前後に動かしてピントを調整することができる。しかしながら、医師等のユーザーによって手動でピント合わせを行うことは、特に観察部位を近接拡大しているときには被写界深度が浅くなるため困難である。
 被写体に自動的にピントを合わせる技術としては、特許文献1のような内視鏡のオートフォーカス機構が挙げられる。特許文献2の口腔内カメラは、オートフォーカス機構を用いず、撮像指示が入力された際に焦点レンズを自動的に動かしながら画像を得ることで小型・軽量化を実現している。また、特許文献3の内視鏡は、撮像された画像の輝度やブレ量を評価し、適切な静止画像を自動的に選出することで、ユーザーが適切な静止画像を選択する負担を軽減している。
国際公開第2019/220584号 特開2016-209232号公報 特開2020-168164号公報
 オートフォーカス機構には、撮像のための光学系が大型・重量化するという問題が生じるため、オートフォーカス機構を組み込むことなく内視鏡の光学系をできるだけ小型化し、かつ、先端部の細径を維持した上でピントが合った画像を取得し、ユーザーに提示する技術が求められている。
 本発明は、光学系を小型化しつつ、ピントが合った画像を得る内視鏡システム及びその作動方法を提供することを目的としている。
 本発明の内視鏡システムは、被写体を照明し、被写体からの光を撮像する。内視鏡システムは、内視鏡と、プロセッサ装置と、を備える。内視鏡は、被写体からの反射光を撮像し、ズームレンズとズームレンズを駆動させるためのレンズ駆動用プロセッサとを有する。プロセッサ装置は、画像取得用プロセッサを有する。レンズ駆動用プロセッサは、フリーズボタンの押下に従って、ズームレンズを駆動させる。画像取得用プロセッサは、フリーズボタンが押下される前において、時系列的に連続する画像である検査画像を取得し、フリーズボタンの押下前後の一定時間である総合評価時間のうち、フリーズボタンの押下後の時間である押下後評価時間の間、レンズ駆動用プロセッサが駆動させるズームレンズの動きに連動して検査画像を取得し、押下後評価時間内に取得された検査画像から、押下後評価フレーム画像として選択された検査画像の評価値を算出し、評価値が算出された押下後評価フレーム画像のうち、評価値が最も高い押下後評価フレーム画像を最適画像として選択し、最適画像を表示する。
 画像取得用プロセッサは、総合評価時間に取得された検査画像から、評価保持フレーム分の検査画像を評価保持フレーム画像として保存し、保存された評価保持フレーム画像の評価値を算出することが好ましい。
 総合評価時間は、押下後評価時間と、フリーズボタンの押下前の時間である押下前評価時間とを合わせた時間であって、評価保持フレーム画像は、押下後評価フレーム画像と、押下前評価時間に取得された検査画像が含まれる押下前評価フレーム画像からなり、画像取得用プロセッサは、押下後評価フレーム画像と、押下前評価フレーム画像と、の評価値を算出することが好ましい。
 画像取得用プロセッサは、評価保持フレームの範囲内で、押下前評価時間では一部のフレームを除いた検査画像を押下前評価フレーム画像として保存し、かつ、押下後評価時間ではすべてのフレームの検査画像を押下後評価フレーム画像として保存することが好ましい。
 画像取得用プロセッサは、評価保持フレームの範囲内で、総合評価時間に取得された検査画像を一部のフレームを除いて評価保持フレーム画像として保存することが好ましい。
 総合評価時間は少なくとも0.5秒であることが好ましい。押下後評価時間は少なくとも0.3秒であることが好ましい。評価値はコントラスト値であることが好ましい。評価保持フレームは少なくとも15フレームであることが好ましい。
 画像取得用プロセッサは、押下前評価フレーム画像の中から最も評価値が高い画像を押下前最適画像として選択し、押下後評価フレーム画像の中から最も評価値が高い画像を押下後最適画像として選択し、押下前最適画像と押下後最適画像のうち、評価値が高いものを最適画像として選択し、表示することが好ましい。
 画像取得用プロセッサは、評価値が閾値以上である評価保持フレーム画像が得られた場合に、評価値が閾値以上である評価保持フレーム画像を最適画像として表示することが好ましい。
 画像取得用プロセッサは、フリーズボタンの押下後、被写体と内視鏡の先端との距離が2mm以上6mm以下の範囲内の間である場合にズームレンズを駆動させることが好ましい。
 本発明の内視鏡システムの作動方法は、被写体を照明し、被写体からの光を撮像し、ズームレンズとズームレンズを駆動させるためのレンズ駆動用プロセッサとを有する内視鏡と、画像取得用プロセッサを有するプロセッサ装置と、を備え、レンズ駆動用プロセッサがフリーズボタンの押下に従って、ズームレンズを駆動させるステップと、画像取得用プロセッサが、フリーズボタンが押下される前において、時系列的に連続する画像である検査画像を取得するステップと、フリーズボタンの押下前後の一定時間である総合評価時間のうち、フリーズボタンの押下後の時間である押下後評価時間の間、レンズ駆動用プロセッサが駆動させるズームレンズの動きに連動して検査画像を取得するステップと、押下後評価時間内に取得された検査画像から、押下後評価フレーム画像として選択された検査画像の評価値を算出するステップと、評価値が算出された押下後評価フレーム画像のうち、評価値が最も高い押下後評価フレーム画像を最適画像として選択するステップと、最適画像を表示するステップと、を有する。
 本発明の内視鏡システム及びその作動方法によれば、光学系を小型化しつつ、ピントが合った画像を得る内視鏡システム及びその作動方法を提供することができる。
内視鏡システムの構成図である。 白色光のスペクトルを示すグラフである。 内視鏡システムの機能を示すブロック図である。 ズームレンズの駆動について示す説明図である。 被写界深度について示す説明図である。 ズームレンズの位置と被写体間の距離と被写界深度の関係について示す説明図である。 総合評価時間、押下前評価時間、押下後評価時間、押下前評価フレーム画像及び押下後評価フレーム画像について示す説明図である。 設定画面の画像図である。 カスタム画面の画像図である。 閾値が設定されていない場合の評価部と選択部について示す説明図である。 閾値が350に設定されている場合の評価部と選択部について示す説明図である。 閾値が300に設定されている場合の評価部と選択部について示す説明図である。 表示用画面の画像図である。 第1実施形態の機能を示すフローチャートである。 第2実施形態の評価部の機能を示すブロック図である。 第2実施形態の選択部の機能を示すブロック図である。 押下前評価部、押下後評価部、押下前選択部、押下後選択部、総合選択部の機能について示す説明図である。 第2実施形態の機能を示すフローチャートである。
 [第1実施形態]
 図1において、内視鏡システム10は、内視鏡12と、光源装置13と、プロセッサ装置14と、ディスプレイ15と、ユーザーインターフェース16とを有する。内視鏡12は、光源装置13と光学的に接続され、且つ、プロセッサ装置14と電気的に接続される。内視鏡12は、観察対象の体内に挿入される挿入部12aと、挿入部12aの基端部分に設けられた操作部12bと、挿入部12aの先端側に設けられた湾曲部12c及び先端部12dとを有している。湾曲部12cは、操作部12bのアングルノブ12eを操作することにより湾曲動作する。先端部12dは、湾曲部12cの湾曲動作によって所望の方向に向けられる。
 また、操作部12bには、アングルノブ12eの他、被写体の静止画像の取得指示に用いられるフリーズボタン12hと、ズームレンズ42の操作に用いられるズーム操作部12iとが設けられている。
 内視鏡12は時系列的に連続する一連の動画像である検査画像を取得する。本明細書中において、検査画像は、静止画像、評価保持フレーム画像、押下前評価フレーム画像、押下後評価フレーム画像を含む。検査画像を撮像している間に、1フレームの検査画像である静止画像を取得したい場合は、フリーズボタン12hを押下することにより、静止画像の取得指示が内視鏡12及びプロセッサ装置14に送られる。プロセッサ装置14には、静止画像を保存するためのメモリ(図示しない)を接続してもよい。
 プロセッサ装置14は、ディスプレイ15及びユーザーインターフェース16と電気的に接続される。ディスプレイ15は、検査画像や、検査画像に付帯する情報等を出力表示する。ユーザーインターフェース16は、キーボード、マウス、タッチパッド、マイク等を有し、機能設定等の入力操作を受け付ける機能を有する。
 光源装置13の光源部20は、被写体を照明する照明光を発光する。光源部20は、例えば、レーザーダイオード、LED(Light Emitting Diode)、キセノンランプ、又は、ハロゲンランプの光源を含み、少なくとも、図2に示すようなスペクトルの照明光(白色光)を発光する。白色には、図2に示すような紫色光V、青色光B、緑色光G、又は赤色光Rを混色した、内視鏡12を用いた被写体の撮像において実質的に白色と同等な、いわゆる擬似白色を含む。また、光源部20は、必要に応じて、照明光の波長帯域、スペクトル、又は光量等を調節する光学フィルタ等を含む。光源制御部22は、光源部20を構成する各光源の点灯又は消灯、及び、発光量等を制御する。
 図3に示すように、光源部20が発光した照明光は、ライトガイド23を介して内視鏡12に入射する。内視鏡12の先端部12dには、照明光学系30と撮像光学系40が設けられている。照明光学系30は照明レンズ31を有しており、ライトガイド23によって伝搬した照明光は照明レンズ31を介して観察対象に照射される。撮像光学系40は、対物レンズ41、ズームレンズ42及び撮像センサ43を有している。照明光を照射したことによる観察対象からの光は、対物レンズ41及びズームレンズ42を介して撮像センサ43に入射する。これにより、撮像センサ43に観察対象の像が結像される。
 ズームレンズ42は観察対象(被写体)を拡大又は縮小するためのレンズ群である。具体的には、図4に示すように、内視鏡12の先端部12dの先端側から順に、レンズG1、G2、G3、G4の4つのレンズ群からなる。細い血管等の構造の観察や、外科的処置を行う際等に被写体を近接拡大して観察する場合、すなわち、近景撮影を行う場合は、ズーム操作部12iを操作し、近景にピントが合うようにズームレンズ群G2、G3をStep数が大きい方向へ移動させる。一方、比較的大きな病変部の浸潤範囲の確認を行う際等に広い範囲で被写体を観察する場合、すなわち、遠景撮影を行う場合は、ズーム操作部12iを操作し、遠景にピントが合うようにズームレンズ群G2、G3をStep数が小さい方向へ移動させる。
 レンズ駆動用プロセッサ44は、ズーム操作部12iの操作に従い、図4に示すような最遠点(Step1)から最近点(Step5)の間においてズームレンズ群G2、G3を移動させる。図4では、点線でズームレンズ群G2、G3が動くStep1からStep5のおおよその位置を示している。ズームレンズ群G2、G3は、先端部12dの先端側に向かって、又は、先端部12dの先端側とは反対側に向かって、Step1の位置からStep5の位置までの間を移動する。一方、ズームレンズ群G1及びG4は固定されている。ズームレンズ群G2、G3が移動することで、ピントが合ったように見える範囲である被写界深度が変化する。なお、レンズ群の動き方はこれに限られない。
 図5に示すように、ズームレンズ群G2、G3の位置によって、被写界深度は変化する。ズームレンズ群G2、G3がStep1(図4を参照)にある場合は、被写界深度が深くなる(ピントが合う位置が広くなる)。一方、ズームレンズ群G2、G3がStep2からStep5(図4を参照)にある場合は、ズームレンズ群G2、G3がStep1にある場合よりも被写界深度が浅くなる(ピントが合う位置が狭くなる)。被写界深度が浅くなるほど、ピント調整は難しくなる。特に、図6に示すように、被写体Obに高倍率で近接して検査画像を撮像する近景撮影の場合は、被写界深度が浅くなることに加え、蠕動運動等の被写体側の動きの影響が大きくなり、ピントを合わせることは困難になる。
 図6は、ズームレンズ群G2、G3の位置と被写体Ob間の距離と、被写界深度との関係の例を示している。例1では、ズームレンズ群G2、G3がStep2に位置し、広い範囲を観察する遠景撮影の場合には適しているが、被写界深度が被写体Obの手前であるため、ピントが合わない。また、例2では、ズームレンズ群G2、G3がStep3に位置し、より小さいものを拡大観察する近景撮影の場合には適しているが、被写界深度が被写体Obの奥に被ってしまい、ピントが合わない。一方、例3は、例2と同じく近景撮影を行う例であるが、ズームレンズ群G2、G3がStep2とStep3の間に位置し、被写界深度がちょうど被写体Obの表面であるため、ピントが合う。ピントの合った静止画像を得るためには、例3のように、被写界深度が被写体Obの表面に来るようにズームレンズ群G2、G3を動かす必要がある。
 レンズ駆動用プロセッサ44は、ズーム操作部12iが操作された場合に加えて、フリーズボタン12hの押下に従ってズームレンズ群G2、G3を駆動させる。フリーズボタン12hを押下した場合、ズームレンズ群G2、G3は先端部12dの先端側又はその反対側に向かって一定速度で移動し、レンズ駆動用プロセッサ44が駆動させるズームレンズ群G2、G3の動きに連動して検査画像が取得される。
 フリーズボタン12hの押下後、被写体と内視鏡12の先端との距離が2mm以上6mm以下の範囲内の間である場合にズームレンズ群G2、G3を駆動させることが好ましい。これは、ズームレンズ群G2、G3がStep2からStep3の位置にあるときに被写体と内視鏡12の先端との距離が2mm以上6mm以下の範囲内の間になるためである。また、被写界深度の変化が大きくなる位置であって、手動でのピントの調整が難しくなることから、自動撮影による補助を行うことが好ましいとされる範囲でもある。なお、ズームレンズ群G2、G3を移動させる範囲はStep2からStep3の間(被写体と内視鏡12の先端との距離が2mm以上6mm以下の範囲)に限られない。ズームレンズ42(ズームレンズ群G1、G2、G3、G4)の移動範囲は任意に設定できる。
 ズームレンズ群G2、G3を駆動させる場合、現在位置から先端側又はその反対側方向に移動させてもよく、始点となる位置(例えば、Step2又はStep3の位置)に一旦ズームレンズ群G2、G3を移動させてから先端側又はその反対側方向に移動させてもよい。上記構成により、静止画像撮影時に自動でレンズをズーム駆動させ、ピント位置を変化させながら画像を撮像することができる。また、オートフォーカス機構を搭載せず、ズーム調節機構のための単一のアクチュエーターが搭載されることで、内視鏡の細径を維持することができる。
 対物レンズ41及びズームレンズ42を介した被写体からの反射光が結像される撮像センサ43は、CMOS(Complementary Metal Oxide Semiconductor)センサ、CCD(Charge-Coupled Device)センサ等である。
 撮像センサ43には、感知した光をカラーの画像信号に変換するカラーフィルタ(ベイヤーフィルタ等)が設けられたカラー撮像センサに加えて、感知した光をモノクロの画像信号に変換するカラーフィルタが設けられていないモノクロ撮像センサを含めてもよい。なお、カラー撮像センサは、感知した光をRBG信号にするものでなく、CMY信号に変換するものとしてもよい。
 カラー画像を取得する場合、画像信号には、撮像センサ43のB画素から出力されるB画像信号、撮像センサ43のG画素から出力されるG画像信号、及び、撮像センサ43のR画素から出力されるR画像信号が含まれる。撮像センサ43が検知した画像信号は、プロセッサ装置14の検査画像取得部51に送信され、画像信号に基づいてノイズ低減処理、色調補正、諧調補正等の各種の信号処理や画像処理を行い、モノクロ画像又はカラー画像である検査画像が生成される。
 プロセッサ装置14は、中央制御部50、検査画像取得部51、設定部60、評価部80、選択部90及び表示制御部100を含む。また、プロセッサ装置14には一時保存メモリ17が搭載される。プロセッサ装置14においては、画像取得用プロセッサで構成される中央制御部50により、プログラム用メモリ内のプログラムが動作することで、検査画像取得部51、設定部60、評価部80、選択部90及び表示制御部100の機能が実現される。
 設定部60では、フリーズボタン12hが押下され、1フレーム分の検査画像である静止画像を取得する際に、検査画像(静止画像)のうち、最もピントが合った検査画像である最適画像の候補となる検査画像の選択方法及び評価方法を設定することができる。検査中は検査画像取得部51から設定部60に検査画像が送信され、設定部60の設定に従い、評価部80に検査画像が送信される。以下、設定部60の詳細について説明する。
 ユーザーは、検査前又は検査中に、フリーズボタン12hの押下前後においてどの検査画像を評価対象とするかを設定できる。具体的には、図7に示す、総合評価時間、押下前評価時間、押下後評価時間に加えて、評価フレーム、評価値の閾値を設定する。評価フレームとは、評価値を算出する評価対象となる検査画像を取得するフレームを指す。
 図7を参照しつつ、評価対象となる検査画像の選び方について説明する。総合評価時間とは、フリーズボタン12hの押下前後において、評価部80に送信する検査画像SIを取得する一定時間のことである。総合評価時間は、長すぎると評価対象の検査画像SIが増えてプロセッサ装置14の演算や一時保存メモリ17の容量を圧迫し、短すぎると最適画像の候補となる検査画像SIが少なくなってしまう。そのため、総合評価時間は少なくとも0.5秒以上であることが好ましく、1.0秒であればより好ましい。なお、1.0秒という総合評価時間が適切なのは、撮像センサ43のフレームレートが60fpsである場合である。
 なお、1フレームとは、撮像センサ43において画像信号を受信したタイミングから信号読み出し完了までの間の期間を少なくとも含む期間(1枚の検査画像が得られる期間)のことをいう。総合評価時間は、後述する設定画面70において任意に設定可能である。
 総合評価時間のうち、フリーズボタン12hの押下前の時間が押下前評価時間、フリーズボタン12hの押下後の時間が押下後評価時間である。押下後評価時間の間、レンズ駆動用プロセッサ44が駆動させるズームレンズ群G2、G3の動きに連動して検査画像を取得する。押下後評価時間は、ズームレンズ群G2、G3が各Step間を移動するために必要な時間であることが好ましい。例えば、ズームレンズ群G2、G3がStep2(図4、5を参照)の位置からStep3(図4、5を参照)の位置に移動するために要する時間が0.33秒である場合は、押下後評価時間は少なくとも0.3秒以上であることが好ましい。
 押下前評価時間は、総合評価時間から押下後評価時間を引いた時間である。例えば、総合評価時間が1.0秒であって、押下後評価時間が0.3秒である場合、押下前評価時間は0.7秒である。なお、押下前評価時間及び押下後評価時間は、後述する設定画面70において任意に設定可能である。押下前評価時間又は押下後評価時間が0秒になる設定をすることもできる。
 押下前評価時間に取得された検査画像のうち、後述するフレーム設定によって評価対象として選択されたフレームの画像を押下前評価フレーム画像とする。また、押下後評価時間に取得された検査画像のうち、フレーム設定によって評価対象として選択されたフレームの画像を押下後評価フレーム画像とする。押下前評価フレーム画像及び押下後評価フレーム画像は、プロセッサ装置14内の一時保存メモリ17に保存され、評価部80に送信される。
 総合評価時間、押下前評価時間及び押下後評価時間を含む評価時間の設定は、図8に示すような設定画面70から、ユーザーインターフェース16を介して行う。総合評価時間、押下前評価時間及び押下後評価時間は、入力フォーム72から入力できる。入力フォーム72はこれに限らず、タブ入力や音声入力で行ってもよい。上記構成により、評価対象となる検査画像を、プロセッサの演算や一時保存メモリ17を圧迫しないように評価時間をもって設定することができる。
 設定画面70では、評価時間に加えて、評価フレーム設定を行うことができる。評価フレーム設定では、総合評価時間内に一時保存メモリ17に保存する検査画像の枚数(フレーム数)である評価保持フレームを設定できる。評価保持フレームは、多すぎると評価対象となる検査画像が増えてプロセッサ装置14の演算や一時保存メモリ17の容量を圧迫し、少なすぎると最適画像の候補となる検査画像が少なくなってしまう。そのため、評価保持フレームは少なくとも15フレーム以上であることが好ましい。評価保持フレームは、設定画面70において入力フォーム72から入力できる。
 フリーズボタン12hの押下前の評価フレーム数、及び押下後の評価フレーム数も設定画面70において入力フォーム72から入力できる。押下前の評価フレーム数と押下後の評価フレーム数を足すと、評価保持フレームの数になる。また、カスタムボタン76を選択した場合、図9に示すような、カスタム画面76aにおいて設定することもできる。
 図9に示すようなカスタム画面76aでは、評価対象となる検査画像の評価フレームパターン(以下、パターンとする)を任意に設定できる。設定画面70において入力フォーム72から入力した評価時間及び評価フレーム設定を反映させてもよい。
 図9のパターン1から5で示す具体例では、斜線のフレーム76bは評価対象のフレームを指し、白抜きのフレーム76cは評価対象でないフレームを指している。カスタム画面76aでは、ユーザーインターフェース16を介してフレームを選択すると評価対象フレームとなり、もう一度選択すると解除されるオルタネート動作でフレームを選択することができるが、フレームの選択方法はこれに限られない。パターン1から5で示すような評価フレームパターンのテンプレートを、ラジオボタン76dで選択してもよい。なお、図9は内視鏡12のフレームレートが60fpsである場合のカスタム画面76aを示している。
 図9のパターン1は、総合評価時間が1.0秒であって、押下後評価時間が0.3秒であって、評価保持フレームが30フレームである場合に、押下前評価時間では検査画像を1フレームおきに押下前評価フレーム画像として保存し、かつ、押下後評価時間ではすべてのフレームの検査画像を押下後評価フレーム画像として保存する例である。パターン1は、限られた総合評価時間及び評価保持フレーム内で、押下後評価フレーム画像を押下前評価フレーム画像よりも優先して取得したい場合の評価フレームパターンである。
 図9のパターン2は、総合評価時間が1.0秒であって、押下後評価時間が0.3秒であって、評価保持フレームが30フレームである場合に、総合評価時間に取得された検査画像を1フレームおきに評価保持フレーム画像として保存する例である。評価保持フレーム画像は、評価保持フレームに取得された検査画像のことである。すなわち、パターン2は、押下前評価時間及び押下後評価時間の両方で検査画像を1フレームおきに保存する評価フレームパターンである。パターン2は、限られた総合評価時間及び評価保持フレーム内で、押下後評価フレーム画像及び押下前評価フレーム画像をバランスよく取得したい場合の評価フレームパターンである。
 図9のパターン3は、総合評価時間が1.0秒であって、押下後評価時間が0.4秒であって、評価保持フレームが30フレームである場合に、押下前評価時間では検査画像を1フレームおきに押下前評価フレーム画像として保存し、かつ、押下後評価時間ではすべてのフレームの検査画像を押下後評価フレーム画像として保存する例である。
 図9のパターン4は、総合評価時間が1.0秒であって、押下後評価時間が0.4秒であって、評価保持フレームが30フレームである場合に、総合評価時間に取得された検査画像を1フレームおきに評価保持フレーム画像として保存する例である。
 図9のパターン5は、総合評価時間が1.0秒であって、押下後評価時間が0.4秒であって、評価保持フレームが30フレームである場合に、押下前評価時間では検査画像を1フレームおきに押下前評価フレーム画像として保存し、押下後評価時間ではフリーズボタン12hを押下した直後の4フレームを押下後評価フレーム画像として保存して1フレームとばし、次の3フレームを押下後評価フレーム画像として保存して2フレームとばし、次の2フレームを押下後評価フレーム画像として保存して3フレームとばし、その後は3フレームおきに押下後評価フレーム画像を保存する例である。
 パターン5は、ユーザーがピントの合ったタイミングでフリーズボタン12hを押下することを考慮し、押下後評価時間の初期の方に押下後評価フレーム画像を多くしたい場合の評価フレームパターンである。なお、フリーズボタン12hを押下したタイミングで検査画像を取得し、押下前評価フレーム画像又は押下後評価フレーム画像に加えてもよい。
 評価フレームパターンは、任意に作成することができる。例えば、パターン1において、押下前評価時間に検査画像を2フレームや3フレーム以上おきに押下前評価フレーム画像として保存してもよい。また、パターン2において総合評価時間に取得された検査画像を2フレームや3フレーム以上おきに評価保持フレーム画像として保存してもよい。
 上記のような設定に従って検査画像はプロセッサ装置14内の一時保存メモリ17に保存される。フリーズボタン12hが押下された際は、まず、押下前評価時間における評価保持フレーム分の検査画像が一時保存メモリ17に保存される。次に、押下後評価時間においてズームレンズ群G2、G3の駆動に連動して検査画像が取得され、一時保存メモリ17に保存された場合、時系列的に前の押下前評価フレーム画像が順次削除される。このようにして評価保持フレーム内に収まるように押下後評価フレーム画像が一時保存メモリ17に保存され、一時保存メモリ17を圧迫しないように検査画像が保存される。
 なお、評価保持フレームが総合評価時間内に収まらない場合は、総合評価時間と評価保持フレームのいずれが優先されてもよい。総合評価時間と評価保持フレームのいずれを優先するかは、任意に設定可能である。上記構成により、プロセッサやメモリを圧迫しないようにフレームの選び方によって評価対象となる検査画像を設定することができる。
 設定画面70では、評価値の閾値の設定を行うことができる。評価値は、評価部80が算出する、評価保持フレーム画像の画素値を評価した値である。評価値に閾値を設けた場合は、評価値が閾値以上である評価保持フレーム画像が得られた際に、その評価保持フレーム画像を最適画像とすることができる(後述する図11及び図12を参照)。評価値の閾値は、入力フォーム72から入力できる。
 設定部60の設定に従って、押下前評価フレーム画像及び押下後評価フレーム画像は評価部80に送信される。評価部80は、評価保持フレーム画像から評価値を算出する。評価保持フレーム画像は、押下前評価フレーム画像と押下後評価フレーム画像とを合わせた1以上の画像であり、評価保持フレームの範囲内で一時保存メモリ17に保存された検査画像のことである。評価値はコントラスト値であることが好ましい。なお、評価値はエッジ量、周波数、平滑化度、輝度等を用いてもよい。
 評価部80で評価値を算出された押下前評価フレーム画像及び押下後評価フレーム画像は、選択部90に順次送信される。選択部90では、図10に示すように、評価値が算出された押下前評価フレーム画像及び押下後評価フレーム画像(評価保持フレーム画像)のうち、最も評価値が高い検査画像を最適画像として選択する。最適画像として選択された評価保持フレーム画像は、表示制御部100に送信される。
 図10に示す、閾値が設定されていない場合の評価部及び選択部の機能の具体例を説明する。検査画像A81は10、検査画像B82は50、検査画像C83は300の評価値が算出された押下前評価フレーム画像であり、検査画像D84は390、検査画像E85は200の評価値が算出された押下後評価フレーム画像である。なお、検査画像は検査画像A81、検査画像B82、検査画像C83、検査画像D84、検査画像E85の順番で取得される。検査画像A81(評価値10)、検査画像B82(評価値50)、検査画像C83(評価値300)、検査画像D84(評価値390)及び検査画像E85(評価値200)は、選択部90に送信される。選択部90は、この中から評価値が最も高い検査画像D84(評価値390)を最適画像として選択し、表示制御部100に送信する。
 設定部60で評価値の閾値が設定されていた場合は、図11や図12の具体例の通りに最適画像を選択する。図11は、評価値の閾値が350である具体例を示している。この場合、検査画像D84の評価値が390と算出され、選択部90に送信された時点で、選択部90が閾値(350)以上の評価値がつけられた検査画像D84(評価値390)を最適画像として選択する。図10の例と異なり、最適画像が選択された時点でその旨を伝達する信号がレンズ駆動用プロセッサ44に送信され、押下後評価時間の途中であっても、ズームレンズ群G2、G3の動きが停止される。すなわち、図11の具体例では、検査画像A81(評価値10)、検査画像B82(評価値50)、検査画像C83(評価値300)及び検査画像D84(評価値390)は取得されるが、検査画像E85は取得されない。
 図12は、評価値の閾値が300である具体例を示している。この場合、押下前評価フレーム画像である検査画像C83の評価値が300と算出され、選択部90に送信された時点で、選択部90が閾値(300)以上の評価値がつけられた検査画像C83(評価値300)を最適画像として選択する。この場合、最適画像が選択された時点で、その旨を伝達する信号がレンズ駆動用プロセッサ44に送信され、フリーズボタン12hが押下されてもズームレンズ群G2、G3は駆動されることなく、検査画像C83が最適画像として表示される。すなわち、図12の具体例では、図10の例と異なり、検査画像A81(評価値10)、検査画像B82(評価値50)及び検査画像C83(評価値300)は取得されるが、検査画像D84及び検査画像E85は取得されない。上記構成により、ピントが合った画像が取得された場合はズームレンズを動かさないことで、最適画像をユーザーに提示する時間を短縮することができる。
 表示制御部100は、図13に示すような表示用画面100aを生成し、ディスプレイ15に出力する。表示用画面100aでは、現在の検査画像100b、最適画像100cが表示されている。表示用画面100a上の保存ボタン100dを、ユーザーインターフェース16を介して選択すると、レポート用メモリ(図示しない)等の、プロセッサ装置14の外部の記録媒体に最適画像100cが保存される。また、表示用画面100a上のキャンセルボタン100eを選択すると、最適画像の表示がキャンセルされ、現在の検査画像100bのみが映し出される通常の表示状態になる。上記構成により、検査中に最適画像の確認を行い、保存することができる。
 本実施形態における、検査画像を取得してから表示用画面100aを表示するまでの一連の流れを、図14に示すフローチャートに沿って説明する。まず、検査画像取得部51が検査画像を取得し(ステップS101)、設定部60の設定に従って評価部80に送信する(ステップS102)。次いで、評価値が算出される(ステップS103)。選択部90は最適画像を選択し(ステップS104)、表示制御部100において表示用画面100aが生成され、ディスプレイ15に表示される(ステップS105)。
 [第2実施形態]
 第2実施形態では、図15に示すように、評価部80に押下前評価部201及び押下後評価部202が設けられる。また、図16に示すように、選択部90に押下前選択部211、押下後選択部212及び総合選択部213が設けられる。他の構成は第1実施形態と共通する。
 本実施形態において、検査画像を取得し、設定部60の設定に従って評価部80に検査画像を送信するまで、加えて、選択部90が最適画像を表示制御部100に送信して以降は第1実施形態と共通するため、説明を省略する。
 本実施形態においては、図17に例示するように、評価部80に検査画像が送信されると、押下前評価フレーム画像は押下前評価部201に、押下後評価フレーム画像は押下後評価部202に送信され、それぞれの押下前評価フレーム画像及び押下後評価フレーム画像の評価値が算出される。評価値が算出された押下前評価フレーム画像は押下前選択部211に、評価値が算出された押下後評価フレーム画像は押下後選択部212に送信される。
 押下前選択部211では、押下前評価フレーム画像の中から最も評価値が高い画像を押下前最適画像として選択し、総合選択部213に送信する。また、押下後選択部212では、押下後評価フレーム画像の中から最も評価値が高い画像を押下後最適画像として選択し、総合選択部213に送信する。総合選択部213では、送信された押下前最適画像と押下後最適画像のうち、いずれか評価値が高いものを最適画像として選択し、表示制御部100に送信する。
 図17の具体例を詳説する。検査画像F221は10、検査画像G222は50、検査画像H223は300の評価値が算出された押下前評価フレーム画像である。なお、検査画像は検査画像F221、検査画像G222、検査画像H223の順番で取得される。検査画像F221(評価値10)、検査画像G222(評価値50)及び検査画像H223(評価値300)は、押下前選択部211に送信される。押下前選択部211は、検査画像F221(評価値10)、検査画像G222(評価値50)及び検査画像H223(評価値300)の中から、評価値が最も高い検査画像H223(評価値300)を押下前最適画像として選択し、総合選択部213に送信する。
 検査画像I224は390、検査画像J225は200の評価値が算出された押下後評価フレーム画像である。なお、検査画像は検査画像I224、検査画像J225の順番で取得される。検査画像I224(評価値390)及び検査画像J225(評価値200)は、押下後選択部212に送信される。押下後選択部212は、検査画像I224(評価値390)及び検査画像J225(評価値200)から、評価値が最も高い検査画像I224(評価値390)を押下後最適画像として選択し、総合選択部213に送信する。
 総合選択部213は、押下前最適画像である検査画像H223(評価値300)と、押下後最適画像である検査画像I224(評価値390)との評価値を比較する。ここで、検査画像H223の評価値は300であり、検査画像I224の評価値は390であるため、総合選択部213は、評価値の高い検査画像I224(評価値390)を最適画像として選択し、表示制御部100に送信する。表示制御部100が生成する表示用画面100aは、第1実施形態と共通するため説明を省略する。
 押下前最適画像と押下後最適画像から最適画像を選ぶ設定は、設定部60で行うことができる。また、この第2実施形態の方法で最適画像を選ぶ場合は、閾値は設定されない。上記構成により、できるだけ多くの検査画像から最適画像を選ぶことができる。
 本実施形態における検査画像を取得してから表示用画面100aを表示するまでの一連の流れを、図18に示すフローチャートに沿って説明する。押下前評価フレーム画像は押下前評価部201に送信され、評価値を算出される(ステップS201)。押下後評価フレーム画像は押下後評価部202に送信され、評価値を算出される(ステップS202)。押下前選択部211は、押下前評価フレーム画像の中から最も評価値が高い画像を押下前最適画像として選択し、総合選択部213に送信する(ステップS203)。押下後選択部212は、押下後評価フレーム画像の中から最も評価値が高い画像を押下後最適画像として選択し、総合選択部213に送信する(ステップS204)。総合選択部213は、押下前最適画像と押下後最適画像のうち、評価値が高い画像を最適画像として選択し、表示制御部100に送信する(ステップS205)。
 第1実施形態及び第2実施形態では、プロセッサ装置14が内視鏡システム10に設けられている例で説明をしたが、本発明はこれに限定されず、他の医療用装置を用いてもよい。また、この内視鏡12は、硬性鏡又は軟性鏡が用いられてよい。また、内視鏡システム10のうち中央制御部50、検査画像取得部51、設定部60、評価部80、選択部90及び表示制御部100の一部又は全部は、例えばプロセッサ装置14と通信して内視鏡システム10と連携する医療画像処理装置に設けることができる。例えば、内視鏡システム10から直接的に、又は、PACS(Picture Archiving and Communication Systems)から間接的に、内視鏡12で撮像した画像を取得する診断支援装置に設けることができる。また、内視鏡システム10を含む、第1検査装置、第2検査装置、…、第N検査装置等の各種検査装置と、ネットワークを介して接続する医療業務支援装置に、内視鏡システム10のうち中央制御部50、検査画像取得部51、設定部60、評価部80、選択部90及び表示制御部100の一部又は全部を設けることができる。
 本実施形態において、中央制御部50、検査画像取得部51、設定部60、評価部80、選択部90及び表示制御部100といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) 等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよく、同種又は異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた形態の電気回路(circuitry)である。また、記憶部のハードウェア的な構造はHDD(hard disc drive)やSSD(solid state drive)等の記憶装置である。
 10 内視鏡システム
 12 内視鏡
 12a 挿入部
 12b 操作部
 12c 湾曲部
 12d 先端部
 12e アングルノブ
 12h フリーズボタン
 12i ズーム操作部
 13 光源装置
 14 プロセッサ装置
 15 ディスプレイ
 16 ユーザーインターフェース
 17 一時保存メモリ
 20 光源部
 22 光源制御部
 23 ライトガイド
 30 照明光学系
 31 照明レンズ
 40 撮像光学系
 41 対物レンズ
 42 ズームレンズ
 43 撮像センサ
 44 レンズ駆動用プロセッサ
 50 中央制御部
 51 検査画像取得部
 60 設定部
 70 設定画面
 72 入力フォーム
 76 カスタムボタン
 76a カスタム画面
 76b 斜線のフレーム
 76c 白抜きのフレーム
 76d ラジオボタン
 80 評価部
 81 検査画像A
 82 検査画像B
 83 検査画像C
 84 検査画像D
 85 検査画像E
 90 選択部
 100 表示制御部
 100a 表示用画面
 100b 現在の検査画像
 100c 最適画像
 100d 保存ボタン
 100e キャンセルボタン
 201 押下前評価部
 202 押下後評価部
 211 押下前選択部
 212 押下後選択部
 213 総合選択部
 221 検査画像F
 222 検査画像G
 223 検査画像H
 224 検査画像I
 225 検査画像J

Claims (13)

  1.  被写体を照明し、前記被写体からの光を撮像する内視鏡システムにおいて、
     ズームレンズと前記ズームレンズを駆動させるためのレンズ駆動用プロセッサとを有する内視鏡と、
     画像取得用プロセッサを有するプロセッサ装置と、を備え、
     前記レンズ駆動用プロセッサは、
     フリーズボタンの押下に従って、前記ズームレンズを駆動させ、
     前記画像取得用プロセッサは、
     前記フリーズボタンが押下される前において、時系列的に連続する画像である検査画像を取得し、
     前記フリーズボタンの押下前後の一定時間である総合評価時間のうち、前記フリーズボタンの押下後の時間である押下後評価時間の間、前記レンズ駆動用プロセッサが駆動させる前記ズームレンズの動きに連動して前記検査画像を取得し、
     前記押下後評価時間内に取得された前記検査画像から、押下後評価フレーム画像として選択された前記検査画像の評価値を算出し、
     前記評価値が算出された前記押下後評価フレーム画像のうち、前記評価値が最も高い前記押下後評価フレーム画像を最適画像として選択し、
     前記最適画像を表示する内視鏡システム。
  2.  前記画像取得用プロセッサは、
     前記総合評価時間に取得された前記検査画像から、評価保持フレーム分の前記検査画像を評価保持フレーム画像として保存し、
     保存された前記評価保持フレーム画像の前記評価値を算出する請求項1に記載の内視鏡システム。
  3.  前記総合評価時間は、前記押下後評価時間と、前記フリーズボタンの押下前の時間である押下前評価時間とを合わせた時間であって、
     前記評価保持フレーム画像は、前記押下後評価フレーム画像と、前記押下前評価時間に取得された前記検査画像が含まれる押下前評価フレーム画像からなり、
     前記画像取得用プロセッサは、
     前記押下後評価フレーム画像と、前記押下前評価フレーム画像と、の前記評価値を算出する請求項2に記載の内視鏡システム。
  4.  前記画像取得用プロセッサは、
     前記評価保持フレームの範囲内で、
     前記押下前評価時間では一部のフレームを除いた前記検査画像を前記押下前評価フレーム画像として保存し、かつ、前記押下後評価時間ではすべてのフレームの前記検査画像を前記押下後評価フレーム画像として保存する請求項3に記載の内視鏡システム。
  5.  前記画像取得用プロセッサは、
     前記評価保持フレームの範囲内で、
     前記総合評価時間に取得された前記検査画像を、一部のフレームを除いて前記評価保持フレーム画像として保存する請求項2ないし4のいずれか1項に記載の内視鏡システム。
  6.  前記総合評価時間は少なくとも0.5秒である請求項1ないし5のいずれか1項に記載の内視鏡システム。
  7.  前記押下後評価時間は少なくとも0.3秒である請求項1ないし6のいずれか1項に記載の内視鏡システム。
  8.  前記評価値はコントラスト値である請求項1ないし7のいずれか1項に記載の内視鏡システム。
  9.  前記評価保持フレームは少なくとも15フレームである請求項2ないし5のいずれか1項に記載の内視鏡システム。
  10.  前記画像取得用プロセッサは、
     前記押下前評価フレーム画像の中から最も前記評価値が高い画像を押下前最適画像として選択し、
     前記押下後評価フレーム画像の中から最も前記評価値が高い画像を押下後最適画像として選択し、
     押下前最適画像と押下後最適画像のうち、前記評価値が高いものを前記最適画像として選択し、表示する請求項3又は4に記載の内視鏡システム。
  11.  前記画像取得用プロセッサは、
     前記評価値が閾値以上である前記評価保持フレーム画像が得られた場合に、前記評価値が前記閾値以上である前記評価保持フレーム画像を前記最適画像として表示する請求項2ないし5のいずれか1項に記載の内視鏡システム。
  12.  前記画像取得用プロセッサは、
     前記フリーズボタンの押下後、前記被写体と内視鏡の先端との距離が2mm以上6mm以下の範囲内の間である場合に前記ズームレンズを駆動させる請求項1ないし11のいずれか1項に記載の内視鏡システム。
  13.  被写体を照明し、前記被写体からの光を撮像し、
     ズームレンズと前記ズームレンズを駆動させるためのレンズ駆動用プロセッサとを有する内視鏡と、
     画像取得用プロセッサを有するプロセッサ装置と、を備える内視鏡システムの作動方法において、
     前記レンズ駆動用プロセッサがフリーズボタンの押下に従って、前記ズームレンズを駆動させるステップと、
     前記画像取得用プロセッサが、前記フリーズボタンが押下される前において、時系列的に連続する動画像である検査画像を取得するステップと、
     前記フリーズボタンの押下前後の一定時間である総合評価時間のうち、前記フリーズボタンの押下後の時間である押下後評価時間の間、前記レンズ駆動用プロセッサが駆動させる前記ズームレンズの動きに連動して前記検査画像を取得するステップと、
     前記押下後評価時間内に取得された前記検査画像から、押下後評価フレーム画像として選択された前記検査画像の評価値を算出するステップと、
     前記評価値が算出された前記押下後評価フレーム画像のうち、前記評価値が最も高い前記押下後評価フレーム画像を最適画像として選択するステップと、
     前記最適画像を表示するステップと、を有する内視鏡システムの作動方法。
     
PCT/JP2022/004048 2021-03-03 2022-02-02 内視鏡システム及びその作動方法 WO2022185821A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2023503646A JPWO2022185821A1 (ja) 2021-03-03 2022-02-02
CN202280018655.4A CN116981388A (zh) 2021-03-03 2022-02-02 内窥镜系统及其工作方法
US18/460,179 US20230418044A1 (en) 2021-03-03 2023-09-01 Endoscope system and method of operating the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021033736 2021-03-03
JP2021-033736 2021-03-03

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/460,179 Continuation US20230418044A1 (en) 2021-03-03 2023-09-01 Endoscope system and method of operating the same

Publications (1)

Publication Number Publication Date
WO2022185821A1 true WO2022185821A1 (ja) 2022-09-09

Family

ID=83155021

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/004048 WO2022185821A1 (ja) 2021-03-03 2022-02-02 内視鏡システム及びその作動方法

Country Status (4)

Country Link
US (1) US20230418044A1 (ja)
JP (1) JPWO2022185821A1 (ja)
CN (1) CN116981388A (ja)
WO (1) WO2022185821A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07289507A (ja) * 1994-04-22 1995-11-07 Olympus Optical Co Ltd フリーズ装置
JP2009100935A (ja) * 2007-10-23 2009-05-14 Fujinon Corp 撮影装置および内視鏡システム
JP2013230319A (ja) * 2012-05-02 2013-11-14 Olympus Corp 内視鏡装置及び内視鏡装置の制御方法
WO2015182519A1 (ja) * 2014-05-27 2015-12-03 オリンパス株式会社 内視鏡ビデオシステム及びビデオプロセッサ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07289507A (ja) * 1994-04-22 1995-11-07 Olympus Optical Co Ltd フリーズ装置
JP2009100935A (ja) * 2007-10-23 2009-05-14 Fujinon Corp 撮影装置および内視鏡システム
JP2013230319A (ja) * 2012-05-02 2013-11-14 Olympus Corp 内視鏡装置及び内視鏡装置の制御方法
WO2015182519A1 (ja) * 2014-05-27 2015-12-03 オリンパス株式会社 内視鏡ビデオシステム及びビデオプロセッサ

Also Published As

Publication number Publication date
JPWO2022185821A1 (ja) 2022-09-09
US20230418044A1 (en) 2023-12-28
CN116981388A (zh) 2023-10-31

Similar Documents

Publication Publication Date Title
US10335014B2 (en) Endoscope system, processor device, and method for operating endoscope system
US10004389B2 (en) Endoscope system, operation method for endoscope system, processor device, and operation method for processor device
JP6013020B2 (ja) 内視鏡装置及び内視鏡装置の作動方法
JP7135082B2 (ja) 内視鏡装置、内視鏡装置の作動方法、及びプログラム
JP5951211B2 (ja) 合焦制御装置及び内視鏡装置
WO2015044996A1 (ja) 内視鏡装置及び内視鏡装置の制御方法
WO2016121556A1 (ja) 内視鏡用のプロセッサ装置、及びその作動方法、並びに制御プログラム
US20210307587A1 (en) Endoscope system, image processing device, total processing time detection method, and processing device
US20230165433A1 (en) Endoscope system and method of operating the same
US11344191B2 (en) Endoscope system including processor for determining type of endoscope
US11510559B2 (en) Endoscope system and method of operating the same
JP2016192986A (ja) 内視鏡システム、及び、内視鏡システムの作動方法
US10462440B2 (en) Image processing apparatus
JP7179837B2 (ja) 内視鏡装置、内視鏡画像表示方法及び内視鏡装置の作動方法
WO2022185821A1 (ja) 内視鏡システム及びその作動方法
JP5371366B2 (ja) 内視鏡装置および内視鏡装置の作動方法
WO2013061939A1 (ja) 内視鏡装置及びフォーカス制御方法
US20210290035A1 (en) Medical control device and medical observation system
JP7454417B2 (ja) 医療用制御装置及び医療用観察システム
US20230380660A1 (en) Endoscope system and operation method for endoscope system
US20160066769A1 (en) Imaging device
WO2022059282A1 (ja) 撮像制御装置、内視鏡システム、および撮像制御方法
JP7411515B2 (ja) 内視鏡システム及びその作動方法
WO2022024671A1 (ja) 撮像装置、ピント位置設定方法、プログラム
US20230132998A1 (en) Endoscope system and operation method therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22762879

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023503646

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202280018655.4

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22762879

Country of ref document: EP

Kind code of ref document: A1