WO2022038803A1 - プロセッサ装置、プロセッサ装置の作動方法 - Google Patents

プロセッサ装置、プロセッサ装置の作動方法 Download PDF

Info

Publication number
WO2022038803A1
WO2022038803A1 PCT/JP2021/004603 JP2021004603W WO2022038803A1 WO 2022038803 A1 WO2022038803 A1 WO 2022038803A1 JP 2021004603 W JP2021004603 W JP 2021004603W WO 2022038803 A1 WO2022038803 A1 WO 2022038803A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
special
normal
observation mode
light
Prior art date
Application number
PCT/JP2021/004603
Other languages
English (en)
French (fr)
Inventor
進吾 増野
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022543269A priority Critical patent/JP7447281B2/ja
Publication of WO2022038803A1 publication Critical patent/WO2022038803A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements

Definitions

  • the present invention relates to a processor device that acquires an endoscope image captured by an endoscope, and a method of operating the processor device.
  • An endoscope system including a light source device, an endoscope, and a processor device is widely known.
  • an endoscope image is acquired by irradiating an observation object with illumination light and taking an image of the observation object illuminated by the illumination light.
  • the endoscopic image is displayed on a display and used for diagnosis and the like.
  • Patent Document 1 describes a configuration in which a normal image and a special image are recorded and displayed on a common screen. By doing so, for example, when a region of interest is detected during observation, it is possible to observe the recorded image in detail while reproducing, rewinding, or the like.
  • Patent Document 1 may not be able to obtain necessary information. That is, in endoscopy using an endoscopy system, most of the examination is performed while observing a normal image, so that the frequency of capturing a special image is set lower than that of a normal image. Therefore, there may be no special image for obtaining desired information. In order to prevent such a problem, it is conceivable to set the imaging frequency of the special image to be high, but in this case, the imaging frequency of the normal image is lowered, so that the normal image is difficult to see and adversely affects the inspection. Will affect.
  • the present invention has been made in view of the above background, and an object of the present invention is to provide a processor device and a method for operating a processor device, which can more reliably obtain necessary information while suppressing adverse effects on inspection. And.
  • the processor device of the present invention has a normal observation mode in which an endoscopic image output from an endoscope is displayed on a display, a normal observation mode in which an endoscopic image is displayed on a display, and an endoscope.
  • the image pickup control processor is usually used.
  • Normal imaging that irradiates the observation target with light and captures a normal image as an endoscopic image, and special light that has a different emission spectrum from normal light is irradiated on the observation target and a special image is captured as an endoscope image.
  • the special imaging is performed, and the imaging frequency of the normal image and the imaging frequency of the special image are switched according to the type of the observation mode.
  • the frequency of capturing normal images may be lower than that in the normal observation mode.
  • the frequency of capturing special images may be increased as compared with the normal observation mode.
  • the special light includes a plurality of types of special light having different emission spectra
  • the special image includes a plurality of types of special images corresponding to a plurality of types of special light
  • the detailed observation mode includes a normal observation mode.
  • the imaging frequency may be increased as compared with the normal observation mode.
  • the imaging frequency may be lower than that in the normal observation mode for some special images other than some special images.
  • a special image may be used to generate a biometric information image that displays biometric information to be observed, and the generated biometric information image may be displayed on the display.
  • the biological information image may be an oxygen saturation image showing the oxygen saturation of blood hemoglobin.
  • the biological information image may be a blood vessel image showing a blood vessel having a specific depth.
  • the biometric information image may be a color difference expansion image that expands the color difference of each range for each of the plurality of ranges set in the special image.
  • the operating method of the processor device of the present invention includes a normal observation mode in which an endoscope image output from an endoscope is displayed on a display, and a normal observation mode in which the endoscope image is displayed on the display.
  • a normal observation mode in which an endoscope image is displayed on a display
  • a normal observation mode in which the endoscope image is displayed on the display.
  • the image pickup control processor irradiates the observation target with normal light to capture the normal image as an endoscope image, and irradiates the observation target with special light having a emission spectrum different from that of the normal light.
  • Special imaging which captures a special image as an spectroscopic image, is performed, and the frequency of capturing a normal image and the frequency of capturing a special image are switched according to the type of observation mode.
  • a processor device and a method of operating a processor device in which a normal image is easy to see and a special image is easy to see when performing detailed observation.
  • the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a display 18, and a UI (User InterFace) 19.
  • the endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.
  • the endoscope 12 has an insertion portion 12a to be inserted into the body to be observed, an operation portion 12b provided at the base end portion of the insertion portion 12a, and a curved portion 12c and a tip provided on the tip end side of the insertion portion 12a. It has a portion 12d.
  • the curved portion 12c bends by operating the operating portion 12b.
  • the tip portion 12d is directed in a desired direction by the bending motion of the bending portion 12c.
  • the operation unit 12b is provided with an observation mode changeover switch 12f used for the observation mode switching operation, a procedure support information presentation switch 12g used for presenting the procedure support information related to the treatment tool, and an instruction to acquire a still image to be observed.
  • a still image acquisition instruction switch 12h used and a zoom operation unit 12i used for operating the zoom lens 43 are provided.
  • the endoscope system 10 is provided with a normal observation mode and a detailed observation mode for performing more detailed observation than the normal observation mode as the observation mode. By operating the mode changeover switch 12f, the observation mode is provided. Is switched.
  • the light source device 14 includes a light source unit 20 (see FIG. 2) that emits illumination light for illuminating an observation target.
  • the illumination light from the light source unit 20 is guided by the light guide 25 (see FIG. 2) and is emitted from the tip portion 12d toward the observation target.
  • the observation target illuminated by the illumination light from the light source unit 20 is imaged by the image pickup sensor 44 (see FIG. 2) built in the tip portion 12d.
  • the processor device 16 is electrically connected to the display 18 and the UI 19.
  • the display 18 outputs and displays an image to be observed, information incidental to the image to be observed, and the like.
  • the UI 19 has a keyboard, a mouse, a touch pad, a microphone, and the like, and has a function of accepting input operations such as function settings.
  • An external memory (not shown) may be connected to the processor device 16.
  • the light source device 14 includes the above-mentioned light source unit 20.
  • the light source unit 20 is connected to the light source control unit 21 of the processor device 16, and the emission spectrum and emission timing of the illumination light emitted by the light source unit 20 are controlled by the light source control unit 21.
  • the light source unit 20 emits normal light and special light having different emission spectra.
  • Normal light is, for example, white light.
  • the white light includes, for example, purple light having a wavelength band of 380 to 420 nm, blue light having a wavelength band of 420 to 500 nm, green light having a wavelength band of 480 to 600 nm, and red light having a wavelength band of 600 to 650 nm.
  • the endoscopic image (normal image) captured by irradiating the observation target with normal light is displayed on the display 18.
  • the special light may be one type or a plurality of types, but in this embodiment, six types of special light are set (see FIG. 5). These special lights include, for example, those in which the emission amount of purple light (peak wavelength 400 nm to 420 nm) having a high absorption coefficient of hemoglobin in blood is larger than that of normal light.
  • the endoscopic image (special image) taken by irradiating the observation target with this special light is used to generate a blood vessel image (biological information image) showing the blood vessel structure and ductal structure of the surface layer.
  • the special light includes, for example, a light that emits only the purple light described above.
  • the endoscopic image (special image) taken by irradiating the observation target with this special light has more superficial blood vessels than the above-mentioned case (when the amount of violet light emitted is larger than that of normal light). It is used to generate a blood vessel image (biological information image) showing the structure and duct structure.
  • the special light includes, for example, a light that emits bluish-purple light (peak wavelength 470 nm to 480 nm) having a difference in the extinction coefficient between oxidized hemoglobin and reduced hemoglobin.
  • the endoscopic image (special image) taken by irradiating the observation target with this special light is used to generate an oxygen saturation image (biological information image) showing the oxygen saturation of blood hemoglobin.
  • the special light includes, for example, the above-mentioned purple light and bluish purple light, and the light whose emission amount of red light (peak wavelength 620 nm to 630 nm) is larger than that of normal light.
  • the endoscopic image (special image) taken by irradiating the observation target with this special light is used to generate a color difference expanded image (biological information image) in which the color difference between the lesion and the area other than the lesion is expanded. ..
  • the type of special light and the type of biometric information image generated by using the endoscopic image (special image) captured by irradiating each special light are not limited to the above and can be changed as appropriate.
  • the illumination light from the light source unit 20 is incident on the light guide 25 described above via the optical path coupling unit 23 composed of a mirror, a lens, or the like.
  • the light guide 25 is built in the endoscope 12 and a universal cord (a cord connecting the endoscope 12, the light source device 14 and the processor device 16).
  • the light guide 25 propagates the light from the optical path coupling portion 23 to the tip portion 12d of the endoscope 12.
  • An illumination optical system 30a and an image pickup optical system 30b are provided at the tip end portion 12d of the endoscope 12.
  • the illumination optical system 30a has an illumination lens 32, and the illumination light propagated by the light guide 25 is applied to the observation target through the illumination lens 32.
  • the image pickup optical system 30b includes an objective lens 42, a zoom lens 43, and an image pickup sensor 44.
  • the light from the observation target due to the irradiation of the illumination light is incident on the image pickup sensor 44 via the objective lens 42 and the zoom lens 43.
  • the zoom lens 43 is a lens for enlarging the observation target, and moves between the telephoto end and the wide end by operating the zoom operation unit 12i.
  • the image pickup sensor 44 is a color sensor, and in the present embodiment, it is a B pixel having a B (blue) color filter, a G pixel having a G (green) color filter, and an R pixel having an R (red) color filter.
  • a primary color sensor equipped with three types of pixels is used.
  • a CCD (Charge-Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) image pickup sensor or the like can be used.
  • the image pickup sensor 44 is controlled by the image pickup sensor control unit 45 of the processor device 16.
  • the image pickup sensor control unit 45 performs image pickup (signal reading of the image pickup sensor 44) in a predetermined cycle (60 times per second in this embodiment). Then, along with this image pickup, an image signal is output from the image pickup sensor 44. In this embodiment, image signals for 60 frames (sheets) per second are output.
  • a complementary color image sensor having C (cyan), M (magenta), Y (yellow), and G (green) complementary color filters instead of the primary color image sensor 44 provided with the RGB primary color filter. May be used.
  • the image signals of four colors of CMYG are output. Therefore, by converting the image signals of the four colors of CMYG into the image signals of the three colors of RGB by the complementary color-primary color conversion, it is possible to obtain the image signals of each RGB color similar to the image sensor 38.
  • a monochrome sensor without a color filter may be used instead of the image sensor 38.
  • the CDS / AGC (Correlated Double Sampling / Automatic Gain Control) circuit 46 performs correlated double sampling (CDS) and automatic gain control (AGC) on the analog image signal obtained from the image pickup sensor 44.
  • CDS correlated double sampling
  • AGC automatic gain control
  • the image signal that has passed through the CDS / AGC circuit 46 is converted into a digital image signal by the A / D (Analog / Digital) converter 48.
  • the digital image signal after A / D conversion is input to the processor device 16.
  • the processor device 16 includes a central control unit 68 that constitutes the image pickup control processor of the present invention.
  • the central control unit 68 is a hardware resource for executing a program instruction stored in the memory 69, and drives and controls each unit of the processor device 16 to execute the program instruction.
  • the processor device 16 functions as an image pickup control unit 50, a DSP (Digital Signal Processor) 52, a noise reduction unit 54, an image processing unit 58, and a display control unit 60. do.
  • the image pickup control unit 50 is provided with the light source control unit 21 and the image pickup sensor control unit 45 described above.
  • the image pickup control unit 50 controls the light source unit 20 via the light source control unit 21 to illuminate the observation target, and controls the image pickup sensor 44 via the image pickup sensor control unit 45 to image the observation target (imaging sensor). Read the signal from 44). Then, the endoscopic image output from the image pickup sensor 44 is acquired by this imaging.
  • the image pickup control unit 50 performs normal image pickup by irradiating an observation target with normal light to take an image, and acquires a normal image.
  • the photographing control unit 50 performs special imaging by irradiating the observation mode with special light to capture an image, and acquires a special image. Special imaging is performed for each type of special light. As described above, in the present embodiment, since six types of special light are provided, special imaging is performed for each of the six types of special light, and six types of special images are acquired (see FIG. 5). ..
  • the endoscopic image such as a normal image and a special image is a blue signal (B image signal) and a green signal (G image signal) output from the B pixel, G pixel, and R pixel of the image pickup sensor 44.
  • B image signal blue signal
  • G image signal green signal
  • R image signal red signal
  • the endoscopic image acquired by the imaging control unit 50 is transmitted to the DSP 52.
  • the DSP 52 performs various signal processing such as defect correction processing, offset processing, gain correction processing, matrix processing, gamma conversion processing, demosaic processing, and YC conversion processing on the received endoscopic image.
  • the signal of the defective pixel of the image sensor 44 is corrected.
  • the dark current component is removed from the image signal subjected to the defect correction processing, and an accurate zero level is set.
  • the gain correction process adjusts the signal level of the endoscopic image by multiplying the image signal of each color after the offset process by a specific gain coefficient.
  • the endoscope image may be imaged by the monochrome sensor for each emission of light of a specific color and may be a monochrome image of a plurality of colors output from the monochrome sensor. preferable.
  • the image signal of each color after the gain correction processing is subjected to matrix processing to improve the color reproducibility. After that, the brightness and saturation of the endoscopic image are adjusted by the gamma conversion process.
  • the endoscope image after the matrix processing is subjected to demosaic processing (also referred to as isotropic processing or simultaneous processing), and a signal of the missing color of each pixel is generated by interpolation. By the demosaic processing, all the pixels have the signals of each color of RGB.
  • the DSP 52 performs YC conversion processing on the endoscope image after the demosaic processing, and outputs the luminance signal Y, the color difference signal Cb, and the color difference signal Cr to the noise reduction unit 54.
  • the noise reduction unit 54 performs noise reduction processing by, for example, a moving average method, a median filter method, or the like on an endoscopic image that has been demosaic processed by DSP 56.
  • the endoscopic image with reduced noise is input to the image processing unit 58.
  • the image processing unit 58 As the endoscope image, a normal image captured by irradiating normal light and a special image captured by irradiating special light S are input to the image processing unit 58.
  • the image processing unit 58 includes a normal observation mode layer processing unit 62, a detailed observation mode image processing unit 64, and a storage device 66.
  • the normal observation mode image processing unit 62 operates when the above-mentioned observation mode is the normal observation mode.
  • the detailed observation mode image processing unit 64 operates when the observation mode is the detailed observation mode.
  • the storage device 66 is used for recording an endoscopic image by the detailed observation mode image processing unit 64.
  • a normal image is input to the display control unit 60.
  • the display control unit 60 controls the display of the display 18, and the normal image is converted into a video signal for display by the display control unit 60 and displayed on the display 18.
  • the normal observation mode image processing unit 62 indicates the biological information of the observation target by using the special image alone or by using the special image and the normal image. Generate a biometric image.
  • the biological information image is the above-mentioned blood vessel image, oxygen saturation image, color difference expanded image, or the like, and is generated by performing analysis processing on a special image.
  • the normal observation mode image processing unit 62 inputs the generated biometric information image to the display control unit 60.
  • the biological information image is converted into a video signal for display by the display control unit 60 and displayed on the display 18.
  • the biometric information image is superimposed on the observation image or displayed side by side on the observation image.
  • recognition processing may be performed on a normal image, a special image, or a biometric information image.
  • the recognition process includes a detection process for detecting a region of interest such as a lesion and a discrimination process for discriminating the type and stage (degree) of the lesion. Further, the discrimination process includes a process performed on the region of interest and a process performed on the entire image to be recognized.
  • the endoscopic image is divided into a plurality of small areas, and the image feature amount is calculated from the divided endoscopic images. Then, in the detection process, it is determined whether or not each small region is a lesion based on the calculated feature amount, and a group of regions identified as having the same type is extracted as one lesion, and the extracted lesion is extracted. The area containing the above is detected as the area of interest. Further, in the discrimination process, for the detected region of interest, the type of lesion and / or the degree of lesion based on the feature amount in the region of interest and the mode (position, size, shape, etc.) of the region of interest. (Stage) is judged.
  • the determination in the recognition process (detection process, discrimination process) described above is preferably made by a machine learning algorithm such as a convolutional neural network or deep learning.
  • the detailed observation mode image processing unit 64 outputs the biometric information image generated from the normal image and the special image to the display control unit 60 and displays it on the display 18 (see FIG. 3). ..
  • the detailed observation mode image processing unit 64 encodes (encodes) a normal image and a special image as a moving image, and stores (records) them in the storage device 66. Then, based on instructions such as reproduction and rewinding, the stored (recorded) moving image is read from the storage device 66 and decoded (decoded). The decoded normal image is displayed on the display 18 via the display control unit 60. On the other hand, the decoded special image is analyzed to generate a biometric information image, and the biometric information image is displayed on the display 18 via the display control unit 60. Even in the detailed observation mode, the recognition process can be performed on a normal image, a special image, or a biological information image. The recognition process may be performed on the image before recording, or may be performed when the recorded image is reproduced.
  • the frame rate (imaging frequency) of the special image is set lower than the frame rate of the normal image, and the number of frames of the special image is smaller than the number of frames of the normal image, so that the special image exists.
  • the desired information cannot be obtained (the desired biometric image cannot be generated).
  • the frame rate of the special image is increased in order to prevent such a problem, the frame rate of the normal image is lowered, which adversely affects the observation of the normal image.
  • the image pickup control unit 50 described above switches the frame rate between the normal image and the special image according to the observation mode.
  • the relationship between the observation mode and the frame rate of the normal image and the special image will be specifically described with reference to FIGS. 5 and 6.
  • normal light N normal light N
  • special light S1 to S6 six types of special light
  • special image S1 to S6 a normal image, that is, an endoscopic image taken by irradiating normal light N
  • normal image NP normal image NP
  • endoscopic image taken by irradiating the special light S1 is "special image SP1 or simply SP1”
  • special image taken by irradiating the special light S2 is "special image SP2 or simply SP2".
  • the endoscopic image taken by irradiating the special light S3 is "special image SP3 or simply SP3"
  • the endoscope image taken by irradiating the special light S4 is "special image SP4 or simply SP4", special light.
  • the endoscopic image captured by irradiating S5 is referred to as "special image SP5, or simply SP5"
  • the endoscopic image captured by irradiating special light S6 is referred to as "special image SP6, or simply SP6”.
  • the photographing control unit 50 sets the normal light N and the special lights S1 to S6 as “N, N, N, N, N, S1, N, N”. , N, N, N, S2, N, N, N, N, N, S3, N, N, N, N, S4, N, N, N, N, N, S5, N, N, N , N, N, S6 ”in this order, and imaging is performed according to the irradiation of each illumination light.
  • the irradiation period of each illumination light is 1/60 (seconds), and imaging is performed 60 times per second.
  • the frequency of capturing normal images is high (50 times per second). Therefore, the movement of the image is usually smooth and easy to observe.
  • extraction picking up
  • Work such as doing is usually done while observing the image. Therefore, as in this example, it is effective to set a high imaging frequency of the normal image in the normal observation mode to facilitate observation.
  • the image pickup control unit 50 sets the normal light N and the special light S1 to S3 in the order of "N, S1, N, S2, N, S3". Irradiate with, and take an image according to the irradiation of each illumination light.
  • the irradiation period of each illumination light is 1/60 (seconds), and imaging is performed 60 times per second.
  • the endoscopic images normal image N and special images SP1 to SP3 are imaged in the order of "NP, SP1, NP, SP2, NP, SP3".
  • the imaging frequency of the normal image NP is reduced as compared with the normal observation mode (reduced from 50 times per second to 30 times).
  • the detailed observation mode is a mode for observing the extracted (picked up) portion in more detail in the normal observation mode, and the change in the position and / or orientation of the camera (tip portion 12d of the insertion portion 12a) is in the normal mode. Less than. Therefore, it is unlikely to be adversely affected by a decrease in imaging frequency.
  • the total imaging frequency of the special images SP1 to SP6 is increased as compared with the normal observation mode. Specifically, the total imaging frequency of the special images SP1 to SP6 is increased to 30 times per second in the detailed observation mode, while it is 10 times per second in the normal observation mode. More specifically, the imaging frequency of the special images SP1 to SP3 has increased from 3/5 times per second to 10 times, and the imaging frequency of the special images SP4 to SP6 has increased from 3/5 times to 0 times per second. In total, the frequency of capturing special images has increased from 10 to 30 times per second.
  • the special light includes a plurality of types of special light (special lights S1 to S6 in the present embodiment) having different emission spectra
  • the special image includes a plurality of types of special light.
  • Corresponding multiple types of special images (special SP1 to SP6 in the present embodiment) are included, and in the detailed observation mode, a part of the special images (the present implementation) among the plurality of types of special images are included in the normal observation mode.
  • the imaging frequency is increased as compared with the normal observation mode.
  • some special images (SP3 to SP6 in the present embodiment) different from some of the above-mentioned special images (SP1 to SP3 in the present embodiment) are usually used.
  • the imaging frequency is lower than that in the observation mode, the total imaging frequency of the special images SP1 to SP6 is higher than that in the normal observation mode.
  • the imaging frequency of the special images (special images SP1 to SP3 in the present embodiment) is higher than that in the normal mode. Therefore, in the detailed observation mode, the movement of these special images and the biometric information image generated by using these special images is smooth and easy to observe. In addition, there is no such thing as the necessary information cannot be obtained because the image to be confirmed does not exist.
  • the detailed observation mode is a mode for observing the extracted (picked up) part in detail in the normal observation mode, and in the detailed observation mode, not only the normal image NP but also a special image or a special image is used. Detailed observation is performed while observing the generated biometric information image.
  • special light S1 to S6 are provided as special light, and an example in which special images SP1 to SP6 are captured as special images has been described.
  • special images SP1 to SP6 are captured as special images.
  • special image there are five types of special light and special image. It may be less than or equal to the type, or may be 7 or more types.
  • the example of increasing the imaging frequency of the special images SP1 to SP3 in the detailed observation mode as compared with the normal observation mode has been described, but the type and / or number of special images that increase the imaging frequency.
  • the rate of increase in shooting frequency can be set freely.
  • the imaging frequency may be increased for only one of the special images SP1 to SP6.
  • the imaging frequency of all the special images SP1 to SP6 may be increased.
  • the rate of increase in the imaging frequency may be set individually for each special image, such as increasing the imaging frequency 10 times for the special image SP1 and increasing the imaging frequency 5 times for the special image SP2. ..
  • the example of reducing the imaging frequency of the special images SP4 to SP6 in the detailed observation mode as compared with the normal observation mode has been described, but the type and / or number of the special images that reduce the imaging frequency.
  • the reduction rate of the shooting frequency can be freely set.
  • the special image that reduces the shooting frequency may be abolished.
  • the user may specify the type and / or number of special images that change (increase or decrease) the imaging frequency, and the rate of change (increase or decrease rate) in the shooting frequency.
  • the hardware-like structure of the processing unit that executes various processes is various processors as shown below.
  • the circuit configuration is changed after manufacturing the CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute software (programs) and function as various processing units. It includes a programmable logic device (PLD), which is a possible processor, a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing various processes, and the like.
  • PLD programmable logic device
  • One processing unit may be composed of one of these various processors, or may be composed of a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). May be done. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client or a server, one processor is configured by a combination of one or more CPUs and software. There is a form in which this processor functions as a plurality of processing units.
  • SoC System On Chip
  • the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
  • the hardware-like structure of these various processors is, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.
  • the hardware structure of the storage unit is a storage device such as an HDD (hard disk drive) or SSD (solid state drive).

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

必要な情報をより確実に得ることが可能な、プロセッサ装置、プロセッサ装置の作動方法を提供する。 プロセッサ装置(16)は、内視鏡画像を表示する通常観察モードと、内視鏡画像を動画像として記録し、再生指示に基づいて再生表示する詳細観察モードとの間で観察モードを切り替える。プロセッサ装置(16)は、撮影制御部(50)を備える。撮影制御部(50)は、通常光を照射し、内視鏡画像として通常画像を撮像する通常撮像と、特殊光を照射し、内視鏡画像として特殊画像を撮像する特殊撮像とを行なうとともに、通常画像の撮像頻度と特殊画像の撮像頻度とを、観察モードの種類に応じて切り替える、

Description

プロセッサ装置、プロセッサ装置の作動方法
 本発明は、内視鏡が撮像した内視鏡画像を取得するプロセッサ装置、プロセッサ装置の作動方法に関する。
 光源装置、内視鏡、及びプロセッサ装置を備える内視鏡システムが広く知られている。内視鏡システムでは、観察対象に対して照明光を照射し、照明光で照明された観察対象を撮像することにより、内視鏡画像を取得する。内視鏡画像は、ディスプレイに表示されるなどして診断等に使用される。
 また、内視鏡システムの中には、白色光(通常光)を観察対象に照射して、観察用の内視鏡画像(通常画像)を撮像する通常撮像と、通常光とは発光スペクトルの異なる特殊光を観察対象に照射して、生体情報取得用の内視鏡画像(特殊画像)を撮像する特殊撮像とを行なうものもある。例えば、下記特許文献1には、特殊光としてICG(インドシアニングリーン)の励起光を照射して、内視鏡画像として蛍光画像を取得する例が記載されている。
 また、下記特許文献1では、通常画像と特殊画像とを録画して共通の画面内に表示する構成が記載されている。こうすることで、例えば、観察中に注目すべき領域を検出した場合に、録画された画像を再生、巻き戻し等しながら、詳細に観察することが可能である。
特開2019-098008号公報
 しかしながら、上記特許文献1記載の装置では、必要な情報が得られない場合があった。つまり、内視鏡システムを用いた内視鏡検査では、検査の大半の時間が通常画像を観察しながら行われるため、特殊画像の撮像頻度が通常画像と比較して低く設定されている。このため、所望の情報を得るための特殊画像が存在しない場合がある。このような問題を防止するために、特殊画像の撮像頻度を高く設定するといったことも考えられるが、この場合、通常画像の撮像頻度が低下してしまうので、通常画像が見難く、検査に悪影響を及ぼしてしまう。
 本発明は、上記背景を鑑みてなされたものであり、検査への悪影響を抑えながら、必要な情報をより確実に得ることが可能な、プロセッサ装置、プロセッサ装置の作動方法を提供することを目的とする。
 上記目的を達成するために、本発明のプロセッサ装置は、内視鏡から出力された内視鏡画像をディスプレイに表示する通常観察モードと、内視鏡画像をディスプレイに表示するとともに、内視鏡画像を動画像として記録し、再生指示に基づいて記録した動画像をディスプレイに再生表示する詳細観察モードと、を含む複数種類の観察モードの切り替えを行うプロセッサ装置において、撮像制御用プロセッサが、通常光を観察対象に照射して、内視鏡画像として通常画像を撮像する通常撮像と、通常光とは発光スペクトルの異なる特殊光を観察対象に照射して、内視鏡画像として特殊画像を撮像する特殊撮像と、を行い、通常画像の撮像頻度と特殊画像の撮像頻度とを、観察モードの種類に応じて切り替える。
 詳細観察モードでは、通常観察モードに対して、通常画像の撮像頻度を低下させてもよい。
 詳細観察モードでは、通常観察モードに対して、特殊画像の撮像頻度を増加させてもよい。
 特殊光には、発光スペクトルが互いに異なる、複数種類の特殊光が含まれ、特殊画像には、複数種類の特殊光に対応する複数種類の特殊画像が含まれ、詳細観察モードでは、通常観察モードに対して、複数種類の特殊画像のうちの一部の特殊画像について、通常観察モードよりも撮像頻度を増加させてもよい。
 詳細観察モードでは、一部の特殊画像とは別の一部の特殊画像については、通常観察モードよりも撮像頻度を低下させてもよい。
 特殊画像を用いて、観察対象の生体情報を表示する生体情報画像を生成し、生成した生体情報画像を、ディスプレイに表示してもよい。
 生体情報画像は、血中ヘモグロビンの酸素飽和度を示す酸素飽和度画像であってもよい。
 生体情報画像は、特定深さの血管を示す血管画像であってもよい。
 生体情報画像は、特殊画像に設定された複数の範囲の各々について、各々の範囲の色差を拡張する色差拡張画像であってもよい。
 また、上記目的を達成するために、本発明のプロセッサ装置の作動方法は、内視鏡から出力された内視鏡画像をディスプレイに表示する通常観察モードと、内視鏡画像をディスプレイに表示するとともに、内視鏡画像を動画像として記録し、再生指示に基づいて記録した動画像をディスプレイに再生表示する詳細観察モードと、を含む複数種類の観察モードの切り替えを行うプロセッサ装置の作動方法において、撮像制御用プロセッサが、通常光を観察対象に照射して、内視鏡画像として通常画像を撮像する通常撮像と、通常光とは発光スペクトルの異なる特殊光を観察対象に照射して、内視鏡画像として特殊画像を撮像する特殊撮像と、を行い、通常画像の撮像頻度と特殊画像の撮像頻度とを、観察モードの種類に応じて切り替える。
 本発明によれば、通常画像が見易く、また、詳細な観察を行なう場合には特殊画像が見易いプロセッサ装置、プロセッサ装置の作動方法を提供できる。
内視鏡システムを簡略化した模式図である。 内視鏡システムの機能を示すブロック図である。 内視鏡画像が表示される流れを示すフローチャートである。 内視鏡画像が録画及び再生される流れを示すフローチャートである。 通常観察モードにおける撮像制御を示す説明図である。 詳細観察モードにおける撮像制御を示す説明図である。
 図1において、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、ディスプレイ18と、UI(User InterFace、ユーザーインターフェース)19とを有する。内視鏡12は、光源装置14と光学的に接続され、且つ、プロセッサ装置16と電気的に接続される。内視鏡12は、観察対象の体内に挿入される挿入部12aと、挿入部12aの基端部分に設けられた操作部12bと、挿入部12aの先端側に設けられた湾曲部12c及び先端部12dとを有している。湾曲部12cは、操作部12bを操作することにより湾曲動作する。先端部12dは、湾曲部12cの湾曲動作によって所望の方向に向けられる。
 また、操作部12bには、観察モードの切り替え操作に用いる観察モード切替スイッチ12fと、処置具に係る手技支援情報の提示に用いる手技支援情報提示スイッチ12gと、観察対象の静止画の取得指示に用いられる静止画像取得指示スイッチ12hと、ズームレンズ43の操作に用いられるズーム操作部12iとが設けられている。内視鏡システム10では、観察モードとして、通常観察モードと、通常観察モードよりも詳細な観察を行うための詳細観察モードとが設けられており、モード切替スイッチ12fを操作することで、観察モードの切り替えが行われる。
 光源装置14は、観察対象を照明するための照明光を発する光源部20(図2参照)を備えている。光源部20からの照明光は、ライトガイド25(図2参照)により導光されて先端部12dから観察対象へ向けて照射される。光源部20からの照明光により照明された観察対象は、先端部12dに内蔵された撮像センサ44(図2参照)により撮像される。
 プロセッサ装置16は、ディスプレイ18及びUI19と電気的に接続される。ディスプレイ18は、観察対象の画像や、観察対象の画像に付帯する情報等を出力表示する。UI19は、キーボード、マウス、タッチパッド、マイク等を有し、機能設定等の入力操作を受け付ける機能を有する。なお、プロセッサ装置16には、外付けのメモリ(図示しない)を接続してもよい。
 図2において、光源装置14は、前述した光源部20を備えている。光源部20は、プロセッサ装置16の光源制御部21に接続されており、光源部20が発する照明光の発光スペクトル並びに発光タイミングは、光源制御部21により制御される。
 本実施形態において、光源部20は、発光スペクトルが互いに異なる通常光と特殊光とを発光する。通常光は、例えば、白色光である。白色光は、例えば、波長帯域380~420nmの紫色光、波長帯域420~500nmの青色光、波長帯域480~600nmの緑色光、波長帯域600~650nmの赤色光、を含む。通常光を観察対象に照射して撮像された内視鏡画像(通常画像)は、ディスプレイ18に表示される。
 特殊光は、1種類であってもよいし複数種類であってもよいが、本実施形態では、6種類の特殊光を設定している(図5参照)。これらの特殊光には、例えば、血中ヘモグロビンの吸収係数が高い紫色光(ピーク波長400nm~420nm)の発光量が、通常光よりも大きくされたものが含まれる。この特殊光を観察対象に照射して撮像された内視鏡画像(特殊画像)は、表層の血管構造や腺管構造を示す血管画像(生体情報画像)の生成に用いられる。
 また、特殊光には、例えば、前述した紫色光のみを発光するものが含まれる。この特殊光を観察対象に照射して撮像された内視鏡画像(特殊画像)は、前述の場合(紫色光の発光量を通常光よりも大きくした場合)と比較して、より表層の血管構造や腺管構造を示す血管画像(生体情報画像)の生成に用いられる。
 さらに、特殊光には、例えば、酸化ヘモグロビンと還元ヘモグロビンの吸光係数に差がある青紫色光(ピーク波長470nm~480nm)を発光するものが含まれる。この特殊光を観察対象に照射して撮像された内視鏡画像(特殊画像)は、血中ヘモグロビンの酸素飽和度を示す酸素飽和度画像(生体情報画像)の生成に用いられる。
 また、特殊光には、例えば、前述した紫色光及び青紫光、並びに、赤色光(ピーク波長620nm~630nm)の発光量が、通常光よりも大きくされたものが含まれる。この特殊光を観察対象に照射して撮像された内視鏡画像(特殊画像)は、病変部と病変部以外の範囲との色差を拡張した色差拡張画像(生体情報画像)の生成に用いられる。なお、特殊光の種類、及び、各特殊光を照射して撮像された内視鏡画像(特殊画像)を用いて生成する生体情報画像の種類は、上記に限定されず適宜変更できる。
 光源部20からの照明光は、ミラーやレンズなどで構成される光路結合部23を介して、前述したライトガイド25に入射される。ライトガイド25は、内視鏡12及びユニバーサルコード(内視鏡12と、光源装置14及びプロセッサ装置16を接続するコード)に内蔵されている。ライトガイド25は、光路結合部23からの光を、内視鏡12の先端部12dまで伝搬する。
 内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは照明レンズ32を有しており、ライトガイド25によって伝搬した照明光は照明レンズ32を介して観察対象に照射される。撮像光学系30bは、対物レンズ42、ズームレンズ43、撮像センサ44を有している。照明光を照射したことによる観察対象からの光は、対物レンズ42及びズームレンズ43を介して撮像センサ44に入射する。これにより、撮像センサ44に観察対象の像が結像される。ズームレンズ43は観察対象を拡大するためのレンズであり、ズーム操作部12iを操作することによって、テレ端とワイド端と間を移動する。
 撮像センサ44は、カラーセンサであり、本実施形態では、B(ブルー)カラーフィルタを有するB画素、G(グリーン)カラーフィルタを有するG画素、及び、R(レッド)カラーフィルタを有するR画素の3種類の画素を備えた原色系のカラーセンサを用いている。このような撮像センサ44としては、CCD(Charge-Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)撮像センサ等を用いることができる。
 撮像センサ44は、プロセッサ装置16の撮像センサ制御部45により制御される。撮像センサ制御部45は、所定サイクルで(本実施形態では、毎秒60回)、撮像(撮像センサ44の信号読み出し)を行う。そして、この撮像に伴い、撮像センサ44から画像信号が出力される。本実施形態では、毎秒60フレーム(枚)分の画像信号が出力される。
 なお、RGBの原色のカラーフィルタを設けた原色系の撮像センサ44の代わりに、C(シアン)、M(マゼンタ)、Y(イエロー)及びG(緑)の補色フィルタを有する補色系の撮像センサを用いてもよい。補色系の撮像センサを用いる場合には、CMYGの4色の画像信号を出力する。このため、補色-原色色変換によって、CMYGの4色の画像信号をRGBの3色の画像信号に変換することにより、撮像センサ38と同様のRGB各色の画像信号を得ることができる。また、撮像センサ38の代わりに、カラーフィルタを設けていないモノクロセンサを用いてもよい。
 CDS/AGC(Correlated Double Sampling/Automatic Gain Control)回路46は、撮像センサ44から得られるアナログの画像信号に相関二重サンプリング(CDS)や自動利得制御(AGC)を行う。CDS/AGC回路46を経た画像信号は、A/D(Analog/Digital)コンバータ48により、デジタルの画像信号に変換される。A/D変換後のデジタル画像信号がプロセッサ装置16に入力される。
 プロセッサ装置16は、本発明の撮像制御用プロセッサを構成する中央制御部68を備えている。中央制御部68は、メモリ69に格納されたプログラム命令を実行させるためのハードウェア資源であり、プロセッサ装置16の各部を駆動制御してプログラム命令を実行させる。プログラム命令の実行に伴う中央制御部68の駆動制御により、プロセッサ装置16は、撮像制御部50、DSP(Digital Signal Processor)52、ノイズ低減部54、画像処理部58、表示制御部60、として機能する。
 撮像制御部50には、前述した光源制御部21及び撮像センサ制御部45が設けられている。撮像制御部50は、光源制御部21を介して光源部20を制御して観察対象を照明するとともに、撮像センサ制御部45を介して撮像センサ44を制御して観察対象を撮像する(撮像センサ44から信号読み出しを行う)。そして、この撮像により撮像センサ44から出力された内視鏡画像を取得する。
 撮像制御部50は、通常光を観察対象に照射して撮像する通常撮像を行い、通常画像を取得する。また、撮影制御部50は、特殊光を観察態様に照射して撮像する特殊撮像を行い、特殊画像を取得する。特殊撮像は、特殊光の種類毎に行われる。前述のように、本実施形態では、6種類の特殊光が設けられているため、6種類の特殊光のそれぞれについて特殊撮像が行われ、6種類の特殊画像が取得される(図5参照)。なお、本実施形態において、通常画像及び特殊画像といった内視鏡画像は、撮像センサ44のB画素、G画素、R画素から出力される青色信号(B画像信号)、緑色信号(G画像信号)、赤色信号(R画像信号)から構成されるカラー画像である。
 撮像制御部50が取得した内視鏡画像は、DSP52に送信される。DSP52は、受信した内視鏡画像に対して、欠陥補正処理、オフセット処理、ゲイン補正処理、マトリクス処理、ガンマ変換処理、デモザイク処理、及びYC変換処理等の各種信号処理を行う。
 欠陥補正処理では、撮像センサ44の欠陥画素の信号が補正される。オフセット処理では、欠陥補正処理を施した画像信号から暗電流成分を除かれ、正確な零レベルを設定される。ゲイン補正処理は、オフセット処理後の各色の画像信号に特定のゲイン係数を乗じることにより内視鏡画像の信号レベルを整える。なお、内視鏡画像は、撮像センサ44としてモノクロセンサを用いる場合には、特定の色の光の発光毎にモノクロセンサで撮像し、モノクロセンサから出力される複数色のモノクロ画像とすることが好ましい。
 ゲイン補正処理後の各色の画像信号には、色再現性を高めるマトリクス処理が施される。その後、ガンマ変換処理によって、内視鏡画像の明るさや彩度が整えられる。マトリクス処理後の内視鏡画像には、デモザイク処理(等方化処理,同時化処理とも言う)が施され、補間により各画素の欠落した色の信号を生成される。デモザイク処理によって、全画素がRGB各色の信号を有するようになる。DSP52は、デモザイク処理後の内視鏡画像にYC変換処理を施し、輝度信号Yと色差信号Cb及び色差信号Crをノイズ低減部54に出力する。
 ノイズ低減部54は、DSP56でデモザイク処理等を施した内視鏡画像に対して、例えば移動平均法やメディアンフィルタ法等によるノイズ低減処理を施す。ノイズを低減した内視鏡画像は、画像処理部58に入力される。本実施形態では、内視鏡画像として、通常光を照射して撮像した通常画像と、特殊光Sを照射して撮像した特殊画像とが画像処理部58に入力される。
 画像処理部58は、通常観察モード画層処理部62と、詳細観察モード画像処理部64と、ストレージデバイス66と、を備えている。通常観察モード画像処理部62は、前述した観察モードが通常観察モードである場合に作動する。他方、詳細観察モード画像処理部64は、観察モードが詳細観察モードである場合に作動する。ストレージデバイス66は、詳細観察モード画像処理部64による内視鏡画像の録画に用いられる。
 図3に示すように、通常観察モード画像処理部62は、ノイズ低減部54から通常画像が入力された場合(ノイズ低減部54から通常画像が入力された内視鏡画像が特殊画像でなかった場合)、通常画像を表示制御部60に入力する。表示制御部60は、ディスプレイ18の表示制御を行うものであり、通常画像は、表示制御部60において表示用の映像信号に変換されてディスプレイ18に表示される。
 また、通常観察モード画像処理部62は、ノイズ低減部54から特殊画像が入力された場合、特殊画像を単独で用いて、または、特殊画像と通常画像とを用いて観察対象の生体情報を示す生体情報画像を生成する。生体情報画像は、前述した血管画像、酸素飽和度画像、色差拡張画像などであり、特殊画像に対して解析処理を行なうことにより生成される。通常観察モード画像処理部62は、生成した生体情報画像を表示制御部60に入力する。生体情報画像は、表示制御部60において表示用の映像信号に変換されてディスプレイ18に表示される。生体情報画像は、観察用画像に重畳させて、または、観察用画像に並べて表示される。
 なお、通常画像、特殊画像、または生体情報画像に対して、認識処理を行ってもよい。認識処理には、病変部などの注目領域を検出する検出処理と、病変部の種類やステージ(程度)を鑑別する鑑別処理とが含まれる。また、鑑別処理には、注目領域に対して行なう処理と、認識処理を行なう画像全体に対して行う処理とが含まれる。
 認識処理では、例えば、内視鏡画像を複数の小領域に分割し、分割した内視鏡画像から画像的な特徴量を算出する。そして、検出処理では、算出した特徴量に基づき、各小領域が病変部であるか否かを判断し、同じ種類と特定されたひとかたまりの領域を1つの病変部として抽出し、抽出した病変部を含む領域を注目領域として検出する。また、鑑別処理では、検出された注目領域について、注目領域内の特徴量と、注目領域の態様(位置、大きさ、形状など)と、に基づいて病変部の種類及び/または病変部の程度(ステージ)が判断される。上述した認識処理(検出処理、鑑別処理)における判断は、畳み込みニューラルネットワーク(Convolutional Neural Network)や、深層学習(Deep Learning)などの機械学習アルゴリズムによって行われることが好ましい。
 詳細観察モード画像処理部64は、通常観察モード画像処理部62と同様に、通常画像及び特殊画像から生成した生体情報画像を表示制御部60に出力してディスプレイ18に表示させる(図3参照)。
 また、図4に示すように、詳細観察モード画像処理部64は、通常画像及び特殊画像を、動画像としてエンコード(符号化)し、ストレージデバイス66に記憶させる(録画する)。そして、再生、巻き戻し等の指示に基づいて、記憶した(録画した)動画像をストレージデバイス66から読み出してデコード(復号化)する。デコードされた通常画像は、表示制御部60を介してディスプレイ18に表示される。他方、デコードされた特殊画像は、解析処理が行われて生体情報画像が生成され、生体情報画像が表示制御部60を介してディスプレイ18に表示される。なお、詳細観察モードにおいても、通常画像、特殊画像、または生体情報画像に対して、認識処理を行うことができる。認識処理は、録画前の画像に対して行なってもよいし、録画した画像を再生する際に行ってもよい。
 このように、詳細観察モードでは、通常画像及び特殊画像を録画し、通常画像や特殊画像を用いて生成された生体情報画像を再生、巻き戻し等しながら、より詳細な観察が可能である。しかし、一般に、特殊画像のフレームレート(撮像頻度)は、通常画像のフレームレートよりも低く設定されており、通常画像のフレーム数と比較して特殊画像のフレーム数が少ないので、特殊画像が存在せずに所望の情報を得られない(所望の生体情報画像が生成できない)といった問題がある。また、このような問題を防止するために特殊画像のフレームレートを高くすると、通常画像のフレームレートが低下してしまうので、通常画像の観察において悪影響がでてしまう。
 このため、本発明では、前述した撮像制御部50が、観察モードに応じて、通常画像と特殊画像のフレームレートを切り替えている。以下、図5、図6を用いて、観察モードと、通常画像と特殊画像のフレームレートの関係について、具体的な説明を行なう。
 なお、以下の説明では、特殊光として6種類の特殊光を用いる場合について説明を行なう。また以下の説明では、通常光を「通常光N、または単にN」と称し、6種類の特殊光を「特殊光S1~S6、または単にS1~S6」と称する。さらに、以下の説明では、通常画像、すなわち、通常光Nを照射して撮像した内視鏡画像を「通常画像NP、または単にNP」と称する。また、特殊光S1を照射して撮像した内視鏡画像を「特殊画像SP1、または単にSP1」、特殊光S2を照射して撮像した内視鏡画像を「特殊画像SP2、または単にSP2」、特殊光S3を照射して撮像した内視鏡画像を「特殊画像SP3、または単にSP3」、特殊光S4を照射して撮像した内視鏡画像を「特殊画像SP4、または単にSP4」、特殊光S5を照射して撮像した内視鏡画像を「特殊画像SP5、または単にSP5」、特殊光S6を照射して撮像した内視鏡画像を「特殊画像SP6、または単にSP6」と称する。
 図5に示すように、観察モードが通常観察モードである場合、撮影制御部50は、通常光N及び特殊光S1~S6を、「N、N、N、N、N、S1、N、N、N、N、N、S2、N、N、N、N、N、S3、N、N、N、N、N、S4、N、N、N、N、N、S5、N、N、N、N、N、S6」の順番で照射し、各照明光の照射に合わせて撮像を行なう。各照明光の照射期間は、1/60(秒)であり、撮像は、毎秒60回行われる。これにより、「NP、NP、NP、NP、NP、SP1、NP、NP、NP、NP、NP、SP2、NP、NP、NP、NP、NP、SP3、NP、NP、NP、NP、NP、SP4、NP、NP、NP、NP、NP、SP5、NP、NP、NP、NP、NP、SP6」の順番で内視鏡画像(通常画像N及び特殊画像SP1~SP6)が撮像される。
 このように、通常観察モードでは、通常画像の撮像頻度が高い(1秒あたり50回)。このため、通常画像の動きが滑らかで観察し易い。特に、通常観察モードでは、カメラ(挿入部12aの先端部12d)の位置及び/または向きを変化させながら、病変等の疑いのある部位(より詳細に観察すべき部位)の抽出(拾い上げ)を行なうといった作業を、通常画像を観察しながら行なう。このため、本例のように、通常観察モードにおいて通常画像の撮像頻度を高く設定して観察し易くすることが効果的である。
 一方、図6に示すように、観察モードが詳細観察モードである場合、撮像制御部50は、通常光N及び特殊光S1~S3を「N、S1、N、S2、N、S3」の順番で照射し、各照明光の照射に合わせて撮像を行なう。この場合も前述した通常観察モードの場合と同様に、各照明光の照射期間は、1/60(秒)であり、撮像は、毎秒60回行われる。これにより、「NP、SP1、NP、SP2、NP、SP3」の順番で内視鏡画像(通常画像N及び特殊画像SP1~SP3)が撮像される。
 このように、詳細観察モードでは、通常画像NPの撮像頻度が通常観察モードと比較して低下する(1秒あたり50回から30回に低下する)。しかし、詳細観察モードは、通常観察モードにおいて抽出(拾い上げ)した部位についてより詳細に観察するためのモードであり、カメラ(挿入部12aの先端部12d)の位置及び/または向きの変化は通常モードと比較して少ない。このため、撮像頻度の低下による悪影響を受け難い。
 また、詳細観察モードでは、特殊画像SP1~SP6のトータルとしての撮像頻度が通常観察モードと比較して増加している。具体的には、特殊画像SP1~SP6のトータルとしての撮像頻度は、通常観察モードにおいては1秒あたり10回であるのに対し、詳細観察モードにおいては1秒あたり30回に増加している。より具体的には、特殊画像SP1~SP3の撮像頻度が1秒あたり3/5回から10回に増加しており、特殊画像SP4~SP6の撮像頻度が1秒あたり3/5回から0回に低下しているものの、トータルとしては、特殊画像の撮像頻度が1秒あたり10回から30回に増加している。
 つまり、本実施形態では、特殊光には、発光スペクトルが互いに異なる、複数種類の特殊光(本実施形態では、特殊光S1~S6)が含まれ、特殊画像には、複数種類の特殊光に対応する複数種類の特殊画像(本実施形態では、特殊SP1~SP6)が含まれ、詳細観察モードでは、通常観察モードに対して、複数種類の特殊画像のうちの一部の特殊画像(本実施形態ではSP1~SP3)について、通常観察モードよりも撮像頻度を増加させている。
 一方、本実施形態では、詳細観察モードでは、前述した一部の特殊画像(本実施形態ではSP1~SP3)とは別の一部の特殊画像(本実施形態ではSP3~SP6)については、通常観察モードよりも撮像頻度を低下させているが、特殊画像SP1~SP6のトータルとしては、通常観察モードよりも撮像頻度を増加させている。
 このように、詳細観察モードにおいては、特殊画像(本実施形態では、特殊画像SP1~SP3)の撮像頻度が通常モードよりも増加している。このため、詳細観察モードにおいては、これら特殊画像及びこれら特殊画像を用いて生成された生体情報画像の動きが滑らかで観察し易い。また、確認したい画像が存在せずに必要な情報が得られないといったことがない。前述のように、詳細観察モードは、通常観察モードにおいて抽出(拾い上げ)した部位を詳細に観察するためのモードであり、詳細観察モードでは、通常画像NPのみならず特殊画像や特殊画像を用いて生成された生体情報画像を観察しながら詳細な観察が行われる。このため、本例のように、詳細観察モードにおいて特殊画像の撮像頻度を高く設定することが効果的である。特に、詳細観察モードでは、リアルタイムに得られた内視鏡画像だけでなく録画された内視鏡画像も参照されるため、特殊画像の撮像頻度を高く設定することで、より確実に必要な情報を得ることができる。
 なお、上記実施形態では、特殊光として、特殊光S1~S6の6種類を設け、特殊画像として特殊画像SP1~SP6が撮像される例で説明をしたが、特殊光及び特殊画像の種類は5種類以下であってもよいし、7種類以上であってもよい。
 また、上記実施形態では、詳細観察モードでは通常観察モードに対して、特殊画像SP1~SP3の撮像頻度を増加させる例で説明をしたが、撮像頻度を増加させる特殊画像の種類及び/または数、並びに、撮影頻度の増加率は自由に設定できる。例えば、特殊画像SP1~SP6のうち1種類のみ撮像頻度を増加させてもよい。また、特殊画像SP1~SP6の全ての撮像頻度を増加させてもよい。さらに、特殊画像SP1については撮像頻度を10倍に増加させ、特殊画像SP2については撮像頻度を5倍に増加させるといったように、撮像頻度の増加率を特殊画像毎に個別に設定してもよい。
 さらに、上記実施形態では、詳細観察モードでは通常観察モードに対して、特殊画像SP4~SP6の撮像頻度を低下させる例で説明をしたが、撮像頻度を低下させる特殊画像の種類及び/または数、並びに、撮影頻度の低下率は自由に設定できる。また、撮影頻度を低下させる特殊画像を廃止してもよい。また、撮像頻度を変化(増加または低下)させる特殊画像の種類及び/または数、並びに撮影頻度の変化率(増加率または低下率)をユーザーが指定してもよい。
 上記実施形態において、光源制御部21、撮像センサ制御部45、撮像制御部50、DPS52、ノイズ低減部54、画像処理部58、通常観察モード画像処理部62、詳細観察モード画像処理部64、中央制御部68、等の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。また、記憶部のハードウェア的な構造はHDD(hard disc drive)やSSD(solid state drive)等の記憶装置である。
10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12f モード切替スイッチ
12g 手技支援情報提示スイッチ
12h 静止画取得指示部
12i ズーム操作部
14 光源装置
16 プロセッサ装置
18 ディスプレイ
19 UI
20 光源部
21 光源制御部
23 光路結合部
25 ライトガイド
30a 照明光学系
30b 撮像光学系
32 照明レンズ
42 対物レンズ
43 ズームレンズ
44 撮像センサ
45 撮像センサ制御部
46 CDS/AGC回路
48 A/Dコンバータ
50 撮像制御部
52 DSP
54 ノイズ低減部
58 画像処理部
60 表示制御部
62 通常観察モード画像処理部
64 詳細観察モード画像処理部
66 ストレージデバイス
68 中央制御部
69 メモリ
N 通常光
NP 通常画像
S1~S6 特殊光
SP1~SP6 特殊画像

Claims (10)

  1.  内視鏡から出力された内視鏡画像をディスプレイに表示する通常観察モードと、前記内視鏡画像を前記ディスプレイに表示するとともに、前記内視鏡画像を動画像として記録し、再生指示に基づいて記録した動画像を前記ディスプレイに再生表示する詳細観察モードと、を含む複数種類の観察モードの切り替えを行うプロセッサ装置において、
     撮像制御用プロセッサが、
     通常光を観察対象に照射して、前記内視鏡画像として通常画像を撮像する通常撮像と、前記通常光とは発光スペクトルの異なる特殊光を観察対象に照射して、前記内視鏡画像として特殊画像を撮像する特殊撮像と、を行い、
     前記通常画像の撮像頻度と前記特殊画像の撮像頻度とを、前記観察モードの種類に応じて切り替える、プロセッサ装置。
  2.  前記詳細観察モードでは、前記通常観察モードに対して、前記通常画像の撮像頻度を低下させる、請求項1に記載のプロセッサ装置。
  3.  前記詳細観察モードでは、前記通常観察モードに対して、前記特殊画像の撮像頻度を増加させる、請求項1または2に記載のプロセッサ装置。
  4.  前記特殊光には、発光スペクトルが互いに異なる、複数種類の特殊光が含まれ、
     前記特殊画像には、前記複数種類の特殊光に対応する複数種類の特殊画像が含まれ、
     前記詳細観察モードでは、前記通常観察モードに対して、前記複数種類の特殊画像のうちの一部の特殊画像について、前記通常観察モードよりも撮像頻度を増加させる、請求項3に記載のプロセッサ装置。
  5.  前記詳細観察モードでは、前記一部の特殊画像とは別の一部の特殊画像については、前記通常観察モードよりも撮像頻度を低下させる、請求項4に記載のプロセッサ装置。
  6.  前記特殊画像を用いて、前記観察対象の生体情報を表示する生体情報画像を生成し、
     生成した生体情報画像を、前記ディスプレイに表示する、請求項1から5のいずれか1項に記載のプロセッサ装置。
  7.  前記生体情報画像は、血中ヘモグロビンの酸素飽和度を示す酸素飽和度画像である、請求項6に記載のプロセッサ装置。
  8.  前記生体情報画像は、特定深さの血管を示す血管画像である、請求項6または7に記載のプロセッサ装置。
  9.  前記生体情報画像は、前記特殊画像に設定された複数の範囲の各々について、各々の範囲の色差を拡張する色差拡張画像である、請求項6から8のいずれか1項に記載のプロセッサ装置。
  10.  内視鏡から出力された内視鏡画像をディスプレイに表示する通常観察モードと、前記内視鏡画像を前記ディスプレイに表示するとともに、前記内視鏡画像を動画像として記録し、再生指示に基づいて記録した動画像を前記ディスプレイに再生表示する詳細観察モードと、を含む複数種類の観察モードの切り替えを行うプロセッサ装置の作動方法において、
     撮像制御用プロセッサが、
     通常光を観察対象に照射して、前記内視鏡画像として通常画像を撮像する通常撮像と、前記通常光とは発光スペクトルの異なる特殊光を観察対象に照射して、前記内視鏡画像として特殊画像を撮像する特殊撮像と、を行い、
     前記通常画像の撮像頻度と前記特殊画像の撮像頻度とを、前記観察モードの種類に応じて切り替える、プロセッサ装置の作動方法。
     
PCT/JP2021/004603 2020-08-19 2021-02-08 プロセッサ装置、プロセッサ装置の作動方法 WO2022038803A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022543269A JP7447281B2 (ja) 2020-08-19 2021-02-08 プロセッサ装置、プロセッサ装置の作動方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-138518 2020-08-19
JP2020138518 2020-08-19

Publications (1)

Publication Number Publication Date
WO2022038803A1 true WO2022038803A1 (ja) 2022-02-24

Family

ID=80322622

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/004603 WO2022038803A1 (ja) 2020-08-19 2021-02-08 プロセッサ装置、プロセッサ装置の作動方法

Country Status (2)

Country Link
JP (1) JP7447281B2 (ja)
WO (1) WO2022038803A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006271871A (ja) * 2005-03-30 2006-10-12 Olympus Medical Systems Corp 内視鏡用画像処理装置
JP2016019569A (ja) * 2014-07-11 2016-02-04 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び内視鏡システム
WO2019059059A1 (ja) * 2017-09-22 2019-03-28 富士フイルム株式会社 医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006271871A (ja) * 2005-03-30 2006-10-12 Olympus Medical Systems Corp 内視鏡用画像処理装置
JP2016019569A (ja) * 2014-07-11 2016-02-04 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び内視鏡システム
WO2019059059A1 (ja) * 2017-09-22 2019-03-28 富士フイルム株式会社 医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置

Also Published As

Publication number Publication date
JPWO2022038803A1 (ja) 2022-02-24
JP7447281B2 (ja) 2024-03-11

Similar Documents

Publication Publication Date Title
JP4009626B2 (ja) 内視鏡用映像信号処理装置
JP5808031B2 (ja) 内視鏡システム
US10070771B2 (en) Image processing apparatus, method for operating image processing apparatus, computer-readable recording medium, and endoscope device
JP2011098088A (ja) 電子内視鏡システム、電子内視鏡用のプロセッサ装置、及び画像処理方法
JP6917518B2 (ja) 内視鏡システム
WO2020008834A1 (ja) 画像処理装置、方法及び内視鏡システム
JP7335399B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
JP5948203B2 (ja) 内視鏡システム及びその作動方法
WO2020054255A1 (ja) 内視鏡装置、内視鏡プロセッサ、及び内視鏡装置の操作方法
WO2018043728A1 (ja) 内視鏡システム及び特徴量算出方法
JP6054806B2 (ja) 画像処理装置及び内視鏡システムの作動方法
WO2021157392A1 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
WO2022014258A1 (ja) プロセッサ装置、プロセッサ装置の作動方法
WO2022038803A1 (ja) プロセッサ装置、プロセッサ装置の作動方法
WO2022018894A1 (ja) 内視鏡システム及びその作動方法
WO2021199910A1 (ja) 医用画像処理システム、医用画像処理システムの作動方法
JP3886757B2 (ja) 電子内視鏡装置
JP3894762B2 (ja) 電子内視鏡装置
JP2022090759A (ja) 医用画像処理システム、医用画像処理システムの作動方法
JP6580778B2 (ja) 内視鏡画像信号処理装置およびプログラム
JP7411515B2 (ja) 内視鏡システム及びその作動方法
JP7447243B2 (ja) プロセッサ装置及びその作動方法
WO2021106452A1 (ja) 内視鏡システム及びその作動方法
JP7076535B2 (ja) 内視鏡装置、内視鏡装置の作動方法、及びプログラム
JP7090699B2 (ja) 内視鏡装置及び内視鏡装置の作動方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21857955

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022543269

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21857955

Country of ref document: EP

Kind code of ref document: A1