WO2017149932A1 - 医療用画像処理装置、システム、方法及びプログラム - Google Patents

医療用画像処理装置、システム、方法及びプログラム Download PDF

Info

Publication number
WO2017149932A1
WO2017149932A1 PCT/JP2017/000424 JP2017000424W WO2017149932A1 WO 2017149932 A1 WO2017149932 A1 WO 2017149932A1 JP 2017000424 W JP2017000424 W JP 2017000424W WO 2017149932 A1 WO2017149932 A1 WO 2017149932A1
Authority
WO
WIPO (PCT)
Prior art keywords
specific
image signal
component
color
specific component
Prior art date
Application number
PCT/JP2017/000424
Other languages
English (en)
French (fr)
Inventor
菊地 大介
貴美 水倉
高橋 康昭
浩司 鹿島
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2018502551A priority Critical patent/JP6860000B2/ja
Priority to EP17759404.1A priority patent/EP3424403B1/en
Priority to US16/076,784 priority patent/US11244478B2/en
Publication of WO2017149932A1 publication Critical patent/WO2017149932A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present disclosure relates to a medical image processing apparatus, system, method, and program.
  • the medical observation device includes a device that electronically displays an image of a subject captured by an imaging unit (camera) on a display unit in addition to a device that enables optical observation of the subject.
  • an imaging unit camera
  • microsurgery an operator performs various operations while observing an affected area or a surgical instrument through an electronically displayed image.
  • the capsule endoscope is mainly used for the purpose of examination or diagnosis, and images a target organ in the body of the subject.
  • Patent Document 1 proposes a mechanism for variably controlling the peak position of the light distribution of illumination light emitted toward the field of view in order to prevent such overexposure or blackout and provide a natural image. ing.
  • the existing technology aiming at prevention of overexposure or underexposure does not consider the gradation deviation of each color component of the subject observed in the medical work.
  • the magnitude of the red component can strongly affect the gradation of the subject.
  • a specific color other than red may be particularly significant in the gradation of the subject.
  • the dynamic range of a plurality of color components is to be adjusted uniformly, the dynamic range of the specific color component may not be optimal as a result, and there may be a situation where the gradation to be observed is lost. .
  • the technology according to the present disclosure aims to eliminate or at least reduce the drawbacks of such existing technology.
  • the first specific component image signal accompanied by the first exposure amount for the specific color component, and the second exposure amount different from the first exposure amount for the specific color component.
  • a medical image processing apparatus including an image signal and a color image generation unit that generates a color image signal from the two non-specific component image signals.
  • the image processing apparatus includes: an imaging device that images a subject; and an image processing device that processes one or more image signals acquired from the imaging device to generate a color image signal.
  • the apparatus includes: a first specific component image signal with a first exposure amount for a specific color component; a second with a second exposure amount different from the first exposure amount for the specific color component.
  • a signal acquisition unit that acquires a specific component image signal and two non-specific component image signals respectively corresponding to two color components different from the specific color component; and the first specific component image signal and the first A specific component combined image signal generated by the combining unit; and a combining unit that generates a specific component combined image signal by combining the two specific component image signals with a weight corresponding to the strength of the specific color component;
  • obtaining the first specific component image signal with the first exposure amount for the specific color component is different from the first exposure amount for the specific color component.
  • Obtaining a second specific component image signal with a second exposure amount obtaining two non-specific component image signals respectively corresponding to two color components different from the specific color component, Generating a specific component composite image signal by combining the first specific component image signal and the second specific component image signal with a weight according to the strength of the specific color component; Generating a color image signal from the specific component composite image signal and the two non-specific component image signals.
  • the processor that controls the medical image processing apparatus may include a first specific component image signal with a first exposure amount for a specific color component, and the first specific component for the specific color component.
  • a second specific component image signal having a second exposure amount different from the exposure amount of the second color image, and two non-specific component image signals respectively corresponding to two color components different from the specific color component
  • a signal acquisition unit and a synthesis unit that generates a specific component composite image signal by combining the first specific component image signal and the second specific component image signal with a weight according to the strength of the specific color component
  • a color image generating unit that generates a color image signal from the specific component composite image signal generated by the combining unit and the two non-specific component image signals.
  • FIG. 3 is an explanatory diagram for schematically describing an image signal input to the signal acquisition unit illustrated in FIG. 2 and an image signal output from the signal acquisition unit. It is explanatory drawing for demonstrating the 1st method for acquiring the image signal with mutually different exposure amount. It is explanatory drawing for demonstrating the 2nd method for acquiring the image signal with mutually different exposure amount. It is explanatory drawing for demonstrating the 3rd method for acquiring the image signal with mutually different exposure amount.
  • FIG. 3 is a block diagram illustrating an example of a more detailed configuration of a color image generation unit illustrated in FIG. 2.
  • amendment for compression of a dynamic range is shown.
  • FIG. 1 shows an example of a schematic configuration of a medical image processing system 1 according to an embodiment.
  • the medical image processing system 1 is an endoscopic surgery system.
  • an operator (doctor) 3 performs an endoscopic operation on a patient 7 on a patient bed 5 using a medical image processing system 1.
  • the medical image processing system 1 includes an endoscope 10, other surgical tools 30, a support arm device 40 that supports the endoscope 10, and a cart on which various devices for endoscopic surgery are mounted. 50.
  • trocars In endoscopic surgery, instead of cutting and opening the abdominal wall, cylindrical opening devices 37a to 37d called trocars are punctured into the abdominal wall. Then, the barrel 11 of the endoscope 10 and other surgical tools 30 are inserted into the body cavity of the patient 7 from the trocars 37a to 37d.
  • an insufflation tube 31 As other surgical tools 30, an insufflation tube 31, an energy treatment tool 33, and forceps 35 are shown.
  • the energy treatment device 33 is used for treatment such as tissue incision or detachment or blood vessel sealing with high-frequency current or ultrasonic vibration.
  • the illustrated surgical tool 30 is merely an example, and other types of surgical tools (for example, a lever or a retractor) may be used.
  • the image in the body cavity of the patient 7 imaged by the endoscope 10 is displayed by the display device 53.
  • the surgeon 3 performs a treatment such as excision of the affected part, for example, using the energy treatment tool 33 and the forceps 35 while viewing the display image in real time.
  • the pneumoperitoneum tube 31, the energy treatment tool 33, and the forceps 35 are supported by a user such as the surgeon 3 or an assistant during the operation.
  • the support arm device 40 includes an arm portion 43 extending from the base portion 41.
  • the arm portion 43 includes joint portions 45 a, 45 b and 45 c and links 47 a and 47 b and supports the endoscope 10.
  • the arm unit 43 being driven according to the control from the arm control device 57, the position and posture of the endoscope 10 are controlled, and the stable position fixing of the endoscope 10 can also be realized.
  • the endoscope 10 includes a lens barrel 11 and a camera head 13 connected to the base end of the lens barrel 11. A part from the tip of the lens barrel 11 to a certain length is inserted into the body cavity of the patient 7.
  • the endoscope 10 is configured as a so-called rigid mirror having the rigid lens barrel 11, but the endoscope 10 may be configured as a so-called flexible mirror.
  • An opening into which an objective lens is fitted is provided at the tip of the lens barrel 11.
  • a light source device 55 is connected to the endoscope 10, and the light generated by the light source device 55 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11, and the objective lens Is irradiated toward the observation object in the body cavity of the patient 7.
  • the endoscope 10 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • the camera head 13 is an imaging device that includes an optical system, a drive system, and an image sensor.
  • the image sensor of the camera head 13 photoelectrically converts the reflected light (observation light) from the observation target collected by the optical system, and generates an image signal that is an electrical signal.
  • the generated image signal is transmitted to a camera control unit (CCU) 51 as RAW data.
  • the drive system of the camera head 13 adjusts imaging conditions such as magnification and focal length by driving the optical system in the head.
  • the camera head 13 may be configured as a monocular camera or may be configured as a compound eye camera.
  • the camera head 13 may generate an image signal for a stereoscopic (3D display) image.
  • the CCU 51 includes a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), and comprehensively controls the operations of the endoscope 10 and the display device 53. Specifically, the CCU 51 processes an image signal acquired from the camera head 13 to generate a display image. In one embodiment, the display image generated by the CCU 51 is a color image. A series of display images can constitute a moving image (video). Image processing executed in the CCU 51 includes processing unique to the technology according to the present disclosure, which will be described in detail later, in addition to general processing such as development and noise reduction.
  • the CCU 51 provides the display device 53 with an image signal representing the display image. Further, the CCU 51 transmits a control signal to the camera head 13 to control driving of the camera head 13.
  • the control signal can include, for example, information specifying the above-described imaging condition.
  • the display device 53 displays an image based on the input image signal according to the control from the CCU 51.
  • the endoscope 10 performs high-resolution imaging such as 4K (horizontal pixel number 3840 ⁇ vertical pixel number 2160) or 8K (horizontal pixel number 7680 ⁇ vertical pixel number 4320) and / or stereoscopic image imaging.
  • high-resolution imaging such as 4K (horizontal pixel number 3840 ⁇ vertical pixel number 2160) or 8K (horizontal pixel number 7680 ⁇ vertical pixel number 4320) and / or stereoscopic image imaging.
  • a device having a capability high resolution display and / or 3D display
  • the light source device 55 includes, for example, a light source corresponding to an LED, a xenon lamp, a laser light source, or a combination thereof, and supplies irradiation light to be irradiated toward an observation target to the endoscope 10 through a light guide.
  • the arm control device 57 has a processor such as a CPU, for example, and controls driving of the arm portion 43 of the support arm device 40 by operating according to a predetermined program.
  • the input device 59 includes one or more input interfaces that accept user input to the medical image processing system 1.
  • the user can input various information or various instructions to the medical image processing system 1 via the input device 59.
  • the user may input the patient's physical information, or specific color information or surgical information described later, via the input device 59.
  • the specific color information can directly indicate the specific color component that is the main color component of the observation target.
  • the surgical information indicates the surgical technique and may be associated with a specific color component.
  • the user instructs to drive the arm unit 43 via the input device 59, and instructs to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) in the endoscope 10; Alternatively, an instruction to drive the energy treatment device 33 is input.
  • the input device 59 may handle any type of user input.
  • the input device 59 may detect a physical user input via a mechanism such as a mouse, a keyboard, a switch (for example, a foot switch 69) or a lever.
  • the input device 59 may detect a touch input via a touch panel.
  • the input device 59 may be realized in the form of a wearable device such as a glasses-type device or an HMD (Head Mounted Display), and may detect a user's line of sight or gesture.
  • the input device 59 may include a microphone that can pick up a user's voice, and detect a voice command via the microphone.
  • the treatment instrument control device 61 controls driving of the energy treatment instrument 33 for treatment such as tissue cauterization or incision or blood vessel sealing.
  • the insufflation apparatus 63 is inserted into the body cavity via the insufflation tube 31. Gas is fed into.
  • the recorder 65 records various information (for example, one or more of physical information, specific color information, surgery information, image information, and measurement information from a vital sensor (not shown)) on the recording medium.
  • the printer 67 prints various information related to the operation in some form such as text, image, or graph.
  • the embodiment of the technology according to the present disclosure does not handle the dynamic range of a plurality of color components uniformly, but emphasizes a specific color component over other color components to expand or adjust the dynamic range. To do. As a result, it is possible to obtain an optimal display image in which the loss of gradation to be observed is reduced as much as possible.
  • Example of device configuration> Among the components of the medical image processing system 1 illustrated in FIG. 1, in particular, the camera head 13 that has the role of an imaging device and the CCU 51 that has the role of an image processing device are based on the image of the subject and the captured image. Mainly involved in the display of Therefore, in this section, specific configurations of these two devices will be described in detail.
  • the imaging device and the image processing device are configured separately and connected to each other through signal lines, but the technology according to the present disclosure is not limited to such an example.
  • the functions of the image processing apparatus described later may be implemented in a processor built in the imaging apparatus.
  • the imaging device may record the image signal on a recording medium, and the image processing device may process the image signal read from the recording medium (in this case, there is no signal line between these two devices). Good).
  • FIG. 2 shows an example of the configuration of the camera head 13 that is an imaging apparatus.
  • the camera head 13 includes an optical system 110, an image sensor 120, a communication unit 130, and a drive system 140.
  • the optical system 110 typically includes a pair of lenses (also referred to as a lens unit), and directs observation light (reflected light of irradiation light) from a subject captured from the tip of the lens barrel 11 toward the image sensor 120. Condensate.
  • the lens unit of the optical system 110 can include, for example, a zoom lens and a focus lens. The positions of the zoom lens and the focus lens can be changed by being driven by the drive system 140 in order to variably control the imaging conditions such as the magnification and the focus position.
  • the image sensor 120 photoelectrically converts the observation light collected by the optical system 110 to generate an image signal that is an electrical signal.
  • the image sensor 120 may be a three-plate sensor having separate image sensors that respectively generate image signals of three color components, or may be another type of image sensor such as a single-plate type or a two-plate type.
  • the image sensor of the image sensor 120 may be, for example, a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Device).
  • the image sensor 120 includes at least one specific color component image signal (hereinafter referred to as a specific component image signal) and two non-specific color component image signals (hereinafter referred to as non-specific component images). Signal). Then, the image sensor 120 outputs the generated image signals to the communication unit 130.
  • the communication unit 130 is a communication interface connected to the CCU 51 via a signal line.
  • the signal line between the communication unit 130 and the CCU 51 is a high-speed transmission line that enables bidirectional communication, such as an optical cable.
  • the communication unit 130 transmits the above-described image signal input from the image sensor 120 to the CCU 51. Further, when a control signal is received from the CCU 51, the communication unit 130 outputs the received control signal to the image sensor 120 or the drive system 140.
  • the drive system 140 has an actuator and a controller.
  • the actuator moves a movable member such as a zoom lens or a focus lens included in the optical system 110 according to control by a controller that interprets a control signal from the CCU 51.
  • the controller determines the operation of the actuator so as to realize imaging conditions such as a magnification and a focal length specified by the control signal.
  • the imaging conditions such as the magnification and focal length set in the drive system 140 or the frame rate set in the image sensor 120 are automatically adjusted in the camera head 13 without being controlled by the CCU 51, or It may be fixed in advance.
  • FIG. 2 also shows an example of the configuration of the CCU 51 that is an image processing apparatus.
  • the CCU 51 includes a signal acquisition unit 210, a synthesis unit 220, a color image generation unit 230, and a control unit 240.
  • the signal acquisition unit 210 may include a communication interface connected to the communication unit 130 of the camera head 13 described above via a signal line. In one embodiment, the signal acquisition unit 210 acquires a first specific component image signal that is an image signal with a first exposure amount for a specific color component. The signal acquisition unit 210 also acquires a second specific component image signal that is an image signal with a second exposure amount for the specific color component. The signal acquisition unit 210 may acquire both the first and second specific component image signals from the camera head 13. Instead, the signal acquisition unit 210 acquires one of the first and second specific component image signals from the camera head 13, and generates the other specific component image signal from the acquired one specific component image signal. Also good.
  • image signal with exposure amount E includes not only the image signal that is the result of actual imaging at the exposure amount E (mainly determined by the exposure time and aperture), It can also mean an image signal having a signal value equivalent to that virtually imaged with the exposure amount E through calculation of the signal value.
  • the signal acquisition unit 210 also acquires two non-specific component image signals that are image signals respectively corresponding to two color components different from the specific color component.
  • the signal acquisition unit 210 may perform ancillary processing such as resizing for adjusting the resolution or synchronization for adjusting the frame timing for the acquired image signals.
  • the signal acquisition unit 210 outputs the acquired first and second specific component image signals and the two non-specific component image signals to the synthesis unit 220.
  • the synthesizing unit 220 generates the specific component synthesized image signal by synthesizing the first and second specific component image signals input from the signal acquisition unit 210 with the synthesis weight according to the strength of the specific color component. .
  • the first and second specific component image signals are image signals with different exposure amounts E 1 and E 2 .
  • the second exposure amount E 2 is larger than the first exposure amount E 1 (E 2 > E 1 ).
  • the synthesizing unit 220 sets the synthesis weight W RS applied to the first specific component image signal to the synthesis weight W RL applied to the second specific component image signal in pixels having a strong specific color component. Set to a relatively high value. That is, by applying a higher weight to an image signal with a smaller exposure amount in a pixel with a strong specific color component, a loss of gradation (signal value saturation) in a high signal value region is also avoided or reduced.
  • the The combining unit 220 outputs a specific component combined image signal generated as a result of such combining to the color image generating unit 230. Further, the synthesis unit 220 outputs the two non-specific component image signals input from the signal acquisition unit 210 to the color image generation unit 230 as they are.
  • the color image generation unit 230 generates a color image signal from the specific component composite image signal input from the synthesis unit 220 and the two non-specific component image signals. For example, when the dynamic range of the input specific component composite image signal is larger than the dynamic range of the non-specific component image signal, the color image generation unit 230 may compress the dynamic range of the specific component composite image signal. In addition, the color image generation unit 230 may perform, for each image signal, a quality improvement process that may include one or more of noise reduction, white balance adjustment, blur correction, and higher resolution, for example. The color image generation unit 230 generates a color image signal by, for example, multiplexing the specific component composite image signal and the two non-specific component image signals that have undergone various image signal processes, and generates the generated color image signal. The data is output to the display device 53 or the recorder 65.
  • the color image generation unit 230 is configured to cancel the specific component composite image signal or the color component resulting from the synthesis of the first specific component image signal and the second specific component image signal in the synthesis unit 220.
  • Two non-specific component image signals may be adjusted.
  • the combination of the first specific component image signal with the exposure amount E 1 and the second specific component image signal with the exposure amount E 2 (E 2 > E 1 ) is viewed from the entire dynamic range. It works to shift the peak of the signal value downward. Therefore, for example, if the three color components of the observation light are at the same level (that is, white light), the signal level of the specific component composite image signal after the dynamic range is aligned is the signal level of the non-specific component image signal.
  • the color image generation unit 230 performs processing for canceling such undesirable color tone variations, thereby preventing the color tone of the display image from becoming unnatural.
  • An example of a more detailed configuration of the color image generation unit 230 will be further described later.
  • the control unit 240 receives user input detected by the input device 59 and setting information (stored by a storage unit (not shown)) so that an image as desired by the user (for example, the operator 3) is captured. Based on this, the operation of the endoscope 10 is controlled. Further, the control unit 240 controls image processing executed by the signal acquisition unit 210, the synthesis unit 220, and the color image generation unit 230 described above so that an appropriate image is displayed on the display device 53.
  • the control unit 240 may acquire setting information associated with the color component to be observed and set the specific color component according to the acquired setting information.
  • the setting information may be color component information that directly indicates the color component to be mainly observed.
  • the setting information may be surgery information, and the association between the surgery information and the color component to be observed may be defined in advance.
  • the control unit 240 makes the red (R) component a specific color component, and does not specify the green (G) component and the blue (B) component. Can be set to color components.
  • the control unit 240 can set the color component to be mainly observed in each technique as the specific color component.
  • an image signal of a color image is composed of an R component, a G component, and a B component will be mainly described.
  • an image signal includes other color components. It can also be applied to cases.
  • FIG. 3 is an explanatory diagram schematically illustrating the image signal input to the signal acquisition unit 210 illustrated in FIG. 2 and the image signal output from the signal acquisition unit 210.
  • FIG. 3 also shows an example of the configuration of the image sensor 120 of the camera head 13.
  • the image sensor 120 is a three-plate sensor, and includes an R component sensor 121, a G component sensor 123, and a B component sensor 125.
  • the signal acquisition unit 210 is supplied with at least one input specific component image signal I in_R generated by the R component sensor 121.
  • the input specific component image signal may include a first specific component image signal IRS with a first exposure amount and a second specific component image signal IRL with a second exposure amount.
  • the signal acquisition unit 210 may generate one or both of the first specific component image signal IRS and the second specific component image signal IRL from the input specific component image signal.
  • the signal acquisition unit 210 includes an input non-specific component (G component) image signal I in_G generated by the G component sensor 123 and an input non-specific component (B component) image generated by the B component sensor 125.
  • a signal I in_B is supplied.
  • the image sensor 120 is a single-plate sensor having a Bayer array
  • the signal acquisition unit 210 performs demosaicing on the image signal generated by the image sensor 120 before processing described below. It is possible to separate input image signals of three types of color components.
  • 4A to 4D are explanatory diagrams for explaining four exemplary methods for acquiring image signals with different exposure amounts.
  • the signal acquisition unit 210 generates a first specific component image signal generated through exposure at a first exposure time for a specific color component. And a second specific component image signal generated through exposure at a second exposure time for the specific color component.
  • the R component sensor 121 has a set of pixels having long exposure times (long-lived pixels) corresponding to the pixel positions hatched with diagonal lines and an exposure time corresponding to the pixel positions hatched with dots.
  • a set of short pixels (short pixels).
  • the input specific component image signal I in_R input to the signal acquisition unit 210 includes pixel values from a set of both of these pixels.
  • the signal acquisition unit 210 extracts only the signal values (RS 1a , RS 1b , RS 2a , RS 2a , etc.
  • the first specific component image signal I RS (RS 1 , RS 2 , RS 3 , RS 4 ,...) Is acquired.
  • the signal acquisition unit 210 extracts only the signal values of the long accumulation pixels (RL 1a , RL 1b , RL 2a , RL 2a , etc. From the input specific component image signal I in_R , and resizes as necessary.
  • All the pixels of the G component sensor 123 and the B component sensor 125 have a uniform exposure time, and the exposure time is the exposure time of the long accumulation pixel and the short accumulation pixel of the R component sensor 121. It may be equal to either.
  • the signal acquisition unit 210 performs resizing and averaging (for example, G value) so that the difference in resolution between the color components is eliminated.
  • 1 (G 1a + G 1b + G 1c + G 1d ) / 4)
  • the first non-specific component image signal IG is acquired.
  • Such resizing may reduce the resolution of the image somewhat, but since image sensors used in recent years have sufficiently high resolution, such a reduction in resolution does not affect the practicality of the image.
  • the pixel group having a long exposure time and the pixel group having a short exposure time are spatially alternately arranged in the R component sensor 121, but these pixel groups are arranged in another spatial pattern. May be.
  • the R component sensor 121 may perform exposure and imaging in two types of exposure times by a time division method. .
  • the pixel group of the R component sensor 121 is exposed for the first exposure time at the first timing, and is exposed for the second exposure time at the second timing.
  • the signal acquisition unit 210 acquires the first specific component image signal from the R component sensor 121 at the first timing, and acquires the second specific component image signal from the R component sensor 121 at the second timing. Can do.
  • the signal acquisition unit 210 generates a first specific component image signal from a pixel group that is exposed with a first exposure time for a specific color component. And the signal value of the adjacent pixel in the first specific component image signal is added to acquire the second specific component image signal.
  • all the pixels of the R component sensor 121, the G component sensor 123, and the B component sensor 125 may have a uniform exposure time.
  • the input specific component image signal I in_R input to the signal acquisition unit 210 is directly handled as the first specific component image signal I RS (R 1 , R 2 ,..., R K , R K + 1 ,). Further, the signal acquisition unit 210 uses the signal values S (R 2 , R 3 ,..., R K + 1 , R K + 2 ,...) Of adjacent pixel positions as the signal values at the respective pixel positions of the input specific component image signal I in_R.
  • the second specific component image signal I RL (R 1 ′, R 2 ′,..., R K ′, R K + 1 ′,...) Is acquired by adding.
  • the second specific component image signal I RL becomes an image signal with a pseudo exposure amount larger than that of the first specific component image signal I RS .
  • the signal acquisition unit 210 uses the first input non-specific component image signal I in_G and the second input non-specific component image signal I in_B as they are as the first non-specific component image signal I G. and the second may be treated as a non-specific component image signal I B. Instead, the signal acquisition unit 210 may generate a non-specific component image signal accompanied with a larger exposure amount by adding the signal values of adjacent pixels to the non-specific component image signal. .
  • the signal acquisition unit 210 performs the first operation at the first frame rate from the pixel group exposed for the first exposure time for the specific color component.
  • the second specific component image signal is acquired by adding the signal values of the first specific component image signal over a plurality of temporally continuous frames.
  • all the pixels of the R component sensor 121, the G component sensor 123, and the B component sensor 125 may have a uniform exposure time.
  • the input specific component image signal I in_R input to the signal acquisition unit 210 is directly handled as the first specific component image signal I RS (R 1 , R 2 ,..., R K , R K + 1 ,).
  • the second specific component image signal I RL (R 1 ′, R 2 ′,..., R K ′, R K + 1 ′,...) is acquired by adding the signal value of in_R for each common pixel position. .
  • the second specific component image signal I RL is an image signal with a larger exposure amount than the first specific component image signal I RS .
  • the signal acquisition unit 210 uses the first input non-specific component image signal I in_G and the second input non-specific component image signal I in_B as they are as the first non-specific component image signal I G. and the second may be treated as a non-specific component image signal I B. Instead, the signal acquisition unit 210 generates a non-specific component image signal with a larger exposure amount by adding signal values over a plurality of temporally continuous frames for the input non-specific component image signal. Also good.
  • the signal acquisition unit 210 receives a specific color component through a filter having the first transmittance, and the first transmittance.
  • a first specific component image signal and a second specific component image signal are acquired from an imaging device having a pixel group that receives a specific color component through a filter having a transmittance different from that of the first specific component image signal.
  • the input specific component image signal I in_RL based on the light that has passed through the filter 122 having a relatively high transmittance and the input based on the light that has passed through the filter 124 having a relatively low transmittance.
  • a specific component image signal I in_RS is shown.
  • all the pixels of the R component sensor 121, the G component sensor 123, and the B component sensor 125 may have a uniform exposure time.
  • the signal acquisition unit 210 uses the input specific component image signal I in_RS as the first specific component image signal I RS (RS 1 , RS 2 , RS 3 , RS 4 ,...) And the input specific component image signal I in_RL .
  • the pixels for the two input specific component image signals I in_RS and I in_RL may be mixed in the single R component sensor 121 as described with reference to FIG. It may be arranged. In the latter case, a filter 122 is attached to one sensor, and a filter 124 is attached to the other sensor.
  • the signal acquisition unit 210 treats the input specific component image signals I In_G based on light passed through the filter 126 as the first non-specific component image signal I G, the input specific component image signal based on the light that has passed through the filter 128 I in_B is treated as the second non-specific component image signal I B.
  • the transmittance of filters 126 and 128 may be equal to the (relatively low) transmittance of filter 124, or may be equal to the (relatively high) transmittance of filter 122, as shown in FIG. 4D. Good.
  • One of the filters 122 and 124 and the filters 126 and 128 may be omitted from the configuration of the image sensor 120.
  • the signal acquisition unit 210 has four types of image signals acquired by any of the methods described in this section, that is, the first specific component image signal I RS , the second specific component image signal I RL , and the first non-image signal. a specific component image signal I G and the second non-specific component image signal I B, and outputs to the combining unit 220.
  • FIG. 6 shows a graph depicting an example of the relationship between the signal value of the second specific component image signal IRL and the composite weight WRL .
  • the combining weight W RL is equal to 1.0.
  • the combining weight W RL is monotonically decreasing to zero from 1.0.
  • the combining weight W RL is equal to zero.
  • the second specific component image signal IRL contributes more to the composite image signal in an image region with a weak R component, which is a specific color component, whereas in an image region with a strong R component, , the first specific component image signal I RS contributes more to the combined image signal.
  • the synthesized image signal generated by the synthesizing unit 220 loss of R component gradation is avoided or reduced in both the low signal value region and the high signal value region.
  • the graph showing the relationship between the signal value and the composite weight is not limited to the example shown in FIG. 6, and any locus may be drawn as long as it has a tendency to decrease as the signal value increases.
  • Combining unit 220 a specific component combined image signal I R generated in this manner is output to the color image generating unit 230.
  • FIG. 7 shows an example of a more detailed configuration of the color image generation unit 230 shown in FIG.
  • the color image generation unit 230 includes a dynamic range (DR) correction unit 231, a color tone adjustment unit 233, and a multiplexing unit 236.
  • DR dynamic range
  • the second specific component image signal IRL of the four types of image signals acquired by the signal acquisition unit 210 includes other non-specific component image signals. It involves a larger amount of exposure than the image signal.
  • the dynamic range of a specific component combined image signal I R to be inputted to the color image generating section 230 may be greater than the two non-specific component image signals I dynamic range of G and I B. Therefore, DR correcting unit 231, the specific component combined image signal I R, as non-specific component image signal I G and dynamic range of the non-specific component image signal I B are equal to each other, the dynamic of a specific component combined image signal I R Compress the range.
  • DR correcting unit 2331 by multiplying the small correction factor than 1 in specific component combined image signal I R, may compress the dynamic range.
  • the DR correction unit 231 may linearly correct the signal value using a fixed correction factor corresponding to the ratio of the dynamic range width.
  • the DR correction unit 231 may execute nonlinear correction such as gamma correction.
  • FIG. 8 is a graph for explaining an example of nonlinear correction for compression of the dynamic range.
  • a correction factor curve 232a that can be utilized in correcting an input value from zero to 2.0 to an output value from zero to 1.0.
  • the correction factor curve 232a corresponds to a so-called hyper gamma curve.
  • DR correcting unit 231 by gamma correction specific component combined image signal I R with a correction factor to draw such a curve, while leaving the gradation in the high signal value region of the R component better, specific component dynamic range of the composite image signal I R can be compressed.
  • the correction factor curve 232b in FIG. 8 is a normal gamma curve that does not change the dynamic range between the input value and the output value.
  • DR correcting unit 231 may be gamma-corrected even nonspecific component image signal I G and I B according to the correction curve 232b.
  • DR correcting unit 231 instead of compressing the dynamic range of a specific component combined image signal I R, the dynamic range are equal to each other of the specific component combined image signal I R, as well as non-specific component image signal I G and I B as you may elongation dynamic range of non-specific component image signal I G and I B.
  • FIG. 9A is an explanatory diagram for describing an example of a variation in color tone resulting from the synthesis of two specific component image signals.
  • the horizontal axis of FIG. 9A represents the dynamic range of each color component from zero to the maximum value Xmax .
  • the vertical axis represents the frequency of the signal value.
  • a graph 234a represents a distribution of R component signal values
  • a graph 234b represents a distribution of G component signal values
  • a graph 234c represents a distribution of B component signal values. For example, assuming that the color tone of the observation light is close to white, when the two specific component image signals with different exposure amounts described above are synthesized only for the R component that is the specific color component, only the peak of the R component signal value is obtained.
  • Peak of the signal values of the G component and the B component is a non-specific color component is kept in the vicinity of the value X 1. If a color image is displayed without adjusting the color tone as it is, a subject close to white can be displayed as if it was colored with a complementary color of red.
  • the color tone adjustment unit 233 adjusts the image signal of at least one color component so as to cancel such variation in color tone.
  • the color tone adjuster 233 the tone curve to move the peak of the non-specific component image signal I G and I B in a direction to cancel the change of color tone, is applied to a non-specific component image signal I G and I B.
  • Figure 9B by applying a tone curve in a non-specific component image signal I G and I B, after canceling the variation of the color tone shows the distribution of the signal values of three color components.
  • a graph 235b represents a distribution of G component signal values
  • a graph 235c represents a distribution of B component signal values.
  • the peak of the signal values of three color components are all positioned in the vicinity of the signal value X 2.
  • the graph 234a is unchanged, i.e. the specific component combined image signal I R to be maintained, the gradation in the high signal value region of the R component is a specific color component to be observed is well integrity.
  • the color image generation unit 230 performs, for example, noise reduction, in order to improve the quality of individual color component images or color images at an arbitrary timing in the image signal processing described above.
  • a quality enhancement process that may include one or more of white balance adjustment, blur correction, and resolution enhancement may be performed.
  • FIG. 10 is a flowchart illustrating an example of the flow of image signal processing according to an embodiment.
  • the control unit 240 acquires setting information stored in advance, for example, and sets a specific color component according to the acquired setting information (step S110).
  • the signal acquisition unit 210 executes a signal acquisition process to generate one frame of a color image, the first specific component image signal, the second specific component image signal, and two non-specific images
  • a component image signal is acquired (step S120).
  • the first specific component image signal is accompanied by a first exposure amount for the specific color component.
  • the second specific component image signal is accompanied by a second exposure amount different from the first exposure amount for the specific color component.
  • the two non-specific component image signals are accompanied by the first exposure amount or the second exposure amount for each of the two non-specific color components.
  • the synthesis unit 220 synthesizes the first and second specific component image signals input from the signal acquisition unit 210 with a synthesis weight corresponding to the strength of the specific color component, thereby generating the specific component composite image signal. Is generated (step S160). Assuming that the second exposure amount is larger than the first exposure amount, typically, the combining unit 220 relatively sets the combination weight applied to the second specific component image signal in a pixel having a weak specific color component. The combination weight applied to the first specific component image signal is set to be relatively high for pixels having a high specific color component. Thereby, the reproducibility of the gradation for the specific color component is improved. Then, the synthesis unit 220 outputs the specific component composite image signal and the two non-specific component image signals to the color image generation unit 230.
  • the color image generation unit 230 executes a color image generation process to generate a color image signal from the specific component composite image signal and the two non-specific component image signals (step S170).
  • a color image generation process to generate a color image signal from the specific component composite image signal and the two non-specific component image signals (step S170).
  • An example of a more detailed flow of the color image generation process executed here will be further described later.
  • the color image signal generated by the color image generation unit 230 may be output to the display device 53 for displaying a color image, for example, or output to the recorder 65 for recording an image or a moving image. Also good.
  • Steps S120 to S170 described above are repeated until the end condition of the image signal processing is satisfied (step S190). For example, when a user input instructing the end of processing is detected via the input device 59, the above-described image signal processing ends.
  • FIG. 11A is a flowchart showing a first example of a more detailed flow of the signal acquisition process shown in FIG. The first example corresponds to the scenario described with reference to FIG. 4A.
  • the signal acquisition unit 210 a specific color component is exposed in the exposure time E 1 in the image sensor 120 X (e.g., X is R, 1 one of a G or B) from a pixel group
  • the first specific component image signal is acquired (step S121).
  • the signal acquisition part 210 averages a signal value for every block for N pixels of a 1st specific component image signal (step S122).
  • N 2, where N may be any integer.
  • the signal acquisition unit 210 the pixel groups of a specific color component X that has been exposed with an exposure time E 2 in the image sensor 120 acquires a second specific component image signal (step S125). And the signal acquisition part 210 averages a signal value for every block for N pixels of a 2nd specific component image signal (step S126).
  • FIG. 11B is a flowchart showing a second example of a more detailed flow of the signal acquisition process shown in FIG. The second example corresponds to the scenario described with reference to FIG. 4B.
  • the signal acquisition unit 210 the pixel groups of a specific color component X that has been exposed by the exposure time E 1 in the image sensor 120 acquires a first specific component image signal (step S131).
  • the signal acquisition unit 210, the non-specific color component Y is exposed by the exposure time E 1 in the image sensor 120, the pixel group of Z, to obtain the corresponding two non specific component image signal (step S133).
  • the signal acquisition unit 210 acquires a second specific component image signal by adding the signal values of adjacent pixels in the first specific component image signal (step S135).
  • FIG. 11C is a flowchart illustrating a third example of a more detailed flow of the signal acquisition process illustrated in FIG. 10.
  • the third example corresponds to the scenario described with reference to FIG. 4C.
  • the signal acquisition unit 210 acquires the first specific component image signal of the i-th frame for the specific color component X from the image sensor 120 (step S141).
  • the signal acquisition unit 210 acquires the two non-specific component image signals corresponding to the i-th frame for the non-specific color components Y and Z from the image sensor 120 (step S143).
  • the signal acquisition unit 210 acquires the first specific component image signal of the (i + 1) th frame for the specific color component X from the image sensor 120 (step S145).
  • the signal acquisition unit 210 acquires two non-specific component image signals corresponding to the i + 1-th frame for the non-specific color components Y and Z from the image sensor 120 (step S147).
  • the signal acquisition unit 210 adds the signal value of the first specific component image signal over the i-th and i + 1-th frames that are temporally continuous for each pixel, thereby obtaining a second color value for the specific color component X.
  • a specific component image signal is acquired (step S149).
  • FIG. 11D is a flowchart illustrating a fourth example of a more detailed flow of the signal acquisition process illustrated in FIG. 10.
  • the fourth example corresponds to the scenario described with reference to FIG. 4D.
  • the signal acquisition unit 210 acquires a first specific component image signal for the specific color component X, which is generated in the image sensor 120 through a filter with transmittance ⁇ 1 (step S151). ).
  • the signal acquisition unit 210 acquires two non-specific component image signals corresponding to the non-specific color components Y and Z generated by the image sensor 120 through the filter having the transmittance ⁇ 1 (step S153).
  • the signal acquisition unit 210 acquires a second specific component image signal for the specific color component X, which is generated in the image sensor 120 through a filter having a transmittance ⁇ 2 (for example, ⁇ 1 ⁇ 2 ). (Step S155).
  • FIG. 12 is a flowchart showing an example of a more detailed flow of the color image generation process shown in FIG.
  • the color image generation unit 230 compresses the dynamic range of the specific component composite image signal so that the dynamic ranges of the specific component composite image signal and the two non-specific component image signals are equal to each other. (Step S171).
  • the color image generating unit 230 sets a tone curve for moving the signal peak in the direction of canceling the tone variation so as to cancel the tone variation caused by the synthesis of two specific component image signals having different exposure amounts. This is applied to the two non-specific component image signals (step S173).
  • the color image generation unit 230 generates a color image signal from the specific component composite image signal after the color tone adjustment by the color tone adjustment unit 233 and the two non-specific component image signals (step S175).
  • the color image generation unit 230 performs any quality improvement such as noise reduction, white balance adjustment, blur correction, or higher resolution at any timing in the color image generation processing. Processing may be performed.
  • FIG. 13 shows a graph for explaining typical contrast sensitivity of human vision.
  • the horizontal axis of FIG. 13 is the spatial frequency of the texture that appears in the field of view.
  • the vertical axis represents the magnitude of contrast sensitivity normalized to a range from zero to one.
  • the graph G1 is an example of a CSF (Contrast Sensitivity Function) curve representing the human visual contrast sensitivity with respect to luminance.
  • Graph G2 is an example of a CSF curve in the red-green region.
  • Graph G3 is an example of a CSF curve in the yellow-blue region.
  • the peak of contrast sensitivity of a specific color component in human vision is significantly shifted to the lower band side than the peak of contrast sensitivity of luminance. Accordingly, when the same processing is performed only on a specific color component, compared with a case where HDR synthesis is performed on the three color components uniformly, for example, subjective image quality degradation (perceived by the user) For example, the reduction in resolution) may be smaller. From this point of view, the above-described embodiment for maintaining or enhancing the gradation particularly for the specific color component to be observed is advantageous as compared with the existing method that handles the three color components in common. is there.
  • the embodiments of the technology according to the present disclosure have been described in detail with reference to FIGS. 1 to 13.
  • the first specific component image signal with the first exposure amount for the specific color component and the second specific component image signal with the second exposure amount different from the first exposure amount are synthesized with a weight according to the strength of the specific color component, and a color image signal is generated based on the specific component composite image signal generated as a result of the combination and the two non-specific component image signals . Therefore, the dynamic range of a specific color component corresponding to a color component that strongly influences the gradation of the subject or a color component that is particularly significant among the gradation of the subject is appropriately adjusted, and the gradation to be observed is lost. Can be effectively reduced.
  • the color image is adjusted after the image signal is adjusted so as to cancel the color tone variation caused by the synthesis of the first specific component image signal and the second specific component image signal.
  • a signal can be generated. Therefore, it is possible to prevent an undesirable change in color tone due to adjustment of a signal specialized for a specific color component from appearing in a finally output color image.
  • a tone curve that moves the peaks of the non-specific component image signal can be applied to cancel the change in color tone. Therefore, for example, the gradation in the high signal value region of the specific color component can be well preserved while preventing undesirable color tone fluctuations.
  • the first specific component image signal is generated through exposure at a first exposure time or through a filter having a first transmittance
  • the second specific component image signal is , Through exposure at a second exposure time, or through a filter having a second transmittance.
  • the gradation of the specific color component can be maintained or enhanced without causing motion blur due to the movement of the subject in the specific component composite image signal and without sacrificing the resolution.
  • the first specific component image signal is acquired from a pixel group exposed at a first exposure time
  • the second specific component image signal is the first specific component image. It is generated by adding signal values of adjacent pixels in the image signal.
  • the second specific component image with a larger exposure amount than the first specific component image signal in a pseudo manner without requiring a special configuration or control for handling two exposure amounts in the imaging apparatus.
  • a signal can be acquired.
  • the specific color component can be set according to setting information that is dynamically acquired. Therefore, it is possible to dynamically set various color components such as red in normal surgery and specific colors in special light observation as specific color components. The range can be adjusted flexibly.
  • an example of an image processing system including a surgical endoscope has been mainly described.
  • the technology according to the present disclosure is not limited to such an example, and can be applied to other types of endoscopes such as a capsule endoscope, or other types of medical observation apparatuses such as a microscope.
  • the technology according to the present disclosure may be realized as an image processing module (for example, an image processing chip) or a camera module mounted on such a medical observation apparatus.
  • the image processing described in this specification may be realized using any of software, hardware, and a combination of software and hardware.
  • the program constituting the software is stored in advance in a storage medium (non-transitory medium) provided inside or outside each device.
  • Each program is read into a RAM (Random Access Memory) at the time of execution and executed by a processor such as a CPU.
  • a color image generation unit that generates a color image signal from the specific component composite image signal generated by the combination unit and the two non-specific component image signals;
  • a medical image processing apparatus comprising: (2) The color image generation unit is configured to output the specific component composite image signal or the two non-specific images so as to cancel a color tone variation caused by the combination of the first specific component image signal and the second specific component image signal.
  • the medical image processing apparatus which adjusts component image signals.
  • the color image generation unit adjusts the non-specific component image signal by applying to the non-specific component image signal a tone curve that moves a peak of the non-specific component image signal in a direction that cancels the variation in the color tone.
  • the medical image processing apparatus according to (2).
  • the signal acquisition unit generates the first specific component image signal generated through the exposure at the first exposure time for the specific color component, and the exposure at the second exposure time for the specific color component.
  • the medical image processing apparatus according to any one of (1) to (3), wherein the generated second specific component image signal is acquired.
  • the signal acquisition unit includes an imaging device including both a pixel group exposed for the first color exposure for the specific color component and a pixel group exposed for the second exposure time for the specific color component.
  • the signal acquisition unit is a pixel group for the specific color component, and is exposed at the first exposure time at a first timing and is exposed at the second exposure time at a second timing.
  • the medical image processing apparatus according to (4), wherein the first specific component image signal and the second specific component image signal are acquired from the pixel group.
  • the signal acquisition unit acquires the first specific component image signal from a pixel group that is exposed with the first exposure time for the specific color component, and adjacent pixels in the first specific component image signal 4.
  • the medical image processing apparatus according to any one of (1) to (3), wherein the second specific component image signal is acquired by adding the signal values of.
  • the signal acquisition unit acquires the first specific component image signal at a first frame rate from a pixel group exposed for the first exposure time for the specific color component, and a plurality of temporally continuous signals
  • the medical image processing according to any one of (1) to (3), wherein the second specific component image signal is acquired by adding signal values of the first specific component image signal over a plurality of frames. apparatus.
  • the signal acquisition unit receives a pixel group that receives the specific color component through a filter having a first transmittance, and receives the specific color component through a filter having a transmittance different from the first transmittance.
  • the medical image according to any one of (1) to (3), wherein the first specific component image signal and the second specific component image signal are obtained from an imaging apparatus having both pixel groups. Processing equipment.
  • the second exposure amount is greater than the first exposure amount,
  • the synthesizing unit applies a relatively high synthesis weight to the second specific component image signal in the pixel having a weak specific color component, and a relatively high synthesis weight in the pixel having a strong specific color component. Is applied to the first specific component image signal,
  • the medical image processing apparatus according to any one of (1) to (9).
  • the medical image processing apparatus according to any one of (1) to (10), wherein the specific color component is a red component.
  • a control unit that acquires setting information associated with a color component to be observed and sets the specific color component according to the acquired setting information;
  • the medical image processing apparatus according to any one of (1) to (10), further comprising: (13) An imaging device for imaging a subject; An image processing device that processes one or more image signals acquired from the imaging device to generate a color image signal;
  • the image processing apparatus includes: A first specific component image signal with a first exposure amount for a specific color component; a second specific component image with a second exposure amount different from the first exposure amount for the specific color component;
  • a signal acquisition unit for acquiring a signal and two non-specific component image signals respectively corresponding to two color components different from the specific color component;
  • a combining unit that generates a specific component composite image signal by combining the first specific component image signal and the second specific component image signal with a weight according to the strength of the specific color component;
  • a color image generation unit that generates
  • a medical image processing method comprising: (15) A processor for controlling the medical image processing apparatus; A first specific component image signal with a first exposure amount for a specific color component; a second specific component image with a second exposure amount different from the first exposure amount for the specific color component; A signal acquisition unit for acquiring a signal and two non-specific component image signals respectively corresponding to two color components different from the specific color component; A combining unit that generates a specific component composite image signal

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Endoscopes (AREA)

Abstract

【課題】医療上の作業において観察されるべき被写体の特定色成分の階調が欠損してしまうリスクを低減すること。 【解決手段】特定の色成分についての第1の露光量を伴う第1の特定成分画像信号、前記特定の色成分についての前記第1の露光量とは異なる第2の露光量を伴う第2の特定成分画像信号、及び、前記特定の色成分とは異なる2つの色成分にそれぞれ対応する2つの非特定成分画像信号、を取得する信号取得部と、前記第1の特定成分画像信号及び前記第2の特定成分画像信号を前記特定の色成分の強さに応じた重みで合成することにより特定成分合成画像信号を生成する合成部と、前記合成部により生成される前記特定成分合成画像信号及び前記2つの非特定成分画像信号からカラー画像信号を生成するカラー画像生成部と、を備える医療用画像処理装置を提供する。

Description

医療用画像処理装置、システム、方法及びプログラム
 本開示は、医療用画像処理装置、システム、方法及びプログラムに関する。
 近年、医療の場面において内視鏡又は顕微鏡といった医療用観察装置が広く利用されている。医療用観察装置は、被写体を光学的に観察可能とする装置に加えて、撮像部(カメラ)により撮像された被写体の画像を表示部に電子的に表示させる装置を含む。例えば、内視鏡下手術又は顕微鏡下手術(所謂、マイクロサージャリー)では、術者は、電子的に表示される画像を通じて患部又は手術器具を観察しながら、様々な作業を行う。カプセル内視鏡は、主に検査又は診断の目的で利用され、被検者の体内で、目的とされる器官を撮像する。
 上で例示したような医療上の作業のために撮像画像を表示する場合、表示される画像に被写体が可能な限り鮮明に映っていることが求められる。しかし、実際には、画素値のダイナミックレンジの制約に起因して、白とび又は黒つぶれと呼ばれる視覚情報の欠損が生じることが少なくない。特許文献1は、こうした白とび又は黒つぶれを防止して自然な画像を提供するために、視野へ向けて照射される照明光の配光分布のピーク位置を可変的に制御する仕組みを提案している。
特開2014-230708号公報
 しかしながら、白とび又は黒つぶれの防止を狙った既存の技術は、医療上の作業において観察される被写体の、色成分ごとの階調の偏りを考慮していない。例えば、生体の体内が観察される場合、被写体の階調には赤成分の大きさが強く影響し得る。また、特殊光観察(例えば、蛍光観察又は染色を用いた観察など)では、赤以外の特定色が被写体の階調の中で特に意味を持つこともある。これらケースにおいて、複数の色成分のダイナミックレンジを画一的に調整しようとすると、特定色成分のダイナミックレンジが結果的に最適にはならず、観察されるべき階調が欠損する事態が生じ得る。
 本開示に係る技術は、こうした既存の技術の欠点を解消し又は少なくとも軽減することを目的とする。
 本開示によれば、特定の色成分についての第1の露光量を伴う第1の特定成分画像信号、前記特定の色成分についての前記第1の露光量とは異なる第2の露光量を伴う第2の特定成分画像信号、及び、前記特定の色成分とは異なる2つの色成分にそれぞれ対応する2つの非特定成分画像信号、を取得する信号取得部と、前記第1の特定成分画像信号及び前記第2の特定成分画像信号を前記特定の色成分の強さに応じた重みで合成することにより特定成分合成画像信号を生成する合成部と、前記合成部により生成される前記特定成分合成画像信号及び前記2つの非特定成分画像信号からカラー画像信号を生成するカラー画像生成部と、を備える医療用画像処理装置が提供される。
 また、本開示によれば、被写体を撮像する撮像装置と、前記撮像装置から取得される1つ以上の画像信号を処理してカラー画像信号を生成する画像処理装置と、を含み、前記画像処理装置は、特定の色成分についての第1の露光量を伴う第1の特定成分画像信号、前記特定の色成分についての前記第1の露光量とは異なる第2の露光量を伴う第2の特定成分画像信号、及び、前記特定の色成分とは異なる2つの色成分にそれぞれ対応する2つの非特定成分画像信号、を取得する信号取得部と、前記第1の特定成分画像信号及び前記第2の特定成分画像信号を前記特定の色成分の強さに応じた重みで合成することにより特定成分合成画像信号を生成する合成部と、前記合成部により生成される前記特定成分合成画像信号及び前記2つの非特定成分画像信号からカラー画像信号を生成するカラー画像生成部と、を備える、医療用画像処理システムが提供される。
 また、本開示によれば、特定の色成分についての第1の露光量を伴う第1の特定成分画像信号を取得することと、前記特定の色成分についての前記第1の露光量とは異なる第2の露光量を伴う第2の特定成分画像信号を取得することと、前記特定の色成分とは異なる2つの色成分にそれぞれ対応する2つの非特定成分画像信号を取得することと、前記第1の特定成分画像信号及び前記第2の特定成分画像信号を前記特定の色成分の強さに応じた重みで合成することにより特定成分合成画像信号を生成することと、前記合成により生成される前記特定成分合成画像信号及び前記2つの非特定成分画像信号からカラー画像信号を生成することと、を含む医療用画像処理方法が提供される。
 また、本開示によれば、医療用画像処理装置を制御するプロセッサを、特定の色成分についての第1の露光量を伴う第1の特定成分画像信号、前記特定の色成分についての前記第1の露光量とは異なる第2の露光量を伴う第2の特定成分画像信号、及び、前記特定の色成分とは異なる2つの色成分にそれぞれ対応する2つの非特定成分画像信号、を取得する信号取得部と、前記第1の特定成分画像信号及び前記第2の特定成分画像信号を前記特定の色成分の強さに応じた重みで合成することにより特定成分合成画像信号を生成する合成部と、前記合成部により生成される前記特定成分合成画像信号及び前記2つの非特定成分画像信号からカラー画像信号を生成するカラー画像生成部と、として機能させるためのプログラムが提供される。
 本開示に係る技術によれば、医療上の作業において観察されるべき被写体の特定色成分の階調が欠損してしまうリスクを低減し、従来よりも鮮明な被写体の画像を提供することが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果と共に、又は上記の効果に代えて、本明細書に示されたいずれかの効果、又は本明細書から把握され得る他の効果が奏されてもよい。
一実施形態に係る医療用画像処理システムの概略的な構成について説明するための説明図である。 一実施形態に係る撮像装置(カメラヘッド)及び画像処理装置(CCU)の構成の一例を示すブロック図である。 図2に示した信号取得部へ入力される画像信号及び当該信号取得部から出力される画像信号について概略的に説明するための説明図である。 互いに異なる露光量を伴う画像信号を取得するための第1の手法について説明するための説明図である。 互いに異なる露光量を伴う画像信号を取得するための第2の手法について説明するための説明図である。 互いに異なる露光量を伴う画像信号を取得するための第3の手法について説明するための説明図である。 互いに異なる露光量を伴う画像信号を取得するための第4の手法について説明するための説明図である。 図2に示した合成部における信号の合成について説明するための説明図である。 特定成分画像信号の信号値と合成重みとの関係の一例を描いたグラフを示している。 図2に示したカラー画像生成部のより詳細な構成の一例を示すブロック図である。 ダイナミックレンジの圧縮のための非線型的な補正の一例について説明するためのグラフを示している。 2つの特定成分画像信号の合成に起因する色調の変動の一例について説明するための説明図である。 色調の変動を打ち消した後の3つの色成分の信号値の分布について説明するための説明図である。 一実施形態に係る画像信号処理の流れの一例を示すフローチャートである。 信号取得処理のより詳細な流れの第1の例を示すフローチャートである。 信号取得処理のより詳細な流れの第2の例を示すフローチャートである。 信号取得処理のより詳細な流れの第3の例を示すフローチャートである。 信号取得処理のより詳細な流れの第4の例を示すフローチャートである。 カラー画像生成処理のより詳細な流れの一例を示すフローチャートである。 人間の視覚の典型的なコントラスト感度について説明するためのグラフを示している。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、以下の順序で説明を行う。
 1.システムの概要
 2.装置の構成例
  2-1.撮像装置
  2-2.画像処理装置
 3.詳細な実施例
  3-1.画像信号の取得
  3-2.特定成分合成画像信号の生成
  3-3.カラー画像の生成
 4.処理の流れ
  4-1.全体的な流れ
  4-2.信号取得処理
  4-3.カラー画像生成処理
 5.人間の視覚のコントラスト感度
 6.まとめ
 <1.システムの概要>
 本節では、本開示に係る技術が適用され得る例示的なシステムの概要を説明する。図1は、一実施形態に係る医療用画像処理システム1の概略的な構成の一例を示している。医療用画像処理システム1は、内視鏡下手術システムである。図1の例では、術者(医師)3が、医療用画像処理システム1を用いて、患者ベッド5上の患者7に内視鏡下手術を行っている。医療用画像処理システム1は、内視鏡10と、その他の術具30と、内視鏡10を支持する支持アーム装置40と、内視鏡下手術のための様々な装置が搭載されたカート50と、から構成される。
 内視鏡下手術では、腹壁を切って開腹する代わりに、トロッカと呼ばれる筒状の開孔器具37a~37dが腹壁に複数穿刺される。そして、トロッカ37a~37dから、内視鏡10の鏡筒11、及びその他の術具30が、患者7の体腔内に挿入される。図1の例では、その他の術具30として、気腹チューブ31、エネルギー処置具33及び鉗子35が示されている。エネルギー処置具33は、高周波電流又は超音波振動での、組織の切開若しくは剥離又は血管の封止などの処置のために利用される。なお、図示した術具30は一例に過ぎず、他の種類の術具(例えば、攝子又はレトラクタなど)が利用されてもよい。
 内視鏡10によって撮像される患者7の体腔内の画像は、表示装置53により表示される。術者3は、表示画像をリアルタイムで見ながら、エネルギー処置具33及び鉗子35を用いて、例えば患部を切除するなどの処置を行う。なお、図示を省略しているが、気腹チューブ31、エネルギー処置具33及び鉗子35は、手術中に、術者3又は助手などのユーザによって支持される。
 支持アーム装置40は、ベース部41から延伸するアーム部43を備える。図1の例では、アーム部43は、関節部45a、45b及び45c、並びにリンク47a及び47bから構成され、内視鏡10を支持している。アーム部43がアーム制御装置57からの制御に従って駆動される結果として、内視鏡10の位置及び姿勢が制御され、内視鏡10の安定的な位置の固定もまた実現され得る。
 内視鏡10は、鏡筒11と、鏡筒11の基端に接続されるカメラヘッド13と、から構成される。鏡筒11の先端からある長さまでの一部分は、患者7の体腔内に挿入される。図1の例では、硬性の鏡筒11を有するいわゆる硬性鏡として内視鏡10が構成されているが、内視鏡10は、いわゆる軟性鏡として構成されてもよい。
 鏡筒11の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡10には光源装置55が接続されており、光源装置55によって生成された光が、鏡筒11の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者7の体腔内の観察対象に向かって照射される。なお、内視鏡10は、直視鏡であってもよく、又は斜視鏡若しくは側視鏡であってもよい。
 カメラヘッド13は、光学系と、駆動系と、イメージセンサとを内蔵する撮像装置である。カメラヘッド13のイメージセンサは、光学系により集光される観察対象からの反射光(観察光)を光電変換し、電気信号である画像信号を生成する。生成された画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)51へ送信される。カメラヘッド13の駆動系は、ヘッド内の光学系を駆動させることにより、倍率及び焦点距離といった撮像条件を調整する。カメラヘッド13は、単眼カメラとして構成されてもよく、又は複眼カメラとして構成されてもよい。カメラヘッド13は、立体視(3D表示)画像のための画像信号を生成してもよい。
 CCU51は、CPU(Central Processing Unit)又はGPU(Graphics Processing Unit)などのプロセッサを有し、内視鏡10及び表示装置53の動作を統括的に制御する。具体的には、CCU51は、カメラヘッド13から取得される画像信号を処理して、表示画像を生成する。一実施形態では、CCU51により生成される表示画像は、カラー画像である。一連の表示画像は、動画(映像)を構成し得る。CCU51において実行される画像処理は、例えば現像及びノイズ低減などの一般的な処理に加えて、後に詳細に説明する、本開示に係る技術に固有の処理を含む。CCU51は、表示画像を表現する画像信号を表示装置53に提供する。また、CCU51は、カメラヘッド13へ制御信号を送信し、カメラヘッド13の駆動を制御する。当該制御信号には、例えば上述した撮像条件を指定する情報が含まれ得る。
 表示装置53は、CCU51からの制御に従い、入力される画像信号に基づいて画像を表示する。内視鏡10が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)などの高解像度の撮像を行う場合、及び/又は立体視画像の撮像が行われる場合、表示装置53として、それぞれに対応するケイパビリティ(高解像度表示及び/又は3D表示)を有する装置が用いられ得る。
 光源装置55は、例えばLED、キセノンランプ、レーザ光源、又はこれらの組み合わせに相当する光源を含み、観察対象へ向けて照射されるべき照射光を、ライトガイドを通じて内視鏡10へ供給する。
 アーム制御装置57は、例えばCPUなどのプロセッサを有し、所定のプログラムに従って動作することにより支持アーム装置40のアーム部43の駆動を制御する。
 入力装置59は、医療用画像処理システム1へのユーザ入力を受け付ける1つ以上の入力インタフェースを含む。ユーザは、入力装置59を介して、医療用画像処理システム1へ様々な情報を入力し又は様々な指示を入力することができる。例えば、ユーザは、入力装置59を介して、患者の身体情報、又は後述する特定色情報若しくは手術情報を入力してもよい。特定色情報は、観察対象の主たる色成分である特定色成分を直接的に示し得る。手術情報は、手術の術式を示し、及び特定色成分に関連付けられ得る。また、例えば、ユーザは、入力装置59を介して、アーム部43を駆動させる旨の指示、内視鏡10における撮像条件(照射光の種類、倍率及び焦点距離など)を変更する旨の指示、又はエネルギー処置具33を駆動させる旨の指示などを入力する。
 入力装置59は、いかなる種類のユーザ入力を扱ってもよい。例えば、入力装置59は、マウス、キーボード、スイッチ(例えば、フットスイッチ69)又はレバーなどの機構を介して物理的なユーザ入力を検出してもよい。入力装置59は、タッチパネルを介してタッチ入力を検出してもよい。入力装置59は、メガネ型デバイス又はHMD(Head Mounted Display)といったウェアラブルデバイスの形態で実現され、ユーザの視線又はジェスチャを検出してもよい。また、入力装置59は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声コマンドを検出してもよい。
 処置具制御装置61は、組織の焼灼若しくは切開又は血管の封止などの処置のために、エネルギー処置具33の駆動を制御する。気腹装置63は、内視鏡10により観察される視野を確保し及び術者の作業空間を確保する目的で、患者7の体腔を膨らませるために、気腹チューブ31を介して当該体腔内にガスを送り込む。レコーダ65は、手術に関する様々な情報(例えば、身体情報、特定色情報、手術情報、画像情報及びバイタルセンサ(図示せず)からの測定情報のうちの1つ以上)を記録媒体へ記録する。プリンタ67は、手術に関する様々な情報を、テキスト、画像又はグラフなどの何らかの形式で印刷する。
 こうした医療用画像処理システム1では、通常、表示装置53により表示される画像に、観察対象の被写体が可能な限り鮮明に映っていることが求められる。被写体の階調の十分な再現性がもたらされることは、術者によるミスの無い処置又は正確な診断のために重要である。しかし、実際には、画像信号のダイナミックレンジが被写体の階調に適合しない結果として、白とび又は黒つぶれと呼ばれる視覚情報の欠損が生じることがある。白とび又は黒つぶれの防止を狙った技術は既にいくつか存在するものの、そうした既存の技術は、観察対象の被写体の色成分ごとの階調の偏りを考慮せず、ほとんどの場合、複数の色成分を画一的に扱う。しかし、医療上の作業のために生体の体内が観察される場合、血液及び組織の主要な色成分である赤成分の大きさが、被写体の階調に強く影響し得る。また、特殊光観察では、赤以外の特定色が、正確な診断等の目的のために、被写体の階調の中で特に意味を持つこともある。そこで、本開示に係る技術の実施形態は、複数の色成分のダイナミックレンジを画一的に扱うのではなく、特定色成分を他の色成分よりも重視してそのダイナミックレンジを拡張し又は調整する。それにより、観察されるべき階調の欠損を可能な限り低減した最適な表示画像を得ることが可能となる。
 <2.装置の構成例>
 図1に例示した医療用画像処理システム1の構成要素の中で、特に、撮像装置の役割を有するカメラヘッド13、及び画像処理装置の役割を有するCCU51が、被写体の撮像及び撮像画像に基づく画像の表示に主に関与する。そこで、本節では、これら2つの装置の具体的な構成について詳細に説明する。
 なお、医療用画像処理システム1では、これら撮像装置及び画像処理装置がそれぞれ別体に構成され互いに信号線で接続されるが、本開示に係る技術は、かかる例に限定されない。例えば、後に説明する画像処理装置の機能は、撮像装置に内蔵されるプロセッサに実装されてもよい。また、撮像装置が画像信号を記録媒体に記録し、画像処理装置がその記録媒体から読み出される画像信号を処理してもよい(この場合、これら2つの装置の間に信号線が存在しなくてよい)。
  [2-1.撮像装置]
 図2には、撮像装置であるカメラヘッド13の構成の一例が示されている。図2を参照すると、カメラヘッド13は、光学系110、イメージセンサ120、通信部130及び駆動系140を備える。
 光学系110は、典型的には一組のレンズ(レンズユニットともいう)を含み、鏡筒11の先端から取り込まれる被写体からの観察光(照射光の反射光)を、イメージセンサ120へ向けて集光する。光学系110のレンズユニットは、例えばズームレンズ及びフォーカスレンズを含み得る。ズームレンズ及びフォーカスレンズの位置は、倍率及び焦点位置といった撮像条件を可変的に制御するために、駆動系140により駆動されて変化し得る。
 イメージセンサ120は、光学系110により集光される観察光を光電変換し、電気信号である画像信号を生成する。イメージセンサ120は、3つの色成分の画像信号をそれぞれ生成する別個の撮像素子を有する3板式センサであってもよく、又は単板式若しくは2板式といった他のタイプのイメージセンサであってもよい。イメージセンサ120の撮像素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)又はCCD(Charge-Coupled Device)などであってよい。一実施形態において、イメージセンサ120は、フレームタイミングごとに、少なくとも1つの特定色成分の画像信号(以下、特定成分画像信号)と、2つの非特定色成分の画像信号(以下、非特定成分画像信号)を生成する。そして、イメージセンサ120は、生成したこれら画像信号を通信部130へ出力する。
 通信部130は、信号線を介してCCU51へ接続される通信インタフェースである。通信部130とCCU51との間の信号線は、例えば光ケーブルなどの、双方向の通信を可能とする高速の伝送線である。例えば、通信部130は、イメージセンサ120から入力される上述した画像信号をCCU51へ送信する。また、通信部130は、CCU51から制御信号が受信されると、受信された制御信号をイメージセンサ120又は駆動系140へ出力する。
 駆動系140は、アクチュエータとコントローラとを有する。アクチュエータは、光学系110に含まれるズームレンズ又はフォーカスレンズといった可動部材を、CCU51からの制御信号を解釈するコントローラによる制御に従って動かす。コントローラは、例えば、制御信号により指定される倍率及び焦点距離といった撮像条件を実現するように、アクチュエータの動作を決定する。なお、駆動系140へ設定される倍率及び焦点距離、又はイメージセンサ120へ設定されるフレームレートなどの撮像条件は、CCU51から制御されることなく、カメラヘッド13内で自動的に調整され、又は予め固定的に設定されてもよい。
  [2-2.画像処理装置]
 図2には、画像処理装置であるCCU51の構成の一例もまた示されている。図2を参照すると、CCU51は、信号取得部210、合成部220、カラー画像生成部230及び制御部240を備える。
 信号取得部210は、上述したカメラヘッド13の通信部130へ信号線を介して接続される通信インタフェースを含み得る。一実施形態において、信号取得部210は、特定色成分についての第1の露光量を伴う画像信号である、第1の特定成分画像信号を取得する。また、信号取得部210は、特定色成分についての第2の露光量を伴う画像信号である、第2の特定成分画像信号をも取得する。信号取得部210は、第1及び第2の特定成分画像信号の双方をカメラヘッド13から取得してもよい。その代わりに、信号取得部210は、第1及び第2の特定成分画像信号の一方をカメラヘッド13から取得し、取得した当該一方の特定成分画像信号から他方の特定成分画像信号を生成してもよい。本明細書において、「露光量Eを伴う画像信号」との表現は、(主に露光時間と絞りとにより決定される)露光量Eでの実際の撮像の結果である画像信号のみならず、信号値の演算を通じて仮想的に露光量Eで撮像されたのと同等の信号値を有することになる画像信号をも意味し得るものとする。例えば、露光量E/2でそれぞれ実際に撮像された2つの画像信号の信号値を加算することにより、仮想的に露光量E(=E/2+E/2)を伴う画像信号の信号値を導出することができる。
 さらに、信号取得部210は、上記特定色成分とは異なる2つの色成分にそれぞれ対応する画像信号である、2つの非特定成分画像信号をも取得する。信号取得部210は、取得されるこれら画像信号について、解像度を調整するためのリサイズ又はフレームタイミングを合わせるための同期などの、付随的な処理を行ってもよい。信号取得部210は、取得した第1及び第2の特定成分画像信号、並びに2つの非特定成分画像信号を、合成部220へ出力する。信号取得部210における信号取得処理のいくつかのより詳細な例について、後にさらに説明する。
 合成部220は、信号取得部210から入力される第1及び第2の特定成分画像信号を、特定色成分の強さに応じた合成重みで合成することにより、特定成分合成画像信号を生成する。上述したように、第1及び第2の特定成分画像信号は、互いに異なる露光量E,Eを伴う画像信号である。ここで、第2の露光量Eは、第1の露光量Eよりも多いものとする(E>E)。典型的には、合成部220は、特定色成分の弱い画素においては、第1の特定成分画像信号に適用される合成重みWRSを、第2の特定成分画像信号に適用される合成重みWRLよりも相対的に低い値に設定する。なお、WRS+WRL=1であるものとする。即ち、特定色成分の弱い画素において、より多くの露光量を伴う画像信号へより高い重みを適用することにより、低信号値領域の階調の欠損が回避され又は軽減される。同時に、合成部220は、特定色成分の強い画素においては、第1の特定成分画像信号に適用される合成重みWRSを、第2の特定成分画像信号に適用される合成重みWRLよりも相対的に高い値に設定する。即ち、特定色成分の強い画素において、より少ない露光量を伴う画像信号へより高い重みを適用することにより、高信号値領域の階調の欠損(信号値の飽和)もまた回避され又は軽減される。合成部220は、このような合成の結果として生成される特定成分合成画像信号を、カラー画像生成部230へ出力する。また、合成部220は、信号取得部210から入力される2つの非特定成分画像信号を、そのままカラー画像生成部230へ出力する。
 カラー画像生成部230は、合成部220から入力される特定成分合成画像信号、及び2つの非特定成分画像信号から、カラー画像信号を生成する。カラー画像生成部230は、例えば、入力される特定成分合成画像信号のダイナミックレンジが非特定成分画像信号のダイナミックレンジよりも大きい場合に、特定成分合成画像信号のダイナミックレンジを圧縮してもよい。また、カラー画像生成部230は、各画像信号について、例えばノイズ低減、ホワイトバランス調整、ボケ補正及び高解像度化のうちの1つ以上を含み得る高品質化処理を行ってもよい。カラー画像生成部230は、例えばこうした様々な画像信号処理を経た後の特定成分合成画像信号及び2つの非特定成分画像信号を多重化することによりカラー画像信号を生成し、生成したカラー画像信号を表示装置53又はレコーダ65へ出力する。
 一実施形態において、カラー画像生成部230は、合成部220における第1の特定成分画像信号及び第2の特定成分画像信号の合成に起因する色調の変動を打ち消すように、特定成分合成画像信号又は2つの非特定成分画像信号を調整してもよい。典型的には、露光量Eを伴う第1の特定成分画像信号と露光量E(E>E)を伴う第2の特定成分画像信号との合成は、ダイナミックレンジの全体から見ると信号値のピークを下方へずらすように作用する。そのため、例えば観察光の3つの色成分が同じレベルであったとすると(即ち、白色光)、ダイナミックレンジが揃えられた後の特定成分合成画像信号の信号レベルは、非特定成分画像信号の信号レベルよりも低い値を示すことになり、即ち生成される画像の色調が変動し得る。そこで、カラー画像生成部230は、こうした望ましくない色調の変動を打ち消す処理を行うことにより、表示画像の色調が不自然となることを防止する。カラー画像生成部230のより詳細な構成の例について、後にさらに説明する。
 制御部240は、ユーザ(例えば、術者3)が望む通りの画像が撮像されるように、入力装置59により検出されるユーザ入力と、(図示しない記憶部により記憶される)設定情報とに基づいて、内視鏡10の動作を制御する。また、制御部240は、表示装置53により適切な画像が表示されるように、上述した信号取得部210、合成部220及びカラー画像生成部230により実行される画像処理を制御する。
 一例として、制御部240は、観察対象の色成分に関連付けられる設定情報を取得し、取得した設定情報に応じて特定色成分を設定してもよい。例えば、設定情報は、主として観察されるべき色成分を直接的に示す色成分情報であってもよい。また、設定情報は、手術情報であってもよく、手術情報と観察対象の色成分との関連付けが予め定義されていてもよい。例えば、手術情報が示す術式が通常のタイプの手術を示す場合には、制御部240は、赤(R)成分を特定色成分に、緑(G)成分及び青(B)成分を非特定色成分に設定し得る。また、制御部240は、設定情報が示す術式が特殊光観察を要する手術を示す場合には、個々の術式において主として観察されるべき色成分を特定色成分に設定し得る。本明細書では、これ以降、カラー画像の画像信号がR成分、G成分及びB成分から構成される例を主に説明するが、本開示に係る技術は、画像信号が他の色成分を含むケースにも適用可能である。
 <3.詳細な実施例>
 本節では、上述したCCU51の各部の構成についてのより詳細な実施例を説明する。ここでは、説明のための例として、特定色成分は赤(R)成分であるものとする。しかしながら、特定色成分が他の色である場合にも、以下の説明は同等に適用可能であることに留意されたい。
  [3-1.画像信号の取得]
 図3は、図2に示した信号取得部210へ入力される画像信号、及び信号取得部210から出力される画像信号について概略的に説明するための説明図である。図3には、カメラヘッド13のイメージセンサ120の構成の一例も示されている。ここでは、イメージセンサ120は、3板式センサであり、R成分用センサ121、G成分用センサ123及びB成分用センサ125を含む。
 信号取得部210には、R成分用センサ121により生成される少なくとも1つの入力特定成分画像信号Iin_Rが供給される。例えば、入力特定成分画像信号は、第1の露光量を伴う第1の特定成分画像信号IRS及び第2の露光量を伴う第2の特定成分画像信号IRLを含んでもよい。その代わりに、信号取得部210は、入力特定成分画像信号から第1の特定成分画像信号IRS及び第2の特定成分画像信号IRLの一方又は双方を生成してもよい。さらに、信号取得部210には、G成分用センサ123により生成される入力非特定成分(G成分)画像信号Iin_G、及びB成分用センサ125により生成される入力非特定成分(B成分)画像信号Iin_Bが供給される。なお、イメージセンサ120がベイヤ配列を有する単板式センサである場合には、信号取得部210は、これ以降で説明される処理の前に、イメージセンサ120により生成される画像信号をデモザイクすることにより、3種類の色成分の入力画像信号を分離し得る。
 図4A~図4Dは、互いに異なる露光量を伴う画像信号を取得するための例示的な4つの手法についてそれぞれ説明するための説明図である。
   (1)第1の手法
 図4Aに示した第1の手法によれば、信号取得部210は、特定の色成分について第1の露光時間での露光を通じて生成される第1の特定成分画像信号、及び、特定の色成分について第2の露光時間での露光を通じて生成される第2の特定成分画像信号を取得する。
 より具体的には、R成分用センサ121は、斜線でハッチングされた画素位置に対応する露光時間の長い画素(長畜画素)の集合と、ドットでハッチングされた画素位置に対応する露光時間の短い画素(短畜画素)の集合とを有する。信号取得部210へ入力される入力特定成分画像信号Iin_Rは、これら双方の画素の集合からの画素値を含む。信号取得部210は、入力特定成分画像信号Iin_Rから、短蓄画素の信号値のみ(RS1a,RS1b,RS2a,RS2a,…)を抽出し、並びに必要に応じてリサイズ及び平均演算(例えば、RS=(RS1a+RS1b)/2)を実行することにより、第1の特定成分画像信号IRS(RS,RS,RS,RS,…)を取得する。同様に、信号取得部210は、入力特定成分画像信号Iin_Rから、長蓄画素の信号値のみ(RL1a,RL1b,RL2a,RL2a,…)を抽出し、並びに必要に応じてリサイズ及び平均演算(例えば、RL=(RL1a+RL1b)/2)を実行することにより、第2の特定成分画像信号IRL(RL,RL,RL,RL,…)を取得する。
 G成分用センサ123及びB成分用センサ125の全ての画素は、均一の露光時間を有し、その露光時間は、R成分用センサ121の長蓄画素の露光時間及び短蓄画素の露光時間のいずれと等しくてもよい。信号取得部210は、例えば、G成分用センサ123からの入力非特定成分画像信号Iin_Gの信号値について、色成分の間の解像度の相違が解消されるようにリサイズ及び平均演算(例えば、G=(G1a+G1b+G1c+G1d)/4)を実行することにより、第1の非特定成分画像信号Iを取得する。また、信号取得部210は、B成分用センサ125からの入力非特定成分画像信号Iin_Bの信号値について、同様にリサイズ及び平均演算(例えば、B=(B1a+B1b+B1c+B1d)/4)を実行することにより、第2の非特定成分画像信号Iを取得する。こうしたリサイズによって画像の解像度はいくらか減少し得るが、近年利用されているイメージセンサは十分に高い解像度を有するため、そうした解像度の減少は画像の実用性には影響しない。
 図4Aの例では、R成分用センサ121において露光時間の長い画素群及び露光時間の短い画素群が空間的に交互に配置されていたが、これら画素群は、他の空間的パターンで配置されてもよい。
 なお、2種類の露光時間で露光される画素群が空間的に分散される代わりに、R成分用センサ121において、時間分割方式で2種類の露光時間での露光及び撮像が行われてもよい。この場合、R成分用センサ121の画素群は、第1のタイミングにて第1の露光時間で露光され、及び第2のタイミングにて第2の露光時間で露光される。そして、信号取得部210は、第1のタイミングでR成分用センサ121から第1の特定成分画像信号を取得し、第2のタイミングでR成分用センサ121から第2の特定成分画像信号を取得し得る。
   (2)第2の手法
 図4Bに示した第2の手法によれば、信号取得部210は、特定の色成分について第1の露光時間で露光される画素群から第1の特定成分画像信号を取得し、及び、第1の特定成分画像信号における隣り合う画素の信号値を加算することにより、第2の特定成分画像信号を取得する。
 第2の手法では、R成分用センサ121、G成分用センサ123及びB成分用センサ125の全ての画素は、均一の露光時間を有していてよい。信号取得部210へ入力される入力特定成分画像信号Iin_Rは、そのまま第1の特定成分画像信号IRS(R,R,…,R,RK+1,…)として扱われる。また、信号取得部210は、入力特定成分画像信号Iin_Rの各画素位置の信号値に、隣接する画素位置の信号値(R,R,…,RK+1,RK+2,…)を加算することにより、第2の特定成分画像信号IRL(R´,R´,…,R´,RK+1´,…)を取得する。第2の特定成分画像信号IRLは、第1の特定成分画像信号IRSよりも多くの露光量を疑似的に伴う画像信号となる。
 信号取得部210は、図4Bに示したように、第1の入力非特定成分画像信号Iin_G及び第2の入力非特定成分画像信号Iin_Bを、そのまま第1の非特定成分画像信号I及び第2の非特定成分画像信号Iとして扱ってもよい。その代わりに、信号取得部210は、非特定成分画像信号についても隣り合う画素の信号値を加算することにより、より多くの露光量を疑似的に伴う非特定成分画像信号を生成してもよい。
   (3)第3の手法
 図4Cに示した第3の手法によれば、信号取得部210は、特定色成分について第1の露光時間で露光される画素群から第1のフレームレートで第1の特定成分画像信号を取得し、及び、時間的に連続する複数のフレームにわたる第1の特定成分画像信号の信号値の加算により、第2の特定成分画像信号を取得する。
 第3の手法においても、R成分用センサ121、G成分用センサ123及びB成分用センサ125の全ての画素は、均一の露光時間を有していてよい。信号取得部210へ入力される入力特定成分画像信号Iin_Rは、そのまま第1の特定成分画像信号IRS(R,R,…,R,RK+1,…)として扱われる。また、信号取得部210は、時刻T=tで取得される入力特定成分画像信号Iin_Rの信号値と、時刻T=t+dt(dtはフレームレートの逆数)で取得される入力特定成分画像信号Iin_Rの信号値とを共通する画素位置ごとに加算することにより、第2の特定成分画像信号IRL(R´,R´,…,R´,RK+1´,…)を取得する。第2の特定成分画像信号IRLは、実質的に第1の特定成分画像信号IRSよりも多くの露光量を伴う画像信号となる。
 なお、第2の特定成分画像信号IRLは、第1のフレームレートの半分に等しい第2のフレームレートで生成されてもよい(例えば、第1のフレームレートF=120[frames/sec]の場合、第2のフレームレートF=60[frames/sec])。その代わりに、例えばK番目及びK+1番目のフレームの加算の次にK+1番目及びK+2番目のフレームの加算をすることにより、第1のフレームレートに等しいレートで第2の特定成分画像信号IRLが取得されてもよい(即ち、F=F)。
 信号取得部210は、図4Cに示したように、第1の入力非特定成分画像信号Iin_G及び第2の入力非特定成分画像信号Iin_Bを、そのまま第1の非特定成分画像信号I及び第2の非特定成分画像信号Iとして扱ってもよい。その代わりに、信号取得部210は、入力非特定成分画像信号について時間的に連続する複数のフレームにわたる信号値を加算することにより、より多くの露光量を伴う非特定成分画像信号を生成してもよい。
   (4)第4の手法
 図4Dに示した第4の手法によれば、信号取得部210は、第1の透過率を有するフィルタを通じて特定色成分を受光する画素群と、第1の透過率とは異なる透過率を有するフィルタを通じて特定の色成分を受光する画素群とを有する撮像装置から、第1の特定成分画像信号及び第2の特定成分画像信号を取得する。
 図4Dの例では、R成分について、相対的に透過率の高いフィルタ122を通過した光に基づく入力特定成分画像信号Iin_RLと、相対的に透過率の低いフィルタ124を通過した光に基づく入力特定成分画像信号Iin_RSとが示されている。第4の手法においても、R成分用センサ121、G成分用センサ123及びB成分用センサ125の全ての画素は、均一の露光時間を有していてよい。信号取得部210は、例えば、入力特定成分画像信号Iin_RSを第1の特定成分画像信号IRS(RS,RS,RS,RS,…)として、入力特定成分画像信号Iin_RLを第2の特定成分画像信号IRL(RL,RL,RL,RL,…)として扱う。なお、2つの入力特定成分画像信号Iin_RS及びIin_RLのための画素は、図4Aを用いて説明したように単一のR成分用センサ121に混在してもよく、又は別個のセンサにそれぞれ配置されてもよい。後者の場合には、一方のセンサにフィルタ122が付設され、他方のセンサにフィルタ124が付設される。
 さらに、信号取得部210は、フィルタ126を通過した光に基づく入力特定成分画像信号Iin_Gを第1の非特定成分画像信号Iとして扱い、フィルタ128を通過した光に基づく入力特定成分画像信号Iin_Bを第2の非特定成分画像信号Iとして扱う。フィルタ126及び128の透過率は、図4Dに示したように、フィルタ124の(相対的に低い)透過率に等しくてもよく、又はフィルタ122の(相対的に高い)透過率に等しくてもよい。また、フィルタ122及び124のうちの一方と、フィルタ126及び128とがイメージセンサ120の構成から省略されてもよい。
 信号取得部210は、本項で説明したいずれかの手法で取得される4種類の画像信号、即ち第1の特定成分画像信号IRS、第2の特定成分画像信号IRL、第1の非特定成分画像信号I及び第2の非特定成分画像信号Iを、合成部220へ出力する。
  [3-2.特定成分合成画像信号の生成]
 次に、図5及び図6を用いて、合成部220における信号の合成についてあらためて説明する。図5の上段において左から現れる矢印は第1の特定成分画像信号IRSを、下段において左から現れる矢印は第2の特定成分画像信号IRLを表現している。合成部220は、第1の特定成分画像信号IRSに合成重みWRSを、第2の特定成分画像信号IRLに合成重みWRLを適用する。合成重みWRSと合成重みWRLとの和は1に等しく、合成重みWRS及びWRLは共にゼロ以上1以下の実数である。合成重みWRS及びWRLの値は可変的であり、合成部220はこれら重みの値を、画素ごとに、特定成分画像信号の信号値(即ち、特定色成分の強さ)に依存して決定する。
 図6は、第2の特定成分画像信号IRLの信号値と合成重みWRLとの関係の一例を描いたグラフを示している。図6のグラフ221によれば、特定成分画像信号の信号値が閾値THを下回る区間では、合成重みWRLは1.0に等しい。特定成分画像信号の信号値が閾値TH以上かつ閾値TH以下である区間では、合成重みWRLは1.0からゼロへと単調減少する。特定成分画像信号の信号値が閾値THを上回る(最大値RLmaxまでの)区間では、合成重みWRLはゼロに等しい。このように合成重みが決定される場合、特定色成分であるR成分の弱い画像領域では、第2の特定成分画像信号IRLが合成画像信号により多く寄与する一方、R成分の強い画像領域では、第1の特定成分画像信号IRSが合成画像信号により多く寄与する。その結果、合成部220により生成される合成画像信号において、低信号値領域でも高信号値領域でも、R成分の階調の欠損が回避され又は軽減される。なお、信号値と合成重みとの関係を示すグラフは、図6に示した例に限定されず、信号値の増加に伴って減少する傾向を有する限りいかなる軌跡を描いてもよい。
 合成部220は、このように生成される特定成分合成画像信号Iを、カラー画像生成部230へ出力する。
  [3-3.カラー画像の生成]
 図7は、図2に示したカラー画像生成部230のより詳細な構成の一例を示している。図7を参照すると、カラー画像生成部230は、ダイナミックレンジ(DR)補正部231、色調調整部233及び多重化部236を有する。
   (1)ダイナミックレンジの補正
 ある実施例によれば、信号取得部210により取得される4種類の画像信号のうち第2の特定成分画像信号IRLのみが、非特定成分画像信号を含む他の画像信号よりも多くの露光量を伴う。この場合、カラー画像生成部230へ入力される特定成分合成画像信号Iのダイナミックレンジは、2つの非特定成分画像信号I及びIのダイナミックレンジよりも大きくなり得る。そこで、DR補正部231は、特定成分合成画像信号I、非特定成分画像信号I及び非特定成分画像信号Iのダイナミックレンジが互いに等しくなるように、特定成分合成画像信号Iのダイナミックレンジを圧縮する。より具体的には、DR補正部231は、1よりも小さい補正率を特定成分合成画像信号Iに乗算することにより、そのダイナミックレンジを圧縮し得る。例えば、DR補正部231は、ダイナミックレンジの幅の比に相当する固定的な補正率を用いて、信号値を線型的に補正してもよい。その代わりに、DR補正部231は、ガンマ補正などの非線型的な補正を実行してもよい。
 図8は、ダイナミックレンジの圧縮のための非線型的な補正の一例について説明するためのグラフを示している。図8を参照すると、ゼロから2.0までの入力値をゼロから1.0までの出力値へと補正する際に利用され得る補正率曲線232aが示されている。補正率曲線232aは、いわゆるハイパーガンマ曲線に相当する。DR補正部231は、このような曲線を描く補正率を用いて特定成分合成画像信号Iをガンマ補正することにより、R成分の高信号値領域における階調をより良好に残しながら、特定成分合成画像信号Iのダイナミックレンジを圧縮することができる。一方、図8の補正率曲線232bは、入力値と出力値との間でダイナミックレンジを変化させない、通常のガンマ曲線である。DR補正部231は、補正率曲線232bに従って非特定成分画像信号I及びIをもガンマ補正してもよい。
 なお、DR補正部231は、特定成分合成画像信号Iのダイナミックレンジを圧縮する代わりに、特定成分合成画像信号I、並びに非特定成分画像信号I及びIのダイナミックレンジが互いに等しくなるように、非特定成分画像信号I及びIのダイナミックレンジを伸長してもよい。
   (2)色調の調整
 既に述べたように、合成部220における互いに異なる露光量を伴う2つの特定成分画像信号の合成は、より多くの露光量を伴う画像信号のダイナミックレンジの全体から見ると、信号値のピークを下方へずらすように作用する。そして、特定色成分の信号値のみが押し下げられた場合、最終的に得られるはずのカラー画像の色調が意図に反して変動し得る。
 図9Aは、2つの特定成分画像信号の合成に起因する色調の変動の一例について説明するための説明図である。図9Aの横軸は、各色成分の、ゼロから最大値Xmaxまでのダイナミックレンジを表す。縦軸は、信号値の度数を表す。グラフ234aはR成分の信号値の分布、グラフ234bはG成分の信号値の分布、グラフ234cはB成分の信号値の分布をそれぞれ表す。例えば、観察光の色調が白色に近かったとして、特定色成分であるR成分についてのみ、上述した異なる露光量を伴う2つの特定成分画像信号を合成すると、R成分の信号値のピークのみが、例えば値Xから値Xへと押し下げられる。非特定色成分であるG成分及びB成分の信号値のピークは、値X付近のまま維持される。このまま色調を調整することなくカラー画像を表示させると、白色に近かった被写体は、赤の補色で着色されたように表示され得る。
 そこで、色調調整部233は、こうした色調の変動を打ち消すように、少なくとも1つの色成分の画像信号を調整する。一例として、色調調整部233は、色調の変動を打ち消す方向に非特定成分画像信号I及びIのピークを移動させるトーンカーブを、非特定成分画像信号I及びIに適用する。
 図9Bは、トーンカーブを非特定成分画像信号I及びIに適用することにより、色調の変動を打ち消した後の、3つの色成分の信号値の分布を示している。グラフ235bはG成分の信号値の分布、グラフ235cはB成分の信号値の分布をそれぞれ表す。図9Bから理解されるように、トーンカーブの適用後に、3つの色成分の信号値のピークは全て、信号値X付近に位置している。このように調整された画像信号に基づいてカラー画像を表示させると、白色に近かった被写体は、画面上でも白色に近い色で表示される。また、グラフ234aは不変であり、即ち特定成分合成画像信号Iは維持されるため、観察されるべき特定色成分であるR成分の高信号値領域における階調は良好に保全される。
   (3)多重化
 多重化部236は、色調調整部233による色調調整後の特定成分合成画像信号I並びに2つの非特定成分画像信号I及びIを多重化することによりカラー画像信号Ioutを生成し、生成したカラー画像信号Ioutを表示装置53又はレコーダ65へ出力する。
 図7には示していないものの、カラー画像生成部230は、上述した画像信号処理のうちの任意のタイミングで、個々の色成分の画像又はカラー画像の品質を向上させるために、例えばノイズ低減、ホワイトバランス調整、ボケ補正及び高解像度化のうちの1つ以上を含み得る高品質化処理を行ってもよい。
 <4.処理の流れ>
 本節では、上述した実施形態においてCCU51により実行され得る処理の流れの例を、いくつかのフローチャートを用いて説明する。なお、フローチャートに複数の処理ステップが記述されるが、それら処理ステップは、必ずしもフローチャートに示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
  [4-1.全体的な流れ]
 図10は、一実施形態に係る画像信号処理の流れの一例を示すフローチャートである。図10を参照すると、まず、制御部240は、例えば予め記憶される設定情報を取得し、取得した設定情報に応じて特定色成分を設定する(ステップS110)。
 次に、信号取得部210は、信号取得処理を実行して、カラー画像の1フレームを生成するために要する、第1の特定成分画像信号、第2の特定成分画像信号、及び2つの非特定成分画像信号を取得する(ステップS120)。第1の特定成分画像信号は、特定色成分について第1の露光量を伴う。第2の特定成分画像信号は、特定色成分について上記第1の露光量とは異なる第2の露光量を伴う。2つの非特定成分画像信号は、2つの非特定色成分それぞれについて、第1の露光量又は第2の露光量を伴う。ここで実行される信号取得処理のいくつかのより詳細な流れの例を、後にさらに説明する。信号取得部210は、取得したこれら画像信号を、合成部220へ出力する。
 次に、合成部220は、信号取得部210から入力される第1及び第2の特定成分画像信号を、特定色成分の強さに応じた合成重みで合成することにより、特定成分合成画像信号を生成する(ステップS160)。第2の露光量が第1の露光量よりも多いものとして、典型的には、合成部220は、特定色成分の弱い画素において第2の特定成分画像信号に適用される合成重みを相対的に高く、特定色成分の強い画素において第1の特定成分画像信号に適用される合成重みを相対的に高く設定する。それにより、特定色成分についての階調の再現性が高められる。そして、合成部220は、特定成分合成画像信号、及び2つの非特定成分画像信号をカラー画像生成部230へ出力する。
 次に、カラー画像生成部230は、カラー画像生成処理を実行して、特定成分合成画像信号及び2つの非特定成分画像信号からカラー画像信号を生成する(ステップS170)。ここで実行されるカラー画像生成処理のより詳細な流れの例を、後にさらに説明する。カラー画像生成部230により生成されたカラー画像信号は、例えば、カラー画像の表示のために表示装置53へと出力されてもよく、又は画像若しくは動画の記録のためにレコーダ65へと出力されてもよい。
 上述したステップS120~ステップS170は、画像信号処理の終了条件が満たされるまで繰り返される(ステップS190)。例えば、処理の終了を指示するユーザ入力が入力装置59を介して検出されると、上述した画像信号処理は終了する。
  [4-2.信号取得処理]
   (1)第1の例
 図11Aは、図10に示した信号取得処理のより詳細な流れの第1の例を示すフローチャートである。第1の例は、図4Aを用いて説明したシナリオに対応する。
 図11Aを参照すると、まず、信号取得部210は、イメージセンサ120において露光時間Eで露光された特定色成分X(例えば、XはR、G又はBのうちの1つ)の画素群から、第1の特定成分画像信号を取得する(ステップS121)。そして、信号取得部210は、第1の特定成分画像信号のN画素分のブロックごとに、信号値を平均する(ステップS122)。図4Aの例によればN=2であり、但しNは任意の整数であってよい。
 また、信号取得部210は、イメージセンサ120において露光時間Eで露光された非特定色成分Y、Z(例えば、Y及びZは、R、G又はBのうちの残りの2つ)の画素群から、対応する2つの非特定成分画像信号を取得する(ステップS123)。そして、信号取得部210は、各非特定成分画像信号について、M画素分のブロックごとに信号値を平均する(ステップS124)。図4Aの例によればM=4であり、但しMは任意の整数であってよい。
 次に、信号取得部210は、イメージセンサ120において露光時間Eで露光された特定色成分Xの画素群から、第2の特定成分画像信号を取得する(ステップS125)。そして、信号取得部210は、第2の特定成分画像信号のN画素分のブロックごとに、信号値を平均する(ステップS126)。
   (2)第2の例
 図11Bは、図10に示した信号取得処理のより詳細な流れの第2の例を示すフローチャートである。第2の例は、図4Bを用いて説明したシナリオに対応する。
 図11Bを参照すると、まず、信号取得部210は、イメージセンサ120において露光時間Eで露光された特定色成分Xの画素群から、第1の特定成分画像信号を取得する(ステップS131)。
 また、信号取得部210は、イメージセンサ120において露光時間Eで露光された非特定色成分Y、Zの画素群から、対応する2つの非特定成分画像信号を取得する(ステップS133)。
 次に、信号取得部210は、第1の特定成分画像信号における隣り合う画素の信号値を加算することにより、第2の特定成分画像信号を取得する(ステップS135)。
   (3)第3の例
 図11Cは、図10に示した信号取得処理のより詳細な流れの第3の例を示すフローチャートである。第3の例は、図4Cを用いて説明したシナリオに対応する。
 図11Cを参照すると、まず、信号取得部210は、イメージセンサ120から、特定色成分Xについてのi番目のフレームの第1の特定成分画像信号を取得する(ステップS141)。
 また、信号取得部210は、イメージセンサ120から、非特定色成分Y、Zについてのi番目のフレームの対応する2つの非特定成分画像信号を取得する(ステップS143)。
 次に、信号取得部210は、イメージセンサ120から、特定色成分Xについてのi+1番目のフレームの第1の特定成分画像信号を取得する(ステップS145)。
 また、信号取得部210は、イメージセンサ120から、非特定色成分Y、Zについてのi+1番目のフレームの対応する2つの非特定成分画像信号を取得する(ステップS147)。
 次に、信号取得部210は、時間的に連続するi番目及びi+1番目のフレームにわたる第1の特定成分画像信号の信号値を画素ごとに加算することにより、特定色成分Xについての第2の特定成分画像信号を取得する(ステップS149)。
   (4)第4の例
 図11Dは、図10に示した信号取得処理のより詳細な流れの第4の例を示すフローチャートである。第4の例は、図4Dを用いて説明したシナリオに対応する。
 図11Dを参照すると、まず、信号取得部210は、イメージセンサ120において透過率αのフィルタを介して生成された、特定色成分Xについての第1の特定成分画像信号を取得する(ステップS151)。
 また、信号取得部210は、イメージセンサ120において透過率αのフィルタを介して生成された、非特定色成分Y、Zに対応する2つの非特定成分画像信号を取得する(ステップS153)。
 また、信号取得部210は、イメージセンサ120において透過率α(例えば、α<α)のフィルタを介して生成された、特定色成分Xについての第2の特定成分画像信号を取得する(ステップS155)。
  [4-3.カラー画像生成処理]
 図12は、図10に示したカラー画像生成処理のより詳細な流れの一例を示すフローチャートである。
 図12を参照すると、まず、カラー画像生成部230は、特定成分合成画像信号、及び2つの非特定成分画像信号のダイナミックレンジが互いに等しくなるように、特定成分合成画像信号のダイナミックレンジを圧縮する(ステップS171)。
 次に、カラー画像生成部230は、露光量の異なる2つの特定成分画像信号の合成に起因する色調の変動を打ち消すように、色調の変動を打ち消す方向に信号のピークを移動させるトーンカーブを2つの非特定成分画像信号に適用する(ステップS173)。
 そして、カラー画像生成部230は、色調調整部233による色調調整後の特定成分合成画像信号、及び2つの非特定成分画像信号から、カラー画像信号を生成する(ステップS175)。
 なお、図12には示していないものの、カラー画像生成部230は、カラー画像生成処理の中の任意のタイミングで、例えばノイズ低減、ホワイトバランス調整、ボケ補正又は高解像度化といった、何らかの高品質化処理を行ってよい。
 <5.人間の視覚のコントラスト感度>
 図13は、人間の視覚の典型的なコントラスト感度について説明するためのグラフを示している。図13の横軸は、視野に現れるテキスチャの空間周波数である。縦軸は、ゼロから1までの範囲に正規化された、コントラスト感度の大きさである。グラフG1は、輝度についての人間の視覚のコントラスト感度を表すCSF(Contrast Sensitivity Function)曲線の一例である。グラフG2は、赤-緑領域におけるCSF曲線の一例である。グラフG3は、黄-青領域におけるCSF曲線の一例である。図13から理解されることとして、人間の視覚の、特定色成分のコントラスト感度のピークは、輝度のコントラスト感度のピークよりも低帯域側に有意にズレている。従って、3つの色成分について画一的に例えばHDR合成をした場合と比較して、特定の色成分に限って同様の処理をした場合には、ユーザにより感知される主観的な画質の劣化(例えば、解像感の低下)はより小さくて済む。こうした観点からも、観察されるべき特定色成分を特に対象として階調を維持し又は強調しようとする上述した実施形態は、3つの色成分を共通的に扱う既存の手法と比較して有利である。
 <6.まとめ>
 ここまで、図1~図13を用いて本開示に係る技術の実施形態について詳しく説明した。上述した実施形態によれば、特定色成分についての第1の露光量を伴う第1の特定成分画像信号及び第1の露光量とは異なる第2の露光量を伴う第2の特定成分画像信号が、特定色成分の強さに応じた重みで合成され、当該合成の結果として生成される特定成分合成画像信号と、2つの非特定成分画像信号とに基づいて、カラー画像信号が生成される。従って、被写体の階調に強く影響する色成分又は被写体の階調の中で特に意味を持つ色成分に相当する特定色成分のダイナミックレンジを適切に調整し、観察されるべき階調が欠損してしまうリスクを効果的に低減することができる。
 また、上述した実施形態によれば、上記第1の特定成分画像信号及び上記第2の特定成分画像信号の合成に起因する色調の変動を打ち消すように画像信号が調整された後に、上記カラー画像信号が生成され得る。従って、特定色成分に特化した信号の調整に起因する望ましくない色調の変動が最終的に出力されるカラー画像に現れることを防止することができる。
 また、上述した実施形態によれば、色調の上記変動を打ち消すために、上記非特定成分画像信号にそれらのピークを移動させるトーンカーブが適用され得る。従って、望ましくない色調の変動を防止しながら、例えば特定色成分の高信号値領域における階調を良好に保全することができる。
 また、ある実施例によれば、上記第1の特定成分画像信号は、第1の露光時間での露光を通じて又は第1の透過率を有するフィルタを通じて生成され、上記第2の特定成分画像信号は、第2の露光時間での露光を通じて又は第2の透過率を有するフィルタを通じて生成され得る。この場合、被写体の動きに起因する動きボケを特定成分合成画像信号において生じさせることなく、かつ解像感を犠牲にすることなく、特定色成分の階調を維持し又は強調することができる。
 また、ある実施例によれば、上記第1の特定成分画像信号は、第1の露光時間で露光される画素群から取得され、上記第2の特定成分画像信号は、上記第1の特定成分画像信号における隣り合う画素の信号値を加算することにより生成される。この場合、撮像装置において2通りの露光量を扱うための特別な構成又は制御を要することなく、疑似的に上記第1の特定成分画像信号よりも多くの露光量を伴う第2の特定成分画像信号を取得することができる。
 また、ある実施例によれば、上記特定色成分は、動的に取得される設定情報に応じて設定され得る。従って、通常の手術における赤色及び特殊光観察における特定色など、様々な色成分を動的に特定色成分として設定することが可能であり、システムが利用される場面ごとに異なる特定色成分のダイナミックレンジを柔軟に調整することができる。
 なお、本明細書では、手術用内視鏡を含む画像処理システムの例を主に説明した。しかしながら、本開示に係る技術は、かかる例に限定されず、カプセル内視鏡などの他の種類の内視鏡、又は、顕微鏡などの他の種類の医療用観察装置にも適用可能である。また、本開示に係る技術は、そうした医療用観察装置に搭載される画像処理モジュール(例えば、画像処理チップ)又はカメラモジュールとして実現されてもよい。
 本明細書において説明した画像処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体(非一時的な媒体:non-transitory media)に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPUなどのプロセッサにより実行される。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的又は例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果と共に、又は上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 特定の色成分についての第1の露光量を伴う第1の特定成分画像信号、前記特定の色成分についての前記第1の露光量とは異なる第2の露光量を伴う第2の特定成分画像信号、及び、前記特定の色成分とは異なる2つの色成分にそれぞれ対応する2つの非特定成分画像信号、を取得する信号取得部と、
 前記第1の特定成分画像信号及び前記第2の特定成分画像信号を前記特定の色成分の強さに応じた重みで合成することにより特定成分合成画像信号を生成する合成部と、
 前記合成部により生成される前記特定成分合成画像信号及び前記2つの非特定成分画像信号からカラー画像信号を生成するカラー画像生成部と、
 を備える医療用画像処理装置。
(2)
 前記カラー画像生成部は、前記第1の特定成分画像信号及び前記第2の特定成分画像信号の前記合成に起因する色調の変動を打ち消すように、前記特定成分合成画像信号又は前記2つの非特定成分画像信号を調整する、前記(1)に記載の医療用画像処理装置。
(3)
 前記カラー画像生成部は、前記色調の前記変動を打ち消す方向に前記非特定成分画像信号のピークを移動させるトーンカーブを前記非特定成分画像信号に適用することにより、前記非特定成分画像信号を調整する、前記(2)に記載の医療用画像処理装置。
(4)
 前記信号取得部は、前記特定の色成分について第1の露光時間での露光を通じて生成される前記第1の特定成分画像信号、及び、前記特定の色成分について第2の露光時間での露光を通じて生成される前記第2の特定成分画像信号を取得する、前記(1)~(3)のいずれか1項に記載の医療用画像処理装置。
(5)
 前記信号取得部は、前記特定の色成分について前記第1の露光時間で露光される画素群及び前記特定の色成分について前記第2の露光時間で露光される画素群の双方を有する撮像装置から、前記第1の特定成分画像信号及び前記第2の特定成分画像信号を取得する、前記(4)に記載の医療用画像処理装置。
(6)
 前記信号取得部は、前記特定の色成分についての画素群であって、第1のタイミングにて前記第1の露光時間で露光され及び第2のタイミングにて前記第2の露光時間で露光される当該画素群から、前記第1の特定成分画像信号及び前記第2の特定成分画像信号を取得する、前記(4)に記載の医療用画像処理装置。
(7)
 前記信号取得部は、前記特定の色成分について第1の露光時間で露光される画素群から前記第1の特定成分画像信号を取得し、及び、前記第1の特定成分画像信号における隣り合う画素の信号値を加算することにより、前記第2の特定成分画像信号を取得する、前記(1)~(3)のいずれか1項に記載の医療用画像処理装置。
(8)
 前記信号取得部は、前記特定の色成分について第1の露光時間で露光される画素群から第1のフレームレートで前記第1の特定成分画像信号を取得し、及び、時間的に連続する複数のフレームにわたる前記第1の特定成分画像信号の信号値の加算により、前記第2の特定成分画像信号を取得する、前記(1)~(3)のいずれか1項に記載の医療用画像処理装置。
(9)
 前記信号取得部は、第1の透過率を有するフィルタを通じて前記特定の色成分を受光する画素群、及び前記第1の透過率とは異なる透過率を有するフィルタを通じて前記特定の色成分を受光する画素群の双方を有する撮像装置から、前記第1の特定成分画像信号及び前記第2の特定成分画像信号を取得する、前記(1)~(3)のいずれか1項に記載の医療用画像処理装置。
(10)
 前記第2の露光量は、前記第1の露光量よりも多く、
 前記合成部は、前記特定の色成分の弱い画素において、相対的に高い合成重みを前記第2の特定成分画像信号に適用し、前記特定の色成分の強い画素において、相対的に高い合成重みを前記第1の特定成分画像信号に適用する、
 前記(1)~(9)のいずれか1項に記載の医療用画像処理装置。
(11)
 前記特定の色成分は、赤成分である、前記(1)~(10)のいずれか1項に記載の医療用画像処理装置。
(12)
 観察対象の色成分に関連付けられる設定情報を取得し、取得した設定情報に応じて前記特定の色成分を設定する制御部、
 をさらに備える、前記(1)~(10)のいずれか1項に記載の医療用画像処理装置。
(13)
 被写体を撮像する撮像装置と、
 前記撮像装置から取得される1つ以上の画像信号を処理してカラー画像信号を生成する画像処理装置と、
 を含み、
 前記画像処理装置は、
 特定の色成分についての第1の露光量を伴う第1の特定成分画像信号、前記特定の色成分についての前記第1の露光量とは異なる第2の露光量を伴う第2の特定成分画像信号、及び、前記特定の色成分とは異なる2つの色成分にそれぞれ対応する2つの非特定成分画像信号、を取得する信号取得部と、
 前記第1の特定成分画像信号及び前記第2の特定成分画像信号を前記特定の色成分の強さに応じた重みで合成することにより特定成分合成画像信号を生成する合成部と、
 前記合成部により生成される前記特定成分合成画像信号及び前記2つの非特定成分画像信号からカラー画像信号を生成するカラー画像生成部と、
 を備える、
 医療用画像処理システム。
(14)
 特定の色成分についての第1の露光量を伴う第1の特定成分画像信号を取得することと、
 前記特定の色成分についての前記第1の露光量とは異なる第2の露光量を伴う第2の特定成分画像信号を取得することと、
 前記特定の色成分とは異なる2つの色成分にそれぞれ対応する2つの非特定成分画像信号を取得することと、
 前記第1の特定成分画像信号及び前記第2の特定成分画像信号を前記特定の色成分の強さに応じた重みで合成することにより特定成分合成画像信号を生成することと、
 前記合成により生成される前記特定成分合成画像信号及び前記2つの非特定成分画像信号からカラー画像信号を生成することと、
 を含む医療用画像処理方法。
(15)
 医療用画像処理装置を制御するプロセッサを、
 特定の色成分についての第1の露光量を伴う第1の特定成分画像信号、前記特定の色成分についての前記第1の露光量とは異なる第2の露光量を伴う第2の特定成分画像信号、及び、前記特定の色成分とは異なる2つの色成分にそれぞれ対応する2つの非特定成分画像信号、を取得する信号取得部と、
 前記第1の特定成分画像信号及び前記第2の特定成分画像信号を前記特定の色成分の強さに応じた重みで合成することにより特定成分合成画像信号を生成する合成部と、
 前記合成部により生成される前記特定成分合成画像信号及び前記2つの非特定成分画像信号からカラー画像信号を生成するカラー画像生成部と、
 として機能させるためのプログラム。
 1    医療用画像処理システム
 13   カメラヘッド(撮像装置)
 51   CCU(画像処理装置)
 53   モニタ(表示装置)
 210  信号取得部
 220  合成部
 230  カラー画像生成部
 240  制御部

Claims (15)

  1.  特定の色成分についての第1の露光量を伴う第1の特定成分画像信号、前記特定の色成分についての前記第1の露光量とは異なる第2の露光量を伴う第2の特定成分画像信号、及び、前記特定の色成分とは異なる2つの色成分にそれぞれ対応する2つの非特定成分画像信号、を取得する信号取得部と、
     前記第1の特定成分画像信号及び前記第2の特定成分画像信号を前記特定の色成分の強さに応じた重みで合成することにより特定成分合成画像信号を生成する合成部と、
     前記合成部により生成される前記特定成分合成画像信号及び前記2つの非特定成分画像信号からカラー画像信号を生成するカラー画像生成部と、
     を備える医療用画像処理装置。
  2.  前記カラー画像生成部は、前記第1の特定成分画像信号及び前記第2の特定成分画像信号の前記合成に起因する色調の変動を打ち消すように、前記特定成分合成画像信号又は前記2つの非特定成分画像信号を調整する、請求項1に記載の医療用画像処理装置。
  3.  前記カラー画像生成部は、前記色調の前記変動を打ち消す方向に前記非特定成分画像信号のピークを移動させるトーンカーブを前記非特定成分画像信号に適用することにより、前記非特定成分画像信号を調整する、請求項2に記載の医療用画像処理装置。
  4.  前記信号取得部は、前記特定の色成分について第1の露光時間での露光を通じて生成される前記第1の特定成分画像信号、及び、前記特定の色成分について第2の露光時間での露光を通じて生成される前記第2の特定成分画像信号を取得する、請求項1に記載の医療用画像処理装置。
  5.  前記信号取得部は、前記特定の色成分について前記第1の露光時間で露光される画素群及び前記特定の色成分について前記第2の露光時間で露光される画素群の双方を有する撮像装置から、前記第1の特定成分画像信号及び前記第2の特定成分画像信号を取得する、請求項4に記載の医療用画像処理装置。
  6.  前記信号取得部は、前記特定の色成分についての画素群であって、第1のタイミングにて前記第1の露光時間で露光され及び第2のタイミングにて前記第2の露光時間で露光される当該画素群から、前記第1の特定成分画像信号及び前記第2の特定成分画像信号を取得する、請求項4に記載の医療用画像処理装置。
  7.  前記信号取得部は、前記特定の色成分について第1の露光時間で露光される画素群から前記第1の特定成分画像信号を取得し、及び、前記第1の特定成分画像信号における隣り合う画素の信号値を加算することにより、前記第2の特定成分画像信号を取得する、請求項1に記載の医療用画像処理装置。
  8.  前記信号取得部は、前記特定の色成分について第1の露光時間で露光される画素群から第1のフレームレートで前記第1の特定成分画像信号を取得し、及び、時間的に連続する複数のフレームにわたる前記第1の特定成分画像信号の信号値の加算により、前記第2の特定成分画像信号を取得する、請求項1に記載の医療用画像処理装置。
  9.  前記信号取得部は、第1の透過率を有するフィルタを通じて前記特定の色成分を受光する画素群、及び前記第1の透過率とは異なる透過率を有するフィルタを通じて前記特定の色成分を受光する画素群の双方を有する撮像装置から、前記第1の特定成分画像信号及び前記第2の特定成分画像信号を取得する、請求項1に記載の医療用画像処理装置。
  10.  前記第2の露光量は、前記第1の露光量よりも多く、
     前記合成部は、前記特定の色成分の弱い画素において、相対的に高い合成重みを前記第2の特定成分画像信号に適用し、前記特定の色成分の強い画素において、相対的に高い合成重みを前記第1の特定成分画像信号に適用する、
     請求項1に記載の医療用画像処理装置。
  11.  前記特定の色成分は、赤成分である、請求項1に記載の医療用画像処理装置。
  12.  観察対象の色成分に関連付けられる設定情報を取得し、取得した設定情報に応じて前記特定の色成分を設定する制御部、
     をさらに備える、請求項1に記載の医療用画像処理装置。
  13.  被写体を撮像する撮像装置と、
     前記撮像装置から取得される1つ以上の画像信号を処理してカラー画像信号を生成する画像処理装置と、
     を含み、
     前記画像処理装置は、
     特定の色成分についての第1の露光量を伴う第1の特定成分画像信号、前記特定の色成分についての前記第1の露光量とは異なる第2の露光量を伴う第2の特定成分画像信号、及び、前記特定の色成分とは異なる2つの色成分にそれぞれ対応する2つの非特定成分画像信号、を取得する信号取得部と、
     前記第1の特定成分画像信号及び前記第2の特定成分画像信号を前記特定の色成分の強さに応じた重みで合成することにより特定成分合成画像信号を生成する合成部と、
     前記合成部により生成される前記特定成分合成画像信号及び前記2つの非特定成分画像信号からカラー画像信号を生成するカラー画像生成部と、
     を備える、
     医療用画像処理システム。
  14.  特定の色成分についての第1の露光量を伴う第1の特定成分画像信号を取得することと、
     前記特定の色成分についての前記第1の露光量とは異なる第2の露光量を伴う第2の特定成分画像信号を取得することと、
     前記特定の色成分とは異なる2つの色成分にそれぞれ対応する2つの非特定成分画像信号を取得することと、
     前記第1の特定成分画像信号及び前記第2の特定成分画像信号を前記特定の色成分の強さに応じた重みで合成することにより特定成分合成画像信号を生成することと、
     前記合成により生成される前記特定成分合成画像信号及び前記2つの非特定成分画像信号からカラー画像信号を生成することと、
     を含む医療用画像処理方法。
  15.  医療用画像処理装置を制御するプロセッサを、
     特定の色成分についての第1の露光量を伴う第1の特定成分画像信号、前記特定の色成分についての前記第1の露光量とは異なる第2の露光量を伴う第2の特定成分画像信号、及び、前記特定の色成分とは異なる2つの色成分にそれぞれ対応する2つの非特定成分画像信号、を取得する信号取得部と、
     前記第1の特定成分画像信号及び前記第2の特定成分画像信号を前記特定の色成分の強さに応じた重みで合成することにより特定成分合成画像信号を生成する合成部と、
     前記合成部により生成される前記特定成分合成画像信号及び前記2つの非特定成分画像信号からカラー画像信号を生成するカラー画像生成部と、
     として機能させるためのプログラム。
PCT/JP2017/000424 2016-03-03 2017-01-10 医療用画像処理装置、システム、方法及びプログラム WO2017149932A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018502551A JP6860000B2 (ja) 2016-03-03 2017-01-10 医療用画像処理装置、システム、方法、プログラム、画像処理システム及び医療用画像処理システム
EP17759404.1A EP3424403B1 (en) 2016-03-03 2017-01-10 Medical image processing device, system, method, and program
US16/076,784 US11244478B2 (en) 2016-03-03 2017-01-10 Medical image processing device, system, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016040760 2016-03-03
JP2016-040760 2016-03-03

Publications (1)

Publication Number Publication Date
WO2017149932A1 true WO2017149932A1 (ja) 2017-09-08

Family

ID=59743847

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/000424 WO2017149932A1 (ja) 2016-03-03 2017-01-10 医療用画像処理装置、システム、方法及びプログラム

Country Status (4)

Country Link
US (1) US11244478B2 (ja)
EP (1) EP3424403B1 (ja)
JP (1) JP6860000B2 (ja)
WO (1) WO2017149932A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017099616A (ja) * 2015-12-01 2017-06-08 ソニー株式会社 手術用制御装置、手術用制御方法、およびプログラム、並びに手術システム
CN111542748A (zh) * 2017-11-13 2020-08-14 索尼公司 信息处理装置、信息处理方法和荧光图像捕捉系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008276482A (ja) * 2007-04-27 2008-11-13 Seiko Epson Corp 画像処理装置、画像処理方法及び画像処理用プログラム。
JP2011232370A (ja) * 2010-04-23 2011-11-17 Nikon Corp 撮像装置
WO2012004928A1 (ja) * 2010-07-08 2012-01-12 パナソニック株式会社 撮像装置
JP2013162347A (ja) * 2012-02-06 2013-08-19 Sony Corp 画像処理装置、画像処理方法、プログラム、および装置
JP2015041890A (ja) * 2013-08-22 2015-03-02 ソニー株式会社 制御装置、制御方法、および電子機器

Family Cites Families (260)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1271505A (en) * 1968-07-22 1972-04-19 Agfa Gevaert Method and apparatus for determining the exposure of a recording material
GB1551531A (en) * 1976-01-30 1979-08-30 Uchebno Tech Sredstva Method and apparatus for illumination
JPS59123387A (ja) * 1982-12-29 1984-07-17 Canon Inc 撮像装置
US4667228A (en) * 1983-10-14 1987-05-19 Canon Kabushiki Kaisha Image signal processing apparatus
US4565441A (en) * 1985-01-25 1986-01-21 Viva-Tech, Inc. Light source for photographic color printers
DE3750012T2 (de) * 1986-09-09 1994-09-29 Fuji Photo Film Co Ltd Elektronische Stehbildkamera zur Kompensierung der Farbtemperaturabhängigkeit von Farbvideosignalen.
US4942424A (en) * 1987-06-12 1990-07-17 Fuji Photo Film Co., Ltd. Method of and apparatus for printing color photograph as well as color filter for use in the same apparatus
US5042078A (en) * 1987-06-19 1991-08-20 Fuji Photo Film Co., Ltd. Method of effecting gradation and color correction of a composite image
US4764807A (en) * 1987-08-16 1988-08-16 Fuji Photo Film Co., Ltd. CRT image printing apparatus
US5260774A (en) * 1989-04-20 1993-11-09 Canon Kabushiki Kaisha White balance control for still image sensing apparatus
US5255077A (en) * 1989-09-29 1993-10-19 Canon Kabushiki Kaisha White balance control based upon magnitude of flicker
US5148809A (en) * 1990-02-28 1992-09-22 Asgard Medical Systems, Inc. Method and apparatus for detecting blood vessels and displaying an enhanced video image from an ultrasound scan
EP0462817B1 (en) * 1990-06-20 1996-10-16 Canon Kabushiki Kaisha Image processing method and apparatus
US5422738A (en) * 1990-10-22 1995-06-06 Matsushita Electric Industrial Co., Ltd. Color image forming method and an apparatus employed therefor, and a correction factor determining method
US5740481A (en) * 1991-01-08 1998-04-14 Nikon Corporation Exposure calculation device for camera
EP0587128B1 (en) * 1992-09-08 1998-07-29 Fuji Photo Film Co., Ltd. Image processing system and method for faithfully reproducing colors of objects from negative film
US5300381A (en) * 1992-09-24 1994-04-05 Eastman Kodak Company Color image reproduction of scenes with preferential tone mapping
US5461457A (en) * 1992-11-25 1995-10-24 Fuji Photo Film Co., Ltd. Method of determining amount of exposure
US5589879A (en) * 1993-03-26 1996-12-31 Fuji Photo Film Co., Ltd. Performing white balance correction on integrated divided areas of which average color is substantially white
JP3134660B2 (ja) * 1994-04-14 2001-02-13 松下電器産業株式会社 色変換方法および色変換装置
JP3366431B2 (ja) * 1994-04-18 2003-01-14 日本フィリップス株式会社 高輝度カラー抑圧回路
US6115148A (en) * 1994-06-02 2000-09-05 Canon Kabushiki Kaisha Image processing apparatus
US5828362A (en) * 1994-08-04 1998-10-27 Sony Corporation Plane sequential color display apparatus and method for driving same
US5528339A (en) * 1994-08-26 1996-06-18 Eastman Kodak Company Color image reproduction of scenes with color enhancement and preferential tone mapping
JPH0879784A (ja) * 1994-08-31 1996-03-22 Sony Corp 映像信号処理装置
JP3620547B2 (ja) * 1995-02-14 2005-02-16 ソニー株式会社 高輝度圧縮装置およびそれを適用したビデオカメラ装置
US6111911A (en) * 1995-06-07 2000-08-29 Sanconix, Inc Direct sequence frequency ambiguity resolving receiver
JP3738785B2 (ja) * 1995-09-14 2006-01-25 富士写真フイルム株式会社 写真プリンタにおけるグレーバランス調整方法
JP3624483B2 (ja) * 1995-09-29 2005-03-02 富士写真フイルム株式会社 画像処理装置
US6011636A (en) * 1995-10-13 2000-01-04 Fuji Photo Film Co., Ltd. Method of controlling exposure in film scanner
US5631748A (en) * 1995-11-16 1997-05-20 Xerox Corporation Color images having multiple separations with minimally overlapping halftone dots and reduced interpixel contrast
JP3334463B2 (ja) * 1995-11-20 2002-10-15 ソニー株式会社 ビデオ信号処理回路
US5802214A (en) * 1995-12-08 1998-09-01 Xerox Corporation Method for determining and loading an image-dependent look-up table for generating an enhanced image representation
JPH09171220A (ja) * 1995-12-20 1997-06-30 Fuji Photo Film Co Ltd 露光量決定方法
US5817440A (en) * 1996-02-23 1998-10-06 Hirai; Hiroyuki Silver halide photosensitive material for color filter and method for producing color filter using the same
JPH09322191A (ja) * 1996-03-29 1997-12-12 Ricoh Co Ltd 画像入力装置
JP3509448B2 (ja) * 1996-04-12 2004-03-22 ソニー株式会社 ビデオカメラ装置、映像信号処理装置、カラー映像信号のレベル圧縮方法および階調変換方法
JP3649515B2 (ja) * 1996-05-13 2005-05-18 セイコーエプソン株式会社 カラー画像読取方法、カラー画像読取装置およびカラー画像読取システム
JPH1013697A (ja) * 1996-06-18 1998-01-16 Canon Inc 画像処理装置およびその方法
KR100237284B1 (ko) * 1997-04-28 2000-01-15 윤종용 화상신호로부터 조명색을 검출하는 방법
US5891607A (en) * 1997-09-15 1999-04-06 Eastman Kodak Company Color motion picture print film for use with digital output
US6190847B1 (en) * 1997-09-30 2001-02-20 Eastman Kodak Company Color negative film for producing images of reduced granularity when viewed following electronic conversion
DE69900872D1 (de) * 1998-04-03 2002-03-21 Da Vinci Systems Inc Primär- und Sekundärfarbverarbeitung unter Verwendung von Farbe, Sättigung, Luminanz und Flächenisolierung
JP2000013814A (ja) * 1998-06-19 2000-01-14 Pioneer Electron Corp 映像信号処理回路
JP3565723B2 (ja) * 1998-09-30 2004-09-15 富士写真光機株式会社 カラー画像処理装置
KR100375806B1 (ko) * 1999-02-01 2003-03-15 가부시끼가이샤 도시바 색 얼룩 보정 장치 및 휘도 얼룩 보정 장치
JP4443658B2 (ja) * 1999-02-09 2010-03-31 株式会社河合楽器製作所 楽音発生装置、電子楽器、及び記録媒体
US7324143B1 (en) * 1999-04-13 2008-01-29 Rochester Institute Of Technology Method and system for reducing noise in a digital image and apparatus thereof
KR100363826B1 (ko) * 1999-06-07 2002-12-06 히다치덴시 가부시키가이샤 넓은 다이내믹레인지의 영상신호를 생성하는텔레비젼신호처리장치와 그 신호처리장치를 가지는텔레비젼카메라 및 텔레비젼신호처리방법
JP4773594B2 (ja) * 1999-08-30 2011-09-14 エーユー オプトロニクス コーポレイション カラー画像処理方法、カラー画像処理装置、液晶表示装置
JP2001094810A (ja) * 1999-09-22 2001-04-06 Toshiba Tec Corp 画像処理方法及び画像処理装置並びに画像形成装置
DE10018305C2 (de) * 2000-04-13 2002-02-14 Bosch Gmbh Robert Verfahren und Vorrichtung zur Analyse von Strömungen
US7081918B2 (en) * 2000-04-28 2006-07-25 Fuji Photo Film Co., Ltd. Image processing method, image processing apparatus and recording medium storing program therefor
US6844941B1 (en) * 2000-06-23 2005-01-18 Xerox Corporation Color halftoning using a single successive-filling halftone screen
US6372418B1 (en) * 2000-07-18 2002-04-16 Eastman Kodak Company Color motion picture print film with improved tonescale
JP4003399B2 (ja) * 2000-10-23 2007-11-07 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP2002209226A (ja) * 2000-12-28 2002-07-26 Canon Inc 撮像装置
JP4294896B2 (ja) * 2001-09-26 2009-07-15 富士フイルム株式会社 画像処理方法および装置並びにそのためのプログラム
JP4231661B2 (ja) * 2002-05-23 2009-03-04 オリンパス株式会社 色再現装置
CA2492687A1 (en) * 2002-07-12 2004-01-22 X3D Technologies Gmbh Autostereoscopic projection system
US6836076B2 (en) * 2002-07-18 2004-12-28 Fuji Photo Film Co., Ltd. Exposure device
TWI249959B (en) * 2003-05-16 2006-02-21 Seiko Epson Corp Image processing system, projector, information memorizing medium and image processing method
US7492391B1 (en) * 2003-07-14 2009-02-17 Arecont Vision, Llc. Wide dynamic range network camera
JP4333544B2 (ja) * 2004-02-13 2009-09-16 セイコーエプソン株式会社 画像処理方法、及び画像処理装置、半導体装置、電子機器、画像処理プログラム、並びにコンピュータ読み取り可能な記録媒体
JP4143569B2 (ja) * 2004-05-14 2008-09-03 キヤノン株式会社 カラー表示装置
KR100565810B1 (ko) * 2004-06-16 2006-03-29 삼성전자주식회사 색신호 처리장치 및 방법
JP2006081037A (ja) * 2004-09-10 2006-03-23 Eastman Kodak Co 撮像装置
KR100680471B1 (ko) * 2004-11-24 2007-02-08 매그나칩 반도체 유한회사 보색 컬러 필터를 채택한 SoC 카메라 시스템
US7456384B2 (en) * 2004-12-10 2008-11-25 Sony Corporation Method and apparatus for acquiring physical information, method for manufacturing semiconductor device including array of plurality of unit components for detecting physical quantity distribution, light-receiving device and manufacturing method therefor, and solid-state imaging device and manufacturing method therefor
US7570290B2 (en) * 2004-12-27 2009-08-04 Sony Corporation Drive method for solid-state imaging device, solid-state imaging device, and imaging apparatus
JP2006311240A (ja) * 2005-04-28 2006-11-09 Olympus Corp 撮像装置
DE102005022832A1 (de) * 2005-05-11 2006-11-16 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Scheinwerfer für Film- und Videoaufnahmen
US7926950B2 (en) * 2005-05-30 2011-04-19 Panasonic Corporation Laser image display device and color image display method utilizing control of the power of plural laser beams to display a pixel
US8274715B2 (en) * 2005-07-28 2012-09-25 Omnivision Technologies, Inc. Processing color and panchromatic pixels
US8139130B2 (en) * 2005-07-28 2012-03-20 Omnivision Technologies, Inc. Image sensor with improved light sensitivity
US20070046807A1 (en) * 2005-08-23 2007-03-01 Eastman Kodak Company Capturing images under varying lighting conditions
US7889216B2 (en) * 2005-10-13 2011-02-15 Seiko Epson Corporation Image display device, electronic apparatus, and pixel location determining method
US8303505B2 (en) * 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
US7995092B2 (en) * 2006-04-05 2011-08-09 Barret Lippey Two-dimensional and three-dimensional projecting
WO2007132635A1 (ja) * 2006-05-15 2007-11-22 Sharp Kabushiki Kaisha カラー画像表示装置及び色変換装置
US8078265B2 (en) * 2006-07-11 2011-12-13 The General Hospital Corporation Systems and methods for generating fluorescent light images
JP4337849B2 (ja) * 2006-07-26 2009-09-30 ソニー株式会社 記録装置、記録方法および記録プログラム、ならびに、撮像装置、撮像方法および撮像プログラム
WO2008032517A1 (fr) * 2006-09-14 2008-03-20 Mitsubishi Electric Corporation Dispositif et procédé de traitement d'image et dispositif et procédé de capture d'image
JP2008096548A (ja) * 2006-10-10 2008-04-24 Hitachi Displays Ltd 表示装置
US8223143B2 (en) * 2006-10-27 2012-07-17 Carl Zeiss Meditec, Inc. User interface for efficiently displaying relevant OCT imaging data
US7911486B2 (en) * 2006-10-30 2011-03-22 Himax Display, Inc. Method and device for images brightness control, image processing and color data generation in display devices
JP4802991B2 (ja) * 2006-11-14 2011-10-26 富士ゼロックス株式会社 色処理装置、色処理方法およびプログラム
JP4720757B2 (ja) * 2007-02-23 2011-07-13 ソニー株式会社 光源装置および液晶表示装置
JP4341695B2 (ja) * 2007-05-17 2009-10-07 ソニー株式会社 画像入力処理装置、撮像信号処理回路、および、撮像信号のノイズ低減方法
JP4386096B2 (ja) * 2007-05-18 2009-12-16 ソニー株式会社 画像入力処理装置、および、その方法
JP4815470B2 (ja) * 2007-06-15 2011-11-16 富士フイルム株式会社 画像表示装置及び画像表示方法
JP4496239B2 (ja) * 2007-07-31 2010-07-07 シャープ株式会社 画像処理方法、画像処理装置、画像形成装置、画像読取装置、コンピュータプログラム、及び記録媒体
JP4495197B2 (ja) * 2007-07-31 2010-06-30 シャープ株式会社 画像処理装置、画像形成装置、画像処理プログラムおよび画像処理プログラムを記録する記録媒体
JP4317587B2 (ja) * 2007-08-07 2009-08-19 パナソニック株式会社 撮像処理装置および撮像装置、画像処理方法およびコンピュータプログラム
US8022994B2 (en) * 2007-08-31 2011-09-20 Omnivision Technologies, Inc. Image sensor with high dynamic range in down-sampling mode
CN101953169B (zh) * 2008-02-15 2012-12-05 半导体解法株式会社 对ccd图像传感器输出的图像信号执行数字处理的方法
JP4966894B2 (ja) * 2008-03-18 2012-07-04 株式会社リコー 画像撮像装置
US20090290052A1 (en) * 2008-05-23 2009-11-26 Panavision Imaging, Llc Color Pixel Pattern Scheme for High Dynamic Range Optical Sensor
JP2010016664A (ja) * 2008-07-04 2010-01-21 Hitachi Ltd 撮像装置
KR100978659B1 (ko) * 2008-07-17 2010-08-30 삼성전기주식회사 색신호 이득 제어 장치 및 방법
JP4561912B2 (ja) * 2008-09-12 2010-10-13 ソニー株式会社 撮像装置、撮像方法及びプログラム
US8103120B2 (en) * 2008-09-22 2012-01-24 Solomon Systech Limited Method and apparatus of local contrast enhancement
JP4770907B2 (ja) * 2008-10-21 2011-09-14 ソニー株式会社 撮像装置、撮像方法及びプログラム
JP5195395B2 (ja) * 2008-12-19 2013-05-08 株式会社リコー 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
US8641621B2 (en) * 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
JP2010279016A (ja) * 2009-04-30 2010-12-09 Sony Corp 固体撮像素子とその駆動方法および撮像装置
JP2010272067A (ja) * 2009-05-25 2010-12-02 Hitachi Automotive Systems Ltd 画像処理装置
JP2011045039A (ja) * 2009-07-21 2011-03-03 Fujifilm Corp 複眼撮像装置
JP5326943B2 (ja) * 2009-08-31 2013-10-30 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US8860751B2 (en) * 2009-09-01 2014-10-14 Entertainment Experience Llc Method for producing a color image and imaging device employing same
JP5474586B2 (ja) * 2010-01-25 2014-04-16 オリンパス株式会社 画像処理装置
WO2011099410A1 (ja) * 2010-02-09 2011-08-18 株式会社 日立メディコ 超音波診断装置及び超音波画像表示方法
JP5724185B2 (ja) * 2010-03-04 2015-05-27 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5583439B2 (ja) * 2010-03-17 2014-09-03 パナソニック株式会社 画像符号化装置及びカメラシステム
JP5432799B2 (ja) * 2010-03-30 2014-03-05 オリンパスイメージング株式会社 撮像装置、撮像システム、撮像方法
JP5554139B2 (ja) * 2010-05-11 2014-07-23 パナソニック株式会社 複合型撮像素子およびそれを備えた撮像装置
WO2011142774A1 (en) * 2010-05-14 2011-11-17 Omnivision Technologies, Inc. Alternative color image array and associated methods
JP5593920B2 (ja) * 2010-07-27 2014-09-24 ソニー株式会社 液晶表示装置
US20120038758A1 (en) * 2010-08-12 2012-02-16 3D Digital, Llc Apparatus, method and article for generating a three dimensional effect using active glasses
JP5675215B2 (ja) * 2010-08-20 2015-02-25 オリンパス株式会社 デジタルカメラ
JP2012063528A (ja) * 2010-09-15 2012-03-29 Fujitsu Ltd 反射型カラー表示素子およびカラー表示装置
US9785246B2 (en) * 2010-10-06 2017-10-10 Nuvasive, Inc. Imaging system and method for use in surgical and interventional medical procedures
US9930316B2 (en) * 2013-08-16 2018-03-27 University Of New Brunswick Camera imaging systems and methods
JP2012105225A (ja) * 2010-11-12 2012-05-31 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
KR101878362B1 (ko) * 2010-11-26 2018-08-07 엘지디스플레이 주식회사 영상표시장치 및 그 구동방법
US9007432B2 (en) * 2010-12-16 2015-04-14 The Massachusetts Institute Of Technology Imaging systems and methods for immersive surveillance
JP5655626B2 (ja) * 2011-02-24 2015-01-21 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
TW201248579A (en) * 2011-05-18 2012-12-01 Wintek Corp Image processing method and pixel array of flat display panel
JP5901175B2 (ja) * 2011-08-08 2016-04-06 アイキューブド研究所株式会社 コンテンツ処理装置、コンテンツ処理方法、およびプログラム
JP5954661B2 (ja) * 2011-08-26 2016-07-20 パナソニックIpマネジメント株式会社 撮像素子、及び撮像装置
JP2013066142A (ja) * 2011-08-31 2013-04-11 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2013066140A (ja) * 2011-08-31 2013-04-11 Sony Corp 撮像装置、および信号処理方法、並びにプログラム
KR101982149B1 (ko) * 2011-09-05 2019-05-27 삼성전자주식회사 의료 영상의 일부 정보를 활용한 장기 영상 생성 방법 및 장치
CN104025574B (zh) * 2011-10-31 2015-10-14 富士胶片株式会社 摄像装置及图像处理方法
JP5832855B2 (ja) * 2011-11-01 2015-12-16 クラリオン株式会社 画像処理装置、撮像装置および画像処理プログラム
JP5802520B2 (ja) * 2011-11-11 2015-10-28 株式会社 日立産業制御ソリューションズ 撮像装置
US20130128083A1 (en) * 2011-11-23 2013-05-23 Himax Imaging Limited High dynamic range image sensing device and image sensing method and manufacturing method thereof
WO2013100038A1 (ja) * 2011-12-27 2013-07-04 富士フイルム株式会社 カラー撮像素子
CN104041020B (zh) * 2011-12-27 2015-11-25 富士胶片株式会社 彩色摄像元件
EP2833635B1 (en) * 2012-03-27 2018-11-07 Sony Corporation Image processing device, image-capturing element, image processing method, and program
JP6014349B2 (ja) * 2012-04-10 2016-10-25 キヤノン株式会社 撮像装置、制御方法、及びプログラム
CN104412582B (zh) * 2012-07-06 2016-04-13 富士胶片株式会社 彩色摄像元件和摄像装置
WO2014007281A1 (ja) * 2012-07-06 2014-01-09 富士フイルム株式会社 カラー撮像素子及び撮像装置
JP5623469B2 (ja) * 2012-07-06 2014-11-12 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡用制御プログラム
WO2014007282A1 (ja) * 2012-07-06 2014-01-09 富士フイルム株式会社 カラー撮像素子及び撮像装置
JP5702894B2 (ja) * 2012-07-06 2015-04-15 富士フイルム株式会社 カラー撮像素子および撮像装置
JP5698873B2 (ja) * 2012-07-06 2015-04-08 富士フイルム株式会社 カラー撮像素子および撮像装置
JP5702893B2 (ja) * 2012-07-06 2015-04-15 富士フイルム株式会社 カラー撮像素子および撮像装置
JP5702895B2 (ja) * 2012-07-06 2015-04-15 富士フイルム株式会社 カラー撮像素子および撮像装置
IN2015MN00022A (ja) * 2012-07-26 2015-10-16 Olive Medical Corp
BR112015001381A8 (pt) * 2012-07-26 2019-07-30 Olive Medical Corp sistema e método para imageamento digital em um ambiente com iluminação deficiente
US9040892B2 (en) * 2012-07-27 2015-05-26 Apple Inc. High dynamic range image sensor having symmetric interleaved long and short exposure pixels
CA2883498C (en) * 2012-08-30 2022-05-31 Truevision Systems, Inc. Imaging system and methods displaying a fused multidimensional reconstructed image
US20140063300A1 (en) * 2012-09-06 2014-03-06 Aptina Imaging Corporation High dynamic range imaging systems having clear filter pixel arrays
JP6424623B2 (ja) * 2012-10-04 2018-11-21 コニカミノルタ株式会社 画像処理装置及びプログラム
KR102086509B1 (ko) * 2012-11-23 2020-03-09 엘지전자 주식회사 3차원 영상 획득 방법 및 장치
WO2014087807A1 (ja) * 2012-12-05 2014-06-12 富士フイルム株式会社 撮像装置、異常斜め入射光検出方法及びプログラム、並びに記録媒体
US9363425B2 (en) * 2012-12-06 2016-06-07 Semiconductor Components Industries, Llc Color filter arrangements for fused array imaging systems
US20150334276A1 (en) * 2012-12-31 2015-11-19 Given Imaging Ltd. System and method for displaying an image stream
JP6020199B2 (ja) * 2013-01-24 2016-11-02 株式会社ソシオネクスト 画像処理装置、方法、及びプログラム、並びに撮像装置
KR102114415B1 (ko) * 2013-01-29 2020-05-22 삼성전자주식회사 의료 영상 정합 방법 및 장치
JP6231284B2 (ja) * 2013-02-21 2017-11-15 クラリオン株式会社 撮像装置
JP6503335B2 (ja) * 2013-03-12 2019-04-17 サイトヴィヴァ, インコーポレイテッド 生物学的な及び非生物学的な媒質でナノ粒子の位置を特定するための3次元画像処理
KR101992933B1 (ko) * 2013-03-14 2019-06-25 삼성전자주식회사 광역 역광 보정 이미지 처리 방법 및 이를 이용하는 이미지 신호 프로세서
BR112015023723A2 (pt) * 2013-03-15 2017-07-18 Colibri Tech Inc métodos para formar uma exibição visual compósita, para calcular mudanças para uma posição e/ou orientação de um dispositivo de formação de imagem e para identificar e realçar uma região em um volume
US8824752B1 (en) * 2013-03-15 2014-09-02 Heartflow, Inc. Methods and systems for assessing image quality in modeling of patient anatomic or blood flow characteristics
US20140300753A1 (en) * 2013-04-04 2014-10-09 Apple Inc. Imaging pipeline for spectro-colorimeters
US9573277B2 (en) * 2013-04-15 2017-02-21 Alan Rosen Intelligent visual humanoid robot and computer vision system programmed to perform visual artificial intelligence processes
US20140307055A1 (en) * 2013-04-15 2014-10-16 Microsoft Corporation Intensity-modulated light pattern for active stereo
JP2014230708A (ja) 2013-05-30 2014-12-11 パナソニック株式会社 内視鏡
CN109742094B (zh) * 2013-07-04 2024-05-31 株式会社尼康 摄像元件以及电子设备
JP2015033107A (ja) * 2013-08-07 2015-02-16 ソニー株式会社 画像処理装置および画像処理方法、並びに、電子機器
US10210599B2 (en) * 2013-08-09 2019-02-19 Intuitive Surgical Operations, Inc. Efficient image demosaicing and local contrast enhancement
US9438827B2 (en) * 2013-08-27 2016-09-06 Semiconductor Components Industries, Llc Imaging systems and methods for generating binned high-dynamic-range images
TWI690209B (zh) * 2013-09-25 2020-04-01 新力股份有限公司 固體攝像裝置、攝像裝置及電子機器
JP6552798B2 (ja) * 2013-11-29 2019-07-31 キヤノンメディカルシステムズ株式会社 医用画像処理装置、x線診断装置及び医用画像処理プログラム
KR20150069413A (ko) * 2013-12-13 2015-06-23 삼성디스플레이 주식회사 표시 장치 및 그 구동 방법
KR102149453B1 (ko) * 2014-02-21 2020-08-28 삼성전자주식회사 이미지를 획득하기 위한 전자 장치 및 방법
KR102302672B1 (ko) * 2014-04-11 2021-09-15 삼성전자주식회사 음향 신호의 렌더링 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
KR102233427B1 (ko) * 2014-04-14 2021-03-29 삼성전자주식회사 의료 영상 정합 방법 및 장치
US10089729B2 (en) * 2014-04-23 2018-10-02 Toshiba Medical Systems Corporation Merging magnetic resonance (MR) magnitude and phase images
US9711553B2 (en) * 2014-04-28 2017-07-18 Samsung Electronics Co., Ltd. Image sensor including a pixel having photoelectric conversion elements and image processing device having the image sensor
KR102250086B1 (ko) * 2014-05-16 2021-05-10 삼성전자주식회사 의료 영상 정합 방법, 이를 포함하는 장치 및 컴퓨터 기록 매체
JP6471953B2 (ja) * 2014-05-23 2019-02-20 パナソニックIpマネジメント株式会社 撮像装置、撮像システム、及び撮像方法
US9342871B2 (en) * 2014-05-30 2016-05-17 Apple Inc. Scene motion correction in fused image systems
US9344636B2 (en) * 2014-05-30 2016-05-17 Apple Inc. Scene motion correction in fused image systems
JP6039606B2 (ja) * 2014-06-24 2016-12-07 富士フイルム株式会社 内視鏡システム、光源装置、内視鏡システムの作動方法、及び光源装置の作動方法
CN106464850B (zh) * 2014-06-24 2019-10-11 麦克赛尔株式会社 摄像传感器以及摄像装置
US9832388B2 (en) * 2014-08-04 2017-11-28 Nvidia Corporation Deinterleaving interleaved high dynamic range image by using YUV interpolation
US9894304B1 (en) * 2014-08-18 2018-02-13 Rambus Inc. Line-interleaved image sensors
JP2016096430A (ja) * 2014-11-13 2016-05-26 パナソニックIpマネジメント株式会社 撮像装置及び撮像方法
JP6533050B2 (ja) * 2014-11-13 2019-06-19 クラリオン株式会社 車載カメラシステム
JP6084339B2 (ja) * 2014-12-02 2017-02-22 オリンパス株式会社 カプセル型内視鏡システム及びカプセル型内視鏡システムの作動方法
KR101632120B1 (ko) * 2014-12-04 2016-06-27 한국과학기술원 골격계 영상 재구성 장치 및 방법
US10462390B2 (en) * 2014-12-10 2019-10-29 Sony Corporation Image pickup apparatus, image pickup method, program, and image processing apparatus
US9621741B2 (en) * 2014-12-10 2017-04-11 Intel Corporation Techniques for context and performance adaptive processing in ultra low-power computer vision systems
KR102218832B1 (ko) * 2014-12-16 2021-02-24 삼성전자주식회사 컬러 프린지를 제거하기 위한 이미지 처리 장치
US10154239B2 (en) * 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
EP3245935A1 (en) * 2015-01-16 2017-11-22 Olympus Corporation Endoscope system and processing device
US20160119532A1 (en) * 2015-01-22 2016-04-28 Mediatek Inc. Method And Apparatus Of Utilizing Image/Video Data From Multiple Sources
EP3253420A4 (en) * 2015-02-02 2018-10-10 Novadaq Technologies ULC Methods and systems for characterizing tissue of a subject
JP6345612B2 (ja) * 2015-02-06 2018-06-20 株式会社ソニー・インタラクティブエンタテインメント 撮像装置、情報処理システム、マット、および画像生成方法
WO2016129062A1 (ja) * 2015-02-10 2016-08-18 オリンパス株式会社 画像処理装置、内視鏡システム、撮像装置、画像処理方法およびプログラム
US10560188B2 (en) * 2015-02-17 2020-02-11 Kookmin University Industry Academy Cooperation Foundation Image sensor communication system and communication method using rolling shutter modulation
KR102277178B1 (ko) * 2015-03-09 2021-07-14 삼성전자 주식회사 카메라 모듈을 포함하는 전자 장치 및 전자 장치의 이미지 처리 방법
EP3276956B1 (en) * 2015-03-26 2021-07-21 Sony Corporation Image processing device and image processing method, and program
JP6095868B2 (ja) * 2015-03-30 2017-03-15 オリンパス株式会社 内視鏡
JPWO2016170604A1 (ja) * 2015-04-21 2018-03-15 オリンパス株式会社 内視鏡装置
US10169862B2 (en) * 2015-05-07 2019-01-01 Novadaq Technologies ULC Methods and systems for laser speckle imaging of tissue using a color image sensor
CN104835464B (zh) * 2015-05-11 2017-11-03 深圳市华星光电技术有限公司 显示屏动态帧频驱动电路及驱动方法
KR101711060B1 (ko) * 2015-05-29 2017-02-28 주식회사 코어라인소프트 레이 캐스팅의 가속화 방법 및 장치
JP6109456B1 (ja) * 2015-06-30 2017-04-05 オリンパス株式会社 画像処理装置および撮像システム
US9467632B1 (en) * 2015-07-13 2016-10-11 Himax Imaging Limited Dual exposure control circuit and associated method
US9858872B2 (en) * 2015-07-15 2018-01-02 Htc Corporation Electronic device and control method
JP6639138B2 (ja) * 2015-07-30 2020-02-05 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
US9903809B2 (en) * 2015-09-16 2018-02-27 The Boeing Company System for measuring thermal degradation of composites and method of making and using
JP6971976B2 (ja) * 2015-09-21 2021-11-24 ハイファイ ユーエスエー インコーポレーテッド 不完全な電磁経路を通じた信号の搬送
WO2017090300A1 (ja) * 2015-11-24 2017-06-01 ソニー株式会社 画像処理装置、および画像処理方法、ならびにプログラム
US9848137B2 (en) * 2015-11-24 2017-12-19 Samsung Electronics Co., Ltd. CMOS image sensors having grid array exposure control
WO2017090366A1 (ja) * 2015-11-25 2017-06-01 オリンパス株式会社 内視鏡システムおよび撮影方法
JP2017108211A (ja) * 2015-12-07 2017-06-15 ソニー株式会社 撮像装置、撮像制御方法、および、プログラム
US10250814B2 (en) * 2016-03-07 2019-04-02 Kabushiki Kaisha Toshiba Image signal processor apparatus and image signal processing method
JP2017173379A (ja) * 2016-03-18 2017-09-28 富士ゼロックス株式会社 ホログラム記録装置
WO2017168477A1 (ja) * 2016-03-28 2017-10-05 パナソニックIpマネジメント株式会社 撮像装置および画像処理方法
US9787909B1 (en) * 2016-03-31 2017-10-10 Stmicroelectronics (Research & Development) Limited Controlling signal-to-noise ratio in high dynamic range automatic exposure control imaging
WO2017197491A1 (en) * 2016-05-19 2017-11-23 Huron Technologies International Inc. Spectrally-resolved scanning microscope
US9883128B2 (en) * 2016-05-20 2018-01-30 Semiconductor Components Industries, Llc Imaging systems with high dynamic range and phase detection pixels
CN113727000A (zh) * 2016-05-27 2021-11-30 松下知识产权经营株式会社 摄像系统
JP6765860B2 (ja) * 2016-06-01 2020-10-07 キヤノン株式会社 撮像素子、撮像装置、および撮像信号処理方法
US10244182B2 (en) * 2016-06-23 2019-03-26 Semiconductor Components Industries, Llc Methods and apparatus for reducing spatial flicker artifacts
JP6400053B2 (ja) * 2016-07-22 2018-10-03 キヤノン株式会社 放射線撮像装置及び放射線撮像システム、それらの制御方法及びそのプログラム
CN109565577B (zh) * 2016-07-27 2022-02-15 凸版印刷株式会社 色彩校正装置、色彩校正系统以及色彩校正方法
DE102017217589A1 (de) * 2016-10-04 2018-04-05 Toshiba Medical Systems Corporation Medizininformationsverarbeitungsvorrichtung und Medizininformationsverarbeitungsverfahren
US20180108169A1 (en) * 2016-10-14 2018-04-19 Toshiba Medical Systems Corporation Image rendering apparatus and method
CN106507019B (zh) * 2016-11-29 2019-05-10 Oppo广东移动通信有限公司 控制方法、控制装置、电子装置
JP6362116B2 (ja) * 2016-11-30 2018-07-25 キヤノン株式会社 表示装置及びその制御方法、プログラム、記憶媒体
JP6710151B2 (ja) * 2016-12-02 2020-06-17 富士フイルム株式会社 内視鏡装置及び内視鏡装置の作動方法
CN109963490B (zh) * 2017-01-16 2022-07-12 索尼公司 分支光学系统、成像装置及成像系统
CN111988587B (zh) * 2017-02-10 2023-02-07 杭州海康威视数字技术股份有限公司 图像融合设备和图像融合方法
CN110463197B (zh) * 2017-03-26 2021-05-28 苹果公司 增强立体相机成像系统中的空间分辨率
CN106873205B (zh) * 2017-04-21 2019-10-29 京东方科技集团股份有限公司 液晶显示装置及其驱动方法
JP6800806B2 (ja) * 2017-05-09 2020-12-16 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
KR102354991B1 (ko) * 2017-05-24 2022-01-24 삼성전자주식회사 픽셀 회로 및 이를 포함하는 이미지 센서
JP6904788B2 (ja) * 2017-05-25 2021-07-21 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
DE102017210528A1 (de) * 2017-06-22 2018-12-27 Siemens Healthcare Gmbh Visualisierung eines medizintechnischen Objekts
US10553244B2 (en) * 2017-07-19 2020-02-04 Microsoft Technology Licensing, Llc Systems and methods of increasing light detection in color imaging sensors
JP2019053619A (ja) * 2017-09-15 2019-04-04 株式会社東芝 信号識別装置、信号識別方法、及び運転支援システム
CN107799079B (zh) * 2017-10-10 2019-06-11 惠科股份有限公司 液晶显示驱动方法、装置及设备
CN107919099B (zh) * 2017-10-10 2019-09-17 惠科股份有限公司 液晶显示驱动方法、装置及设备
US10582112B2 (en) * 2017-10-11 2020-03-03 Olympus Corporation Focus detection device, focus detection method, and storage medium storing focus detection program
CN107863085B (zh) * 2017-12-20 2019-08-06 惠科股份有限公司 一种显示装置的驱动方法及显示装置
CN107967900B (zh) * 2017-12-21 2020-09-11 惠科股份有限公司 显示装置的驱动方法、驱动装置及显示装置
CN107993624B (zh) * 2017-12-21 2019-12-03 惠科股份有限公司 显示装置的驱动方法、驱动装置及显示装置
US10674072B1 (en) * 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
JP7428133B2 (ja) * 2018-10-16 2024-02-06 Toppanホールディングス株式会社 測距装置、カメラ、及び測距装置の駆動調整方法
US11475854B2 (en) * 2018-12-11 2022-10-18 HKC Corporation Limited Driving method of display module, driving system thereof, and display device
US10916036B2 (en) * 2018-12-28 2021-02-09 Intel Corporation Method and system of generating multi-exposure camera statistics for image processing
JP7080195B2 (ja) * 2019-02-19 2022-06-03 富士フイルム株式会社 内視鏡システム
US10819927B1 (en) * 2019-07-02 2020-10-27 Omnivision Technologies, Inc. Image sensor with self-testing black level correction
US11659141B2 (en) * 2019-11-22 2023-05-23 Hanwha Techwin Co., Ltd. Image processing apparatus and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008276482A (ja) * 2007-04-27 2008-11-13 Seiko Epson Corp 画像処理装置、画像処理方法及び画像処理用プログラム。
JP2011232370A (ja) * 2010-04-23 2011-11-17 Nikon Corp 撮像装置
WO2012004928A1 (ja) * 2010-07-08 2012-01-12 パナソニック株式会社 撮像装置
JP2013162347A (ja) * 2012-02-06 2013-08-19 Sony Corp 画像処理装置、画像処理方法、プログラム、および装置
JP2015041890A (ja) * 2013-08-22 2015-03-02 ソニー株式会社 制御装置、制御方法、および電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3424403A4 *

Also Published As

Publication number Publication date
EP3424403B1 (en) 2024-04-24
US11244478B2 (en) 2022-02-08
EP3424403A1 (en) 2019-01-09
JPWO2017149932A1 (ja) 2018-12-27
EP3424403A4 (en) 2019-03-20
US20190051022A1 (en) 2019-02-14
JP6860000B2 (ja) 2021-04-14

Similar Documents

Publication Publication Date Title
US11642004B2 (en) Image processing device, image processing method and recording medium
JP7074065B2 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
US11457801B2 (en) Image processing device, image processing method, and endoscope system
WO2018123613A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
WO2018230066A1 (ja) 医療用システム、医療用装置および制御方法
WO2017141544A1 (ja) 画像処理装置、画像処理方法及びプログラム
WO2018079259A1 (ja) 信号処理装置および方法、並びにプログラム
US20190037202A1 (en) Medical image processing device, system, method, and program
US11729519B2 (en) Video signal processing apparatus, video signal processing method, and image-capturing apparatus
JP6860000B2 (ja) 医療用画像処理装置、システム、方法、プログラム、画像処理システム及び医療用画像処理システム
WO2016114155A1 (ja) 画像処理装置、画像処理方法、プログラム、及び、内視鏡システム
JP7163913B2 (ja) 医療用システム及び制御ユニット
WO2021140923A1 (ja) 医療画像生成装置、医療画像生成方法および医療画像生成プログラム
JP7456385B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2021020132A1 (ja) 内視鏡手術システム、画像処理装置、および画像処理方法
WO2020203265A1 (ja) 映像信号処理装置、映像信号処理方法および撮像装置
JP7140113B2 (ja) 内視鏡
JP6344608B2 (ja) 画像処理装置、画像処理方法、プログラム、及び、手術システム
JP2024082826A (ja) 撮像装置および撮像装置の作動方法、並びにプログラム
CN115720505A (zh) 医疗系统、信息处理装置和信息处理方法
JP2016106932A (ja) 内視鏡画像処理装置、内視鏡画像処理方法、プログラム、及び、内視鏡システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018502551

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017759404

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017759404

Country of ref document: EP

Effective date: 20181004

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17759404

Country of ref document: EP

Kind code of ref document: A1