WO2018079387A1 - 画像処理装置および画像処理システム - Google Patents

画像処理装置および画像処理システム Download PDF

Info

Publication number
WO2018079387A1
WO2018079387A1 PCT/JP2017/037743 JP2017037743W WO2018079387A1 WO 2018079387 A1 WO2018079387 A1 WO 2018079387A1 JP 2017037743 W JP2017037743 W JP 2017037743W WO 2018079387 A1 WO2018079387 A1 WO 2018079387A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
images
unit
recording
processing
Prior art date
Application number
PCT/JP2017/037743
Other languages
English (en)
French (fr)
Inventor
恭輔 水野
山崎 隆一
樋野 和彦
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2018515161A priority Critical patent/JPWO2018079387A1/ja
Publication of WO2018079387A1 publication Critical patent/WO2018079387A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an image processing apparatus and an image processing system.
  • an image creation method in which a subject is imaged and a stereoscopic image is acquired from two image data for left eye and right eye having parallax with each other.
  • an endoscope system in which an endoscope used in the medical field or the like and a processing device (processor) are detachable, there is a demand for observing an observation target as a three-dimensional image in order to facilitate diagnosis and examination. is there.
  • an endoscope including two optical systems for the left eye and right eye and an image sensor that receives light from each optical system is known (for example, a patent). Reference 1).
  • the processor to which the endoscope is attached receives two image data for the left eye and right eye from the attached endoscope, and generates a parallax image from the two image data.
  • the distance from the endoscope to the subject may be measured using the above-described parallax image.
  • parallax image data is recorded on a recording medium such as a USB memory from the processor, and another measurement device reads the data recorded on the USB memory and performs measurement processing.
  • measurement data is input via a USB memory in which data subjected to zoom processing for display is recorded.
  • the data recorded in the USB memory is subjected to enlargement and thinning processing by image processing such as zoom processing, and the amount of information is smaller than data output from the image sensor, for example, RAW data. Yes.
  • image processing such as zoom processing
  • RAW data data output from the image sensor
  • the present invention has been made in view of the above, and an image processing apparatus and an image processing system capable of suppressing a decrease in measurement accuracy when distance measurement processing is performed using data recorded on a recording medium.
  • the purpose is to provide.
  • an image processing apparatus generates an image of parallax based on first and second images obtained by imaging the same subject from different directions.
  • a display image generation unit that generates a parallax image for display by performing at least a zoom process based on the first and second images, and the zoom process before the zoom process by the display image generation unit
  • a recording image generation unit configured to generate a recording image to be recorded on an external recording medium based on the first and second images.
  • each of the first and second images is displayed.
  • the image processing apparatus further includes a freeze processing unit that selects the first and second images to be frozen from a plurality of sets of images.
  • the recording image generation unit generates the recording image based on the first and second images selected by the freeze processing unit. It is characterized by.
  • the recording image generation unit may be configured to store the recording image and information recorded in an endoscope that inputs the parallax image. It is recorded on a recording medium.
  • the image processing apparatus further includes a preprocessing unit that performs at least OB clamping processing and white balance processing as preprocessing on the first and second images in the above invention, and the recording image.
  • the generation unit generates the recording image based on the first and second images after the preprocessing by the preprocessing unit.
  • the recording image generation unit records the image processing parameters relating to the recording image together with the recording image on the external recording medium. It is characterized by.
  • the display image generation unit includes the side-by-side image in which the first and second images are arranged in a horizontal direction of the image sensor, or the first and second images.
  • a line-by-line image in which the second image is alternately arranged for each line in the horizontal direction is generated as the parallax image for display.
  • the recording image generation unit includes a side-by-side image in which the first and second images are arranged in a horizontal direction of the imaging device, or the first and second images.
  • a line-by-line image in which the second image is alternately arranged for each line in the horizontal direction is generated as the recording image.
  • An image processing system is based on an imaging unit that generates image data including first and second images by imaging the same subject from different directions, and the first and second images.
  • a display image generation unit that generates a parallax image for display by performing at least a zoom process, and an external recording medium based on the first and second images before the zoom process by the display image generation unit
  • An image processing apparatus having a recording image generation unit that generates a recording image to be recorded.
  • the present invention when distance measurement processing is performed using data recorded on a recording medium, it is possible to suppress a decrease in measurement accuracy.
  • FIG. 1 is a diagram showing a schematic configuration of an endoscope system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a schematic configuration of the endoscope system according to the embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a parallax image generated by the endoscope system according to the embodiment of the present invention.
  • FIG. 4 is a flowchart showing image processing performed by the endoscope system according to the embodiment of the present invention.
  • FIG. 1 is a diagram showing a schematic configuration of an endoscope system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a schematic configuration of the endoscope system according to the embodiment of the present invention.
  • An endoscope system 1 shown in FIGS. 1 and 2 includes an endoscope 2 that captures an in-vivo image of a subject by inserting a tip portion into the subject, and illumination light emitted from the tip of the endoscope 2.
  • a processing device 3 (processor) that has a light source unit 3a that generates a signal, performs predetermined signal processing on the image signal captured by the endoscope 2, and comprehensively controls the operation of the entire endoscope system 1.
  • a display device 4 for displaying an in-vivo image generated by the signal processing of the processing device 3.
  • a recording medium 5 capable of recording data related to an image captured by the endoscope 2 is electrically connected to the processing device 3.
  • the recording medium 5 is detachably connected to a measuring device 6 that is a device different from the processing device 3 and causes the measuring device 6 to read recorded data.
  • the recording medium 5 is configured by a USB memory or the like that is detachably connected to the processing device 3.
  • a solid arrow indicates transmission of an electric signal related to an image
  • a broken arrow indicates transmission of an electric signal related to control.
  • the endoscope 2 includes an insertion portion 21 having an elongated shape having flexibility, an operation portion 22 that is connected to a proximal end side of the insertion portion 21 and receives input of various operation signals, and an insertion portion from the operation portion 22. And a universal cord 23 that includes various cables that extend in a direction different from the direction in which 21 extends and are connected to the processing device 3 (including the light source unit 3a).
  • the insertion unit 21 receives a light and performs photoelectric conversion to generate a signal to generate a signal.
  • the insertion unit 21 includes an image pickup unit 244 in which pixels are arranged in a two-dimensional shape, and a bendable portion formed by a plurality of bending pieces. And a long flexible tube portion 26 connected to the proximal end side of the bending portion 25 and having flexibility.
  • the insertion unit 21 is inserted into the body cavity of the subject, and the imaging unit 244 images a subject such as a living tissue in a position where external light does not reach.
  • the tip portion 24 is configured by using a glass fiber or the like, and forms a light guide path for light emitted from the light source portion 3a, an illumination lens 242 provided at the tip of the light guide 241, and a condensing left
  • the optical system 243a for the right eye, the optical system 243b for the right eye, the optical system 243a for the left eye, and the optical system 243b for the right eye are provided at the imaging positions, and the optical system 243a for the left eye and the optical system 243b for the right eye are collected.
  • An imaging unit 244 that receives the emitted light, photoelectrically converts the light into an electrical signal, and performs predetermined signal processing.
  • the left-eye optical system 243a is configured by using one or a plurality of lenses, and is provided in front of the imaging unit 244 to image incident light from a subject.
  • the left-eye optical system 243a may have an optical zoom function that changes the angle of view and a focus function that changes the focus.
  • the right-eye optical system 243b is configured using one or a plurality of lenses, and is provided in front of the imaging unit 244 to form incident light from a subject with parallax from the left-eye optical system 243a. To do.
  • the right-eye optical system 243b may have an optical zoom function that changes the angle of view and a focus function that changes the focus.
  • the imaging unit 244 includes a left-eye imaging device 244a and a right-eye imaging device 244b.
  • the left-eye image pickup device 244a photoelectrically converts light from the left-eye optical system 243a in accordance with the drive signal received from the processing device 3, and outputs an electrical signal for one frame (left-eye use) constituting one image.
  • RAW data the imaging element 244a for the left eye includes a plurality of pixels each having a photodiode that accumulates charges according to the amount of light, a capacitor that converts charges transferred from the photodiodes to voltage levels, and the like in a matrix.
  • each pixel photoelectrically converts the light from the left-eye optical system 243a to generate an electrical signal, sequentially reading out the electrical signal generated by a pixel arbitrarily set as a readout target among a plurality of pixels, It outputs as an image signal which is RAW data.
  • a color filter is provided on the light-receiving surface of the left-eye image pickup device 244a, and each pixel has one of the wavelength bands of the color components of red (R), green (G), and blue (B). Receives light in the band.
  • the right-eye image pickup device 244b photoelectrically converts light from the right-eye optical system 243b in accordance with the drive signal received from the processing device 3, and outputs an electrical signal (for the right eye) for one frame constituting one image.
  • RAW data the right-eye image pickup device 244b includes a plurality of pixels each having a photodiode that accumulates charges according to the amount of light, a capacitor that converts charges transferred from the photodiodes to voltage levels, and the like in a matrix.
  • each pixel photoelectrically converts the light from the right-eye optical system 243b to generate an electrical signal, sequentially reading out the electrical signal generated by a pixel arbitrarily set as a readout target among the plurality of pixels, It outputs as an image signal which is RAW data.
  • a color filter is provided on the light receiving surface of the right-eye image pickup device 244b, and each pixel has a wavelength of any one of the wavelength bands of the red (R), green (G), and blue (B) color components. Receives light in the band.
  • the left-eye image sensor 244a and the right-eye image sensor 244b are realized by using, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the left-eye image sensor 244a and the right-eye image sensor 244b may each be configured using a single-plate image sensor, for example, using a plurality of image sensors such as a three-plate system. It may be configured.
  • the left-eye image obtained by the left-eye image pickup device 244a and the right-eye image obtained by the right-eye image pickup device 244b are images of different fields of view in which a common subject is captured and have parallax. is there.
  • the imaging unit 244 will be described as having two imaging elements respectively corresponding to the left-eye optical system 243a and the right-eye optical system 243b.
  • An electrical signal for the frame is generated.
  • the light imaged by the left-eye optical system 243a and the right-eye optical system 243b is transmitted by two image sensors in accordance with the left-eye optical system 243a and the right-eye optical system 243b.
  • the light receiving region may be divided and received by the same image sensor.
  • the operation unit 22 includes a bending knob 221 that bends the bending unit 25 in the vertical direction and the left-right direction, a treatment tool insertion unit 222 that inserts a treatment tool such as a biopsy forceps, an electric knife, and a test probe into the body cavity of the subject.
  • a treatment tool such as a biopsy forceps, an electric knife, and a test probe into the body cavity of the subject.
  • it has air supply means, water supply means, and a plurality of switches 223 that are operation input units for inputting operation instruction signals for screen display control by freeze processing or the like.
  • the treatment tool inserted from the treatment tool insertion portion 222 is exposed from the opening (not shown) via the treatment tool channel (not shown) of the distal end portion 24.
  • the plurality of switches 223 are independently provided with a switch for inputting a release instruction (to be described later), a switch for inputting a freeze instruction, and the like.
  • the universal cord 23 includes at least a light guide 241 and a collective cable 245 in which one or a plurality of signal lines are collected.
  • the collective cable 245 is a signal line for transmitting an image signal, a signal line for transmitting a drive signal for driving the imaging unit 244, information including unique information regarding the endoscope 2 (imaging unit 244), and the like.
  • the endoscope 2 has a memory 224 for recording information of the endoscope 2.
  • identification information indicating the type and model number of the endoscope 2, the types of the left-eye image sensor 244a, the right-eye image sensor 244b, and the like is recorded.
  • the memory 224 includes images for image data captured by the left-eye image sensor 244a and the right-eye image sensor 244b, such as parameters for white balance (WB) adjustment and variation correction values at the time of manufacturing the endoscope 2.
  • WB white balance
  • Various parameters for processing may be recorded.
  • the connector is provided with a connection pin according to a rule corresponding to the information of the endoscope 2, and the processing device 3 is configured such that when the endoscope 2 is mounted, the connection pin on the processing device 3 side and the connection pin on the endoscope 2 side are connected.
  • the connection of the endoscope 2 may be recognized based on the connection state.
  • the processing device 3 includes a preprocessing unit 31, a freeze processing unit 32, a frame memory 33, a display image generation unit 34, a recording image generation unit 35, an input unit 36, a control unit 37, and a storage unit. 38.
  • the preprocessing unit 31 performs black level on the left-eye image data (analog) output from the left-eye image sensor 244a and the right-eye image data (analog) output from the right-eye image sensor 244b. OB clamping processing, white balance correction processing, gain adjustment processing, noise removal processing, A / D conversion processing, and demosaicing processing are performed.
  • the preprocessing unit 31 outputs left-eye image data (digital) including a left-eye image to which RGB color components are added by the signal processing described above, and right-eye image data (digital) including a right-eye image. It is generated and output to the freeze processing unit 32 and the frame memory 33.
  • image data for the left eye and the image data for the right eye may be collectively referred to as image data.
  • the freeze processing unit 32 When the freeze processing unit 32 receives an input of a release instruction signal by pressing the switch 223, the freeze processing unit 32 selects an image to be freeze-displayed on the display device 4 from the frame memory 33, and generates a display image generation unit 34 and a recording image generation unit. To the unit 35. When the freeze processing unit 32 receives an input of a freeze instruction signal by pressing the switch 223, the freeze processing unit 32 selects an image to be displayed on the display device 4 from the frame memory 33 and outputs the selected image to the display image generation unit 34. . When the freeze processing unit 32 does not accept the input of the release instruction signal or the freeze instruction signal, the freeze processing unit 32 outputs predetermined image data in the frame memory 33, for example, the latest image data in time series, to the display image generation unit 34.
  • the freeze processing unit 32 performs only the process of outputting the processing signal input from the preprocessing unit 31 to the frame memory 33 within the still image display period by the freeze processing after selecting the image data to be frozen.
  • the freeze processing unit 32 selects predetermined image data from the frame memory 33 including the image data newly input from the preprocessing unit 31 after the freeze processing is canceled.
  • the image displayed on the display device 4 after the release process or the freeze process is an image in which the latest image data in the still image display period by the freeze process has been lost and which is in chronological order before the freeze process. Become.
  • the change in the subject image may be larger than when moving images of images that are adjacent in time series.
  • the freeze processing unit 32 selects, as the best frame, an image stored in the frame memory 33, for example, an image for the left eye that is less blurred from the image for the left eye.
  • the freeze processing unit 32 acquires the image for the left eye and the image for the right eye of the selected best frame from the frame memory 33 and outputs them to the display image generation unit 34 and the recording image processing unit 35.
  • the freeze processing unit 32 calculates shakes of a plurality of left-eye images stored in the frame memory 33, and based on the calculated shakes.
  • the best frame may be selected, and each time image data is input from the preprocessing unit 31, the blur of the left-eye image corresponding to the image data is calculated, and the calculated blur and the left-eye image are calculated.
  • the frame number may be stored in the frame memory 33 in association with each other.
  • the image blur is calculated using a known calculation method.
  • the frame memory 33 stores the image data generated by the preprocessing unit 31 for a set frame.
  • the frame memory 33 stores image data for several frames.
  • the frame memory 33 overwrites the oldest image data among the currently stored image data with new image data, so that several frames are sequentially added from the newest acquisition time. Minute image data is stored while being sequentially updated.
  • the display image generation unit 34 generates a parallax image in which parallax is generated by shifting the left-eye image and the right-eye image with respect to the image data selected by the freeze processing unit 32.
  • Image processing for display is generated by performing signal processing so that the signal can be displayed.
  • the display image generation unit 34 performs CMS (Color Management System), ⁇ correction, zoom processing, enhancement processing, compression processing, and the like on the image signal including the left-eye image and the right-eye image. Thereafter, the right-eye image and the left-eye image are relatively shifted based on a preset shift amount to generate a display image signal.
  • CMS is a system for uniformly managing colors between different devices (here, between the endoscope 2 and the display device 4).
  • the display image generation unit 34 generates, as a display image, a composite image in which image information including an endoscopic image corresponding to the image data input from the freeze processing unit 32 and character information related to the image information are superimposed. .
  • the display image generation unit 34 transmits the generated image data of the display image to the display device 4.
  • FIG. 3 is a diagram illustrating a parallax image generated by the endoscope system according to the embodiment of the present invention.
  • Display image generating unit 34 as shown in FIG. 3, the line image D L horizontal line in the image IM L for the left eye, and a line image D R of the horizontal line of the right-eye image IM R, is set
  • the parallax images IM D are generated by alternately arranging them while shifting according to the shift amount.
  • the display image generation unit 34 a line image D L of the odd lines with the image IM L for the left eye, and a line image D R of the even lines with the right-eye image IM R, is set They are arranged alternately by shifting according to the shift amount.
  • Such parallax images IM D is also referred to as line-by-line image.
  • the horizontal line corresponds to a line formed by pixels arranged along one arrangement direction in an imaging device in which a plurality of pixels are arranged in a matrix.
  • the display image generation unit 34 has a preset period, for example, a period for displaying an image of several frames, The target image is displayed on the display device 4 as a still image.
  • the recording image generation unit 35 generates a parallax image in which parallax is generated by shifting the left-eye image and the right-eye image with respect to the image data selected by the freeze processing unit 32, and this is recorded.
  • Image data Examples of the parallax image include the above-described line-by-line image and a side-by-side image in which the left-eye image and the right-eye image are arranged along the horizontal line direction.
  • the parallax image generated by the recording image generation unit 35 is an image after the preprocessing by the preprocessing unit 31, and display such as zoom processing. Thus, the image is not subjected to image processing.
  • the recording image generation unit 35 records the generated image data on the recording medium 5 together with parameters such as zoom processing and unique information of the endoscope 2, for example.
  • the parameters and the unique information of the endoscope 2 may be embedded in the header portion of the line-by-line image or recorded as a text file associated with the image data separately from the image data. You may make it do.
  • the pre-processing unit 31, the freeze processing unit 32, the display image generating unit 34, and the recording image generating unit 35 can rewrite general-purpose processors such as a CPU (Central Processing Unit), ASIC (Application Specific Integrated Circuit), and processing contents. It is configured using dedicated processors such as various arithmetic circuits that execute specific functions such as FPGA (Field Programmable Gate Array) which is a programmable logic device.
  • general-purpose processors such as a CPU (Central Processing Unit), ASIC (Application Specific Integrated Circuit), and processing contents. It is configured using dedicated processors such as various arithmetic circuits that execute specific functions such as FPGA (Field Programmable Gate Array) which is a programmable logic device.
  • FPGA Field Programmable Gate Array
  • the input unit 36 is realized by using a keyboard, a mouse, a switch, and a touch panel, and receives input of various signals such as an operation instruction signal for instructing an operation of the endoscope system 1.
  • the input unit 36 may include a portable terminal such as a switch provided in the operation unit 22 or an external tablet computer.
  • the control unit 37 performs drive control of each component including the imaging unit 244 and the light source unit 3a, and input / output control of information with respect to each component.
  • the control unit 37 refers to control information data (for example, readout timing) for imaging control stored in the storage unit 38, and uses the imaging unit as a drive signal via a predetermined signal line included in the collective cable 245.
  • the control unit 37 is configured using a general-purpose processor such as a CPU, or a dedicated processor such as various arithmetic circuits that execute specific functions such as an ASIC or FPGA.
  • control unit 37 performs freeze control by the freeze processing unit 32 based on the instruction signal received by the input unit 36.
  • the storage unit 38 stores various programs for operating the endoscope system 1 and data including various parameters necessary for the operation of the endoscope system 1. Further, the storage unit 38 stores identification information of the processing device 3.
  • the identification information includes unique information (ID) of the processing device 3, model year, specification information, and the like.
  • the storage unit 38 stores various programs including an image acquisition processing program for executing the image acquisition processing method of the processing device 3.
  • Various programs can be recorded on a computer-readable recording medium such as a hard disk, a flash memory, a CD-ROM, a DVD-ROM, or a flexible disk and widely distributed.
  • the various programs described above can also be obtained by downloading via a communication network.
  • the communication network here is realized by, for example, an existing public line network, LAN (Local Area Network), WAN (Wide Area Network), etc., and may be wired or wireless.
  • the storage unit 38 having the above configuration is realized by using a ROM (Read Only Memory) in which various programs are installed in advance, a RAM (Random Access Memory) storing a calculation parameter and data of each process, a hard disk, and the like. Is done.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the light source unit 3 a includes an illumination unit 301 and an illumination control unit 302. Under the control of the illumination control unit 302, the illumination unit 301 sequentially switches and emits illumination light with different exposure amounts to the subject (subject).
  • the illumination unit 301 includes a light source 301a and a light source driver 301b.
  • the light source 301a is configured using an LED light source that emits white light, one or a plurality of lenses, and the like, and emits light (illumination light) by driving the LED light source. Illumination light generated by the light source 301 a is emitted from the tip of the tip 24 toward the subject via the light guide 241.
  • the light source 301a uses blue narrow band light (eg, 390 nm to 445 nm) and green narrow band light (eg, 530 nm to 550 nm). The narrow band light is emitted as illumination light.
  • the light source 301a is realized using any one of an LED light source, a laser light source, a xenon lamp, a halogen lamp, and the like.
  • the light source driver 301b causes the light source 301a to emit illumination light by supplying power to the light source 301a under the control of the illumination control unit 302.
  • the illumination control unit 302 controls the amount of power supplied to the light source 301a and the drive timing of the light source 301a based on a control signal (dimming signal) from the control unit 37.
  • the display device 4 displays a display image corresponding to the image signal received from the processing device 3 (display image generation unit 34) via the video cable.
  • the display device 4 is configured using a monitor such as a liquid crystal or an organic EL (Electro Luminescence).
  • the measuring device 6 reads data from the recording medium 5, acquires the parallax image generated by the recording image generation unit 35, displays the parallax image, and measures the distance from the endoscope 2 to the subject.
  • the measurement device 6 measures the distance at the measurement point when the user instructs the displayed image via the input unit or the like to be measured.
  • the measurement method can be measured by a known method such as stereo measurement (for example, triangulation).
  • FIG. 4 is a flowchart showing image processing performed by the endoscope system according to the embodiment of the present invention. Hereinafter, description will be made assuming that each unit operates under the control of the control unit 37.
  • the preprocessing unit 31 receives image data from the endoscope 2 (step S101).
  • the preprocessing unit 31 performs the above-described preprocessing on the image data, and outputs the processed image data to the freeze processing unit 32 and the frame memory 33 (step S102).
  • step S103 the control unit 37 determines whether or not a release instruction has been input via the switch 223.
  • step S103: Yes the control unit 37 proceeds to step S104.
  • step S104 the freeze processing unit 32 selects the best frame from the images stored in the frame memory 33. After selecting the image by the freeze processing unit 32, the control unit 37 proceeds to step S105 and step S106. In step S104, the image of the best frame selected by the freeze processing unit 32 is output to the display image generating unit 34 and the recording image generating unit 35.
  • the images selected in this case are a left-eye image and a right-eye image of the best frame.
  • step 105 the display image generation unit 34 generates display image data.
  • the display image generation unit 34 generates a parallax image subjected to zoom processing or the like based on the left-eye image and the right-eye image of the best frame selected by the freeze processing unit 32.
  • the recording image generation unit 35 In parallel with step S105, the recording image generation unit 35 generates image data for recording (step S106).
  • the recording image generation unit 35 generates a parallax image that has not been subjected to zoom processing or the like based on the left-eye image and the right-eye image selected by the freeze processing unit 32.
  • the recording image generation unit 35 When the parallax images are respectively generated in step S105 and step S106, the recording image generation unit 35 performs a recording process on the recording medium 5 (step S107).
  • the recording image generation unit 35 records the parallax image generated in step S106 on the recording medium 5 in association with parameters such as zoom processing and unique information of the endoscope 2.
  • the control unit 37 proceeds to step S113.
  • step S103 determines that no release instruction is input
  • step S108 the control unit 37 determines whether or not a freeze instruction has been input via the switch 223.
  • step S108: Yes the control unit 37 proceeds to step S109.
  • step S109 the freeze processing unit 32 selects the best frame from the images stored in the frame memory 33. After selecting the image by the freeze processing unit 32, the control unit 37 proceeds to step S110. In step S ⁇ b> 109, the image for the left eye and the image for the right eye of the best frame selected by the freeze processing unit 32 are output to the display image generation unit 34.
  • step S110 the display image generating unit 34 generates display image data.
  • the display image generation unit 34 generates a parallax image subjected to zoom processing or the like based on the left-eye image and the right-eye image of the best frame selected by the freeze processing unit 32.
  • the control unit 37 proceeds to step S113.
  • step S108 if the control part 37 judges that there is no input of a freeze instruction (step S108: No), it will transfer to step S111.
  • step S111 the freeze processing unit 32 selects a predetermined frame from the images stored in the frame memory 33.
  • the freeze processing unit 32 selects predetermined image data in the frame memory 33, for example, the latest frame in time series.
  • the control unit 37 proceeds to step S112.
  • step S ⁇ b> 111 the image for the left eye and the image for the right eye of the latest frame selected by the freeze processing unit 32 are output to the display image generation unit 34.
  • step S112 the display image generation unit 34 generates display image data.
  • the display image generation unit 34 generates a parallax image subjected to zoom processing or the like based on the left-eye image and the right-eye image of the latest frame selected by the freeze processing unit 32.
  • the control unit 37 proceeds to step S113.
  • step S113 under the control of the control unit 37, the display image generation unit 34 causes the display device 4 to output a display image including the generated parallax image.
  • the recording process in step S107 and the display process in step S113 may be performed first in step S113 or may be performed simultaneously.
  • a parallax image is generated by performing zoom processing or the like for display on an image selected by a freeze instruction, and is not subjected to zoom processing as an image to be recorded for measurement.
  • a parallax image is generated and recorded on the recording medium 5.
  • data including a parallax image that is not subjected to interpolation or the like by zoom processing or the like is recorded on the recording medium 5 instead of a parallax image that is subjected to interpolation or the like by zoom processing or the like and causes a decrease in measurement accuracy. It will be.
  • the distance measuring process is performed using the data recorded on the recording medium 5 by the measuring device 6 which is a device different from the processing device 3, the decrease in measurement accuracy is suppressed. Can do.
  • the recording medium 5 records the parallax image generated by the recording image generation unit 35 based on the image data subjected to the signal processing by the preprocessing unit 31. Therefore, the amount of data required for one frame can be reduced as compared with the case where the left-eye RAW data and the right-eye RAW data output from the imaging unit 244 are recorded.
  • image processing such as zoom processing is performed in the measurement device 6, it is possible to suppress an increase in the amount of data by recording parameters in association with the image data.
  • the image data after the freeze processing by the freeze processing unit 32 is extracted and recorded on the recording medium 5.
  • the image data before the freeze processing by the freeze processing unit 32 is recorded.
  • the image may be output to the image generation unit 35. If the image data before the image processing (such as zoom processing) by the display image generation unit 34 is used, it is possible to suppress the above-described decrease in measurement accuracy.
  • the recording image generation unit 35 records the parallax image, the parameters such as the zoom process, and the unique information of the endoscope 2 in association with each other and records them on the recording medium 5.
  • data having a parallax image and information of the endoscope 2 recorded in the memory 224 for example, unique information of the endoscope 2 may be used as recording data, or unique information of the endoscope 2 Data that does not include may be used as recording data. If the recording data has the unique information of the endoscope 2, the measurement device 6 can perform a measurement process taking into account variations in the unique information of the endoscope 2.
  • the parallax image is a line-by-line image as an example.
  • an image having parallax for example, the left-eye image IM L and the right-eye image is used.
  • an image IM R may be a side-by-side images arranged along the direction of the horizontal line.
  • a left-eye image and a right-eye image may be alternately output and recorded on the recording medium 5 as in a frame sequential method.
  • the preprocessing unit 31 has been described as performing the OB clamping process, the white balance correction process, the gain adjustment process, the noise removal process, the A / D conversion process, and the demosaicing process.
  • the pre-processing unit 31 may perform the correction processing, and the display image generation unit 34 may perform the processing after the gain adjustment processing.
  • the image data before the freeze process is the image data after the demosaicing process.
  • the image data may have been subjected to the correction process.
  • the light source unit 3a emits narrow band light
  • the imaging unit 244 is described on the assumption that it is a simultaneous illumination / imaging method in which reflected light from illumination light is received.
  • the light source unit 3a may sequentially emit narrowband light of each color component individually, and the imaging unit 244 may be a surface sequential illumination / imaging method in which the light of each color component is received.
  • the light source unit 3a has been described as being configured separately from the endoscope 2.
  • a light source device such as a semiconductor light source is provided at the distal end of the endoscope 2.
  • the structure provided in the endoscope 2 may be sufficient.
  • the function of the processing device 3 may be given to the endoscope 2.
  • the light source part 3a was demonstrated as what was integrated with the processing apparatus 3 in embodiment mentioned above, the light source part 3a and the processing apparatus 3 are separate bodies, for example, it illuminates the exterior of the processing apparatus 3.
  • the part 301 and the illumination control part 302 may be provided. Further, the light source 301 a may be provided at the tip of the tip portion 24.
  • the endoscope system according to the present invention is described as the endoscope system 1 using the flexible endoscope 2 whose observation target is a living tissue or the like in the subject.
  • a camera head is attached to the eyepiece of an optical endoscope such as a rigid endoscope, an industrial endoscope that observes material characteristics, a capsule endoscope, a fiberscope, or an optical endoscope. Even an endoscope system using a connected one can be applied.
  • the endoscope system has been described as an example.
  • the present invention can also be applied to, for example, outputting an image to an EVF (Electronic View Finder) provided in a digital still camera or the like.
  • EVF Electronic View Finder
  • the image processing apparatus and the image processing system according to the present invention are useful for suppressing a decrease in measurement accuracy when distance measurement processing is performed using data recorded on a recording medium.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

本発明にかかる画像処理装置は、同一の被写体を異なる方向から撮像した第1および第2画像をもとに視差画像を生成する画像処理装置であって、第1および第2画像に基づいて、少なくともズーム処理を施すことによって表示用の視差画像を生成する表示用画像生成部と、表示用画像生成部によるズーム処理前の第1および第2画像に基づいて、外部の記録媒体に記録する記録用の画像を生成する記録用画像生成部と、を備える。

Description

画像処理装置および画像処理システム
 本発明は、画像処理装置および画像処理システムに関する。
 近年、被写体を撮像して、互いに視差を有する左眼用と右眼用の二つの画像データから立体画像を取得する画像作成方法が知られている。医療分野等において使用される内視鏡と処理装置(プロセッサ)とが着脱可能である内視鏡システムにおいては、診断や検査の円滑化のために、観察対象を立体画像で観察したいという要求がある。この要求にこたえるための技術として、左眼用および右眼用の二つの光学系と、各光学系からの光を受光する撮像素子とを備えた内視鏡が知られている(例えば、特許文献1を参照)。この内視鏡が装着されたプロセッサは、装着された内視鏡から左眼用および右眼用の二つの画像データを受信し、この二つの画像データから視差画像を生成する。
 内視鏡システムでは、上述した視差画像を用いて、内視鏡から被写体までの距離計測を行うことがある。この際、プロセッサから視差画像のデータをUSBメモリなどの記録媒体に記録し、別の計測装置がUSBメモリに記録されたデータを読み込んで計測処理を行う。
特開2014-140594号公報
 しかしながら、従来のプロセッサでは、表示用にズーム処理等が施されたデータが記録されたUSBメモリを介して計測用のデータが入力されていた。このUSBメモリに記録されているデータは、ズーム処理等の画像処理によって引き伸ばしや間引き処理等が施されており、撮像素子から出力されるデータ、例えばRAWデータと比して情報量が小さくなっている。このようなデータを用いて距離計測処理を行うと、計測精度が低下してしまうという問題があった。
 本発明は、上記に鑑みてなされたものであって、記録媒体に記録したデータを用いて距離計測処理を行う場合に、計測精度の低下を抑制することができる画像処理装置および画像処理システムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明にかかる画像処理装置は、同一の被写体を異なる方向から撮像した第1および第2画像をもとに視差画像を生成する画像処理装置であって、前記第1および第2画像に基づいて、少なくともズーム処理を施すことによって表示用の視差画像を生成する表示用画像生成部と、前記表示用画像生成部による前記ズーム処理前の前記第1および第2画像に基づいて、外部の記録媒体に記録する記録用の画像を生成する記録用画像生成部と、を備えることを特徴とする。
 また、本発明にかかる画像処理装置は、上記発明において、前記視差画像をフリーズ表示しつつ、該フリーズ表示した視差画像を記録する旨の指示を受け付けた場合に、各々が前記第1および第2画像からなる複数組のなかから、フリーズ対象の前記第1および第2画像を選択するフリーズ処理部、をさらに備えることを特徴とする。
 また、本発明にかかる画像処理装置は、上記発明において、前記記録用画像生成部は、前記フリーズ処理部により選択された前記第1および第2画像に基づいて前記記録用の画像を生成することを特徴とする。
 また、本発明にかかる画像処理装置は、上記発明において、前記記録用画像生成部は、前記記録用の画像と、前記視差画像を入力する内視鏡に記録されている情報とを前記外部の記録媒体に記録させることを特徴とする。
 また、本発明にかかる画像処理装置は、上記発明において、前記第1および第2画像に対し、前処理として少なくともOBクランプ処理およびホワイトバランス処理を施す前処理部、をさらに備え、前記記録用画像生成部は、前記前処理部による前処理後の前記第1および第2画像に基づいて前記記録用の画像を生成することを特徴とする。
 また、本発明にかかる画像処理装置は、上記発明において、前記記録用画像生成部は、前記記録用の画像に関する画像処理のパラメータを、該記録用の画像とともに前記外部の記録媒体に記録させることを特徴とする。
 また、本発明にかかる画像処理装置は、上記発明において、前記表示用画像生成部は、前記第1および第2画像を、撮像素子の水平方向に並べて配置したサイドバイサイド画像、または、前記第1および第2画像を、前記水平方向のラインごとに交互に配置したラインバイライン画像を前記表示用の視差画像として生成することを特徴とする。
 また、本発明にかかる画像処理装置は、上記発明において、前記記録用画像生成部は、前記第1および第2画像を、撮像素子の水平方向に並べて配置したサイドバイサイド画像、または、前記第1および第2画像を、前記水平方向のラインごとに交互に配置したラインバイライン画像を前記記録用の画像として生成することを特徴とする。
 また、本発明にかかる画像処理システムは、同一の被写体を異なる方向から撮像することによって第1および第2画像を含む画像データを生成する撮像部と、前記第1および第2画像に基づいて、少なくともズーム処理を施すことによって表示用の視差画像を生成する表示用画像生成部と、前記表示用画像生成部による前記ズーム処理前の前記第1および第2画像に基づいて、外部の記録媒体に記録する記録用の画像を生成する記録用画像生成部と、を有する画像処理装置と、を備えることを特徴とする。
 本発明によれば、記録媒体に記録したデータを用いて距離計測処理を行う場合に、計測精度の低下を抑制することができるという効果を奏する。
図1は、本発明の一実施の形態にかかる内視鏡システムの概略構成を示す図である。 図2は、本発明の一実施の形態にかかる内視鏡システムの概略構成を示すブロック図である。 図3は、本発明の一実施の形態にかかる内視鏡システムが生成する視差画像について説明する図である。 図4は、本発明の一実施の形態にかかる内視鏡システムが行う画像処理を示すフローチャートである。
 以下、本発明を実施するための形態(以下、「実施の形態」という)を説明する。実施の形態では、本発明にかかる画像処理装置を含む画像処理システムの一例として、患者等の被検体内の画像を撮像して表示する医療用の内視鏡システムについて説明する。また、この実施の形態により、この発明が限定されるものではない。さらに、図面の記載において、同一部分には同一の符号を付して説明する。
(実施の形態)
 図1は、本発明の一実施の形態にかかる内視鏡システムの概略構成を示す図である。図2は、本発明の一実施の形態にかかる内視鏡システムの概略構成を示すブロック図である。
 図1および図2に示す内視鏡システム1は、被検体内に先端部を挿入することによって被検体の体内画像を撮像する内視鏡2と、内視鏡2の先端から出射する照明光を発生する光源部3aを有し、内視鏡2が撮像した撮像信号に所定の信号処理を施すとともに、内視鏡システム1全体の動作を統括的に制御する処理装置3(プロセッサ)と、処理装置3の信号処理により生成された体内画像を表示する表示装置4と、を備える。処理装置3には、例えば内視鏡2が撮像した画像に関するデータを記録可能な記録媒体5が電気的に接続されている。記録媒体5は、処理装置3とは異なる装置である計測装置6と着脱自在に接続され、記録しているデータを計測装置6に読み込ませる。また、記録媒体5は、USBメモリ等、処理装置3に対して着脱自在に接続されるものにより構成される。なお、図2では、実線の矢印が画像にかかる電気信号の伝送を示し、破線の矢印が制御にかかる電気信号の伝送を示している。
 内視鏡2は、可撓性を有する細長形状をなす挿入部21と、挿入部21の基端側に接続され、各種の操作信号の入力を受け付ける操作部22と、操作部22から挿入部21が延びる方向と異なる方向に延び、処理装置3(光源部3aを含む)に接続する各種ケーブルを内蔵するユニバーサルコード23と、を備える。
 挿入部21は、光を受光して光電変換を行うことにより信号を生成する画素が2次元状に配列された撮像部244を内蔵した先端部24と、複数の湾曲駒によって構成された湾曲自在な湾曲部25と、湾曲部25の基端側に接続され、可撓性を有する長尺状の可撓管部26と、を有する。挿入部21は、被検体の体腔内に挿入され、外光の届かない位置にある生体組織等の被写体を撮像部244によって撮像する。
 先端部24は、グラスファイバ等を用いて構成されて光源部3aが発光した光の導光路をなすライトガイド241と、ライトガイド241の先端に設けられた照明レンズ242と、集光用の左眼用光学系243aおよび右眼用光学系243bと、左眼用光学系243aおよび右眼用光学系243bの結像位置に設けられ、左眼用光学系243aおよび右眼用光学系243bが集光した光を受光して電気信号に光電変換して所定の信号処理を施す撮像部244と、を有する。
 左眼用光学系243aは、一または複数のレンズを用いて構成され、撮像部244の前段に設けられて被写体からの入射光を結像する。左眼用光学系243aは、画角を変化させる光学ズーム機能および焦点を変化させるフォーカス機能を有するものであってもよい。
 右眼用光学系243bは、一または複数のレンズを用いて構成され、撮像部244の前段に設けられて被写体からの入射光を、左眼用光学系243aとは視差を有して結像する。右眼用光学系243bは、画角を変化させる光学ズーム機能および焦点を変化させるフォーカス機能を有するものであってもよい。
 撮像部244は、左眼用撮像素子244aと、右眼用撮像素子244bとを備える。
 左眼用撮像素子244aは、処理装置3から受信した駆動信号に従って、左眼用光学系243aからの光を光電変換して、一枚の画像を構成する1フレーム分の電気信号(左眼用RAWデータ)を生成する。具体的には、左眼用撮像素子244aは、光量に応じた電荷を蓄積するフォトダイオードや、フォトダイオードから転送される電荷を電圧レベルに変換するコンデンサ等をそれぞれ有する複数の画素がマトリックス状に配列され、各画素が左眼用光学系243aからの光を光電変換して電気信号を生成し、複数の画素のうち読み出し対象として任意に設定された画素が生成した電気信号を順次読み出して、RAWデータである画像信号として出力する。左眼用撮像素子244aの受光面には、例えばカラーフィルタが設けられ、各画素が、赤色(R)、緑色(G)および青色(B)の各色成分の波長帯域のうちのいずれかの波長帯域の光を受光する。
 右眼用撮像素子244bは、処理装置3から受信した駆動信号に従って、右眼用光学系243bからの光を光電変換して、一枚の画像を構成する1フレーム分の電気信号(右眼用RAWデータ)を生成する。具体的には、右眼用撮像素子244bは、光量に応じた電荷を蓄積するフォトダイオードや、フォトダイオードから転送される電荷を電圧レベルに変換するコンデンサ等をそれぞれ有する複数の画素がマトリックス状に配列され、各画素が右眼用光学系243bからの光を光電変換して電気信号を生成し、複数の画素のうち読み出し対象として任意に設定された画素が生成した電気信号を順次読み出して、RAWデータである画像信号として出力する。右眼用撮像素子244bの受光面には、例えばカラーフィルタが設けられ、各画素が、赤色(R)、緑色(G)および青色(B)の各色成分の波長帯域のうちのいずれかの波長帯域の光を受光する。
 左眼用撮像素子244aおよび右眼用撮像素子244bは、例えばCCD(Charge Coupled Device)イメージセンサや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いて実現される。また、左眼用撮像素子244aおよび右眼用撮像素子244bは、各々、単板のイメージセンサを用いて構成されるものであってもよいし、例えば3板方式等の複数のイメージセンサを用いて構成されるものであってもよい。
 左眼用撮像素子244aにより得られる左眼用画像、および右眼用撮像素子244bにより得られる右眼用画像は、共通の被写体が写った異なる視野の画像であって、かつ視差を有する画像である。
 なお、本実施の形態にかかる撮像部244は、左眼用光学系243aおよび右眼用光学系243bにそれぞれ対応する二つの撮像素子を有するものとして説明するが、一枚の画像を構成する1フレーム分の電気信号を生成する。なお、本実施の形態では、左眼用光学系243aおよび右眼用光学系243bがそれぞれ結像した光を、左眼用光学系243aおよび右眼用光学系243bに応じて二つの撮像素子により受光するものとして説明するが、同一の撮像素子によって受光領域を分けて受光するようにしてもよい。
 操作部22は、湾曲部25を上下方向および左右方向に湾曲させる湾曲ノブ221と、被検体の体腔に生検鉗子、電気メスおよび検査プローブ等の処置具を挿入する処置具挿入部222と、処理装置3に加えて、送気手段、送水手段や、フリーズ処理等による画面表示制御の操作指示信号を入力する操作入力部である複数のスイッチ223と、を有する。処置具挿入部222から挿入される処置具は、先端部24の処置具チャンネル(図示せず)を経由して開口部(図示せず)から表出する。複数のスイッチ223には、後述するレリーズ指示を入力するためのスイッチや、フリーズ指示を入力するためのスイッチなどが、独立して設けられている。
 ユニバーサルコード23は、ライトガイド241と、一または複数の信号線をまとめた集合ケーブル245と、を少なくとも内蔵している。集合ケーブル245は、画像信号を伝送するための信号線や、撮像部244を駆動するための駆動信号を伝送するための信号線、内視鏡2(撮像部244)に関する固有情報等を含む情報を送受信するための信号線を含む。なお、本実施の形態では、信号線を用いて電気信号を伝送するものとして説明するが、光信号を伝送するものであってもよいし、無線通信により内視鏡2と処理装置3との間で信号を伝送するものであってもよい。
 また、内視鏡2は、当該内視鏡2の情報を記録するメモリ224を有している。このメモリ224には、内視鏡2の種別、型番、左眼用撮像素子244a、右眼用撮像素子244bの種別等を示す識別情報を記録する。なお、メモリ224は、ホワイトバランス(WB)調整用のパラメータや、内視鏡2の製造時のばらつき補正値等、左眼用撮像素子244aおよび右眼用撮像素子244bが撮像した画像データに対する画像処理用の各種パラメータを記録していてもよい。
 内視鏡2の処理装置3への装着時、処理装置3との通信処理によって、上述した内視鏡2の情報を処理装置3に出力する。或いは、内視鏡2の情報に対応した規則に従ってコネクタに接続ピンが設けてあり、処理装置3は、内視鏡2の装着時に処理装置3側の接続ピンと内視鏡2側の接続ピンとの接続状態をもとに内視鏡2の接続を認識する場合もある。
 次に、処理装置3の構成について説明する。処理装置3は、前処理部31と、フリーズ処理部32と、フレームメモリ33と、表示用画像生成部34と、記録用画像生成部35と、入力部36と、制御部37と、記憶部38と、を備える。
 前処理部31は、左眼用撮像素子244aから出力された左眼用画像データ(アナログ)、および右眼用撮像素子244bから出力された右眼用画像データ(アナログ)に対して、黒レベルを決定するOBクランプ処理や、ホワイトバランス等の補正処理、ゲイン調整処理、ノイズ除去処理、A/D変換処理、デモザイキング処理を施す。前処理部31は、上述した信号処理によりRGBの色成分が付与された左眼用画像を含む左眼用画像データ(デジタル)、および右眼用画像を含む右眼用画像データ(デジタル)を生成し、フリーズ処理部32およびフレームメモリ33に出力する。以下、左眼用画像データおよび右眼用画像データをまとめて画像データということもある。
 フリーズ処理部32は、スイッチ223の押下によるレリーズ指示信号の入力を受け付けた場合に、フレームメモリ33から、表示装置4にフリーズ表示する画像を選択して表示用画像生成部34および記録用画像生成部35に出力する。また、フリーズ処理部32は、スイッチ223の押下によるフリーズ指示信号の入力を受け付けた場合に、フレームメモリ33から、表示装置4にフリーズ表示する画像を選択して表示用画像生成部34に出力する。フリーズ処理部32は、レリーズ指示信号またはフリーズ指示信号の入力を受け付けていない場合は、フレームメモリ33における所定の画像データ、例えば時系列で最新の画像データを表示用画像生成部34に出力する。なお、フリーズ処理部32は、フリーズ対象の画像データを選択後、フリーズ処理による静止画表示期間内では、前処理部31から入力される処理信号をフレームメモリ33に出力する処理のみを行う。フリーズ処理部32は、フリーズ処理が解除された後、前処理部31から新たに入力される画像データを含めて、フレームメモリ33から所定の画像データの選択を行う。このため、レリーズ処理またはフリーズ処理後において表示装置4に表示される画像は、フリーズ処理による静止画表示期間における最新の画像データが抜けた、フリーズ処理前とは時系列的に間があいた画像になる。このため、フリーズ処理前後に表示される画像において、時系列で隣り合う画像を動画表示する場合と比して、被写体像の変化が大きくなる場合がある。
 フリーズ処理部32は、フレームメモリ33に記憶されている画像、例えば左眼用画像からぶれの小さい左眼用画像をベストフレームとして選択する。フリーズ処理部32は、選択したベストフレームの左眼用画像と右眼用画像とをフレームメモリ33から取得して、表示用画像生成部34および記録用画像処理部35に出力する。具体的に、フリーズ処理部32は、レリーズ指示信号またはフリーズ指示信号の入力があった際に、フレームメモリ33に記憶されている複数の左眼用画像のぶれを算出し、算出したぶれに基づいてベストフレームを選択してもよいし、前処理部31から画像データが入力される都度、この画像データに応じた左眼用画像のぶれを算出して、算出したぶれと当該左眼用画像のフレーム番号とを対応付けてフレームメモリ33に記憶させるものであってもよい。画像のぶれは、公知の算出方法を用いて算出される。
 フレームメモリ33は、前処理部31により生成された画像データを設定されたフレーム分記憶する。本実施の形態では、フレームメモリ33は、数フレーム分の画像データを記憶する。フレームメモリ33は、新たな画像データが入力されると、現在記憶している画像データのうち、最も古い画像データを、新たな画像データで上書きすることで、取得時間の新しい方から順に数フレーム分の画像データを順次更新しながら記憶する。
 表示用画像生成部34は、フリーズ処理部32が選択した画像データに対して、左眼用画像と右眼用画像とを互いにずらして視差を生じさせた視差画像を生成し、表示装置4で表示可能な態様の信号となるような信号処理を施して、表示用の画像信号を生成する。具体的に、表示用画像生成部34は、左眼用画像および右眼用画像を含む画像信号に対して、CMS(Color Management System)、γ補正、ズーム処理、エンハンス処理、圧縮処理等を行った後、予め設定されているシフト量に基づいて右眼用画像と左眼用画像とを相対的にシフトさせて、表示用の画像信号を生成する。CMSは、異なる装置間(ここでは内視鏡2と表示装置4との間)の色を統一的に管理するシステムである。表示用画像生成部34は、フリーズ処理部32から入力された画像データに応じた内視鏡画像を含む画像情報と、該画像情報に関する文字情報とを重畳した合成画像を表示用画像として生成する。表示用画像生成部34は、生成した表示用画像の画像データを表示装置4に送信する。
 ここで、表示用画像生成部34が生成する視差画像について、図3を参照して説明する。図3は、本発明の一実施の形態にかかる内視鏡システムが生成する視差画像について説明する図である。表示用画像生成部34は、図3に示すように、左眼用画像IMLにおける水平ラインのライン画像DLと、右眼用画像IMRの水平ラインのライン画像DRとを、設定されたシフト量に応じてずらして交互に配置することによって視差画像IMDを生成する。具体的に、表示用画像生成部34は、左眼用画像IMLが有する奇数ラインのライン画像DLと、右眼用画像IMRが有する偶数ラインのライン画像DRとを、設定されたシフト量に応じてずらして交互に配置する。このような視差画像IMDは、ラインバイライン画像ともいわれる。ここでいう水平ラインとは、複数の画素がマトリックス状に配置された撮像素子において、一方の配列方向に沿って配置されている画素が形成するラインに相当する。
 また、表示用画像生成部34は、フリーズ処理部32から入力される画像データが、レリーズ対象またはフリーズ対象である場合は、予め設定されている期間、例えば、数フレームの画像を表示する期間、表示装置4に対象の画像を静止画表示させる。
 記録用画像生成部35は、フリーズ処理部32が選択した画像データに対して、左眼用画像と右眼用画像とを互いにずらして視差を生じさせた視差画像を生成し、これを記録用の画像データとする。視差画像としては、上述したラインバイライン画像や、左眼用画像と右眼用画像とを水平ラインの方向に沿って並べたサイドバイサイド画像が挙げられる。記録用画像生成部35が生成する視差画像は、上述した表示用画像生成部34が生成する視差画像とは異なり、前処理部31による前処理後の画像であって、かつズーム処理等の表示用の画像処理が施されていない画像となる。記録用画像生成部35は、例えば、生成した画像データを、ズーム処理等のパラメータ、および内視鏡2の固有情報とともに記録媒体5に記録させる。この際、パラメータや内視鏡2の固有情報は、ラインバイライン化した画像のヘッダ部分等に埋め込むようにしてもよいし、画像データとは別に、該画像データと対応付けたテキストファイルとして記録するようにしてもよい。
 前処理部31、フリーズ処理部32、表示用画像生成部34および記録用画像生成部35は、CPU(Central Processing Unit)等の汎用プロセッサや、ASIC(Application Specific Integrated Circuit)、処理内容を書き換え可能なプログラマブルロジックデバイスであるFPGA(Field Programmable Gate Array)等の特定の機能を実行する各種演算回路等の専用プロセッサを用いて構成される。
 入力部36は、キーボード、マウス、スイッチ、タッチパネルを用いて実現され、内視鏡システム1の動作を指示する動作指示信号等の各種信号の入力を受け付ける。なお、入力部36は、操作部22に設けられたスイッチや、外部のタブレット型のコンピュータなどの可搬型端末を含んでいてもよい。
 制御部37は、撮像部244および光源部3aを含む各構成部の駆動制御、および各構成部に対する情報の入出力制御などを行う。制御部37は、記憶部38に記憶されている撮像制御のための制御情報データ(例えば、読み出しタイミングなど)を参照し、集合ケーブル245に含まれる所定の信号線を介して駆動信号として撮像部244へ送信する。制御部37は、CPU等の汎用プロセッサや、ASIC、FPGA等の特定の機能を実行する各種演算回路等の専用プロセッサを用いて構成される。
 また、制御部37は、入力部36が受け付けた指示信号に基づいて、フリーズ処理部32によるフリーズ制御を行う。
 記憶部38は、内視鏡システム1を動作させるための各種プログラム、および内視鏡システム1の動作に必要な各種パラメータ等を含むデータを記憶する。また、記憶部38は、処理装置3の識別情報を記憶する。ここで、識別情報には、処理装置3の固有情報(ID)、年式およびスペック情報等が含まれる。
 また、記憶部38は、処理装置3の画像取得処理方法を実行するための画像取得処理プログラムを含む各種プログラムを記憶する。各種プログラムは、ハードディスク、フラッシュメモリ、CD-ROM、DVD-ROM、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に記録して広く流通させることも可能である。なお、上述した各種プログラムは、通信ネットワークを介してダウンロードすることによって取得することも可能である。ここでいう通信ネットワークは、例えば既存の公衆回線網、LAN(Local Area Network)、WAN(Wide Area Network)などによって実現されるものであり、有線、無線を問わない。
 以上の構成を有する記憶部38は、各種プログラム等が予めインストールされたROM(Read Only Memory)、および各処理の演算パラメータやデータ等を記憶するRAM(Random Access Memory)やハードディスク等を用いて実現される。
 続いて、光源部3aの構成について説明する。光源部3aは、照明部301と、照明制御部302と、を備える。照明部301は、照明制御部302の制御のもと、被写体(被検体)に対して、異なる露光量の照明光を順次切り替えて出射する。照明部301は、光源301aと、光源ドライバ301bと、を有する。
 光源301aは、白色光を出射するLED光源や、一または複数のレンズ等を用いて構成され、LED光源の駆動により光(照明光)を出射する。光源301aが発生した照明光は、ライトガイド241を経由して先端部24の先端から被写体に向けて出射される。本実施の形態1では、膀胱内の観察に適したNBI観察を行うため、光源301aが、青色の狭帯域の光(例えば390nm~445nm)および緑色の狭帯域の光(例えば530nm~550nm)からなる狭帯域光を照明光として出射する。また、光源301aは、LED光源や、レーザー光源、キセノンランプ、ハロゲンランプなどのいずれかを用いて実現される。
 光源ドライバ301bは、照明制御部302の制御のもと、光源301aに対して電力を供給することにより、光源301aに照明光を出射させる。
 照明制御部302は、制御部37からの制御信号(調光信号)に基づいて、光源301aに供給する電力量を制御するとともに、光源301aの駆動タイミングを制御する。
 表示装置4は、映像ケーブルを介して処理装置3(表示用画像生成部34)から受信した画像信号に対応する表示画像を表示する。表示装置4は、液晶または有機EL(Electro Luminescence)等のモニタを用いて構成される。
 計測装置6は、記録媒体5からデータを読み込みこんで記録用画像生成部35が生成した視差画像を取得し、該視差画像を表示するとともに、内視鏡2から被写体までの距離を計測する。ユーザが、表示された画像に対して入力部等を介して計測する箇所を指示することによって、計測装置6が、計測点における距離の計測を行う。計測方法は、ステレオ計測(例えば三角測量)等、公知の方法により計測することができる。
 続いて、内視鏡システム1が行う画像処理について説明する。図4は、本発明の一実施の形態にかかる内視鏡システムが行う画像処理を示すフローチャートである。以下、制御部37の制御のもと、各部が動作するものとして説明する。
 まず、前処理部31が、内視鏡2から画像データを受信する(ステップS101)。前処理部31は、画像データを受信すると、この画像データに対して上述した前処理を施して、処理後の画像データをフリーズ処理部32およびフレームメモリ33に出力する(ステップS102)。
 ステップS102に続くステップS103において、制御部37は、スイッチ223を介してレリーズ指示が入力されたか否かを判断する。制御部37は、レリーズ指示の入力があると判断すると(ステップS103:Yes)、ステップS104に移行する。
 ステップS104において、フリーズ処理部32は、フレームメモリ33に記憶されている画像からベストフレームを選択する。制御部37は、フリーズ処理部32による画像の選択後、ステップS105およびステップS106に移行する。ステップS104においては、フリーズ処理部32によって選択されたベストフレームの画像が、表示用画像生成部34および記録用画像生成部35に出力される。この場合に選択される画像は、ベストフレームの左眼用画像および右眼用画像である。
 ステップ105では、表示用画像生成部34が、表示用の画像データの生成を行う。表示用画像生成部34は、フリーズ処理部32により選択されたベストフレームの左眼用画像および右眼用画像に基づいて、ズーム処理等を施した視差画像を生成する。
 ステップS105と並行して、記録用画像生成部35が、記録用の画像データの生成を行う(ステップS106)。記録用画像生成部35は、フリーズ処理部32により選択された左眼用画像および右眼用画像に基づいて、ズーム処理等が施されていない視差画像を生成する。
 ステップS105およびステップS106において視差画像がそれぞれ生成されると、記録用画像生成部35が、記録媒体5への記録処理を行う(ステップS107)。記録用画像生成部35は、ステップS106において生成された視差画像と、ズーム処理などのパラメータ、および内視鏡2の固有情報とを対応付けて、記録媒体5に記録させる。制御部37は、記録媒体5への記録後、ステップS113に移行する。
 これに対して、制御部37は、レリーズ指示の入力がないと判断すると(ステップS103:No)、ステップS108に移行する。
 ステップS108において、制御部37は、スイッチ223を介してフリーズ指示が入力されたか否かを判断する。制御部37は、フリーズ指示の入力があると判断すると(ステップS108:Yes)、ステップS109に移行する。
 ステップS109において、フリーズ処理部32は、フレームメモリ33に記憶されている画像からベストフレームを選択する。制御部37は、フリーズ処理部32による画像の選択後、ステップS110に移行する。ステップS109においては、フリーズ処理部32によって選択されたベストフレームの左眼用画像および右眼用画像が、表示用画像生成部34に出力される。
 ステップS110では、表示用画像生成部34が、表示用の画像データの生成を行う。表示用画像生成部34は、フリーズ処理部32により選択されたベストフレームの左眼用画像および右眼用画像に基づいて、ズーム処理等を施した視差画像を生成する。制御部37は、視差画像の生成後、ステップS113に移行する。
 これに対して、制御部37は、フリーズ指示の入力がないと判断すると(ステップS108:No)、ステップS111に移行する。
 ステップS111において、フリーズ処理部32は、フレームメモリ33に記憶されている画像から所定のフレームを選択する。フリーズ処理部32は、フレームメモリ33における所定の画像データ、例えば時系列で最新のフレームを選択する。制御部37は、フリーズ処理部32による画像の選択後、ステップS112に移行する。ステップS111においては、フリーズ処理部32によって選択された最新フレームの左眼用画像および右眼用画像が、表示用画像生成部34に出力される。
 ステップS112では、表示用画像生成部34が、表示用の画像データの生成を行う。表示用画像生成部34は、フリーズ処理部32により選択された最新フレームの左眼用画像および右眼用画像に基づいて、ズーム処理等を施した視差画像を生成する。制御部37は、視差画像の生成後、ステップS113に移行する。
 ステップS113では、制御部37の制御のもと、表示用画像生成部34が、生成した視差画像を含む表示画像を、表示装置4に出力させる。
 なお、ステップS107における記録処理と、ステップS113における表示処理とは、ステップS113を先に行ってもよいし、同時に行うようにしてもよい。
 上述した本発明の一実施の形態によれば、フリーズ指示により選択された画像について、表示用にズーム処理等を施して視差画像を生成するとともに、計測用に記録する画像としてズーム処理を施さずに視差画像を生成し、記録媒体5に記録させるようにした。これにより、ズーム処理等によって補間等が施されて計測精度の低下を招くような視差画像ではなく、ズーム処理等による補間等が施されていない視差画像を含むデータが記録媒体5に記録されることになる。この結果、本実施の形態によれば、処理装置3とは異なる装置である計測装置6が記録媒体5に記録したデータを用いて距離計測処理を行う場合に、計測精度の低下を抑制することができる。
 また、上述した本実施の形態によれば、記録媒体5が、前処理部31によって信号処理が施された画像データをもとに記録用画像生成部35が生成した視差画像を記録するようにしたので、撮像部244から出力される左眼用RAWデータおよび右眼用RAWデータを記録する場合と比して、1フレーム分に要するデータ量を小さくすることができる。計測装置6においてズーム処理等の画像処理を行う場合に、この画像データと関連付けてパラメータを記録させるようにすれば、データ量の増大を抑制することが可能である。
 なお、上述した本実施の形態では、フリーズ処理部32によるフリーズ処理後の画像データを抽出して記録媒体5に記録するものとして説明したが、フリーズ処理部32によるフリーズ処理前の画像データを記録用画像生成部35に出力するようにしてもよい。表示用画像生成部34による画像処理(ズーム処理など)の前の画像データを用いるものであれば、上述した計測精度の低下を抑制することが可能である。
 また、上述した実施の形態では、記録用画像生成部35が、視差画像と、ズーム処理などのパラメータ、および内視鏡2の固有情報とを対応付けて、記録媒体5に記録させるものとして説明したが、視差画像と、メモリ224に記録されている内視鏡2の情報、例えば内視鏡2の固有情報とを有するデータを記録用のデータとしてもよいし、内視鏡2の固有情報を含まないデータを記録用のデータとしてもよい。記録用のデータが内視鏡2の固有情報を有していれば、計測装置6において、内視鏡2の固有情報のばらつきを加味した計測処理を行うことが可能である。
 また、上述した実施の形態では、視差画像が、ラインバイライン画像であるものを例に説明したが、これに限らず、視差を有する画像、例えば、左眼用画像IMLと、右眼用画像IMRとを水平ラインの方向に沿って並べたサイドバイサイド画像であってもよい。また、一枚の視差画像に限らず、例えばフレームシーケンシャル方式のように、左眼用画像と、右眼用画像とを交互に出力して、記録媒体5に記録させるようにしてもよい。
 また、上述した実施の形態において、前処理部31が、OBクランプ処理や、ホワイトバランス等の補正処理、ゲイン調整処理、ノイズ除去処理、A/D変換処理、デモザイキング処理を施すものとして説明したが、補正処理までを前処理部31が行い、ゲイン調整処理以降の処理を表示用画像生成部34が行うようにしてもよい。すなわち、上述した実施の形態では、フリーズ処理前の画像データが、デモザイキング処理後の画像データであったが、例えば、補正処理までが施された画像データの場合もある。
 また、上述した実施の形態では、光源部3aから狭帯域の光が出射され、撮像部244が照明光による反射光を受光する同時式の照明/撮像方式であるものを前提に説明したが、光源部3aが、各色成分の狭帯域の光を個別に順次出射して、撮像部244が、各色成分の光をそれぞれ受光する面順次式の照明/撮像方式であってもよい。
 また、上述した実施の形態では、光源部3aが内視鏡2とは別体で構成されているものとして説明したが、例えば、内視鏡2の先端に半導体光源を設けるなど、光源装置を内視鏡2に設けた構成であってもよい。さらに、内視鏡2に処理装置3の機能を付与してもよい。
 また、上述した実施の形態では、光源部3aが、処理装置3とは一体であるものとして説明したが、光源部3aおよび処理装置3が別体であって、例えば処理装置3の外部に照明部301および照明制御部302が設けられているものであってもよい。また、光源301aが先端部24の先端に設けられているものであってもよい。
 また、上述した実施の形態では、本発明にかかる内視鏡システムが、観察対象が被検体内の生体組織などである軟性の内視鏡2を用いた内視鏡システム1であるものとして説明したが、硬性の内視鏡や、材料の特性を観測する工業用の内視鏡、カプセル型の内視鏡、ファイバースコープ、光学視管などの光学内視鏡の接眼部にカメラヘッドを接続したものを用いた内視鏡システムであっても適用できる。
 また、上述した実施の形態では、内視鏡システムを例に挙げて説明したが、例えばデジタルスチルカメラ等に設けられるEVF(Electronic View Finder)に映像を出力する場合にも適用可能である。
 以上のように、本発明にかかる画像処理装置および画像処理システムは、記録媒体に記録したデータを用いて距離計測処理を行う場合に、計測精度の低下を抑制するのに有用である。
 1 内視鏡システム
 2 内視鏡
 3 処理装置
 3a 光源部
 4 表示装置
 5 記録媒体
 6 計測装置
 21 挿入部
 22 操作部
 23 ユニバーサルコード
 24 先端部
 25 湾曲部
 26 可撓管部
 31 前処理部
 32 フリーズ処理部
 33 フレームメモリ
 34 表示用画像生成部
 35 記録用画像生成部
 36 入力部
 37 制御部
 38 記憶部
 301 照明部
 302 照明制御部

Claims (9)

  1.  同一の被写体を異なる方向から撮像した第1および第2画像をもとに視差画像を生成する画像処理装置であって、
     前記第1および第2画像に基づいて、少なくともズーム処理を施すことによって表示用の視差画像を生成する表示用画像生成部と、
     前記表示用画像生成部による前記ズーム処理前の前記第1および第2画像に基づいて、外部の記録媒体に記録する記録用の画像を生成する記録用画像生成部と、
     を備えることを特徴とする画像処理装置。
  2.  前記視差画像をフリーズ表示しつつ、該フリーズ表示した視差画像を記録する旨の指示を受け付けた場合に、各々が前記第1および第2画像からなる複数組のなかから、フリーズ対象の前記第1および第2画像を選択するフリーズ処理部、
     をさらに備えることを特徴とする請求項1に記載の画像処理装置。
  3.  前記記録用画像生成部は、前記フリーズ処理部により選択された前記第1および第2画像に基づいて前記記録用の画像を生成する
     ことを特徴とする請求項2に記載の画像処理装置。
  4.  前記記録用画像生成部は、前記記録用の画像と、前記視差画像を入力する内視鏡に記録されている情報とを前記外部の記録媒体に記録させる
     ことを特徴とする請求項3に記載の画像処理装置。
  5.  前記第1および第2画像に対し、前処理として少なくともOBクランプ処理およびホワイトバランス処理を施す前処理部、
     をさらに備え、
     前記記録用画像生成部は、前記前処理部による前処理後の前記第1および第2画像に基づいて前記記録用の画像を生成する
     ことを特徴とする請求項1に記載の画像処理装置。
  6.  前記記録用画像生成部は、前記記録用の画像に関する画像処理のパラメータを、該記録用の画像とともに前記外部の記録媒体に記録させる
     ことを特徴とする請求項1に記載の画像処理装置。
  7.  前記表示用画像生成部は、前記第1および第2画像を、撮像素子の水平方向に並べて配置したサイドバイサイド画像、または、前記第1および第2画像を、前記水平方向のラインごとに交互に配置したラインバイライン画像を前記表示用の視差画像として生成する
     ことを特徴とする請求項1に記載の画像処理装置。
  8.  前記記録用画像生成部は、前記第1および第2画像を、撮像素子の水平方向に並べて配置したサイドバイサイド画像、または、前記第1および第2画像を、前記水平方向のラインごとに交互に配置したラインバイライン画像を前記記録用の画像として生成する
     ことを特徴とする請求項1に記載の画像処理装置。
  9.  同一の被写体を異なる方向から撮像することによって第1および第2画像を含む画像データを生成する撮像部と、
     前記第1および第2画像に基づいて、少なくともズーム処理を施すことによって表示用の視差画像を生成する表示用画像生成部と、前記表示用画像生成部による前記ズーム処理前の前記第1および第2画像に基づいて、外部の記録媒体に記録する記録用の画像を生成する記録用画像生成部と、を有する画像処理装置と、
     を備えることを特徴とする画像処理システム。
PCT/JP2017/037743 2016-10-31 2017-10-18 画像処理装置および画像処理システム WO2018079387A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018515161A JPWO2018079387A1 (ja) 2016-10-31 2017-10-18 画像処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-213253 2016-10-31
JP2016213253 2016-10-31

Publications (1)

Publication Number Publication Date
WO2018079387A1 true WO2018079387A1 (ja) 2018-05-03

Family

ID=62023508

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/037743 WO2018079387A1 (ja) 2016-10-31 2017-10-18 画像処理装置および画像処理システム

Country Status (2)

Country Link
JP (1) JPWO2018079387A1 (ja)
WO (1) WO2018079387A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02213287A (ja) * 1989-02-13 1990-08-24 Olympus Optical Co Ltd 画像フリーズ用信号処理装置
JPH10323326A (ja) * 1997-05-23 1998-12-08 Olympus Optical Co Ltd 内視鏡装置
JP2013123215A (ja) * 2011-11-07 2013-06-20 Panasonic Corp 撮像装置、コントローラおよびコンピュータプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02213287A (ja) * 1989-02-13 1990-08-24 Olympus Optical Co Ltd 画像フリーズ用信号処理装置
JPH10323326A (ja) * 1997-05-23 1998-12-08 Olympus Optical Co Ltd 内視鏡装置
JP2013123215A (ja) * 2011-11-07 2013-06-20 Panasonic Corp 撮像装置、コントローラおよびコンピュータプログラム

Also Published As

Publication number Publication date
JPWO2018079387A1 (ja) 2018-11-01

Similar Documents

Publication Publication Date Title
JP6329715B1 (ja) 内視鏡システムおよび内視鏡
JP5245022B1 (ja) 撮像装置
JP7294776B2 (ja) 内視鏡プロセッサ、表示設定方法、表示設定プログラムおよび内視鏡システム
CN107113405B (zh) 图像处理装置、图像处理装置的工作方法、记录介质和内窥镜装置
US20190082936A1 (en) Image processing apparatus
WO2016084257A1 (ja) 内視鏡装置
WO2016104386A1 (ja) 調光装置、撮像システム、調光装置の作動方法および調光装置の作動プログラム
WO2020178962A1 (ja) 内視鏡システムおよび画像処理装置
US10729309B2 (en) Endoscope system
WO2016088628A1 (ja) 画像評価装置、内視鏡システム、画像評価装置の作動方法および画像評価装置の作動プログラム
US10462440B2 (en) Image processing apparatus
JP5815162B2 (ja) 撮像装置
JP6346501B2 (ja) 内視鏡装置
JP6503522B1 (ja) 画像処理装置、画像処理システムおよび画像処理方法
WO2018079387A1 (ja) 画像処理装置および画像処理システム
JP6937902B2 (ja) 内視鏡システム
JP2017123997A (ja) 撮像システムおよび処理装置
JP6801990B2 (ja) 画像処理システムおよび画像処理装置
JP2018007840A (ja) 画像処理装置
JP6663692B2 (ja) 画像処理装置、内視鏡システム、及び画像処理装置の制御方法
WO2017022323A1 (ja) 画像信号処理方法、画像信号処理装置および画像信号処理プログラム
JP2017221276A (ja) 画像処理装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018515161

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17865363

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17865363

Country of ref document: EP

Kind code of ref document: A1