WO2021095697A1 - 情報処理装置、生成方法及び生成プログラム - Google Patents

情報処理装置、生成方法及び生成プログラム Download PDF

Info

Publication number
WO2021095697A1
WO2021095697A1 PCT/JP2020/041782 JP2020041782W WO2021095697A1 WO 2021095697 A1 WO2021095697 A1 WO 2021095697A1 JP 2020041782 W JP2020041782 W JP 2020041782W WO 2021095697 A1 WO2021095697 A1 WO 2021095697A1
Authority
WO
WIPO (PCT)
Prior art keywords
smoke
image
unit
mist
input image
Prior art date
Application number
PCT/JP2020/041782
Other languages
English (en)
French (fr)
Inventor
菊地 大介
穂 高橋
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to JP2021556089A priority Critical patent/JPWO2021095697A1/ja
Priority to US17/755,684 priority patent/US20220405900A1/en
Publication of WO2021095697A1 publication Critical patent/WO2021095697A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Definitions

  • This disclosure relates to an information processing device, a generation method, and a generation program.
  • Patent Document 1 discloses a device that operates a pneumoperitoneum device to remove smoke when smoke is detected from an captured endoscopic image.
  • Patent Document 2 when smoke is detected from the captured endoscopic image, the smoke is removed from the endoscopic image by uniform signal processing, and then the smoke exhaust device is controlled according to the smoke detection result.
  • a device for removing smoke is disclosed.
  • Patent Document 1 even if the presence or absence of smoke is detected, the amount of smoke is not detected, and depending on the amount of smoke generated, it may not be possible to sufficiently remove the smoke. Further, in Patent Document 1, since smoke is physically excluded, it takes time until the smoke is discharged and the field of view becomes clear.
  • Patent Document 2 smoke is removed from an endoscopic image by uniform signal processing regardless of the amount of smoke generated, and the effect of signal processing is limited depending on the amount of smoke generated, and smoke removal. After all, the effect of is dependent on the performance of the smoke exhaust device.
  • the information processing apparatus of one form according to the present disclosure acquires an input image which is an image related to the operation, and whether or not the input image contains a substance generated during the operation. Based on this, it includes a generation unit that generates an output image.
  • FIG. 1 is a diagram showing an example of an operation in which the operating room system 5100 using the technical idea according to the present disclosure is applied.
  • the ceiling camera 5187 and the operating room camera 5189 are provided on the ceiling of the operating room, and can photograph the hand of the surgeon (doctor) 5181 who treats the affected part of the patient 5185 on the patient bed 5183 and the entire operating room. Is.
  • the ceiling camera 5187 and the operating field camera 5189 may be provided with a magnification adjustment function, a focal length adjustment function, a shooting direction adjustment function, and the like.
  • the illumination 5191 is provided on the ceiling of the operating room and illuminates at least the hands of the surgeon 5181.
  • the illumination 5191 may be capable of appropriately adjusting the amount of irradiation light, the wavelength (color) of the irradiation light, the irradiation direction of the light, and the like.
  • the endoscopic surgery system 5113, the patient bed 5183, the sealing camera 5187, the operating room camera 5189, and the lighting 5191 are connected to each other in a coordinated manner via an audiovisual controller and an operating room controller (not shown).
  • a centralized operation panel 5111 is provided in the operating room, and the user can appropriately operate these devices existing in the operating room through the centralized operation panel 5111.
  • the endoscopic surgery system 5113 includes an endoscope 5115, other surgical tools 5131, a support arm device 5141 that supports the endoscope 5115, and various devices for endoscopic surgery. It is composed of a cart 5151 equipped with the above.
  • troccas 5139a-5139d are punctured into the abdominal wall.
  • the lens barrel 5117 of the endoscope 5115 and other surgical tools 5131 are inserted into the body cavity of the patient 5185.
  • a tube 5133, an energy treatment tool 5135, and forceps 5137 are inserted into the body cavity of patient 5185.
  • the tube 5133 may be configured to exhaust the smoke generated in the body cavity to the outside of the body cavity.
  • the tube 5133 may have a function of injecting gas into the body cavity to inflate the body cavity.
  • the energy treatment tool 5135 is a treatment tool that cuts and peels tissue, seals a blood vessel, or the like by using a high-frequency current or ultrasonic vibration.
  • the surgical tool 5131 shown is only an example, and as the surgical tool 5131, various surgical tools generally used in endoscopic surgery such as a sword and a retractor may be used.
  • the image of the surgical site in the body cavity of the patient 5185 taken by the endoscope 5115 is displayed on the display device 5155. While viewing the image of the surgical site displayed on the display device 5155 in real time, the surgeon 5181 uses the energy treatment tool 5135 and forceps 5137 to perform a procedure such as excising the affected area. Although not shown, the tube 5133, the energy treatment tool 5135, and the forceps 5137 are supported by the surgeon 5181 or an assistant during the operation.
  • the support arm device 5141 includes an arm portion 5145 extending from the base portion 5143.
  • the arm portion 5145 is composed of joint portions 5147a, 5147b, 5147c, and links 5149a, 5149b, and is driven by control from the arm control device 5159.
  • the endoscope 5115 is supported by the arm portion 5145, and its position and posture are controlled. Thereby, the stable position of the endoscope 5115 can be fixed.
  • the endoscope 5115 is composed of a lens barrel 5117 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 5185, and a camera head 5119 connected to the base end of the lens barrel 5117.
  • the endoscope 5115 configured as a so-called rigid mirror having a rigid barrel 5117 is illustrated, but the endoscope 5115 is configured as a so-called flexible mirror having a flexible barrel 5117. May be good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 5117.
  • a light source device 5157 is connected to the endoscope 5115, and the light generated by the light source device 5157 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 5117, and is an objective. It is irradiated toward the observation target in the body cavity of the patient 5185 through the lens.
  • the endoscope 5115 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 5119, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image sensor, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 5153.
  • the camera head 5119 is equipped with a function of adjusting the magnification and the focal length by appropriately driving the optical system.
  • the camera head 5119 may be provided with a plurality of image pickup elements.
  • a plurality of relay optical systems are provided inside the lens barrel 5117 in order to guide the observation light to each of the plurality of image pickup elements.
  • the CCU 5153 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 5115 and the display device 5155. Specifically, the CCU 5153 performs various image processing for displaying an image based on the image signal, such as a development process (demosaic process), on the image signal received from the camera head 5119.
  • CCU5153 provides the image signal subjected to the image processing to the display device 5155.
  • the audiovisual controller described above is connected to the CCU 5153.
  • CCU5153 also provides the image processed image signal to the audiovisual controller 5107. Further, the CCU 5153 transmits a control signal to the camera head 5119 and controls the driving thereof.
  • the control signal may include information about imaging conditions such as magnification and focal length. The information regarding the imaging condition may be input via the input device 5161 or may be input via the centralized operation panel 5111 described above.
  • the display device 5155 displays an image based on the image signal processed by the CCU 5153 under the control of the CCU 5153.
  • the endoscope 5115 is compatible with high-resolution shooting such as 4K (3840 horizontal pixels x 2160 vertical pixels) or 8K (7680 horizontal pixels x 4320 vertical pixels), and / or 3D display.
  • the display device 5155 a device capable of displaying a high resolution and / or a device capable of displaying in 3D can be used.
  • the display device is compatible with high-resolution shooting such as 4K or 8K, a more immersive feeling can be obtained by using a display device 5155 having a size of 55 inches or more.
  • a plurality of display devices 5155 having different resolutions and sizes may be provided depending on the application.
  • the light source device 5157 is composed of, for example, a light source such as an LED (light LED radio), and supplies irradiation light for photographing the surgical site to the endoscope 5115.
  • a light source such as an LED (light LED radio)
  • the arm control device 5159 is composed of a processor such as a CPU, and operates according to a predetermined program to control the drive of the arm portion 5145 of the support arm device 5141 according to a predetermined control method.
  • the input device 5161 is an input interface for the endoscopic surgery system 5113.
  • the user can input various information and input instructions to the endoscopic surgery system 5113 via the input device 5161.
  • the user inputs various information related to the surgery, such as physical information of the patient and information about the surgical procedure, via the input device 5161.
  • the user gives an instruction to drive the arm portion 5145 via the input device 5161 and an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 5115.
  • Input an instruction to drive the energy treatment tool 5135, and the like.
  • the type of the input device 5161 is not limited, and the input device 5161 may be various known input devices.
  • the input device 5161 for example, a mouse, a keyboard, a touch panel, a switch, a foot switch 5171 and / or a lever and the like can be applied.
  • the touch panel may be provided on the display surface of the display device 5155.
  • the input device 5161 is a device worn by the user, such as a glasses-type wearable device or an HMD (Head Mounted Display), and various inputs are made according to the user's gesture and line of sight detected by these devices. Is done. Further, the input device 5161 includes a camera capable of detecting the movement of the user, and various inputs are performed according to the gesture and the line of sight of the user detected from the image captured by the camera. Further, the input device 5161 includes a microphone capable of picking up the user's voice, and various inputs are performed by voice through the microphone.
  • a glasses-type wearable device or an HMD Head Mounted Display
  • the input device 5161 By configuring the input device 5161 to be able to input various information in a non-contact manner in this way, a user belonging to a clean area (for example, an operator 5181) can operate a device belonging to a dirty area in a non-contact manner. Is possible. In addition, the user can operate the device without taking his / her hand off the surgical tool that he / she has, which improves the convenience of the user.
  • the treatment tool control device 5163 controls the drive of the energy treatment tool 5135 for cauterizing, incising, sealing blood vessels, and the like of tissues.
  • the smoke evacuating device 5165 sends gas into the body cavity of the patient 5185 through the tube 5133 for the purpose of securing the field of view by the endoscope 5115 and securing the working space of the operator. .. Further, the smoke exhaust device 5165 has a function of exhausting smoke generated in the body cavity in order to secure a field of view by the endoscope 5115.
  • Recorder 5167 is a device capable of recording various information related to surgery.
  • the printer 5169 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the support arm device 5141 includes a base portion 5143 that is a base, and an arm portion 5145 that extends from the base portion 5143.
  • the arm portion 5145 is composed of a plurality of joint portions 5147a, 5147b, 5147c and a plurality of links 5149a, 5149b connected by the joint portions 5147b.
  • the configuration of the arm portion 5145 is shown in a simplified manner. Actually, the shapes, numbers and arrangements of the joint portions 5147a to 5147c and the links 5149a and 5149b, and the direction of the rotation axis of the joint portions 5147a to 5147c are appropriately set so that the arm portion 5145 has a desired degree of freedom. obtain.
  • the arm portion 5145 can be preferably configured to have at least 6 degrees of freedom.
  • the endoscope 5115 can be freely moved within the movable range of the arm portion 5145, so that the lens barrel 5117 of the endoscope 5115 can be inserted into the body cavity of the patient 5185 from a desired direction. It will be possible.
  • Actuators are provided in the joint portions 5147a to 5147c, and the joint portions 5147a to 5147c are configured to be rotatable around a predetermined rotation axis by driving the actuator.
  • the arm control device 5159 By controlling the drive of the actuator by the arm control device 5159, the rotation angles of the joint portions 5147a to 5147c are controlled, and the drive of the arm portion 5145 is controlled. Thereby, control of the position and orientation of the endoscope 5115 can be realized.
  • the arm control device 5159 can control the drive of the arm unit 5145 by various known control methods such as force control or position control.
  • the arm control device 5159 appropriately controls the drive of the arm portion 5145 in response to the operation input.
  • the position and orientation of the endoscope 5115 may be controlled.
  • the endoscope 5115 at the tip of the arm portion 5145 can be moved from an arbitrary position to an arbitrary position, and then fixedly supported at the moved position.
  • the arm portion 5145 may be operated by a so-called master slave method. In this case, the arm portion 5145 can be remotely controlled by the user via an input device 5161 installed at a location away from the operating room.
  • the arm control device 5159 When force control is applied, the arm control device 5159 receives an external force from the user, and the actuators of the joint portions 5147a to 5147c are moved so that the arm portion 5145 moves smoothly according to the external force. So-called power assist control for driving may be performed.
  • the arm portion 5145 when the user moves the arm portion 5145 while directly touching the arm portion 5145, the arm portion 5145 can be moved with a relatively light force. Therefore, the endoscope 5115 can be moved more intuitively and with a simpler operation, and the convenience of the user can be improved.
  • the endoscope 5115 was supported by a doctor called a scopist.
  • the position of the endoscope 5115 can be fixed more reliably without manpower, so that an image of the surgical site can be stably obtained. , It becomes possible to perform surgery smoothly.
  • the arm control device 5159 does not necessarily have to be provided on the cart 5151. Further, the arm control device 5159 does not necessarily have to be one device. For example, the arm control device 5159 may be provided at each joint portion 5147a to 5147c of the arm portion 5145 of the support arm device 5141, and a plurality of arm control devices 5159 cooperate with each other to drive the arm portion 5145. Control may be realized.
  • the light source device 5157 supplies the endoscope 5115 with irradiation light for photographing the surgical site.
  • the light source device 5157 is composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 5157 white balances the captured image. Can be adjusted.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-division manner, and the drive of the image sensor of the camera head 5119 is controlled in synchronization with the irradiation timing to correspond to each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 5157 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 5119 in synchronization with the timing of the change in the light intensity to acquire images in a time-divided manner and synthesizing the images, so-called high dynamic without blackout and overexposure Range images can be generated.
  • the light source device 5157 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the surface layer of the mucous membrane. So-called narrow band imaging, in which a predetermined tissue such as a blood vessel is photographed with high contrast, is performed.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected.
  • An excitation light corresponding to the fluorescence wavelength of the reagent may be irradiated to obtain a fluorescence image.
  • the light source device 5157 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 2 is a diagram showing a system configuration example according to the first embodiment of the present disclosure. As shown in FIG. 2, this system includes an image pickup device 10, a display device 5155, and an information processing device 100. The image pickup device 10, the display device 5155, and the information processing device 100 are connected to each other via the network 20.
  • the imaging device 10 is a device that captures an in-vivo image in the living body of an observation object.
  • the imaging device 10 may be, for example, an endoscope 5115 as described in FIG.
  • the image pickup device 10 includes an image pickup unit 11 and a communication unit 12.
  • the imaging unit 11 has a function of capturing an in-vivo image in the living body of the observation object.
  • the image pickup unit 11 includes, for example, an image pickup element such as a CCD (Charge Coupled device) or a CMOS (Complementary MOS).
  • the imaging unit 11 captures an in-vivo image at a predetermined frame rate (FPS: Frames Per Second).
  • the in-vivo image according to the present embodiment includes a wide range of images (Biological Imaging) acquired from a biological point of view for clinical, medical, and experimental purposes, and the imaging target is not limited to humans.
  • Biological Imaging acquired from a biological point of view for clinical, medical, and experimental purposes
  • the imaging target is not limited to humans.
  • the communication unit 12 has a function of performing information communication with the information processing device 100 via the network 20. For example, the communication unit 12 transmits each in-vivo image captured by the imaging unit 11 to the information processing device 100 in chronological order.
  • the information processing device 100 receives each in-vivo image from the image pickup device 10 in chronological order.
  • the in-vivo image received from the imaging device 10 is referred to as an “input image”.
  • the information processing apparatus 100 determines whether or not the input image contains a substance generated during the operation, and generates an output image based on the determination result and the input image.
  • the materials generated during surgery are smoke and mist.
  • the input image is also called a "medical image" or an "intraoperative image”.
  • the information processing device 100 transmits the output image to the display device 5155.
  • the information processing apparatus 100 when the input image contains smoke or mist, the information processing apparatus 100 generates an output image excluding smoke or mist.
  • the information processing device 100 may be, for example, CCU5153 as described with reference to FIG.
  • the display device 5155 receives an output image from the information processing device 100 and displays the received output image.
  • the description of the other display device 5155 is the same as the description of the display device 5155 of FIG.
  • FIG. 3 is a diagram showing a configuration example of the information processing device according to the first embodiment of the present disclosure.
  • the information processing device 100 includes a storage unit 101, a determination unit 102, a smoke removal processing unit 103, a mist removal processing unit 104, and a generation unit 105.
  • the information processing device 100 receives an input image from the image pickup device 10, the information processing device 100 inputs the input image to the determination unit 102, the smoke removal processing unit 103, and the mist removal processing unit 104, respectively.
  • the information processing device 100 has a communication unit that performs information communication with the image pickup device 10 and the display device 5155 via the network 20.
  • the storage unit 101 is a storage device that stores information on the latest output image generated by the generation unit 105.
  • the output image is an image in which smoke and mist are not generated (or smoke and mist are removed).
  • the output image stored in the storage unit 101 is updated every time a new output image is output from the generation unit 105.
  • the storage unit 101 corresponds to semiconductor memory elements such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory (Flash Memory), and storage devices such as HDD (Hard Disk Drive).
  • the storage unit 101 may be either a volatile memory or a non-volatile memory, or both may be used.
  • the determination unit 102 is a processing unit that determines whether or not smoke or mist is contained in the input image based on the input image. When the determination unit 102 determines that smoke or mist is contained, the determination unit 102 determines the amount of smoke and mist generated. In addition, the determination unit 102 calculates the generation probabilities of smoke and mist, respectively. The probability of smoke and mist generation corresponds to the ratio of smoke to mist.
  • FIG. 4 is a diagram for explaining the characteristics of smoke and mist, respectively.
  • image 25 is an input image in which smoke and mist are not generated.
  • the image 25a is an input image in which smoke is generated.
  • the image 25b is an input image in which mist is generated.
  • the smoke-covered area is characterized by the fact that the light is reflected and the transmittance decreases, so that the area becomes whitish as a whole and the contrast of the background decreases.
  • mist When mist is generated, as shown in image 25b, it becomes whitish like smoke and the contrast of the background is lowered. Since the mist is basically a collection of water vapor and water droplets, the difference in transmittance between the part with water droplets and the part without water droplets becomes large, and a part where the background cannot be seen like a mottled pattern is formed.
  • FIG. 5 is a diagram showing the relationship between the generation of smoke and mist and the brightness and saturation.
  • the horizontal axis is the axis corresponding to time.
  • the vertical axis is the axis corresponding to the level (value) of brightness or saturation.
  • Line 26a shows the relationship between brightness and time.
  • Line 26b shows the relationship between saturation and time.
  • the determination unit 102 calculates a reference value for brightness and a reference value for saturation based on the output image stored in the storage unit 101.
  • the determination unit 102 converts each pixel value of the output image into brightness and saturation.
  • the determination unit 102 calculates the average value of each luminance of the output image as a reference value of the luminance.
  • the determination unit 102 calculates the average value of each saturation of the output image as a reference value of saturation.
  • the determination unit 102 Upon receiving the input of the input image, the determination unit 102 converts each pixel value included in the input image into brightness and saturation. For example, when the average value of each luminance of the input image is less than the reference value of the luminance and the average value of each saturation of the input image is less than the reference value of the saturation, the determination unit 102 puts it in the input image. Determined to contain smoke or mist.
  • the determination unit 102 determines that the input image contains smoke or mist, it executes a process of determining the amount of smoke and mist generated and a process of determining the probability of smoke and mist generation.
  • the determination unit 102 determines the amount of smoke and mist generated. For example, the determination unit 102 divides the input image into a plurality of blocks, and calculates the temporal change of the brightness and the saturation for each block.
  • the determination unit 102 calculates the difference between the brightness of the block BO ij of the output image and the brightness of the block BI ij of the input image as a time change of the brightness.
  • BO ij indicates the block in the i-th row and the j-th column among the divided blocks of the output image.
  • BI ij indicates the block in the i-th row and the j-th column among the divided blocks of the input image.
  • the determination unit 102 calculates the difference between the saturation of the block BO ij of the output image and the saturation of the block BI ij of the input image as a time change of the saturation.
  • the determination unit 102 compares each block of the output image with each block of the input image, and calculates the temporal change of brightness and saturation for each block. The determination unit 102 determines, among the blocks of the input image, the blocks whose brightness and saturation change with time are equal to or greater than the threshold value as blocks in which smoke or mist is generated.
  • the determination unit 102 defines the relationship between the ratio of blocks in which smoke or mist is generated, the time variation of brightness and saturation, and the amount of smoke and mist generated in all the blocks of the input image.
  • the amount of smoke and mist generated is specified based on the "specific table (not shown)". It is assumed that the information in the generation amount identification table is set in advance.
  • the determination unit 102 calculates the dynamic range for each block of the input image. For example, the determination unit 102 scans the luminance (or pixel value) included in one block, specifies the maximum luminance value and the minimum luminance value, and the difference between the maximum luminance value and the minimum luminance value. Is calculated as the dynamic range.
  • the determination unit 102 determines the probability of smoke and mist generation for one block based on the "generation ratio specification table (not shown)" that defines the relationship between the dynamic range and the probability of smoke and mist generation. For example, since mist tends to have a larger local contrast of an image than smoke, the larger the dynamic range, the higher the probability of mist generation compared to the probability of smoke generation.
  • the determination unit 102 executes a process of calculating the generation probability of smoke and mist for each block in which smoke or mist is generated.
  • the determination unit 102 identifies a representative value of the smoke and mist generation probability based on the calculated smoke and mist generation probability. For example, the determination unit 102 specifies an average value or a median value of smoke and mist generation probabilities as a representative value of smoke and mist generation probabilities.
  • the determination unit 102 adjusts the smoke generation probability P1 and the mist generation probability P2 so that the total generation probability of the smoke generation probability P1 and the mist generation probability P2 is 100%. ..
  • the determination unit 102 outputs the determination result to the generation unit 105.
  • the determination result includes information on whether or not smoke or mist is generated in the input image.
  • the determination result further includes the amount of smoke and mist generated and the representative value of the probability of smoke and mist generation.
  • the representative value of the smoke and mist generation probability is simply referred to as the smoke and mist generation probability.
  • the smoke removal processing unit 103 is a processing unit that generates a smoke removal image in which smoke is reduced or removed from the input image.
  • “reducing or removing smoke from the input image” is appropriately referred to as “removing smoke from the input image”.
  • FIG. 6 is a diagram showing a configuration example of a smoke removal processing unit according to the first embodiment of the present disclosure. As shown in FIG. 6, the smoke removal processing unit 103 includes a deterioration estimation unit 31 and a deterioration correction unit 32.
  • the deterioration estimation unit 31 is a processing unit that estimates the deterioration of the input image based on the input image and the output image.
  • the deterioration estimation unit 31 outputs the deterioration estimation result to the deterioration correction unit 32.
  • the deterioration estimation unit 31 executes a histogram conversion process and a correction amount map calculation process.
  • the histogram conversion process and the correction amount map calculation process executed by the deterioration estimation unit 31 will be described.
  • the deterioration estimation unit 31 converts the histogram h S (s j ) of the input image so as to match the histogram h T (t j ) of the output image (target image).
  • s j indicates the j-th pixel value in the input image.
  • t j indicates the j-th pixel value in the output image.
  • the pixel values of the input image and the output image take a value from 0 to 255.
  • the deterioration estimation unit 31 normalizes the histogram with the number of pixels to obtain the probability density function.
  • the probability density function p S (s j ) of the input image is defined by Eq. (1).
  • the deterioration estimation unit 31 calculates the probability density function p S (s j ) of the input image based on the equation (1).
  • the probability density function p T (t j ) of the output image is defined by Eq. (2).
  • the deterioration estimation unit 31 calculates the probability density function p T (t j ) based on the equation (2).
  • the deterioration estimation unit 31 obtains the cumulative distribution function of the probability density function after obtaining the probability density function.
  • the cumulative distribution function F S (s k) of the input image is defined by the formula (3).
  • Cumulative distribution function F T of the output image (t k) is defined by equation (4).
  • the deterioration estimation unit 31 does not necessarily have to perform the above-mentioned histogram conversion processing on the entire image, and may perform the above-mentioned histogram conversion processing in a specific area or grid unit of the image.
  • the deterioration estimation unit 31 calculates the correction amount map M based on the equation (6). As shown in the equation (6), the deterioration estimation unit 31 calculates the contrast correction amount map M by calculating the difference between the histogram converted image (I) and the input image I.
  • the deterioration estimation unit 31 generates a molded correction amount map F (I, M) by molding the contrast correction amount map with a guided filter using the input image as a guide image.
  • the molded correction amount map F (I, M) is obtained by molding the correction amount map M according to the edge of the input image I. In this way, by using the molded correction amount map F (I, M), it is possible to prevent image deterioration around the edge that may occur when the positions of the correction amount map M and the input image I are misaligned. it can.
  • Non-Patent Document 1 Kopf, Johannes, et al. "Joint bilateral upsampling.” ACM Transactions on Graphics (ToG). Vol.26. No.3.ACM, 2007.
  • Non-Patent Document 2 He, Kaiming, Jian Sun, and Xiaoou Tang. "Guided image filtering.” European conference on computer vision. Springer, Berlin, Heidelberg, 2010.
  • Non-Patent Document 3 Gastal, Eduardo SL, and Manuel M. Oliveira. "Domain transform for edge-aware image and video processing.” ACM Transactions on Graphics (ToG). Vol.30.No.4. ACM, 2011.
  • the deterioration estimation unit 31 outputs the molded correction amount map F (I, M) to the deterioration correction unit 32 as the deterioration estimation result.
  • the molded correction amount map F (I, M) the pixel value of each pixel is defined.
  • the deterioration correction unit 32 is a processing unit that generates a smoke removal image by correcting an input image based on the estimation result of deterioration. For example, deterioration correction unit 32, based on equation (7), generates smoke removed image O A. In the formula (7), it means that the process of adding the pixel values of the pixels at the same position of the molded correction amount map F (I, M) to the pixel values of the pixels of the input image I is executed for each pixel. .. The deterioration correction unit 32 outputs the information of the smoke removal image to the generation unit 105.
  • the mist removal processing unit 104 is a processing unit that generates a mist removal image in which mist is reduced or removed from the input image.
  • “reducing or removing mist from the input image” is appropriately referred to as “removing mist from the input image”.
  • FIG. 7 is a diagram showing a configuration example of a mist removal processing unit according to the first embodiment of the present disclosure. As shown in FIG. 7, the mist removal processing unit 104 includes a generation area specifying unit 41, a first deterioration correction unit 42, a deterioration estimation unit 43, and a second deterioration correction unit 44.
  • the generation area specifying unit 41 is a processing unit that compares the input image and the output image and determines a region in which mist is generated in the region of the input image. For example, in the same manner as the determination unit 102, the generation area identification unit 41 determines, among the blocks of the input image, the blocks whose brightness and saturation change with time are equal to or greater than the threshold value as blocks in which smoke or mist is generated. .. Further, the generation area specifying unit 41 identifies a block having a brightness equal to or higher than the threshold value Th Y among blocks in which smoke or mist is generated as a region in which mist is generated.
  • the generation area specifying unit 41 may specify the area where mist is generated by another process. For example, the generation area specifying unit 41 may divide the input image into a plurality of blocks, and among the plurality of blocks, the block whose brightness is equal to or higher than the threshold value Th Y may be specified as the area where the mist is generated.
  • the generation area specifying unit 41 outputs the information of the area where mist is generated and the information of the area where mist is not generated to the first deterioration correction unit 42. Further, the generation area specifying unit 41 outputs the information of the input image to the first deterioration correction unit 42.
  • the first deterioration correction unit 42 is a processing unit that corrects the region where mist is generated in the input image based on the information of the region where mist is not generated.
  • the first deterioration correction unit 42 divides the input image into a plurality of blocks, and classifies the divided plurality of blocks into a block in which mist is generated and a block in which mist is not generated.
  • the block in which the mist is generated is referred to as the first block.
  • the block in which mist is not generated is referred to as a second block.
  • the first deterioration correction unit 42 selects the first block and selects the second block located within a predetermined distance from the selected first block.
  • the first deterioration correction unit 42 adjusts the contrast of the selected first block so that the contrast is the same as the contrast of the selected second block.
  • the first deterioration correction unit 42 calculates the average value of the contrasts of the plurality of second blocks, and the contrast of the first block. May be adjusted to be the same as the average value of the contrasts of the plurality of second blocks.
  • the first deterioration correction unit 42 corrects the input image by repeatedly executing the above processing for each first block included in the input image.
  • the first deterioration correction unit 42 outputs the corrected input image to the second deterioration correction unit 44.
  • the corrected input image is referred to as a “corrected image”.
  • the deterioration estimation unit 43 is a processing unit that estimates the deterioration of the input image based on the input image and the output image.
  • the deterioration estimation unit 43 outputs the deterioration estimation result to the second deterioration correction unit 44.
  • the processing of the deterioration estimation unit 43 is the same as the processing of the deterioration estimation unit 31.
  • the deterioration estimation result output by the deterioration estimation unit 43 to the second deterioration correction unit 44 is a molded correction amount map F (I, M).
  • the second deterioration correction unit 44 is a processing unit that generates a mist-removed image by correcting the corrected image based on the estimation result of deterioration. For example, the second deterioration correction unit 44 based on the equation (8), to generate a mist removing image O B.
  • equation (8) means the pixel values of the pixels of the corrected image I B, the shaped correction amount map F (I, M) the process of adding pixel values of pixels at the same position of that performed for each pixel To do.
  • the second deterioration correction unit 44 outputs the information of the mist removal image to the generation unit 105.
  • the generation unit 105 is a processing unit that generates an output image based on the determination result by the determination unit 102 and the input image.
  • the generation unit 105 outputs the information of the output image to the display device 5155.
  • the effects of smoke or mist are excluded from the overall output image.
  • FIG. 8 is a diagram showing a configuration example of a generation unit according to the first embodiment of the present disclosure. As shown in FIG. 8, the generation unit 105 includes a first blend ratio calculation unit 51, a first blend processing unit 52, a second blend ratio calculation unit 53, and a second blend processing unit 54.
  • the first blend ratio calculation unit 51 is a processing unit that calculates the blend ratio ⁇ of the smoke removal image and the mist removal image based on the determination result of the determination unit 102.
  • the first blend ratio calculation unit 51 sets the probability of smoke and mist generation as the blend ratio ⁇ . For example, assuming that the sum of the smoke generation probability P1 and the mist generation probability P2 is adjusted to be 100%, the blend ratio ⁇ of smoke and mist is P1: P2.
  • the first blend ratio calculation unit 51 outputs the information of the blend ratio ⁇ to the first blend processing unit 52.
  • the first blend processing unit 52 is a processing unit that generates a processed image by blending (combining) the smoke removing image and the mist removing image based on the blend ratio ⁇ .
  • the first blend processing unit 52 outputs the information of the processed image to the second blend processing unit 54.
  • the pixel value of the pixel in the i-th row and j-th column of the processed image is S3 ij
  • the pixel value of the pixel in the i-row and j-th column of the smoke-removed image is S1 ij
  • the pixel in the i-row and j-th column of the mist-removed image is S2 ij.
  • the first blend processing unit 52 calculates the pixel value S3 ij of the processing pixel by the equation (9).
  • the first blend processing unit 52 generates a processed image by calculating the pixel value of each pixel of the processed image based on the equation (9).
  • the second blend ratio calculation unit 53 is a processing unit that calculates the blend ratio ⁇ of the processed image and the input image based on the determination result of the determination unit 102. For example, the second blend ratio calculation unit 53 calculates the blend ratio ⁇ based on the “blend ratio specifying table (not shown)” that defines the relationship between the amount of smoke and mist generated and the blend ratio ⁇ .
  • the blend ratio ⁇ of the processed image and the input image will be described as P3: P4.
  • the ratio P3 of the processed image is set to be larger than the ratio of the input image P4 as the amount of smoke and mist generated increases.
  • the second blend ratio calculation unit 53 outputs the information of the blend ratio ⁇ to the second blend processing unit 54.
  • the second blend processing unit 54 is a processing unit that generates an output image by blending (synthesizing) the processed image and the input image based on the blend ratio ⁇ .
  • the pixel value of the pixel in the i-th row and j-th column of the processed image is S3 ij
  • the pixel value of the pixel in the i-row and j-th column of the input image is S4 ij
  • the pixel of the pixel in the i-row and j-th column of the output image Let the value be S5 ij.
  • the second blend processing unit 54 calculates the pixel value S5 ij of the output image by the equation (10).
  • the second blend processing unit 54 generates an output image by calculating the pixel value of each pixel of the processed image based on the equation (10).
  • FIG. 9 is a flowchart showing the flow of the basic operation of the information processing apparatus 100 according to the first embodiment of the present disclosure.
  • the information processing device 100 receives the input image from the image pickup device 10 (step S101).
  • the determination unit 102 of the information processing device 100 executes the determination process (step S102).
  • the smoke removal processing unit 103 of the information processing device 100 executes smoke removal processing on the input image and generates a smoke removal image (step S103).
  • the mist removal processing unit 104 of the information processing apparatus 100 executes the mist removal processing on the input image to generate the mist removal image (step S104).
  • the generation unit 105 of the information processing apparatus 100 blends the smoke removal image and the mist removal image according to the blend ratio ⁇ to generate a processed image (step S105).
  • the generation unit 105 blends the processed image and the input image according to the blend ratio ⁇ to generate an output image (step S106).
  • the generation unit 105 registers the output image in the storage unit 101 and outputs the output image to the display device 5155 (step S107).
  • step S108, Yes the information processing apparatus 100 proceeds to step S101.
  • step S108, No the information processing apparatus 100 ends the processing.
  • FIG. 10 is a flowchart showing an operation flow of the determination unit according to the first embodiment of the present disclosure.
  • the determination unit 102 of the information processing device 100 converts the pixel value of the input image into brightness and saturation (step S201).
  • the determination unit 102 divides the input image into a plurality of blocks (step S202).
  • the determination unit 102 calculates the temporal changes in brightness and saturation for each block (step S203).
  • the determination unit 102 estimates the amount of smoke and mist generated from the temporal change of brightness and saturation and the area (step S204).
  • the determination unit 102 calculates the dynamic range for each block (step S205).
  • the determination unit 102 estimates the generation probabilities of smoke and mist (step S206).
  • the determination unit 102 outputs the determination result to the generation unit 105 (step S207).
  • Effect of information processing device >> According to the information processing apparatus 100 according to the first embodiment of the present disclosure, it is determined whether or not the input image contains smoke or mist based on the input image, and the determination result and the input image are used as a basis. To generate an output image excluding smoke or mist. As a result, even if smoke or mist is generated during the operation in endoscopic surgery and the visibility becomes poor, by using the information processing device 100, a clearer view can be obtained regardless of the amount of smoke or mist generated. Can be secured.
  • the smoke removal processing unit 103 generates a smoke removal image by adjusting the contrast of the input image so that the contrast of the output image is the same as that of the output image in which smoke and mist are not generated. .. This makes it possible to appropriately exclude smoke contained in the input image.
  • smoke and mist are generated after the mist removal processing unit 104 adjusts the input image so that the contrast of the mist generation region is the same as the contrast of the region where mist is not generated. Further adjust the contrast of the input image so that it is the same as the contrast of the output image that has not been processed. By adjusting the contrast of the input image in two steps in this way, even a mist having a characteristic different from that of smoke, such as a mottled pattern, can be appropriately excluded from the input image.
  • the probability of smoke or mist generation is determined based on the input image.
  • the smoke removal image and the mist removal image can be combined by the blend ratio ⁇ based on the generation probability of smoke or mist, and the smoke and mist contained in the input image can be appropriately excluded. ..
  • the amount of smoke or mist generated is determined based on the input image.
  • the processed image and the input image can be combined by the blend ratio ⁇ based on the amount of smoke or mist generated, and the smoke and mist contained in the input image can be appropriately excluded.
  • the processing related to the removal of smoke and mist is executed on the input image, the effect of reducing smoke or mist can be obtained instantly when smoke or mist is generated. ..
  • FIG. 11 is a diagram showing a system configuration example according to the second embodiment of the present disclosure. As shown in FIG. 11, this system includes an image pickup device 10, a device monitoring device 60 used, a display device 5155, and an information processing device 200. The image pickup device 10, the device used monitoring device 60, the display device 5155, and the information processing device 200 are connected to each other via the network 20.
  • the description of the image pickup device 10 and the display device 5155 is the same as the description of the image pickup device 10 and the display device 5155 described with reference to FIG.
  • the device monitoring device 60 used is a device connected to an electric knife, an ultrasonic coagulation incision device, etc. (not shown), and monitors whether or not the electrosurgical knife or the ultrasonic coagulation / incision device is used.
  • the device used monitoring device 60 may be, for example, the treatment tool control device 5163 described in FIG.
  • the device used monitoring device 60 has a monitoring unit 61 and a communication unit 62.
  • the monitoring unit 61 is a processing unit that monitors the usage status of the electric knife and the ultrasonic coagulation and incision device. For example, when the monitoring unit 61 receives a control signal for starting use from the electrosurgical knife, the use start button of the ultrasonic coagulation and incision device, and the like, the monitoring unit 61 determines that the electrosurgical knife and the ultrasonic coagulation and incision device are in use. The monitoring unit 61 generates device information used.
  • the device information used includes information on whether or not the electrosurgical knife is in use and information on whether or not the ultrasonic coagulation and incision device is in use.
  • an electric knife performs hemostasis or incision on the affected part of patient 5185 by heat generated by a high frequency current.
  • Electric scalpels have the characteristic that smoke is likely to be generated because the treated area is scorched.
  • the ultrasonic coagulation and incision device coagulates and incises the affected area of patient 5185 by friction caused by ultrasonic vibration.
  • the ultrasonic coagulation and incision device is characterized in that mist is likely to be generated by ultrasonic vibration.
  • the communication unit 62 has a function of performing information communication with the information processing device 200 via the network 20. For example, the communication unit 62 transmits the device information used by the monitoring unit 61 to the information processing device 200.
  • FIG. 12 is a diagram showing a configuration example of the information processing device according to the second embodiment of the present disclosure.
  • the information processing device 200 includes a storage unit 201, a determination unit 202, a smoke removal processing unit 203, a mist removal processing unit 204, and a generation unit 205.
  • the information processing device 200 receives an input image from the imaging device 10, the information processing device 200 inputs the input image to the determination unit 202, the smoke removal processing unit 203, and the mist removal processing unit 204, respectively.
  • the information processing device 200 inputs the used device information to the determination unit 202 each time the used device information is received from the used device monitoring device 60.
  • the information processing device 200 has a communication unit that performs information communication with the image pickup device 10, the device used monitoring device 60, and the display device 5155 via the network 20.
  • the storage unit 201 is a storage device that stores information on the latest output image generated by the generation unit 205.
  • the output image is an image in which smoke and mist are not generated (or smoke and mist are removed).
  • the output image stored in the storage unit 201 is updated every time a new output image is output from the generation unit 205.
  • the storage unit 201 corresponds to semiconductor memory elements such as RAM, ROM, and flash memory, and storage devices such as HDD.
  • the storage unit 201 may be either a volatile memory or a non-volatile memory, or both may be used.
  • the determination unit 202 is a processing unit that determines whether or not smoke or mist is contained in the input image based on the device information used and the input image. When the determination unit 202 determines that smoke or mist is contained, the determination unit 202 determines the amount of smoke and mist generated. In addition, the determination unit 202 calculates the generation probabilities of smoke and mist, respectively. The probability of smoke and mist generation corresponds to the ratio of smoke to mist.
  • the determination unit 202 determines whether or not smoke or mist is contained in the input image. For example, the determination unit 202 determines that the input image contains smoke or mist when the device information used includes information indicating that an electric knife or an ultrasonic coagulation and incision device is used.
  • the determination unit 202 determines that smoke or mist is contained in the input image based on the input image, and an electric knife or an ultrasonic coagulation / incision device is used in the device information used. When the information to that effect is included, it may be determined that smoke or mist is contained in the input image.
  • the process of determining that the input image contains smoke or mist based on the input image by the determination unit 202 is the same as the process of the determination unit 102 of the first embodiment.
  • the determination unit 202 determines that the input image contains smoke or mist, it executes a process of determining the amount of smoke and mist generated and a process of determining the probability of smoke and mist generation.
  • the process of determining the amount of smoke and mist generated by the determination unit 202 is the same as the process of the determination unit 102 of the first embodiment.
  • the determination unit 202 determines the probability (ratio) of smoke and mist generation.
  • the determination unit 202 calculates the smoke generation probability P1 and the mist generation probability P2 (representative values of smoke and mist generation probabilities) based on the dynamic range in the same manner as the determination unit 102 of the first embodiment. To do.
  • the determination unit 202 corrects the smoke generation probability P1 and the mist generation probability P2 based on the device information used.
  • the determination unit 202 adds a predetermined probability value to the smoke generation probability P1.
  • the smoke generation probability P1 is updated.
  • the determination unit 202 updates the mist generation probability P2 by subtracting a predetermined probability value from the mist generation probability P2.
  • the determination unit 202 subtracts a predetermined probability value from the smoke generation probability P1. , The smoke generation probability P1 is updated. Further, the determination unit 202 updates the mist generation probability P2 by adding a predetermined probability value to the mist generation probability P2.
  • the determination unit 202 uses the smoke generation probability P1 and the mist generation probability P2 as they are when the electric knife and the ultrasonic coagulation and incision device are in use.
  • the determination unit 202 outputs the determination result to the generation unit 205.
  • the determination result includes information on whether or not smoke or mist is generated in the input image. When smoke or mist is generated, the determination result further includes the amount of smoke and mist generated and the probability of smoke and mist generated P1 and P2.
  • the smoke removal processing unit 203 is a processing unit that generates a smoke removal image in which smoke is removed from the input image.
  • the smoke removal processing unit 203 outputs a smoke removal image to the generation unit 205.
  • the description of the smoke removal processing unit 203 is the same as the processing of the smoke removal processing unit 103 of the first embodiment.
  • the mist removal processing unit 204 is a processing unit that generates a mist removal image in which mist is removed from the input image.
  • the mist removal processing unit 204 outputs the mist removal image to the generation unit 205.
  • the description of the mist removing processing unit 204 is the same as the processing of the mist removing processing unit 104 of the first embodiment.
  • the generation unit 205 is a processing unit that generates an output image based on the determination result by the determination unit 202 and the input image.
  • the generation unit 205 outputs the information of the output image to the display device 5155.
  • the description of the generation unit 205 is the same as the processing of the generation unit 105 of the first embodiment.
  • Effect of information processing device it is determined whether or not smoke or mist is contained in the input image based on the device information used and the input information, and smoke and mist are determined.
  • the mist generation probability is corrected based on the device information used. This makes it possible to improve the accuracy of determining whether or not the input image contains smoke or mist. Further, by correcting the generation probability of smoke and mist based on the device information used, the smoke exclusion image and the mist exclusion image can be blended with a more appropriate blend ratio ⁇ .
  • the third embodiment of the present disclosure will be described in detail.
  • the system configuration according to the third embodiment of the present disclosure is the same as the system configuration according to the second embodiment of the present disclosure described with reference to FIG.
  • the information processing device according to the third embodiment will be referred to as an information processing device 300.
  • the imaging device 10, the device used monitoring device 60, the display device 5155, and the information processing device 300 are connected to each other via the network 20.
  • FIG. 13 is a diagram showing a configuration example of the information processing device according to the third embodiment of the present disclosure.
  • the information processing device 300 includes a storage unit 301, a determination unit 302, a parameter generation unit 303, and a smoke removal processing unit 304.
  • the information processing device 300 inputs the input image to the determination unit 302 and the smoke removal processing unit 203 each time the input image is received from the image pickup device 10.
  • the information processing device 300 inputs the used device information to the determination unit 302 each time the used device information is received from the used device monitoring device 60.
  • the information processing device 300 has a communication unit that performs information communication with the image pickup device 10, the device used monitoring device 60, and the display device 5155 via the network 20.
  • the information processing device 300 treats smoke or mist as smoke without distinguishing between smoke and mist.
  • the storage unit 301 is a storage device that stores information on the latest output image generated by the smoke removal processing unit 304.
  • the output image is an image in which smoke is not generated (or smoke is removed).
  • the output image stored in the storage unit 301 is updated every time a new output image is output from the smoke removal processing unit 304.
  • the storage unit 301 corresponds to semiconductor memory elements such as RAM, ROM, and flash memory, and storage devices such as HDD.
  • the storage unit 301 may be either a volatile memory or a non-volatile memory, or both may be used.
  • the determination unit 302 is a processing unit that determines whether or not smoke is contained in the input image based on the device information used and the input image. When the determination unit 302 determines that smoke is contained, the determination unit 302 determines the amount of smoke generated.
  • the determination unit 302 determines whether or not smoke is contained in the input image. For example, the determination unit 302 determines that smoke is included in the input image when the device information used includes information indicating that an electric knife or an ultrasonic coagulation and incision device is used.
  • the determination unit 302 determines that smoke is contained in the input image based on the input image, and indicates that an electric knife or an ultrasonic coagulation / incision device is used in the device information used. When information is included, it may be determined that smoke is included in the input image.
  • the process of determining that the input image contains smoke (smoke or mist) based on the input image by the determination unit 202 is the same as the process of the determination unit 102 of the first embodiment.
  • the determination unit 302 determines that the input image contains smoke, it executes a process of determining the amount of smoke generated and a process of specifying the smoke generation area.
  • the determination unit 302 divides the input image into a plurality of blocks and calculates the temporal change of brightness and saturation for each block.
  • the determination unit 302 calculates the difference between the brightness of the block BO ij of the output image and the brightness of the block BI ij of the input image as a time change of the brightness.
  • BO ij indicates the block in the i-th row and the j-th column among the divided blocks of the output image.
  • BI ij indicates the block in the i-th row and the j-th column among the divided blocks of the input image.
  • the determination unit 302 calculates the difference between the saturation of the block BO ij of the output image and the saturation of the block BI ij of the input image as a time change of the saturation.
  • the determination unit 302 compares each block of the output image with each block of the input image, and calculates the temporal change of brightness and saturation for each block.
  • the determination unit 102 identifies, among the blocks of the input image, the blocks whose brightness and saturation change with time are equal to or greater than the threshold value as the smoke generation region.
  • the determination unit 302 defines the relationship between the ratio of blocks in the smoke generation region, the temporal change of brightness and saturation, and the smoke generation amount among all the blocks of the input image, and defines the “generation amount identification table (not shown). ) ”To identify the amount of smoke generated. It is assumed that the information in the generation amount identification table is set in advance.
  • the determination unit 302 outputs the determination result to the parameter generation unit 303.
  • the determination result includes information on whether or not smoke is generated in the input image. When smoke is generated, the determination result further includes information on the amount of smoke generated and the smoke generation area.
  • the parameter generation unit 303 is a processing unit that generates parameters for smoke removal processing based on the determination result of the determination unit 302.
  • the parameters generated by the parameter generation unit 303 include information on the on / off timing of the smoke removal process, the intensity level of the smoke removal process, and the area to be the target of the smoke removal process.
  • the parameter generation unit 303 acquires the determination result of the determination unit 302, and while the input image contains information indicating that smoke is not generated, generates a parameter in which the smoke removal process is set to "off", and the parameter is generated. Is output to the smoke removal processing unit 304.
  • the parameter generation unit 303 does not set the intensity level of the smoke removal process and the information of the area to be the target of the smoke removal process as parameters while the input image contains the information that smoke is not generated.
  • the parameter generation unit 303 acquires the determination result of the determination unit 302, and generates a parameter in which the smoke removal process is set to "on" while the input image contains information indicating that smoke is generated.
  • the parameter generation unit 303 specifies the intensity level based on the "intensity level specification table (not shown)" that defines the relationship between the amount of smoke generated in the determination result and the intensity level. In the intensity level specification table, it is assumed that the intensity level is set in advance as the amount of smoke generated increases. The parameter generation unit 303 sets the intensity level in the parameter.
  • the parameter generation unit 303 sets the information of the smoke generation area included in the determination result as the information of the area to be the target of the smoke removal process in the parameter.
  • the parameter generation unit 303 outputs the parameter in which the smoke removal process is set to "on” and the intensity level and the information of the area to be the target of the smoke removal process are set to the smoke removal process unit 304.
  • the smoke removal processing unit 304 is a processing unit that generates a smoke removal image from which smoke is removed from the input image based on the parameters. In the third embodiment, the smoke removal image corresponds to the output image. The smoke removal processing unit 304 outputs a smoke removal image (output image) to the display device 5155. Further, the smoke removal processing unit 304 registers the smoke removal image in the storage unit 301.
  • the smoke removal processing unit 304 When the smoke removal processing is set to "off" in the parameter, the smoke removal processing unit 304 outputs the input image as it is without executing the smoke removal processing.
  • the smoke removal processing unit 304 executes the next smoke removal processing when the smoke removal processing is set to "ON" in the parameter.
  • the smoke removal processing unit 304 divides the input image into a plurality of blocks, compares the information of the area to be the target of the smoke removal processing with each block, and selects the block to be the target of the smoke removal processing.
  • the smoke removal processing unit 304 executes a process corresponding to the deterioration estimation unit 31 and a process corresponding to the deterioration correction unit 32 on the selected block in the same manner as the smoke removal processing unit 304 of the first embodiment. To do.
  • the smoke removal processing unit 304 limits the width of the contrast that allows the change according to the intensity level.
  • the smoke removal processing unit 304 changes the pixel value of the pixel of the smoke removal image to the allowable contrast. Make adjustments so that it fits within the width of. It is assumed that the relationship between the intensity level and the allowable contrast width is preset in the "contrast specification table (not shown)". In the contrast specific table, the higher the intensity level, the wider the contrast width.
  • the system configuration according to the fourth embodiment of the present disclosure is the same as the system configuration according to the first embodiment of the present disclosure described with reference to FIG.
  • the information processing device according to the fourth embodiment will be referred to as an information processing device 400.
  • the image pickup device 10, the display device 5155, and the information processing device 400 are connected to each other via the network 20.
  • the information processing device 400 treats smoke or mist as smoke without distinguishing between smoke and mist.
  • FIG. 14 is a diagram showing a configuration example of the information processing device according to the fourth embodiment of the present disclosure.
  • the information processing apparatus 400 includes a first smoke removal processing unit 401, a subtraction unit 402, a determination unit 403, a parameter generation unit 404, and a second smoke removal processing unit 405.
  • the information processing device 400 inputs the input image to the first smoke removal processing unit 401 and the subtraction unit 402 each time the input image is received from the image pickup device 10. Although not shown in FIG. 14, it is assumed that the information processing device 400 has a communication unit that performs information communication with the image pickup device 10 and the display device 5155 via the network 20.
  • the first smoke removal processing unit 401 is a processing unit that generates a smoke removal image in which smoke is removed from the input image based on the initial parameters set in advance.
  • the first smoke removal processing unit 401 outputs the smoke removal image to the subtraction unit 402.
  • the process of generating the smoke removal image by the first smoke removal processing unit 401 using the parameter (initial parameter) is the same as the processing of the smoke removal processing unit 304 according to the third embodiment.
  • the subtraction unit 402 is a processing unit that generates a difference image between the input image and the smoke removal image. For example, the subtraction unit 402 generates a difference image by subtracting the smoke removal image from the input image. The subtraction unit 402 outputs the information of the difference image to the determination unit 403.
  • the determination unit 403 is a processing unit that determines whether or not smoke is included in the input image based on the difference image. When the determination unit 403 determines that smoke is contained, the determination unit 403 determines the amount of smoke generated.
  • the determination unit 403 determines whether or not smoke is contained in the input image. For example, the determination unit 403 sums the pixel values of each pixel of the difference image, and determines that the input image contains smoke when the total pixel value is the threshold Th1 or more. It is assumed that the threshold value Th1 is set in advance.
  • the determination unit 403 determines that the input image contains smoke, it executes a process of determining the amount of smoke generated and a process of specifying the smoke generation area.
  • the determination unit 403 divides the difference image into a plurality of blocks and calculates the total value of the pixel values for each block.
  • the determination unit 403 specifies, among the plurality of blocks, a block in which the total value of the pixel values is the threshold value Th2 or more as a smoke generation region.
  • the determination unit 403 defines a relationship between the ratio of blocks in the smoke generation region, the total value of the pixel values of the blocks, and the smoke generation amount among all the blocks of the input image. ) ”To identify the amount of smoke generated. It is assumed that the information in the generation amount identification table is set in advance.
  • the determination unit 403 outputs the determination result to the parameter generation unit 404.
  • the determination result includes information on whether or not smoke is generated in the input image. When smoke is generated, the determination result further includes information on the amount of smoke generated and the smoke generation area.
  • the parameter generation unit 404 is a processing unit that generates parameters for smoke removal processing based on the determination result of the determination unit 403.
  • the parameters generated by the parameter generation unit 404 include information on the on / off timing of the smoke removal process, the intensity level of the smoke removal process, and the area to be the target of the smoke removal process.
  • the process of generating the parameter by the parameter generation unit 404 is the same as that of the parameter generation unit 303 described in the fourth embodiment.
  • the parameter generation unit 404 outputs the parameter to the second smoke removal processing unit 405.
  • the second smoke removal processing unit 405 is a processing unit that generates a smoke removal image in which smoke is removed from the input image based on the parameters.
  • the second smoke removal processing unit 405 outputs a smoke removal image (output image) to the display device 5155.
  • the process of generating the smoke removal image by the second smoke removal processing unit 405 using the parameters is the same as the processing of the smoke removal processing unit 304 according to the third embodiment.
  • a smoke removal image is once generated according to the initial parameters, a difference image between the input image and the smoke removal image is generated, and the difference image is generated. Based on this, the amount of smoke generated and the area where smoke is generated are determined.
  • the information processing apparatus 400 can optimize the parameters of the smoke removal process by using the determination result, and by executing the smoke removal process using the parameters, the output is such that smoke is appropriately excluded from the input image. Images can be generated.
  • FIG. 15 is a diagram showing a system configuration example according to the fifth embodiment of the present disclosure.
  • this system includes an image pickup device 10, a device monitoring device 60 used, a display device 5155, an input device 5161, and an information processing device 500.
  • the image pickup device 10, the device used monitoring device 60, the display device 5155, the input device 5161, and the information processing device 500 are connected to each other via the network 20.
  • the description of the image pickup device 10, the device used monitoring device 60, and the display device 5155 is the same as the description of the image pickup device 10, the device used device monitoring device 60, and the display device 5155 described with reference to FIG.
  • the input device 5161 is an input interface for the endoscopic surgery system 5113.
  • the user operates the input device 5161 to specify an area for removing smoke.
  • the information of the area for removing smoke specified by the user is referred to as "designated information”.
  • the input device 5161 transmits the designated information to the information processing device 500 via the network 20.
  • the input device 5161 has a camera and may detect the line-of-sight position of the user. Sensing information including information on the user's line-of-sight position is transmitted to the information processing device 500 via the network 20.
  • FIG. 16 is a diagram showing a configuration example of the information processing device according to the fifth embodiment of the present disclosure.
  • the information processing device 500 includes a storage unit 501, a determination unit 502, a parameter generation unit 503, and a smoke removal processing unit 504.
  • the information processing device 500 inputs the input image to the determination unit 502, the parameter generation unit 503, and the smoke removal processing unit 504 each time the input image is received from the image pickup device 10.
  • the information processing device 300 inputs the used device information to the determination unit 502 each time the used device information is received from the used device monitoring device 60.
  • the information processing device 500 outputs the designated information and the sensing information to the parameter generation unit 503 each time the designated information and the sensing information are received from the input device 5161.
  • the information processing device 500 has a communication unit that performs information communication with the image pickup device 10, the device used monitoring device 60, the input device 5161, and the display device 5155 via the network 20. It shall be.
  • the information processing device 500 treats smoke or mist as smoke without distinguishing between smoke and mist.
  • the storage unit 501 is a storage device that stores the latest output image information generated by the smoke removal processing unit 504.
  • the output image is an image in which smoke is not generated (or smoke is removed).
  • the output image stored in the storage unit 501 is updated every time a new output image is output from the smoke removal processing unit 504.
  • the storage unit 501 corresponds to a semiconductor memory element such as RAM, ROM, and flash memory, and a storage device such as HDD.
  • the storage unit 501 may be either a volatile memory or a non-volatile memory, or both may be used.
  • the determination unit 502 is a processing unit that determines whether or not smoke is contained in the input image based on the device information used and the input image. When the determination unit 502 determines that smoke is contained, the determination unit 502 determines the amount of smoke generated.
  • the processing of the determination unit 502 is the same as the processing of the determination unit 302 described in the third embodiment.
  • the determination unit 502 outputs the determination result to the parameter generation unit 503.
  • the determination result includes information on whether or not smoke is generated in the input image. When smoke is generated, the determination result further includes information on the amount of smoke generated and the smoke generation area.
  • the parameter generation unit 503 is a processing unit that generates parameters for smoke removal processing based on the determination result, designation information, and sensing information of the determination unit 502.
  • the parameters generated by the parameter generation unit 503 include information on the on / off timing of the smoke removal process, the intensity level of the smoke removal process, and the area to be the target of the smoke removal process.
  • the parameter generation unit 503 acquires the determination result of the determination unit 502, and while the input image contains information indicating that smoke is not generated, generates a parameter in which the smoke removal process is set to "off", and the parameter is generated. Is output to the smoke removal processing unit 504.
  • parameter generation unit 503 does not set the intensity level of the smoke removal process and the information of the area to be the target of the smoke removal process as parameters while the input image contains the information that smoke is not generated.
  • the parameter generation unit 503 acquires the determination result of the determination unit 403, and generates a parameter in which the smoke removal process is set to "on" while the input image contains information indicating that smoke is generated.
  • the parameter generation unit 503 specifies the intensity level based on the "intensity level specification table (not shown)" that defines the relationship between the amount of smoke generated in the determination result and the intensity level. In the intensity level specification table, it is assumed that the intensity level is set in advance as the amount of smoke generated increases. The parameter generation unit 503 sets the intensity level in the parameter.
  • the parameter generation unit 503 specifies an area that is a smoke generation area included in the determination result and is a part of a preset input image as a target area of the smoke removal process.
  • a region of a part of the input image set in advance is referred to as a “region of interest”.
  • the parameter generation unit 503 may set the area of interest in any way.
  • the parameter generation unit 503 may set the region of interest in the central portion of the input image. Further, when the parameter generation unit 503 receives the designated information, the parameter generation unit 503 sets the region of interest with reference to the designated information. When the parameter generation unit 503 receives the sensing information, the parameter generation unit 503 sets the region of interest with reference to the line-of-sight position of the user.
  • the parameter generation unit 503 may specify the position of the organ or the surgical tool based on the input image, and set the region of interest based on the position of the specified organ or the surgical tool.
  • the parameter generation unit 503 may use any conventional technique to specify the positions of organs and surgical instruments. For example, the parameter generation unit 503 extracts an edge from the input image, performs matching using a template that defines the shape of a predetermined organ or surgical tool, and specifies the position of the organ or surgical tool.
  • the parameter generation unit 503 sets the parameter with information on the on / off timing of the smoke removal process, the intensity level of the smoke removal process, and the area to be the target of the smoke removal process, and removes the smoke. Output to the processing unit 504.
  • the smoke removal processing unit 504 is a processing unit that generates a smoke removal image in which smoke is removed from the input image based on the parameters.
  • the smoke removal processing unit 504 outputs a smoke removal image (output image) to the display device 5155.
  • the process of generating the smoke removal image by the smoke removal processing unit 504 using the parameters is the same as the processing of the smoke removal processing unit 304 according to the third embodiment.
  • FIG. 17 is a diagram showing an example of an output image generated by the smoke removal process according to the fifth embodiment of the present disclosure. As shown in FIG. 17, the output image 70 includes a region 70a in which the smoke removal treatment is performed and a region 70b in which the smoke removal treatment is not performed.
  • the area to be subjected to the smoke removal process is limited to the area of smoke generation included in the determination result and the area of interest. ..
  • the smoke removal process is not executed except in the area of interest, so that the smoke can be removed from the important part during the operation, and the user can easily confirm whether or not the smoke removal process is effective. can do.
  • the system configuration according to the sixth embodiment of the present disclosure is the same as the system configuration according to the first embodiment of the present disclosure described with reference to FIG.
  • the information processing device according to the sixth embodiment will be referred to as an information processing device 600.
  • the image pickup device 10, the display device 5155, and the information processing device 400 are connected to each other via the network 20.
  • the information processing device 600 treats smoke or mist as smoke without distinguishing between smoke and mist.
  • FIG. 18 is a diagram showing a configuration example of the information processing device according to the sixth embodiment of the present disclosure.
  • the information processing device 600 includes a smoke removal processing unit 601, a subtraction unit 602, a determination unit 603, a parameter generation unit 604, and a superposition unit 605.
  • the information processing device 600 inputs the input image to the smoke removal processing unit 601 and the subtraction unit 402 each time the input image is received from the image pickup device 10. Although not shown in FIG. 18, it is assumed that the information processing device 600 has a communication unit that performs information communication with the image pickup device 10 and the display device 5155 via the network 20.
  • the smoke removal processing unit 601 is a processing unit that generates a smoke removal image in which smoke is removed from the input image based on the parameters acquired from the parameter generation unit 604.
  • the smoke removal processing unit 601 outputs a smoke removal image to the subtraction unit 602 and the superimposition unit 605.
  • the process of generating the smoke removal image by the smoke removal processing unit 601 using the parameters is the same as the processing of the smoke removal processing unit 304 according to the third embodiment.
  • the subtraction unit 602 is a processing unit that generates a difference image between the input image and the smoke removal image. For example, the subtraction unit 602 generates a difference image by subtracting the smoke removal image from the input image. The subtraction unit 602 outputs the information of the difference image to the determination unit 603.
  • the determination unit 603 is a processing unit that determines whether or not smoke is included in the input image based on the difference image. When the determination unit 603 determines that smoke is contained, the determination unit 603 determines the amount of smoke generated.
  • the processing of the determination unit 603 is the same as the processing of the determination unit 403 according to the fourth embodiment.
  • the determination unit 603 outputs the determination result to the parameter generation unit 604.
  • the determination result includes information on whether or not smoke is generated in the input image. When smoke is generated, the determination result further includes information on the amount of smoke generated and the smoke generation area.
  • the parameter generation unit 604 is a processing unit that generates parameters for smoke removal processing based on the determination result of the determination unit 603.
  • the parameters generated by the parameter generation unit 604 include information on the on / off timing of the smoke removal process, the intensity level of the smoke removal process, and the area to be the target of the smoke removal process.
  • the process of generating the parameters by the parameter generation unit 604 is the same as that of the parameter generation unit 303 described in the fourth embodiment.
  • the parameter generation unit 604 outputs the parameter to the smoke removal processing unit 601.
  • the parameter generation unit 604 outputs information on the intensity level of the smoking removal process to the superimposition unit 605.
  • the superimposition unit 605 is a processing unit that superimposes information on the intensity level of the smoke removal processing on the output image.
  • FIG. 19 is a diagram for explaining the processing of the superimposing portion according to the sixth embodiment of the present disclosure.
  • the information 71a of "intensity level: 80" is superimposed on the output image 71.
  • the superimposition unit 605 outputs an output image of the processing result to the display device 5155.
  • Effect of information processing device >> According to the information processing apparatus 600 according to the sixth embodiment of the present disclosure, information on the intensity level of the smoke removal process is superimposed on the output image. This allows the user to determine whether the smoke removal process is working or not. In addition, by displaying the numerical value of the intensity level, the user can determine how much smoke is generated and how effective the smoke removal is.
  • FIG. 20 is a hardware configuration diagram showing an example of a computer 1000 that realizes the functions of the information processing device.
  • the computer 1000 includes a CPU 1100, a RAM 1200, a ROM (Read Only Memory) 1300, an HDD (Hard Disk Drive) 1400, a communication interface 1500, and an input / output interface 1600.
  • Each part of the computer 1000 is connected by a bus 1050.
  • the CPU 1100 operates based on the program stored in the ROM 1300 or the HDD 1400, and controls each part. For example, the CPU 1100 expands the program stored in the ROM 1300 or the HDD 1400 into the RAM 1200 and executes processing corresponding to various programs.
  • the ROM 1300 stores a boot program such as a BIOS (Basic Input Output System) executed by the CPU 1100 when the computer 1000 is started, a program that depends on the hardware of the computer 1000, and the like.
  • BIOS Basic Input Output System
  • the HDD 1400 is a computer-readable recording medium that non-temporarily records a program executed by the CPU 1100 and data used by the program.
  • the HDD 1400 is a recording medium for recording an information processing program according to the present disclosure, which is an example of program data 1450.
  • the communication interface 1500 is an interface for the computer 1000 to connect to an external network 1550 (for example, the Internet).
  • the CPU 1100 receives data from another device or transmits data generated by the CPU 1100 to another device via the communication interface 1500.
  • the input / output interface 1600 is an interface for connecting the input / output device 1650 and the computer 1000.
  • the CPU 1100 receives data from an input device such as a keyboard or mouse via the input / output interface 1600. Further, the CPU 1100 transmits data to an output device such as a display, a speaker, or a printer via the input / output interface 1600. Further, the input / output interface 1600 may function as a media interface for reading a program or the like recorded on a predetermined recording medium (media).
  • the media is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory.
  • an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable disk)
  • a magneto-optical recording medium such as an MO (Magneto-Optical disk)
  • a tape medium such as a magnetic tape
  • magnetic recording medium such as a magnetic recording medium
  • semiconductor memory for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory.
  • the CPU 1100 of the computer 1000 executes the information processing program loaded on the RAM 1200 to execute the determination unit 102 and the smoke removal processing unit.
  • the functions of 103, the mist removal processing unit 104, the generation unit 105, and the like are realized.
  • the HDD 1400 stores the generation program according to the present disclosure and the data in the storage unit 101.
  • the CPU 1100 reads the program data 1450 from the HDD 1400 and executes the program, but as another example, these programs may be acquired from another device via the external network 1550.
  • the information processing device has a generation unit.
  • the generation unit acquires an input image which is an image related to the operation, and generates an output image based on whether or not the input image contains a substance generated during the operation. Further, the information processing device has a determination unit.
  • the determination unit determines whether or not the input image contains smoke or mist.
  • the determination unit further determines the amount of smoke or mist generated based on the input image.
  • the determination unit further determines the ratio of smoke to mist based on the input image.
  • the generator is characterized in that the influence of smoke or mist is excluded from the entire output image. As a result, even if smoke or mist is generated during the operation in endoscopic surgery and the visibility becomes poor, by using the information processing device, a clearer view can be obtained regardless of the amount of smoke or mist generated. It becomes possible to secure.
  • the determination unit further uses the type and operating status of the electronic device connected to the information processing device to determine whether or not the input image contains smoke or mist. This makes it possible to improve the accuracy of determining whether or not the input image contains smoke or mist.
  • the information processing device further has a smoke removal processing unit that generates a smoke removal image in which smoke is removed from the input image.
  • the generation unit generates the output image by using the determination result, the input image, and the smoke removal image. Thereby, a smoke removal image from which smoke has been removed can be generated, and the smoke removal image can be used to generate an output image without smoke generation.
  • the smoke removal processing unit estimates the deterioration of the input image based on the output image and the input image, and generates the smoke removal image based on the estimated result. This makes it possible to appropriately exclude smoke contained in the input image.
  • the information processing device further has a superimposing unit that superimposes information on the smoke removed by the smoke removing processing unit on the output image.
  • the information regarding smoke may be any information as long as it is related to the reduced smoke, such as whether or not the smoke reduction treatment is executed, the degree of the reduced smoke, and the intensity of the smoke reduction treatment. This allows the user to determine whether the smoke removal process is working or not. In addition, by displaying the numerical value of the intensity level, the user can determine how much smoke is generated and how effective the smoke removal is.
  • the information processing device further includes a subtraction unit that generates a difference image between the input image and the smoke removal image, and the determination unit identifies the amount of smoke generated based on the difference image and generates the smoke. Based on the amount, information about the smoke removed by the smoke removal processing unit is generated. Further, the information processing device further has a parameter generation unit that generates a parameter used in the smoke removal processing based on the determination result of the determination unit, and the smoke removal processing unit further has the parameter generation unit based on the parameter. Generates a smoke removal image with smoke removed from the input image. Based on the determination result of the determination unit, the parameter generation unit generates a parameter including the start or end timing of the smoke removal process, the intensity of the smoke removal process, and the target area of the smoke removal process. In this way, the parameters of the smoke removal process can be optimized by using the difference image, and by executing the smoke removal process using such parameters, an output image in which smoke is appropriately excluded from the input image is generated. can do.
  • the information processing device further includes a mist removing processing unit that generates a mist removing image in which mist is removed from the input image, and the generating unit uses the determination result, the input image, and the mist removing image. To generate the output image.
  • the mist removal processing unit identifies a mist generation region based on the input image, generates a correction image in which the mist generation region is corrected based on the information of the region around the mist generation region, and performs the correction. Deterioration of the corrected image is estimated based on the image and the output image, and the mist-removed image is generated based on the estimated result.
  • the generation unit generates the output image by synthesizing the input image, the smoke removal image, and the mist removal image based on the generated amount and the ratio of smoke and mist. .. Thereby, the smoke removal image and the mist removal image can be combined by the blend ratio ⁇ based on the generation probability of smoke or mist, and the smoke and mist contained in the input image can be appropriately excluded. ..
  • the generation unit is characterized in that the influence of smoke or mist is excluded from a part of the area of the output image.
  • the smoke removal process is not executed except in the area of interest, so that the smoke can be removed from the important part during the operation, and the user can easily confirm whether or not the smoke removal process is effective. can do.
  • the generation unit identifies a part of the region based on the position of the organ or surgical instrument specified from the input image, and excludes the influence of smoke or mist from the part of the output image.
  • the generation unit identifies the partial region with reference to the user's viewpoint position, and excludes the influence of smoke or mist from the partial region of the output image. This makes it possible to clear the area of interest to the user.
  • the present technology can also have the following configurations.
  • a generator that acquires an input image that is an image related to the operation and generates an output image based on whether or not the input image contains a substance generated during the operation.
  • Information processing device with.
  • the information processing apparatus according to (1) above further comprising a determination unit for determining whether or not the input image contains smoke or mist.
  • the determination unit further uses the type and operating status of the electronic device connected to the information processing apparatus to determine whether or not the input image contains smoke or mist.
  • the information processing device according to 2).
  • (4) The information processing apparatus according to (2) or (3), wherein the determination unit further determines the amount of smoke or mist generated based on the input image.
  • the information processing apparatus according to (2), (3) or (4), wherein the determination unit further determines the ratio of smoke to mist based on the input image.
  • the information processing apparatus according to (4) above.
  • the smoke removing processing unit estimates the deterioration of the input image based on the output image and the input image, and generates the smoke removing image based on the estimated result.
  • the information processing apparatus according to (6).
  • (8) The information processing apparatus further comprising a superimposing unit that superimposes information on smoke removed by the smoke removing processing unit on the output image.
  • the output image is further provided with a mist removal processing unit that generates a mist removal image in which mist is removed from the input image, and the generation unit uses the determination result, the input image, and the mist removal image.
  • the information processing apparatus according to (6), (7) or (8) above.
  • the mist removal processing unit identifies a mist generation region based on the input image, generates a correction image in which the mist generation region is corrected based on the information of the region around the mist generation region, and performs the correction.
  • the generation unit generates the output image by synthesizing the input image, the smoke removal image, and the mist removal image based on the generated amount and the ratio of smoke and mist.
  • the information processing apparatus according to (11) above.
  • the smoke removal processing unit further has a parameter generation unit that generates parameters to be used in the smoke removal processing based on the determination result of the determination unit, and the smoke removal processing unit removes smoke from the input image based on the parameters.
  • the information processing apparatus according to any one of (6) to (12) above, wherein a smoke removal image is generated.
  • the parameter generation unit is characterized in that it generates parameters including the start or end timing of the smoke removal process, the intensity of the smoke removal process, and the target area of the smoke removal process based on the determination result of the determination unit.
  • (15) The information processing apparatus according to any one of (2) to (14), wherein the generation unit excludes the influence of smoke or mist from the entire output image.
  • the computer Acquire the input image, which is an image related to the operation, A generation method for executing a process of generating an output image based on whether or not the input image contains a substance generated during surgery.
  • Computer A generator that acquires an input image that is an image related to the operation and generates an output image based on whether or not the input image contains a substance generated during the operation.
  • Second smoke removal processing unit 60 Device used monitoring device 61 Monitoring unit 100, 200, 300, 400, 500, 600 Information processing device 101, 201, 301, 501 Storage unit 102, 202 , 302, 403, 502, 603 Judgment unit 103, 203, 304, 504,601 Smoke removal processing unit 104,204 Mist removal processing unit 105, 205 Generation unit 303, 404, 503, 604 Parameter generation unit 401 First smoke removal Processing unit 402 Subtraction unit 405 Second smoke removal processing unit 605 Overlapping unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Astronomy & Astrophysics (AREA)
  • Optics & Photonics (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)

Abstract

情報処理装置(100)は、術中に関する画像である入力画像を取得し、前記入力画像に、術中に発生する物質が含まれているか否かに基づき、出力画像を生成する生成部とを備える。

Description

情報処理装置、生成方法及び生成プログラム
 本開示は、情報処理装置、生成方法及び生成プログラムに関する。
 医療現場において、内視鏡を用いた内視鏡手術が広く行われている。また、内視鏡手術に係る種々の装置が開発されている。たとえば、特許文献1では、撮像された内視鏡画像から煙を検出すると、気腹装置を動作させて煙の除去を行う装置が開示されている。
 特許文献2では、撮像された内視鏡画像から煙を検出すると、一律の信号処理によって内視鏡画像から煙除去を施したうえで、煙の検出結果に応じて排煙装置を制御し、煙の除去を行う装置が開示されている。
特開平11-318909号公報 特開2018-157917号公報
 しかし、特許文献1では、煙の有無を検出していても煙の量までは検出しておらず、煙の発生量によっては、十分に煙を除去できない場合がある。また、特許文献1では、煙を物理的に除外するものであるため、煙が排出されて視野がクリアになるまで時間を要する。
 特許文献2では、煙の発生量によらず、一律の信号処理によって、内視鏡画像から煙除去を施すものであり、煙の発生量によっては信号処理の効果が限定的であり、煙除去の効果は、結局、排煙装置の性能に依存してしまう。
 そこで、本開示では、術中に発生する物質の影響を低減することができる情報処理装置、生成方法及び生成プログラムを提案する。
 上記の課題を解決するために、本開示に係る一形態の情報処理装置は、術中に関する画像である入力画像を取得し、前記入力画像に、術中に発生する物質が含まれているか否かに基づき、出力画像を生成する生成部を備える。
本開示に係る技術思想を用いた手術室システムが適用された手術の様子の一例を示す図である。 本開示の第1の実施形態に係るシステム構成例を示す図である。 本開示の第1の実施形態に係る情報処理装置の構成例を示す図である。 煙およびミストそれぞれの特徴を説明するための図である。 煙およびミストの発生と輝度および彩度との関係を示す図である。 本開示の第1の実施形態に係る煙除去処理部の構成例を示す図である。 本開示の第1の実施形態に係るミスト除去処理部の構成例を示す図である。 本開示の第1の実施形態に係る生成部の構成例を示す図である。 本開示の第1の実施形態に係る情報処理装置の基本動作の流れを示すフローチャートである。 本開示の第1の実施形態に係る判定部の動作の流れを示すフローチャートである。 本開示の第2の実施形態に係るシステム構成例を示す図である。 本開示の第2の実施形態に係る情報処理装置の構成例を示す図である。 本開示の第3の実施形態に係る情報処理装置の構成例を示す図である。 本開示の第4の実施形態に係る情報処理装置の構成例を示す図である。 本開示の第5の実施形態に係るシステム構成例を示す図である。 本開示の第5の実施形態に係る情報処理装置の構成例を示す図である。 本開示の第5の実施形態に係る煙除去処理の生成する出力画像の一例を示す図である。 本開示の第6の実施形態に係る情報処理装置の構成例を示す図である。 本開示の第6の実施形態に係る重畳部の処理を説明するための図である。 情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 また、以下に示す項目順序に従って本開示を説明する。
  1.適用例
  2.第1の実施形態
  2.1.第1の実施形態に係るシステムの構成
  2.2.第1の実施形態に係る情報処理装置の構成
  2.3.情報処理装置の動作の流れ
  2.4.第1の実施形態に係る情報処理装置の効果
  3.第.2の実施形態
  3.1.第2の実施形態に係るシステムの構成
  3.2.第2の実施形態に係る情報処理装置の構成
  3.3.第2の実施形態に係る情報処理装置の効果
  4.第3の実施形態
  4.1.第3の実施形態に係るシステムの構成
  4.2.第3の実施形態に係る情報処理装置の構成
  4.3.第3の実施形態に係る情報処理装置の効果
  5.第4の実施形態
  5.1.第4の実施形態に係るシステムの構成
  5.2.第4の実施形態に係る情報処理装置の構成
  5.3.第4の実施形態に係る情報処理装置の効果
  6.第5の実施形態
  6.1.第5の実施形態に係るシステムの構成
  6.2.第5の実施形態に係る情報処理装置の構成
  6.3.第5の実施形態に係る情報処理装置の効果
  7.第6の実施形態
  7.1.第6の実施形態に係るシステムの構成
  7.2.第6の実施形態に係る情報処理装置の構成
  7.3.第6の実施形態に係る情報処理装置の効果
  8.ハードウェア構成
  9.むすび
<1.適用例>
 本開示の各実施形態に共通する技術思想の適用例について説明する。図1は、本開示に係る技術思想を用いた手術室システム5100が適用された手術の様子の一例を示す図である。シーリングカメラ5187及び術場カメラ5189は、手術室の天井に設けられ、患者ベッド5183上の患者5185の患部に対して処置を行う術者(医者)5181の手元及び手術室全体の様子を撮影可能である。シーリングカメラ5187及び術場カメラ5189には、倍率調整機能、焦点距離調整機能、撮影方向調整機能等が設けられ得る。照明5191は、手術室の天井に設けられ、少なくとも術者5181の手元を照射する。照明5191は、その照射光量、照射光の波長(色)及び光の照射方向等を適宜調整可能であってよい。
 内視鏡手術システム5113、患者ベッド5183、シーリングカメラ5187、術場カメラ5189及び照明5191は、視聴覚コントローラ及び手術室制御装置(図示せず)を介して互いに連携可能に接続されている。手術室内には、集中操作パネル5111が設けられており、ユーザは、当該集中操作パネル5111を介して、手術室内に存在するこれらの装置を適宜操作することが可能である。
 以下、内視鏡手術システム5113の構成について詳細に説明する。図示するように、内視鏡手術システム5113は、内視鏡5115と、その他の術具5131と、内視鏡5115を支持する支持アーム装置5141と、内視鏡下手術のための各種の装置が搭載されたカート5151と、から構成される。
 内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ5139a~5139dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5139a~5139dから、内視鏡5115の鏡筒5117や、その他の術具5131が患者5185の体腔内に挿入される。図示する例では、その他の術具5131として、チューブ5133、エネルギー処置具5135及び鉗子5137が、患者5185の体腔内に挿入されている。ここで、チューブ5133は、体控内に生じた煙を体腔外に排煙するための構成であってよい。また、一方で、チューブ5133は、体控内にガスを注入し体腔を膨らませる機能を有してよい。また、エネルギー処置具5135は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具5131はあくまで一例であり、術具5131としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
 内視鏡5115によって撮影された患者5185の体腔内の術部の画像が、表示装置5155に表示される。術者5181は、表示装置5155に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5135や鉗子5137を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、チューブ5133、エネルギー処置具5135及び鉗子5137は、手術中に、術者5181又は助手等によって支持される。
(支持アーム装置)
 支持アーム装置5141は、ベース部5143から延伸するアーム部5145を備える。図示する例では、アーム部5145は、関節部5147a、5147b、5147c、及びリンク5149a、5149bから構成されており、アーム制御装置5159からの制御により駆動される。アーム部5145によって内視鏡5115が支持され、その位置及び姿勢が制御される。これにより、内視鏡5115の安定的な位置の固定が実現され得る。
(内視鏡)
 内視鏡5115は、先端から所定の長さの領域が患者5185の体腔内に挿入される鏡筒5117と、鏡筒5117の基端に接続されるカメラヘッド5119と、から構成される。図示する例では、硬性の鏡筒5117を有するいわゆる硬性鏡として構成される内視鏡5115を図示しているが、内視鏡5115は、軟性の鏡筒5117を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒5117の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5115には光源装置5157が接続されており、当該光源装置5157によって生成された光が、鏡筒5117の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者5185の体腔内の観察対象に向かって照射される。なお、内視鏡5115は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド5119の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5153に送信される。なお、カメラヘッド5119には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
 なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5119には撮像素子が複数設けられてもよい。この場合、鏡筒5117の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
(カートに搭載される各種の装置)
 CCU5153は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5115及び表示装置5155の動作を統括的に制御する。具体的には、CCU5153は、カメラヘッド5119から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5153は、当該画像処理を施した画像信号を表示装置5155に提供する。また、CCU5153には、上述した視聴覚コントローラが接続される。CCU5153は、画像処理を施した画像信号を視聴覚コントローラ5107にも提供する。また、CCU5153は、カメラヘッド5119に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。当該撮像条件に関する情報は、入力装置5161を介して入力されてもよいし、上述した集中操作パネル5111を介して入力されてもよい。
 表示装置5155は、CCU5153からの制御により、当該CCU5153によって画像処理が施された画像信号に基づく画像を表示する。内視鏡5115が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置5155としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置5155として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5155が設けられてもよい。
 光源装置5157は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5115に供給する。
 アーム制御装置5159は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5141のアーム部5145の駆動を制御する。
 入力装置5161は、内視鏡手術システム5113に対する入力インタフェースである。ユーザは、入力装置5161を介して、内視鏡手術システム5113に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置5161を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置5161を介して、アーム部5145を駆動させる旨の指示や、内視鏡5115による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5135を駆動させる旨の指示等を入力する。
 入力装置5161の種類は限定されず、入力装置5161は各種の公知の入力装置であってよい。入力装置5161としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5171及び/又はレバー等が適用され得る。入力装置5161としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5155の表示面上に設けられてもよい。
 あるいは、入力装置5161は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置5161は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置5161は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置5161が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5181)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
 処置具制御装置5163は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5135の駆動を制御する。排煙装置5165は、内視鏡5115による視野の確保及び術者の作業空間の確保の目的で、患者5185の体腔を膨らめるために、チューブ5133を介して当該体腔内にガスを送り込む。また、排煙装置5165は、内視鏡5115による視野の確保のため、体腔内に生じた煙を排煙する機能を有する。レコーダ5167は、手術に関する各種の情報を記録可能な装置である。プリンタ5169は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 以下、内視鏡手術システム5113において特に特徴的な構成について、更に詳細に説明する。
(支持アーム装置)
 支持アーム装置5141は、基台であるベース部5143と、ベース部5143から延伸するアーム部5145と、を備える。図示する例では、アーム部5145は、複数の関節部5147a、5147b、5147cと、関節部5147bによって連結される複数のリンク5149a、5149bと、から構成されているが、図1では、簡単のため、アーム部5145の構成を簡略化して図示している。実際には、アーム部5145が所望の自由度を有するように、関節部5147a~5147c及びリンク5149a、5149bの形状、数及び配置、並びに関節部5147a~5147cの回転軸の方向等が適宜設定され得る。例えば、アーム部5145は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5145の可動範囲内において内視鏡5115を自由に移動させることが可能になるため、所望の方向から内視鏡5115の鏡筒5117を患者5185の体腔内に挿入することが可能になる。
 関節部5147a~5147cにはアクチュエータが設けられており、関節部5147a~5147cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5159によって制御されることにより、各関節部5147a~5147cの回転角度が制御され、アーム部5145の駆動が制御される。これにより、内視鏡5115の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5159は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5145の駆動を制御することができる。
 例えば、術者5181が、入力装置5161(フットスイッチ5171を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5159によってアーム部5145の駆動が適宜制御され、内視鏡5115の位置及び姿勢が制御されてよい。当該制御により、アーム部5145の先端の内視鏡5115を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部5145は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5145は、手術室から離れた場所に設置される入力装置5161を介してユーザによって遠隔操作され得る。
 また、力制御が適用される場合には、アーム制御装置5159は、ユーザからの外力を受け、その外力にならってスムーズにアーム部5145が移動するように、各関節部5147a~5147cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部5145に触れながらアーム部5145を移動させる際に、比較的軽い力で当該アーム部5145を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡5115を移動させることが可能となり、ユーザの利便性を向上させることができる。
 ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5115が支持されていた。これに対して、支持アーム装置5141を用いることにより、人手によらずに内視鏡5115の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
 なお、アーム制御装置5159は必ずしもカート5151に設けられなくてもよい。また、アーム制御装置5159は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5159は、支持アーム装置5141のアーム部5145の各関節部5147a~5147cにそれぞれ設けられてもよく、複数のアーム制御装置5159が互いに協働することにより、アーム部5145の駆動制御が実現されてもよい。
(光源装置)
 光源装置5157は、内視鏡5115に術部を撮影する際の照射光を供給する。光源装置5157は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5157において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5119の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置5157は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5119の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置5157は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5157は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
<2.第1の実施形態>
<<2.1.第1の実施形態に係るシステムの構成>>
 次に、本開示の第1の実施形態について詳細に説明する。図2は、本開示の第1の実施形態に係るシステム構成例を示す図である。図2に示すように、このシステムは、撮像装置10、表示装置5155、情報処理装置100を有する。撮像装置10、表示装置5155、情報処理装置100は、ネットワーク20を介して相互に接続される。
 撮像装置10は、観察対象物の生体内において生体内画像を撮像する装置である。撮像装置10は、たとえば、図1に説明したように内視鏡5115であってもよい。撮像装置10は、撮像部11および通信部12を有する。
 撮像部11は、観察対象物の生体内において生体内画像を撮像する機能を有する。本実施例に係る撮像部11は、たとえば、CCD(Charge Coupled device)やCMOS(Complementary MOS)などの撮像素子を含んで構成される。撮像部11は、所定のフレームレート(FPS:Frames Per Second)で、生体内画像を撮像する。
 ここで、本実施形態に係る生体内画像とは、臨床、医学、および実験用に生物学見地から取得される画像(Biological Imaging)を広く含み、撮像対象は人間に限定されない。
 通信部12は、ネットワーク20を介して、情報処理装置100との情報通信を行う機能を有する。たとえば、通信部12は、撮像部11が撮像した各生体内画像を情報処理装置100に時系列に送信する。
 情報処理装置100は、撮像装置10から、各生体内画像を時系列に受信する。以下の説明において、撮像装置10から受信する生体内画像を「入力画像」と表記する。情報処理装置100は、入力画像に、術中に発生する物質が含まれているか否かを判定し、判定結果と入力画像とを基にして、出力画像を生成する。たとえば、術中に発生する物資は、煙、ミストである。入力画像は、「医療画像」や「術中画像」とも呼ばれる。
 情報処理装置100は、出力画像を、表示装置5155に送信する。後述するように、入力画像に、煙またはミストが含まれている場合、情報処理装置100は、煙またはミストを除外した出力画像を生成する。情報処理装置100は、たとえば、図1で説明したようにCCU5153であってもよい。
 表示装置5155は、情報処理装置100から出力画像を受信し、受信した出力画像を表示する。その他の表示装置5155に関する説明は、図1の表示装置5155に関する説明と同様である。
<<2.2.第1の実施形態に係る情報処理装置の構成>>
 次に、本開示の第1の実施形態に係る情報処理装置100について詳細に説明する。図3は、本開示の第1の実施形態に係る情報処理装置の構成例を示す図である。図3に示すように、この情報処理装置100は、記憶部101、判定部102、煙除去処理部103、ミスト除去処理部104、生成部105を有する。
 情報処理装置100は、撮像装置10から入力画像を受信する度に、判定部102、煙除去処理部103、ミスト除去処理部104にそれぞれ入力画像を入力する。図3では図示を省略するが、情報処理装置100は、ネットワーク20を介して、撮像装置10、表示装置5155と情報通信を行う通信部を有しているものとする。
((記憶部101))
 記憶部101は、生成部105によって生成される最新の出力画像の情報を記憶する記憶装置である。出力画像は、煙およびミストが発生していない(あるいは、煙およびミストが除去された)画像である。記憶部101に記憶される出力画像は、生成部105から新たな出力画像が出力される度に、更新される。
 記憶部101は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、HDD(Hard Disk Drive)などの記憶装置に対応する。記憶部101は、揮発性メモリ、不揮発性メモリのどちらかでもよいし、両方使用してもよい。
((判定部102))
 判定部102は、入力画像を基にして、入力画像中に煙またはミストが含まれているか否かを判定する処理部である。判定部102は、煙またはミストが含まれていると判定した場合、煙およびミストの発生量を判定する。また、判定部102は、煙およびミストそれぞれの発生確率を算出する。煙およびミストの発生確率は、煙とミストとの比率に対応する。
 ここで、煙およびミストそれぞれの特徴について説明する。図4は、煙およびミストそれぞれの特徴を説明するための図である。図4において、画像25は、煙およびミストが発生していない入力画像である。画像25aは、煙が発生している入力画像である。画像25bは、ミストが発生している入力画像である。
 煙が発生すると、画像25aに示すように、霧と同じく比較的一様に、煙が広がる。煙のかかっている部分は、光の反射が起こると共に透過率が下がるため、全体的に白っぽくなった上で、背景のコントラストが下がるという特徴がある。
 ミストが発生すると、画像25bに示すように、煙と同様にして白っぽくなり、背景のコントラストが下がる。ミストは、基本的に水蒸気や水滴の集まりであるため、水滴のある部分とない部分との透過率の差が大きくなり、まだら模様のように背景の見えない部分ができる。
 続いて、煙およびミストの発生と輝度および彩度との関係について説明する。図5は、煙およびミストの発生と輝度および彩度との関係を示す図である。図5に示すグラフにおいて、横軸は時間に対応する軸である。縦軸は、輝度または彩度のレベル(値)に対応する軸である。線26aは、輝度と時間との関係を示すものである。線26bは、彩度と時間との関係を示すものである。
 図5に示すように、時刻tにおいて煙(またはミスト)が発生し、時間経過と共に、煙(またはミスト)の発生量が増加すると、発生量の増加に伴って、輝度のレベルが上がり、彩度のレベルが下がる。
 判定部102が、入力画像中に煙またはミストが含まれているか否かを判定する処理の一例について説明する。判定部102は、記憶部101に記憶された出力画像を基にして、輝度の基準値および彩度の基準値を算出しておく。判定部102は、出力画像の各画素値を輝度および彩度に変換する。判定部102は、出力画像の各輝度の平均値を、輝度の基準値として算出する。判定部102は、出力画像の各彩度の平均値を、彩度の基準値として算出する。
 判定部102は、入力画像の入力を受け付けると、入力画像に含まれる各画素値を輝度および彩度に変換する。たとえば、判定部102は、入力画像の各輝度の平均値が輝度の基準値未満となり、かつ、入力画像の各彩度の平均値が彩度の基準値未満となった場合、入力画像中に煙またはミストが含まれていると判定する。
 判定部102が、入力画像中に煙またはミストが含まれていると判定した場合、煙およびミストの発生量を判定する処理と、煙およびミストの発生確率を判定する処理を実行する。
 判定部102が、煙およびミストの発生量を判定する処理の一例について説明する。たとえば、判定部102は、入力画像を複数のブロックに分割し、ブロック毎に輝度および彩度の時間変化を算出する。
 たとえば、判定部102は、出力画像のブロックBOijの輝度と、入力画像のブロックBIijの輝度との差分を、輝度の時間変化として算出する。BOijは、出力画像の分割されたブロックのうち、i行目j列目のブロックを示す。BIijは、入力画像の分割されたブロックのうち、i行目j列目のブロックを示す。
 判定部102は、出力画像のブロックBOijの彩度と、入力画像のブロックBIijの彩度との差分を、彩度の時間変化として算出する。
 判定部102は、出力画像の各ブロックと、入力画像の各ブロックとを比較して、ブロック毎に輝度および彩度の時間変化を算出する。判定部102は、入力画像の各ブロックのうち、輝度および彩度の時間変化が閾値以上となるブロックを、煙またはミストの発生したブロックとして判定する。
 たとえば、判定部102は、入力画像の全ブロックのうち、煙またはミストの発生したブロックの割合と、輝度および彩度の時間変化と、煙およびミストの発生量との関係を定義した「発生量特定テーブル(図示略)」を基にして、煙およびミストの発生量を特定する。発生量特定テーブルの情報は、事前に設定されているものとする。
 続いて、判定部102が、煙およびミストの発生確率(比率)を判定する処理の一例について説明する。判定部102は、入力画像のブロック毎に、ダイナミックレンジを算出する。たとえば、判定部102は、1つのブロックに含まれる輝度(あるいは画素値)を走査し、輝度の最大値と、輝度の最小値とを特定し、輝度の最大値と輝度の最小値との差分を、ダイナミックレンジとして算出する。
 判定部102は、ダイナミックレンジと、煙およびミストの発生確率との関係を定義した「発生比率特定テーブル(図示略)」を基にして、1つのブロックに対する煙およびミストの発生確率を判定する。たとえば、煙に比べてミストは画像のローカルコントラストが大きくなる傾向があるため、ダイナミックレンジが大きいほど、煙の発生確率と比較して、ミストの発生確率が大きくなる。
 判定部102は、煙またはミストの発生した各ブロックについて、煙およびミストの発生確率を算出する処理をそれぞれ実行する。判定部102は、算出した煙およびミストの発生確率を基にして、煙およびミストの発生確率の代表値を特定する。たとえば、判定部102は、煙およびミストの発生確率の平均値または中央値等を、煙およびミストの発生確率の代表値として特定する。
 たとえば、判定部102は、煙の発生確率P1と、ミストの発生確率P2とを合計した発生確率が、100%となるように、煙の発生確率P1と、ミストの発生確率P2とを調整する。
 判定部102は、判定結果を、生成部105に出力する。判定結果には、入力画像に、煙またはミストが発生しているか否かの情報が含まれる。煙またはミストが発生している場合には、判定結果には、煙およびミストの発生量と、煙およびミストの発生確率の代表値とが更に含まれる。以下の説明では、煙およびミストの発生確率の代表値を単に、煙およびミストの発生確率と表記する。
((煙除去処理部103))
 煙除去処理部103は、入力画像から煙を低減または除去した煙除去画像を生成する処理部である。以下の説明では「入力画像から煙を低減または除去する」ことを、適宜、「入力画像から煙を除去」すると表記する。図6は、本開示の第1の実施形態に係る煙除去処理部の構成例を示す図である。図6に示すように、煙除去処理部103は、劣化推定部31と、劣化補正部32とを有する。
 劣化推定部31は、入力画像と出力画像とを基にして、入力画像の劣化を推定する処理部である。劣化推定部31は、劣化の推定結果を、劣化補正部32に出力する。たとえば、劣化推定部31は、ヒストグラム変換処理、補正量マップ算出処理を実行する。以下において、劣化推定部31が実行するヒストグラム変換処理、補正量マップ算出処理について説明する。
 劣化推定部31が実行するヒストグラム変換処理の一例について説明する。劣化推定部31は、入力画像のヒストグラムh(s)が、出力画像(ターゲット画像)のヒストグラムh(t)に一致するように変換する。ここで、sは、入力画像におけるj番目の画素値を示すものである。tは、出力画像におけるj番目の画素値を示すものである。たとえば、入力画像および出力画像の画素値は、0から255まで値をとる。
 劣化推定部31は、ヒストグラムを画素数で正規化して確率密度関数を求める。たとえば、入力画像の確率密度関数p(s)は、式(1)によって定義される。劣化推定部31は、式(1)を基にして、入力画像の確率密度関数p(s)を算出する。
Figure JPOXMLDOC01-appb-M000001
 出力画像の確率密度関数p(t)は、式(2)によって定義される。劣化推定部31は、式(2)を基にして、確率密度関数p(t)を算出する。
Figure JPOXMLDOC01-appb-M000002
 劣化推定部31は、確率密度関数を求めた後に、確率密度関数の累積分布関数を求める。たとえば、入力画像の累積分布関数F(s)は、式(3)によって定義される。劣化推定部31は、式(3)を基にして、累積分布関数F(s)を算出する。入力画像の画素値が、0から255まで値をとる場合、k=255となる。
Figure JPOXMLDOC01-appb-M000003
 出力画像の累積分布関数F(t)は、式(4)によって定義される。劣化推定部31は、式(4)を基にして、累積分布関数F(t)を算出する。出力画像の画素値が、0から255まで値をとる場合、k=255となる。
Figure JPOXMLDOC01-appb-M000004
 劣化推定部31は、F(s)の逆関数F -1(s)を算出し、F(s)=F(s)となるように、入力画像の各画素値を変換する。たとえば、劣化推定部31は、入力画像の各画素値s(j=0~255)を、式(5)に基づいて、出力画素値oにそれぞれ変換することで、ヒストグラム変換画像H(I)を生成する。
Figure JPOXMLDOC01-appb-M000005
 ここで、劣化推定部31は、上記のヒストグラム変換処理を、必ずしも画像全体に対して行う必要はなく、画像の特定領域やグリッド単位で行ってもよい。
 劣化推定部31が実行する補正量マップ算出処理の一例について説明する。劣化推定部31は、式(6)を基にして、補正量マップMを算出する。式(6)に示すように、劣化推定部31は、ヒストグラム変換画像(I)と、入力画像Iとの差分を算出することで、コントラストの補正量マップMを算出する。
 M=H(I)-I・・・(6)
 また、劣化推定部31は、コントラストの補正量マップを、入力画像をガイド画像としたガイド付きフィルタで成形することで、成形済み補正量マップF(I,M)を生成する。成形済み補正量マップF(I,M)は、補正量マップMを、入力画像Iのエッジに合わせて成形したものである。このように、成形済み補正量マップF(I,M)を用いることで、補正量マップMと入力画像Iとの位置がずれている場合に発生し得るエッジ周辺での画像劣化を防ぐことができる。
 なお、劣化推定部31は、以下に示す非特許文献1、2、3のいずれかに記載されたガイド付きフィルタを利用して、成形済み補正量マップF(I,M)を生成してもよい。
 非特許文献1:Kopf,Johannes,et al."Joint bilateral upsampling."ACM Transactions on Graphics (ToG).Vol.26.No.3.ACM,2007.
 非特許文献2:He,Kaiming,Jian Sun, and Xiaoou Tang."Guided image filtering."European conference on computer vision.Springer,Berlin,Heidelberg,2010.
 非特許文献3:Gastal,Eduardo SL, and Manuel M.Oliveira."Domain transform for edge-aware image and video processing."ACM Transactions on Graphics (ToG).Vol.30.No.4. ACM,2011.
 劣化推定部31は、劣化の推定結果として、成形済み補正量マップF(I,M)を、劣化補正部32に出力する。成形済み補正量マップF(I,M)は、各画素の画素値が定義される。
 劣化補正部32は、劣化の推定結果を基にして、入力画像を補正することで、煙除去画像を生成する処理部である。たとえば、劣化補正部32は、式(7)に基づいて、煙除去画像Oを生成する。式(7)では、入力画像Iの画素の画素値に、成形済み補正量マップF(I,M)の同位置の画素の画素値を加算する処理を、各画素について実行することを意味する。劣化補正部32は、煙除去画像の情報を、生成部105に出力する。
 O=F(I,M)+I・・・(7)
((ミスト除去処理部104))
 ミスト除去処理部104は、入力画像からミストを低減または除去したミスト除去画像を生成する処理部である。以下の説明では「入力画像からミストを低減または除去する」ことを、適宜、「入力画像からミストを除去」すると表記する。図7は、本開示の第1の実施形態に係るミスト除去処理部の構成例を示す図である。図7に示すように、ミスト除去処理部104は、発生領域特定部41と、第1劣化補正部42と、劣化推定部43と、第2劣化補正部44とを有する。
 発生領域特定部41は、入力画像と出力画像とを比較して、入力画像の領域のうち、ミストの発生している領域を判定する処理部である。たとえば、発生領域特定部41は、判定部102と同様にして、入力画像の各ブロックのうち、輝度および彩度の時間変化が閾値以上となるブロックを、煙またはミストの発生したブロックとして判定する。また、発生領域特定部41は、煙またはミストの発生したブロックのうち、輝度が閾値Th以上となるブロックをミストの発生した領域として特定する。
 なお、発生領域特定部41は、他の処理によって、ミストの発生している領域を特定してもよい。たとえば、発生領域特定部41は、入力画像を複数のブロックに分割し、複数のブロックのうち、輝度が閾値Th以上となるブロックをミストの発生した領域として特定してもよい。
 発生領域特定部41は、ミストの発生している領域の情報と、ミストの発生していない領域の情報とを、第1劣化補正部42に出力する。また、発生領域特定部41は、入力画像の情報を、第1劣化補正部42に出力する。
 第1劣化補正部42は、入力画像において、ミストの発生している領域を、ミストの発生していない領域の情報によって補正する処理部である。第1劣化補正部42は、入力画像を複数のブロックに分割し、分割した複数のブロックを、ミストが発生しているブロックと、ミストの発生していないブロックに分類する。以下の説明では、ミストが発生しているブロックを、第1ブロックと表記する。ミストが発生していないブロックを、第2ブロックと表記する。
 第1劣化補正部42は、第1ブロックを選択し、選択した第1ブロックから所定距離以内の位置する第2ブロックを選択する。第1劣化補正部42は、選択した第2ブロックのコントラストと同一のコントラストとなるように、選択した第1ブロックのコントラストを調整する。第1劣化補正部42は、選択した第1ブロックから所定距離以内の位置する第2ブロックが複数存在する場合には、複数の第2ブロックのコントラストの平均値を算出し、第1ブロックのコントラストを、複数の第2ブロックのコントラストの平均値と同一となるように調整してもよい。
 第1劣化補正部42は、入力画像に含まれる各第1ブロックについて、上記処理を繰り返し実行することで、入力画像を補正する。
 第1劣化補正部42は、補正した入力画像を、第2劣化補正部44に出力する。以下の説明では、補正された入力画像を「補正画像」と表記する。
 劣化推定部43は、入力画像と出力画像とを基にして、入力画像の劣化を推定する処理部である。劣化推定部43は、劣化の推定結果を、第2劣化補正部44に出力する。劣化推定部43の処理は、劣化推定部31の処理と同様である。たとえば、劣化推定部43が、第2劣化補正部44に出力する劣化の推定結果は、成形済み補正量マップF(I,M)となる。
 第2劣化補正部44は、劣化の推定結果を基にして、補正画像を補正することで、ミスト除去画像を生成する処理部である。たとえば、第2劣化補正部44は、式(8)に基づいて、ミスト除去画像Oを生成する。式(8)では、補正画像Iの画素の画素値に、成形済み補正量マップF(I,M)の同位置の画素の画素値を加算する処理を、各画素について実行することを意味する。第2劣化補正部44は、ミスト除去画像の情報を、生成部105に出力する。
 O=F(I,M)+I・・・(8)
((生成部105))
 生成部105は、判定部102による判定結果と入力画像とを基にして、出力画像を生成する処理部である。生成部105は、出力画像の情報を、表示装置5155に出力する。出力画像の全体から煙またはミストの影響が除外されている。図8は、本開示の第1の実施形態に係る生成部の構成例を示す図である。図8に示すように、生成部105は、第1ブレンド比率算出部51と、第1ブレンド処理部52と、第2ブレンド比率算出部53と、第2ブレンド処理部54とを有する。
 第1ブレンド比率算出部51は、判定部102の判定結果を基にして、煙除去画像と、ミスト除去画像とのブレンド比率αを算出する処理部である。第1ブレンド比率算出部51は、煙およびミストの発生確率をブレンド比率αとする。たとえば、煙の発生確率P1と、ミストの発生確率P2とを合計すると、100%になるように調整されているものとすると、煙とミストとのブレンド比率αは、P1:P2となる。第1ブレンド比率算出部51は、ブレンド比率αの情報を、第1ブレンド処理部52に出力する。
 第1ブレンド処理部52は、ブレンド比率αを基にして、煙除去画像と、ミスト除去画像とをブレンド(合成)することで、処理画像を生成する処理部である。第1ブレンド処理部52は、処理画像の情報を、第2ブレンド処理部54に出力する。
 たとえば、処理画像のi行j列目の画素の画素値をS3ijとし、煙除去画像のi行j列目の画素の画素値をS1ijとし、ミスト除去画像のi行j列目の画素の画素値をS2ijとする。この場合、第1ブレンド処理部52は、処理画素の画素値S3ijを、式(9)により、算出する。
 S1ij=P1/(P1+P2)×S1ij+P2/(P1+P2)×S2ij・・・(9)
 第1ブレンド処理部52は、式(9)を基にして、処理画像の各画素の画素値をそれぞれ算出することで、処理画像を生成する。
 第2ブレンド比率算出部53は、判定部102の判定結果を基にして、処理画像と、入力画像とのブレンド比率βを算出する処理部である。たとえば、第2ブレンド比率算出部53は、煙およびミストの発生量と、ブレンド比率βとの関係を定義した「ブレンド比率特定テーブル(図示略)」を基にして、ブレンド比率βを算出する。
 たとえば、処理画像と、入力画像とのブレンド比率βを、P3:P4として説明を行う。ブレンド比率特定テーブルでは、煙およびミストの発生量が多いほど、処理画像の比率P3が、入力画像P4の比率よりも大きくなるように設定されているものとする。第2ブレンド比率算出部53は、ブレンド比率βの情報を、第2ブレンド処理部54に出力する。
 第2ブレンド処理部54は、ブレンド比率βを基にして、処理画像と、入力画像とをブレンド(合成)することで、出力画像を生成する処理部である。たとえば、処理画像のi行j列目の画素の画素値をS3ijとし、入力画像のi行j列目の画素の画素値をS4ijとし、出力画像のi行j列目の画素の画素値をS5ijとする。この場合、第2ブレンド処理部54は、出力画像の画素値S5ijを、式(10)により、算出する。
 S5ij=P3/(P3+P4)×S3ij+P4/(P3+P4)×S4ij・・・(10)
 第2ブレンド処理部54は、式(10)を基にして、処理画像の各画素の画素値をそれぞれ算出することで、出力画像を生成する。
<<2.3.情報処理装置100の動作の流れ>>
 次に、本開示の第1の実施形態に係る情報処理装置100の動作の流れについて説明する。図9は、本開示の第1の実施形態に係る情報処理装置100の基本動作の流れを示すフローチャートである。
 図9において、情報処理装置100は、撮像装置10から入力画像を受信する(ステップS101)。情報処理装置100の判定部102は、判定処理を実行する(ステップS102)。
 情報処理装置100の煙除去処理部103は、入力画像に対して煙除去処理を実行し、煙除去画像を生成する(ステップS103)。情報処理装置100のミスト除去処理部104は、入力画像に対してミスト除去処理を実行し、ミスト除去画像を生成する(ステップS104)。
 情報処理装置100の生成部105は、ブレンド比率αによって、煙除去画像とミスト除去画像とをブレンドし、処理画像を生成する(ステップS105)。生成部105は、ブレンド比率βによって、処理画像と、入力画像とをブレンドし、出力画像を生成する(ステップS106)。
 生成部105は、出力画像を記憶部101に登録すると共に、出力画像を表示装置5155に出力する(ステップS107)。情報処理装置100は、処理を継続する場合には(ステップS108,Yes)、ステップS101に移行する。一方、情報処理装置100は、処理を継続しない場合には(ステップS108,No)、処理を終了する。
 次に、図9のステップS102に示した判定処理の動作の流れについて説明する。図10は、本開示の第1の実施形態に係る判定部の動作の流れを示すフローチャートである。
 情報処理装置100の判定部102は、入力画像の画素値を輝度および彩度に変換する(ステップS201)。判定部102は、入力画像を複数のブロックに分割する(ステップS202)。
 判定部102は、ブロック毎に輝度および彩度の時間変化を算出する(ステップS203)。判定部102は、輝度および彩度の時間変化および面積から煙およびミストの発生量を推定する(ステップS204)。
 判定部102は、ブロック毎のダイナミックレンジを算出する(ステップS205)。判定部102は、煙およびミストそれぞれの発生確率を推定する(ステップS206)。判定部102は、判定結果を、生成部105に出力する(ステップS207)。
<<2.4.第1の実施形態に係る情報処理装置の効果>>
 本開示の第1の実施形態に係る情報処理装置100によれば、入力画像を基にして、入力画像に煙またはミストが含まれているか否かを判定し、判定結果と入力画像とを基にして、煙またはミストを除外した出力画像を生成する。これによって、内視鏡手術において術中に煙あるいはミストが発生して視界が不良になった場合でも、情報処理装置100を用いることにより、発生した煙あるいはミストの量によらず、よりクリアな視界を確保することが可能となる。
 情報処理装置100によれば、煙除去処理部103が、煙およびミストの発生していない出力画像のコントラストと同一となるように、入力画像のコントラストを調整することで、煙除去画像を生成する。これによって、入力画像に含まれる煙を適切に除外することができる。
 情報処理装置100によれば、ミスト除去処理部104が、ミスト発生領域のコントラストを、ミストの発生していない領域のコントラストと同一となるように入力画像を調整した後に、煙およびミストの発生していない出力画像のコントラストと同一となるように、更に入力画像のコントラストを調整する。このように、2段階で入力画像のコントラストの調整を行うことで、煙と特徴の異なる、まだら模様のようなミストであっても、入力画像から適切に除外することができる。
 情報処理装置100によれば、入力画像を基にして、煙またはミストの発生確率を判定する。これよって、煙またはミストの発生確率を基にしたブレンド比率αによって、煙除去画像と、ミスト除去画像とを合成することができ、入力画像に含まれる煙およびミストを適切に除外することができる。
 情報処理装置100によれば、入力画像を基にして、煙またはミストの発生量を判定する。これによって、煙またはミストの発生量を基にしたブレンド比率βによって、処理画像と、入力画像とを合成することができ、入力画像に含まれる煙およびミストを適切に除外することができる。
 また、情報処理装置100によれば、煙およびミストの除去に関する処理を、入力画像に対して実行するため、煙またはミストが発生した際に、煙またはミストの低減効果を瞬時に得ることができる。
<3.第2の実施形態>
<<3.1.第2の実施形態に係るシステムの構成>>
 次に、本開示の第2の実施形態について詳細に説明する。図11は、本開示の第2の実施形態に係るシステム構成例を示す図である。図11に示すように、このシステムは、撮像装置10、使用デバイス監視装置60、表示装置5155、情報処理装置200を有する。撮像装置10、使用デバイス監視装置60、表示装置5155、情報処理装置200は、ネットワーク20を介して相互に接続される。
 撮像装置10および表示装置5155に関する説明は、図2で説明した撮像装置10および表示装置5155に関する説明と同様である。
 使用デバイス監視装置60は、図示を省略する電気メス、超音波凝固切開装置等に接続され、電気メス、超音波凝固切開装置が使用されているか否かを監視する装置である。使用デバイス監視装置60は、たとえば、図1に説明した処置具制御装置5163であってもよい。使用デバイス監視装置60は、監視部61と、通信部62とを有する。
 監視部61は、電気メス、超音波凝固切開装置の使用状況を監視する処理部である。たとえば、監視部61は、電気メス、超音波凝固切開装置の使用開始ボタン等から、使用開始の制御信号を受け付けた場合に、電気メス、超音波凝固切開装置が使用中であると判定する。監視部61は、使用デバイス情報を生成する。使用デバイス情報には、電気メスが使用中であるか否かの情報と、超音波凝固切開装置が使用中であるか否かの情報とを含む。
 たとえば、電気メスは、高周波電流によって発生する熱によって、患者5185の患部に対して止血や切開を行う。電気メスは、処置部分を焦がすため、煙が発生しやすいという特徴がある。
 超音波凝固切開装置は、超音波振動による摩擦によって、患者5185の患部の凝固や切開を行う。超音波凝固切開装置は、超音波振動によって、ミストが発生しやすいという特徴がある。
 通信部62は、ネットワーク20を介して、情報処理装置200との情報通信を行う機能を有する。たとえば、通信部62は、監視部61が生成した使用デバイス情報を情報処理装置200に送信する。
<<3.2.第2の実施形態に係る情報処理装置の構成>>
 次に、本開示の第2の実施形態に係る情報処理装置200について詳細に説明する。図12は、本開示の第2の実施形態に係る情報処理装置の構成例を示す図である。図12に示すように、この情報処理装置200は、記憶部201、判定部202、煙除去処理部203、ミスト除去処理部204、生成部205を有する。
 情報処理装置200は、撮像装置10から入力画像を受信する度に、判定部202、煙除去処理部203、ミスト除去処理部204にそれぞれ入力画像を入力する。情報処理装置200は、使用デバイス監視装置60から、使用デバイス情報を受信する度に、判定部202に使用デバイス情報を入力する。図12では図示を省略するが、情報処理装置200は、ネットワーク20を介して、撮像装置10、使用デバイス監視装置60、表示装置5155と情報通信を行う通信部を有しているものとする。
((記憶部201)))
 記憶部201は、生成部205によって生成される最新の出力画像の情報を記憶する記憶装置である。出力画像は、煙およびミストが発生していない(あるいは、煙およびミストが除去された)画像である。記憶部201に記憶される出力画像は、生成部205から新たな出力画像が出力される度に、更新される。
 記憶部201は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、HDDなどの記憶装置に対応する。記憶部201は、揮発性メモリ、不揮発性メモリのどちらかでもよいし、両方使用してもよい。
((判定部202))
 判定部202は、使用デバイス情報および入力画像を基にして、入力画像中に煙またはミストが含まれているか否かを判定する処理部である。判定部202は、煙またはミストが含まれていると判定した場合、煙およびミストの発生量を判定する。また、判定部202は、煙およびミストそれぞれの発生確率を算出する。煙およびミストの発生確率は、煙とミストとの比率に対応する。
 判定部202が、入力画像中に煙またはミストが含まれているか否かを判定する処理の一例について説明する。たとえば、判定部202は、使用デバイス情報において、電気メスまたは超音波凝固切開装置が使用されている旨の情報が含まれる場合に、入力画像中に煙またはミストが含まれていると判定する。
 なお、判定部202は、入力画像を基にして、入力画像中に煙またはミストが含まれていると判定し、かつ、使用デバイス情報において、電気メスまたは超音波凝固切開装置が使用されている旨の情報が含まれる場合に、入力画像中に煙またはミストが含まれていると判定してもよい。判定部202が、入力画像を基にして、入力画像中に煙またはミストが含まれていると判定する処理は、第1の実施形態の判定部102の処理と同様である。
 判定部202が、入力画像中に煙またはミストが含まれていると判定した場合、煙およびミストの発生量を判定する処理と、煙およびミストの発生確率を判定する処理を実行する。
 判定部202が、煙およびミストの発生量を判定する処理は、第1の実施形態の判定部102の処理と同様である。
 判定部202が、煙およびミストの発生確率(比率)を判定する処理の一例について説明する。判定部202は、第1の実施形態の判定部102と同様にして、ダイナミックレンジを基にして、煙の発生確率P1およびミストの発生確率P2(煙およびミストの発生確率の代表値)を算出する。
 ここで、判定部202は、使用デバイス情報を基にして、煙の発生確率P1およびミストの発生確率P2を補正する。判定部202は、使用デバイス情報において、電気メスが使用中であり、かつ、超音波凝固切開装置が使用中でない場合には、煙の発生確率P1に、所定の確率値を加算することで、煙の発生確率P1を更新する。また、判定部202は、ミストの発生確率P2から、所定の確率値を減算することで、ミストの発生確率P2を更新する。
 判定部202は、使用デバイス情報において、電気メスが使用中でなく、かつ、超音波凝固切開装置が使用中である場合には、煙の発生確率P1から、所定の確率値を減算することで、煙の発生確率P1を更新する。また、判定部202は、ミストの発生確率P2に、所定の確率値を加算することで、ミストの発生確率P2を更新する。
 判定部202は、使用デバイス情報を基にして、電気メスおよび超音波凝固切開装置が使用中である場合には、煙の発生確率P1およびミストの発生確率P2をそのままの発生確率とする。
 判定部202は、判定結果を、生成部205に出力する。判定結果には、入力画像に、煙またはミストが発生しているか否かの情報が含まれる。煙またはミストが発生している場合には、判定結果には、煙およびミストの発生量と、煙およびミストの発生確率P1,P2が更に含まれる。
((煙除去処理部203))
 煙除去処理部203は、入力画像から煙を除去した煙除去画像を生成する処理部である。煙除去処理部203は、煙除去画像を、生成部205に出力する。煙除去処理部203に関する説明は、第1の実施形態の煙除去処理部103の処理と同様である。
((ミスト除去処理部204))
 ミスト除去処理部204は、入力画像からミストを除去したミスト除去画像を生成する処理部である。ミスト除去処理部204は、ミスト除去画像を、生成部205に出力する。ミスト除去処理部204に関する説明は、第1の実施形態のミスト除去処理部104の処理と同様である。
((生成部205))
 生成部205は、判定部202による判定結果と入力画像とを基にして、出力画像を生成する処理部である。生成部205は、出力画像の情報を、表示装置5155に出力する。生成部205に関する説明は、第1の実施形態の生成部105の処理と同様である。
<<3.3.第2の実施形態に係る情報処理装置の効果>>
 本開示の第2の実施形態に係る情報処理装置200によれば、使用デバイス情報と入力情報とを基にして、入力画像に煙またはミストが含まれているか否かを判定すると共に、煙およびミストの発生確率を、使用デバイス情報を基にして補正する。これによって、入力画像に煙またはミストが含まれているか否かの判定精度を向上させることができる。また、煙およびミストの発生確率を、使用デバイス情報を基にして補正することで、より適切なブレンド比率αによって、煙除外画像と、ミスト除外画像とをブレンドすることができる。
<4.第3の実施形態>
<<4.1.第3の実施形態に係るシステムの構成>>
 次に、本開示の第3の実施形態について詳細に説明する。本開示の第3の実施形態に係るシステム構成は、図11で説明した、本開示の第2の実施形態に係るシステム構成と同様である。以下の説明では、第3の実施形態に係る情報処理装置を、情報処理装置300と表記する。図示を省略するが、撮像装置10と、使用デバイス監視装置60と、表示装置5155と、情報処理装置300とは、ネットワーク20を介して相互に接続される。
<<4.2.第3の実施形態に係る情報処理装置の構成>>
 次に、本開示の第3の実施形態に係る情報処理装置300について詳細に説明する。図13は、本開示の第3の実施形態に係る情報処理装置の構成例を示す図である。図13に示すように、この情報処理装置300は、記憶部301と、判定部302と、パラメータ生成部303と、煙除去処理部304とを有する。
 情報処理装置300は、撮像装置10から入力画像を受信する度に、判定部302、煙除去処理部203にそれぞれ入力画像を入力する。情報処理装置300は、使用デバイス監視装置60から、使用デバイス情報を受信する度に、判定部302に使用デバイス情報を入力する。図13では図示を省略するが、情報処理装置300は、ネットワーク20を介して、撮像装置10、使用デバイス監視装置60、表示装置5155と情報通信を行う通信部を有しているものとする。
 なお、情報処理装置300では、煙とミストとの区別をせずに、煙またはミストを、煙として取り扱うものとする。
((記憶部301))
 記憶部301は、煙除去処理部304によって生成される最新の出力画像の情報を記憶する記憶装置である。出力画像は、煙が発生していない(あるいは、煙が除去された)画像である。記憶部301に記憶される出力画像は、煙除去処理部304から新たな出力画像が出力される度に、更新される。
 記憶部301は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、HDDなどの記憶装置に対応する。記憶部301は、揮発性メモリ、不揮発性メモリのどちらかでもよいし、両方使用してもよい。
((判定部302))
 判定部302は、使用デバイス情報および入力画像を基にして、入力画像中に煙が含まれているか否かを判定する処理部である。判定部302は、煙が含まれていると判定した場合、煙の発生量を判定する。
 判定部302が、入力画像中に煙が含まれているか否かを判定する処理の一例について説明する。たとえば、判定部302は、使用デバイス情報において、電気メスまたは超音波凝固切開装置が使用されている旨の情報が含まれる場合に、入力画像中に煙が含まれていると判定する。
 なお、判定部302は、入力画像を基にして、入力画像中に煙が含まれていると判定し、かつ、使用デバイス情報において、電気メスまたは超音波凝固切開装置が使用されている旨の情報が含まれる場合に、入力画像中に煙が含まれていると判定してもよい。判定部202が、入力画像を基にして、入力画像中に煙(煙またはミスト)が含まれていると判定する処理は、第1の実施形態の判定部102の処理と同様である。
 判定部302が、入力画像中に煙が含まれていると判定した場合、煙の発生量を判定する処理と、煙の発生領域を特定する処理を実行する。
 たとえば、判定部302は、入力画像を複数のブロックに分割し、ブロック毎に輝度および彩度の時間変化を算出する。
 判定部302は、出力画像のブロックBOijの輝度と、入力画像のブロックBIijの輝度との差分を、輝度の時間変化として算出する。BOijは、出力画像の分割されたブロックのうち、i行目j列目のブロックを示す。BIijは、入力画像の分割されたブロックのうち、i行目j列目のブロックを示す。
 判定部302は、出力画像のブロックBOijの彩度と、入力画像のブロックBIijの彩度との差分を、彩度の時間変化として算出する。
 判定部302は、出力画像の各ブロックと、入力画像の各ブロックとを比較して、ブロック毎に輝度および彩度の時間変化を算出する。判定部102は、入力画像の各ブロックのうち、輝度および彩度の時間変化が閾値以上となるブロックを、煙の発生領域として特定する。
 判定部302は、入力画像の全ブロックのうち、煙の発生領域のブロックの割合と、輝度および彩度の時間変化と、煙の発生量との関係を定義した「発生量特定テーブル(図示略)」を基にして、煙の発生量を特定する。発生量特定テーブルの情報は、事前に設定されているものとする。
 判定部302は、判定結果を、パラメータ生成部303に出力する。判定結果には、入力画像に煙が発生しているか否かの情報が含まれる。煙が発生している場合には、判定結果には、煙の発生量と、煙の発生領域の情報とが更に含まれる。
((パラメータ生成部303))
 パラメータ生成部303は、判定部302の判定結果を基にして、煙除去処理のパラメータを生成する処理部である。パラメータ生成部303が生成するパラメータには、煙除去処理のオン/オフのタイミング、煙除去処理の強度レベル、煙除去処理の対象となる領域の情報が含まれる。
 判定結果において、入力画像に煙が発生していない旨の情報が含まれる間の、パラメータ生成部303の処理の一例について説明する。パラメータ生成部303は、判定部302の判定結果を取得し、入力画像に煙が発生していない旨の情報が含まれる間は、煙除去処理を「オフ」に設定したパラメータを生成し、パラメータを煙除去処理部304に出力する。
 なお、パラメータ生成部303は、入力画像に煙が発生していない旨の情報が含まれる間は、煙除去処理の強度レベル、煙除去処理の対象となる領域の情報をパラメータに設定しない。
 続いて、判定結果において、入力画像に煙が発生している旨の情報が含まれる間の、パラメータ生成部303の処理の一例について説明する。パラメータ生成部303は、判定部302の判定結果を取得し、入力画像に煙が発生している旨の情報が含まれる間は、煙除去処理を「オン」に設定したパラメータを生成する。
 パラメータ生成部303は、判定結果に含まれる煙の発生量と、強度レベルとの関係を定義した「強度レベル特定テーブル(図示略)」を基にして、強度レベルを特定する。強度レベル特定テーブルでは、煙の発生量が多いほど、強度レベルが大きくなるように予め設定されているものとする。パラメータ生成部303は、パラメータに、強度レベルを設定する。
 また、パラメータ生成部303は、判定結果に含まれる煙の発生領域の情報を、煙除去処理の対象となる領域の情報として、パラメータに設定する。
 パラメータ生成部303は、上記のように、煙除去処理を「オン」に設定し、強度レベル、煙除去処理の対象となる領域の情報を設定したパラメータを、煙除去処理部304に出力する。
((煙除去処理部304))
 煙除去処理部304は、パラメータを基にして、入力画像から煙を除去した煙除去画像を生成する処理部である。第3の実施形態では、煙除去画像が、出力画像に対応する。煙除去処理部304は、煙除去画像(出力画像)を、表示装置5155に出力する。また、煙除去処理部304は、煙除去画像を、記憶部301に登録する。
 煙除去処理部304は、パラメータにおいて、煙除去処理が「オフ」に設定されている場合には、煙除去処理を実行しないで、入力画像をそのまま出力する。
 煙除去処理部304は、パラメータにおいて、煙除去処理を「オン」に設定されている場合には、次の煙除去処理を実行する。
 煙除去処理部304は、入力画像を複数のブロックに分割し、煙除去処理の対象となる領域の情報と、各ブロックとを比較して、煙除去処理の対象となるブロックを選択する。煙除去処理部304は、選択したブロックに対して、第1の実施形態の煙除去処理部304と同様にして、劣化推定部31に相当する処理と、劣化補正部32に相当する処理を実行する。
 ここで、煙除去処理部304は、入力画像の画素値を、煙除去画像の画素値に変換する場合に、強度レベルに応じて、変化を許容するコントラストの幅に制限を持たせる。煙除去処理部304は、入力画像の画素値に対する、煙除去画像の画素値の変化が、許容されるコントラストの幅を上回る場合には、煙除去画像の画素の画素値が、許容されるコントラストの幅に収まるように調整を行う。強度レベルと、許容するコントラストの幅との関係は、「コントラスト特定テーブル(図示略)」に予め、設定されているものとする。コントラスト特定テーブルでは、強度レベルが大きいほど、コントラストの幅は広くなる。
<<4.3.第3の実施形態に係る情報処理装置の効果>>
 本開示の第3の実施形態に係る情報処理装置300によれば、使用デバイス情報と入力情報とを基にして、煙除去処理を行う際のパラメータを生成する。パラメータ生成部303によって、パラメータが最適化されるので、かかるパラメータを利用して、煙除去処理を実行することで、入力画像から煙を適切に除外した出力画像を生成することができる。
<5.第4の実施形態>
<<5.1.第4の実施形態に係るシステムの構成>>
 次に、本開示の第4の実施形態について詳細に説明する。本開示の第4の実施形態に係るシステム構成は、図2で説明した、本開示の第1の実施形態に係るシステム構成と同様である。以下の説明では、第4の実施形態に係る情報処理装置を、情報処理装置400と表記する。図示を省略するが、撮像装置10と、表示装置5155と、情報処理装置400とは、ネットワーク20を介して相互に接続される。
 なお、情報処理装置400では、煙とミストとの区別をせずに、煙またはミストを、煙として取り扱うものとする。
<<5.2.第4の実施形態に係る情報処理装置の構成>>
 次に、本開示の第4の実施形態に係る情報処理装置400について詳細に説明する。図14は、本開示の第4の実施形態に係る情報処理装置の構成例を示す図である。図14に示すように、この情報処理装置400は、第1煙除去処理部401と、減算部402と、判定部403と、パラメータ生成部404と、第2煙除去処理部405とを有する。
 情報処理装置400は、撮像装置10から入力画像を受信する度に、第1煙除去処理部401、減算部402にそれぞれ入力画像を入力する。図14では図示を省略するが、情報処理装置400は、ネットワーク20を介して、撮像装置10と、表示装置5155と情報通信を行う通信部を有しているものとする。
((第1煙除去処理部401))
 第1煙除去処理部401は、予め設定された初期のパラメータを基にして、入力画像から煙を除去した煙除去画像を生成する処理部である。第1煙除去処理部401は、煙除去画像を、減算部402に出力する。第1煙除去処理部401がパラメータ(初期のパラメータ)を用いて、煙除去画像を生成する処理は、第3の実施形態に係る煙除去処理部304の処理と同様である。
((減算部402))
 減算部402は、入力画像と煙除去画像との差分画像を生成する処理部である。たとえば、減算部402は、入力画像から煙除去画像を減算することで、差分画像を生成する。減算部402は、差分画像の情報を、判定部403に出力する。
((判定部403))
 判定部403は、差分画像を基にして、入力画像中に煙が含まれるか否かを判定する処理部である。判定部403は、煙が含まれていると判定した場合、煙の発生量を判定する。
 判定部403が、入力画像中に煙が含まれているか否かを判定する処理の一例について説明する。たとえば、判定部403は、差分画像の各画素の画素値を合計し、合計した画素値が、閾値Th1以上である場合に、入力画像中に煙が含まれていると判定する。閾値Th1は、予め設定されているものとする。
 判定部403が、入力画像中に煙が含まれていると判定した場合、煙の発生量を判定する処理と、煙の発生領域を特定する処理を実行する。
 たとえば、判定部403は、差分画像を複数のブロックに分割し、ブロック毎に画素値の合計値を算出する。判定部403は、複数のブロックのうち、画素値の合計値が閾値Th2以上となるブロックを、煙の発生領域として特定する。
 判定部403は、入力画像の全ブロックのうち、煙の発生領域のブロックの割合と、ブロックの画素値の合計値と、煙の発生量との関係を定義した「発生量特定テーブル(図示略)」を基にして、煙の発生量を特定する。発生量特定テーブルの情報は、事前に設定されているものとする。
 判定部403は、判定結果を、パラメータ生成部404に出力する。判定結果には、入力画像に煙が発生しているか否かの情報が含まれる。煙が発生している場合には、判定結果には、煙の発生量と、煙の発生領域の情報とが更に含まれる。
((パラメータ生成部404))
 パラメータ生成部404は、判定部403の判定結果を基にして、煙除去処理のパラメータを生成する処理部である。パラメータ生成部404が生成するパラメータには、煙除去処理のオン/オフのタイミング、煙除去処理の強度レベル、煙除去処理の対象となる領域の情報が含まれる。パラメータ生成部404がパラメータを生成する処理は、第4の実施形態で説明したパラメータ生成部303と同様である。パラメータ生成部404は、パラメータを、第2煙除去処理部405に出力する。
((第2煙除去処理部405))
 第2煙除去処理部405は、パラメータを基にして、入力画像から煙を除去した煙除去画像を生成する処理部である。第2煙除去処理部405は、煙除去画像(出力画像)を、表示装置5155に出力する。第2煙除去処理部405がパラメータを用いて、煙除去画像を生成する処理は、第3の実施形態に係る煙除去処理部304の処理と同様である。
<<5.3.第4の実施形態に係る情報処理装置の効果>>
 本開示の第4の実施形態に係る情報処理装置400によれば、一旦、初期のパラメータによって、煙除去画像を生成し、入力画像と煙除去画像との差分画像を生成し、かかる差分画像を基にして、煙の発生量および発生領域を判定する。情報処理装置400は、係る判定結果を用いることで、煙除去処理のパラメータを最適化でき、かかるパラメータを利用して、煙除去処理を実行することで、入力画像から煙を適切に除外した出力画像を生成することができる。
<6.第5の実施形態>
<<6.1.第5の実施形態に係るシステムの構成>>
 次に、本開示の第5の実施形態について詳細に説明する。図15は、本開示の第5の実施形態に係るシステム構成例を示す図である。図15に示すように、このシステムは、撮像装置10、使用デバイス監視装置60、表示装置5155、入力装置5161、情報処理装置500を有する。撮像装置10、使用デバイス監視装置60、表示装置5155、入力装置5161、情報処理装置500は、ネットワーク20を介して相互に接続される。
 撮像装置10、使用デバイス監視装置60、表示装置5155に関する説明は、図11で説明した撮像装置10、使用デバイス監視装置60、表示装置5155に関する説明と同様である。
 入力装置5161は、内視鏡手術システム5113に対する入力インタフェースである。たとえば、ユーザは、入力装置5161を操作して、煙を除去する領域を指定する。ユーザに指定された煙を除去する領域の情報を「指定情報」と表記する。入力装置5161は、指定情報を、ネットワーク20を介して、情報処理装置500に送信する。
 また、入力装置5161は、カメラを有しており、ユーザの視線位置を検出してもよい。ユーザの視線位置の情報を含んだセンシング情報を、ネットワーク20を介して、情報処理装置500に送信する。
<<6.2.第5の実施形態に係る情報処理装置の構成>>
 次に、本開示の第5の実施形態に係る情報処理装置500について詳細に説明する。図16は、本開示の第5の実施形態に係る情報処理装置の構成例を示す図である。図16に示すように、この情報処理装置500は、記憶部501と、判定部502と、パラメータ生成部503と、煙除去処理部504とを有する。
 情報処理装置500は、撮像装置10から入力画像を受信する度に、判定部502、パラメータ生成部503、煙除去処理部504にそれぞれ入力画像を入力する。情報処理装置300は、使用デバイス監視装置60から、使用デバイス情報を受信する度に、判定部502に使用デバイス情報を入力する。情報処理装置500は、入力装置5161から、指定情報、センシング情報を受信する度に、指定情報、センシング情報を、パラメータ生成部503に出力する。図16では図示を省略するが、情報処理装置500は、ネットワーク20を介して、撮像装置10、使用デバイス監視装置60、入力装置5161、表示装置5155と情報通信を行う通信部を有しているものとする。
 なお、情報処理装置500では、煙とミストとの区別をせずに、煙またはミストを、煙として取り扱うものとする。
((記憶部501))
 記憶部501は、煙除去処理部504によって生成される最新の出力画像の情報を記憶する記憶装置である。出力画像は、煙が発生していない(あるいは、煙が除去された)画像である。記憶部501に記憶される出力画像は、煙除去処理部504から新たな出力画像が出力される度に、更新される。
 記憶部501は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、HDDなどの記憶装置に対応する。記憶部501は、揮発性メモリ、不揮発性メモリのどちらかでもよいし、両方使用してもよい。
((判定部502))
 判定部502は、使用デバイス情報および入力画像を基にして、入力画像中に煙が含まれているか否かを判定する処理部である。判定部502は、煙が含まれていると判定した場合、煙の発生量を判定する。判定部502の処理は、第3の実施形態で説明した判定部302の処理と同様である。
 判定部502は、判定結果を、パラメータ生成部503に出力する。判定結果には、入力画像に煙が発生しているか否かの情報が含まれる。煙が発生している場合には、判定結果には、煙の発生量と、煙の発生領域の情報とが更に含まれる。
((パラメータ生成部503))
 パラメータ生成部503は、判定部502の判定結果、指定情報、センシング情報を基にして、煙除去処理のパラメータを生成する処理部である。パラメータ生成部503が生成するパラメータには、煙除去処理のオン/オフのタイミング、煙除去処理の強度レベル、煙除去処理の対象となる領域の情報が含まれる。
 判定結果において、入力画像に煙が発生していない旨の情報が含まれる間の、パラメータ生成部503の処理の一例について説明する。パラメータ生成部503は、判定部502の判定結果を取得し、入力画像に煙が発生していない旨の情報が含まれる間は、煙除去処理を「オフ」に設定したパラメータを生成し、パラメータを煙除去処理部504に出力する。
 なお、パラメータ生成部503は、入力画像に煙が発生していない旨の情報が含まれる間は、煙除去処理の強度レベル、煙除去処理の対象となる領域の情報をパラメータに設定しない。
 続いて、判定結果において、入力画像に煙が発生している旨の情報が含まれる間の、パラメータ生成部503の処理の一例について説明する。パラメータ生成部503は、判定部403の判定結果を取得し、入力画像に煙が発生している旨の情報が含まれる間は、煙除去処理を「オン」に設定したパラメータを生成する。
 パラメータ生成部503は、判定結果に含まれる煙の発生量と、強度レベルとの関係を定義した「強度レベル特定テーブル(図示略)」を基にして、強度レベルを特定する。強度レベル特定テーブルでは、煙の発生量が多いほど、強度レベルが大きくなるように予め設定されているものとする。パラメータ生成部503は、パラメータに、強度レベルを設定する。
 ここで、パラメータ生成部503が、煙除去処理の対象となる領域を特定する処理の一例について説明する。パラメータ生成部503は、判定結果に含まれる煙の発生領域であり、かつ、予め設定される入力画像の一部分の領域となる領域を、煙除去処理の対象となる領域として特定する。以下の説明では、予め設定される入力画像の一部分の領域を「注目領域」と表記する。
 パラメータ生成部503は、注目領域をどのように設定してもよい。パラメータ生成部503は、注目領域を、入力画像の中心部分に設定してもよい。また、パラメータ生成部503は、指定情報を受信した場合には、指定情報を基準として、注目領域を設定する。パラメータ生成部503は、センシング情報を受信した場合には、ユーザの視線位置を基準として、注目領域を設定する。
 パラメータ生成部503は、入力画像を基にして、臓器や術具の位置を特定し、特定した臓器や術具の位置を基準として、注目領域を設定してもよい。パラメータ生成部503は、どのような従来技術を用いて、臓器や術具の位置を特定してもよい。たとえば、パラメータ生成部503は、入力画像からエッジを抽出し、所定の臓器や、術具の形状を定義したテンプレートを用いてマッチングを行い、臓器や術具の位置を特定する。
 パラメータ生成部503は、上記処理を実行することで、パラメータに、煙除去処理のオン/オフのタイミング、煙除去処理の強度レベル、煙除去処理の対象となる領域の情報を設定し、煙除去処理部504に出力する。
((煙除去処理部504))
 煙除去処理部504は、パラメータを基にして、入力画像から煙を除去した煙除去画像を生成する処理部である。煙除去処理部504は、煙除去画像(出力画像)を、表示装置5155に出力する。煙除去処理部504がパラメータを用いて、煙除去画像を生成する処理は、第3の実施形態に係る煙除去処理部304の処理と同様である。
 なお、煙除去処理の対象となる領域は、判定結果に含まれる煙の発生領域であり、かつ、注目領域となる領域となる。図17は、本開示の第5の実施形態に係る煙除去処理の生成する出力画像の一例を示す図である。図17に示すように、出力画像70には、煙の除去処理を行った領域70aと、煙の除去処理を行っていない領域70bとが含まれる。
<<6.3.第5の実施形態に係る情報処理装置の効果>>
 本開示の第5の実施形態に係る情報処理装置500によれば、煙除去処理の対象となる領域を、判定結果に含まれる煙の発生領域であり、かつ、注目領域となる領域に限定する。これによって、注目領域以外には、煙除去処理が実行されないため、術中で重要な部分からは、煙を除去することができると共に、煙除去の処理が効いているか否かをユーザは容易に確認することができる。また、煙以外のものを誤って除去してしまうことを抑止することができる。
<7.第6の実施形態>
<<7.1.第6の実施形態に係るシステムの構成>>
 次に、本開示の第6の実施形態について詳細に説明する。本開示の第6の実施形態に係るシステム構成は、図2で説明した、本開示の第1の実施形態に係るシステム構成と同様である。以下の説明では、第6の実施形態に係る情報処理装置を、情報処理装置600と表記する。図示を省略するが、撮像装置10と、表示装置5155と、情報処理装置400とは、ネットワーク20を介して相互に接続される。
 なお、情報処理装置600では、煙とミストとの区別をせずに、煙またはミストを、煙として取り扱うものとする。
<<7.2.第6の実施形態に係るシステムの構成>>
 次に、本開示の第6の実施形態に係る情報処理装置600について詳細に説明する。図18は、本開示の第6の実施形態に係る情報処理装置の構成例を示す図である。図18に示すように、この情報処理装置600は、煙除去処理部601と、減算部602と、判定部603と、パラメータ生成部604と、重畳部605とを有する。
 情報処理装置600は、撮像装置10から入力画像を受信する度に、煙除去処理部601、減算部402にそれぞれ入力画像を入力する。図18では図示を省略するが、情報処理装置600は、ネットワーク20を介して、撮像装置10と、表示装置5155と情報通信を行う通信部を有しているものとする。
((煙除去処理部601))
 煙除去処理部601は、パラメータ生成部604から取得するパラメータを基にして、入力画像から煙を除去した煙除去画像を生成する処理部である。煙除去処理部601は、煙除去画像を、減算部602と、重畳部605に出力する。煙除去処理部601がパラメータを用いて、煙除去画像を生成する処理は、第3の実施形態に係る煙除去処理部304の処理と同様である。
((減算部602))
 減算部602は、入力画像と煙除去画像との差分画像を生成する処理部である。たとえば、減算部602は、入力画像から煙除去画像を減算することで、差分画像を生成する。減算部602は、差分画像の情報を、判定部603に出力する。
((判定部603))
 判定部603は、差分画像を基にして、入力画像中に煙が含まれるか否かを判定する処理部である。判定部603は、煙が含まれていると判定した場合、煙の発生量を判定する。判定部603の処理は、第4の実施形態に係る判定部403の処理と同様である。
 判定部603は、判定結果を、パラメータ生成部604に出力する。判定結果には、入力画像に煙が発生しているか否かの情報が含まれる。煙が発生している場合には、判定結果には、煙の発生量と、煙の発生領域の情報とが更に含まれる。
((パラメータ生成部604))
 パラメータ生成部604は、判定部603の判定結果を基にして、煙除去処理のパラメータを生成する処理部である。パラメータ生成部604が生成するパラメータには、煙除去処理のオン/オフのタイミング、煙除去処理の強度レベル、煙除去処理の対象となる領域の情報が含まれる。パラメータ生成部604がパラメータを生成する処理は、第4の実施形態で説明したパラメータ生成部303と同様である。パラメータ生成部604は、パラメータを、煙除去処理部601に出力する。
 また、パラメータ生成部604は、喫煙除去処理の強度レベルの情報を、重畳部605に出力する。
((重畳部605))
 重畳部605は、出力画像に、煙除去処理の強度レベルの情報を重畳する処理部である。図19は、本開示の第6の実施形態に係る重畳部の処理を説明するための図である。図19に示す例では、出力画像71に、「強度レベル:80」なる情報71aが重畳されている。重畳部605は、処理結果の出力画像を、表示装置5155に出力する。
<<7.3.第6の実施形態に係る情報処理装置の効果>>
 本開示の第6の実施形態に係る情報処理装置600によれば、出力画像に煙除去処理の強度レベルの情報を重畳する。これによって、ユーザは、煙除去処理が効いているのか効いていないのかを判断することができる。また、強度レベルの数値を表示することで、ユーザは、煙の発生量がどの程度であり、煙除去の効果がどの程度であるか判断することができる。
<<8.ハードウェア構成>>
 上述してきた各実施形態に係る情報処理装置は、例えば図20に示すような構成のコンピュータ1000によって実現される。以下、第1の実施形態に係る情報処理装置100を例に挙げて説明する。図20は、情報処理装置の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
 CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
 ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
 HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
 通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
 入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
 例えば、コンピュータ1000が第1の実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた情報処理プログラムを実行することにより、判定部102、煙除去処理部103、ミスト除去処理部104、生成部105等の機能を実現する。また、HDD1400には、本開示に係る生成プログラムや、記憶部101内のデータが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
<9.むすび>
 情報処理装置は、生成部を有する。生成部は、術中に関する画像である入力画像を取得し、前記入力画像に、術中に発生する物質が含まれているか否かに基づき、出力画像を生成する。また、情報処理装置は、判定部を有する。判定部は、前記入力画像に、煙またはミストが含まれているか否かを判定する。前記判定部は、前記入力画像を基にして、煙またはミストの発生量を更に判定する。前記判定部は、前記入力画像を基にして、煙とミストとの比率を更に判定する。前記生成部は、前記出力画像の全体から煙またはミストの影響を除外することを特徴とする。これによって、内視鏡手術において術中に煙あるいはミストが発生して視界が不良になった場合でも、情報処理装置を用いることにより、発生した煙あるいはミストの量によらず、よりクリアな視界を確保することが可能となる。
 前記判定部は、前記情報処理装置に接続された電子デバイスの種類および動作状況を更に用いて、前記入力画像に、煙またはミストが含まれているか否かを判定する。これによって、入力画像に煙またはミストが含まれているか否かの判定精度を向上させることができる。
 情報処理装置は、前記入力画像から煙を除去した煙除去画像を生成する煙除去処理部を更に有する。前記生成部は、前記判定結果と、前記入力画像と、前記煙除去画像とを用いて、前記出力画像を生成する。これによって、煙を除去した煙除去画像を生成でき、この煙除去画像を用いて、煙の発生していない出力画像を生成することができる。
 前記煙除去処理部は、前記出力画像と前記入力画像とを基にして、前記入力画像の劣化を推定し、推定した結果を基にして、前記煙除去画像を生成する。これによって、入力画像に含まれる煙を適切に除外することができる。
 情報処理装置は、前記煙除去処理部によって除去された煙に関する情報を、前記出力画像に重畳させる重畳部を更に有する。ここで、煙に関する情報は、煙低減処理の実行有無、低減した煙の度合い、煙低減処理の強度、など低減した煙に関連する情報であればどの様な情報であってもよい。これによって、ユーザは、煙除去処理が効いているのか効いていないのかを判断することができる。また、強度レベルの数値を表示することで、ユーザは、煙の発生量がどの程度であり、煙除去の効果がどの程度であるか判断することができる。
 情報処理装置は、前記入力画像と、前記煙除去画像との差分画像を生成する減算部を更に有し、前記判定部は、前記差分画像を基にして煙の発生量を特定し、前記発生量を基にして、前記煙除去処理部によって除去された煙に関する情報を生成する。また、情報処理装置は、前記判定部の判定結果を基にして、煙除去処理で用いるパラメータを生成するパラメータ生成部を更に有し、前記煙除去処理部は、前記パラメータを基にして、前記入力画像から煙を除去した煙除去画像を生成する。前記パラメータ生成部は、前記判定部の判定結果を基にして、煙除去処理の開始または終了のタイミング、煙除去処理の強度、煙除去処理の対象領域を含んだパラメータを生成する。このように、差分画像を用いることで、煙除去処理のパラメータを最適化でき、かかるパラメータを利用して、煙除去処理を実行することで、入力画像から煙を適切に除外した出力画像を生成することができる。
 情報処理装置は、前記入力画像からミストを除去したミスト除去画像を生成するミスト除去処理部を更に有し、前記生成部は、前記判定結果と、前記入力画像と、前記ミスト除去画像とを用いて、前記出力画像を生成する。前記ミスト除去処理部は、前記入力画像を基にしてミストの発生領域を特定し、前記ミストの発生領域周辺の領域の情報によって、前記ミストの発生領域を補正した補正画像を生成し、前記補正画像と、前記出力画像とを基にして、前記補正画像の劣化を推定し、推定した結果を基にして、前記ミスト除去画像を生成する。このように、2段階で入力画像のコントラストの調整を行うことで、煙と特徴の異なる、まだら模様のようなミストであっても、入力画像から適切に除外することができる。
 前記生成部は、前記発生量と、煙とミストとの比率とを基にして、前記入力画像と、前記煙除去画像と、前記ミスト除去画像とを合成することで、前記出力画像を生成する。これよって、煙またはミストの発生確率を基にしたブレンド比率αによって、煙除去画像と、ミスト除去画像とを合成することができ、入力画像に含まれる煙およびミストを適切に除外することができる。
 前記生成部は、前記出力画像の一部分の領域から煙またはミストの影響を除外することを特徴とする。これによって、注目領域以外には、煙除去処理が実行されないため、術中で重要な部分からは、煙を除去することができると共に、煙除去の処理が効いているか否かをユーザは容易に確認することができる。また、煙以外のものを誤って除去してしまうことを抑止することができる。
 前記生成部は、前記入力画像から特定される臓器または術具の位置を基にして、前記一部分の領域を特定し、前記出力画像の一部分の領域から煙またはミストの影響を除外する。前記生成部は、利用者の視点位置を基準とする前記一部分の領域を特定し、前記出力画像の一部分の領域から煙またはミストの影響を除外する。これによって、ユーザが注目する領域をクリアにすることができる。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 術中に関する画像である入力画像を取得し、前記入力画像に、術中に発生する物質が含まれているか否かに基づき、出力画像を生成する生成部、
 を有する情報処理装置。
(2)
 前記入力画像に、煙またはミストが含まれているか否かを判定する判定部を更に備えることを特徴とする前記(1)に記載の情報処理装置。
(3)
 前記判定部は、前記情報処理装置に接続された電子デバイスの種類および動作状況を更に用いて、前記入力画像に、煙またはミストが含まれているか否かを判定することを特徴とする前記(2)に記載の情報処理装置。
(4)
 前記判定部は、前記入力画像を基にして、煙またはミストの発生量を更に判定することを特徴とする前記(2)または(3)に記載の情報処理装置。
(5)
 前記判定部は、前記入力画像を基にして、煙とミストとの比率を更に判定することを特徴とする前記(2)、(3)または(4)に記載の情報処理装置。
(6)
 前記入力画像から煙を除去した煙除去画像を生成する煙除去処理部を更に有し、前記生成部は、前記判定結果と、前記入力画像と、前記煙除去画像とを用いて、前記出力画像を生成することを特徴とする前記(4)に記載の情報処理装置。
(7)
 前記煙除去処理部は、前記出力画像と前記入力画像とを基にして、前記入力画像の劣化を推定し、推定した結果を基にして、前記煙除去画像を生成することを特徴とする前記(6)に記載の情報処理装置。
(8)
 前記煙除去処理部によって除去された煙に関する情報を、前記出力画像に重畳させる重畳部を更に有することを特徴とする前記(7)に記載の情報処理装置。
(9)
 前記入力画像と、前記煙除去画像との差分画像を生成する減算部を更に有し、前記判定部は、前記差分画像を基にして煙の発生量を特定し、前記発生量を基にして、前記煙除去処理部によって除去された煙に関する情報を生成することを特徴とする前記(8)に記載の情報処理装置。
(10)
 前記入力画像からミストを除去したミスト除去画像を生成するミスト除去処理部を更に有し、前記生成部は、前記判定結果と、前記入力画像と、前記ミスト除去画像とを用いて、前記出力画像を生成することを特徴とする前記(6)、(7)または(8)に記載の情報処理装置。
(11)
 前記ミスト除去処理部は、前記入力画像を基にしてミストの発生領域を特定し、前記ミストの発生領域周辺の領域の情報によって、前記ミストの発生領域を補正した補正画像を生成し、前記補正画像と、前記出力画像とを基にして、前記補正画像の劣化を推定し、推定した結果を基にして、前記ミスト除去画像を生成することを特徴とする前記(10)に記載の情報処理装置。
(12)
 前記生成部は、前記発生量と、煙とミストとの比率とを基にして、前記入力画像と、前記煙除去画像と、前記ミスト除去画像とを合成することで、前記出力画像を生成することを特徴とする前記(11)に記載の情報処理装置。
(13)
 前記判定部の判定結果を基にして、煙除去処理で用いるパラメータを生成するパラメータ生成部を更に有し、前記煙除去処理部は、前記パラメータを基にして、前記入力画像から煙を除去した煙除去画像を生成することを特徴とする前記(6)~(12)のいずれか一つに記載の情報処理装置。
(14)
 前記パラメータ生成部は、前記判定部の判定結果を基にして、煙除去処理の開始または終了のタイミング、煙除去処理の強度、煙除去処理の対象領域を含んだパラメータを生成することを特徴とする前記(13)に記載の情報処理装置。
(15)
 前記生成部は、前記出力画像の全体から煙またはミストの影響を除外することを特徴とする前記(2)~(14)のいずれか一つに記載の情報処理装置。
(16)
 前記生成部は、前記出力画像の一部分の領域から煙またはミストの影響を除外することを特徴とする前記(2)~(14)のいずれか一つに記載の情報処理装置。
(17)
 前記生成部は、前記入力画像から特定される臓器または術具の位置を基にして、前記一部分の領域を特定し、前記出力画像の一部分の領域から煙またはミストの影響を除外することを特徴とする前記(16)に記載の情報処理装置。
(18)
 前記生成部は、利用者の視点位置を基準とする前記一部分の領域を特定し、前記出力画像の一部分の領域から煙またはミストの影響を除外することを特徴とする前記(16)に記載の情報処理装置。
(19)
 コンピュータが、
 術中に関する画像である入力画像を取得し、
 前記入力画像に、術中に発生する物質が含まれているか否かに基づき、出力画像を生成する
 処理を実行する生成方法。
(20)
 コンピュータを、
 術中に関する画像である入力画像を取得し、前記入力画像に、術中に発生する物質が含まれているか否かに基づき、出力画像を生成する生成部、
 として機能させるための生成プログラム。
  10  撮像装置
  11  撮像部
  12,62  通信部
  20  ネットワーク
  31,43  劣化推定部
  32  劣化補正部
  41  発生領域特定部
  42  第1劣化補正部
  44  第2劣化補正部
  51  第1ブレンド比率算出部
  52  第1ブレンド処理部
  53  第2ブレンド比率算出部
  54  第2ブレンド処理部
  60  使用デバイス監視装置
  61  監視部
 100,200,300,400,500,600  情報処理装置
 101,201,301,501  記憶部
 102,202,302,403,502,603  判定部
 103,203,304,504,601  煙除去処理部
 104,204  ミスト除去処理部
 105,205  生成部
 303,404,503,604  パラメータ生成部
 401  第1煙除去処理部
 402  減算部
 405  第2煙除去処理部
 605  重畳部

Claims (20)

  1.  術中に関する画像である入力画像を取得し、前記入力画像に、術中に発生する物質が含まれているか否かに基づき、出力画像を生成する生成部、
     を有する情報処理装置。
  2.  前記入力画像に、煙またはミストが含まれているか否かを判定する判定部を更に備えることを特徴とする請求項1に記載の情報処理装置。
  3.  前記判定部は、前記情報処理装置に接続された電子デバイスの種類および動作状況を更に用いて、前記入力画像に、煙またはミストが含まれているか否かを判定することを特徴とする請求項2に記載の情報処理装置。
  4.  前記判定部は、前記入力画像を基にして、煙またはミストの発生量を更に判定することを特徴とする請求項2に記載の情報処理装置。
  5.  前記判定部は、前記入力画像を基にして、煙とミストとの比率を更に判定することを特徴とする請求項2に記載の情報処理装置。
  6.  前記入力画像から煙を除去した煙除去画像を生成する煙除去処理部を更に有し、前記生成部は、前記判定結果と、前記入力画像と、前記煙除去画像とを用いて、前記出力画像を生成することを特徴とする請求項4に記載の情報処理装置。
  7.  前記煙除去処理部は、前記出力画像と前記入力画像とを基にして、前記入力画像の劣化を推定し、推定した結果を基にして、前記煙除去画像を生成することを特徴とする請求項6に記載の情報処理装置。
  8.  前記煙除去処理部によって除去された煙に関する情報を、前記出力画像に重畳させる重畳部を更に有することを特徴とする請求項7に記載の情報処理装置。
  9.  前記入力画像と、前記煙除去画像との差分画像を生成する減算部を更に有し、前記判定部は、前記差分画像を基にして煙の発生量を特定し、前記発生量を基にして、前記煙除去処理部によって除去された煙に関する情報を生成することを特徴とする請求項8に記載の情報処理装置。
  10.  前記入力画像からミストを除去したミスト除去画像を生成するミスト除去処理部を更に有し、前記生成部は、前記判定結果と、前記入力画像と、前記ミスト除去画像とを用いて、前記出力画像を生成することを特徴とする請求項6に記載の情報処理装置。
  11.  前記ミスト除去処理部は、前記入力画像を基にしてミストの発生領域を特定し、前記ミストの発生領域周辺の領域の情報によって、前記ミストの発生領域を補正した補正画像を生成し、前記補正画像と、前記出力画像とを基にして、前記補正画像の劣化を推定し、推定した結果を基にして、前記ミスト除去画像を生成することを特徴とする請求項10に記載の情報処理装置。
  12.  前記生成部は、前記発生量と、煙とミストとの比率とを基にして、前記入力画像と、前記煙除去画像と、前記ミスト除去画像とを合成することで、前記出力画像を生成することを特徴とする請求項11に記載の情報処理装置。
  13.  前記判定部の判定結果を基にして、煙除去処理で用いるパラメータを生成するパラメータ生成部を更に有し、前記煙除去処理部は、前記パラメータを基にして、前記入力画像から煙を除去した煙除去画像を生成することを特徴とする請求項6に記載の情報処理装置。
  14.  前記パラメータ生成部は、前記判定部の判定結果を基にして、煙除去処理の開始または終了のタイミング、煙除去処理の強度、煙除去処理の対象領域を含んだパラメータを生成することを特徴とする請求項13に記載の情報処理装置。
  15.  前記生成部は、前記出力画像の全体から煙またはミストの影響を除外することを特徴とする請求項2に記載の情報処理装置。
  16.  前記生成部は、前記出力画像の一部分の領域から煙またはミストの影響を除外することを特徴とする請求項2に記載の情報処理装置。
  17.  前記生成部は、前記入力画像から特定される臓器または術具の位置を基にして、前記一部分の領域を特定し、前記出力画像の一部分の領域から煙またはミストの影響を除外することを特徴とする請求項16に記載の情報処理装置。
  18.  前記生成部は、利用者の視点位置を基準とする前記一部分の領域を特定し、前記出力画像の一部分の領域から煙またはミストの影響を除外することを特徴とする請求項16に記載の情報処理装置。
  19.  コンピュータが、
     術中に関する画像である入力画像を取得し、
     前記入力画像に、術中に発生する物質が含まれているか否かに基づき、出力画像を生成する
     処理を実行する生成方法。
  20.  コンピュータを、
     術中に関する画像である入力画像を取得し、前記入力画像に、術中に発生する物質が含まれているか否かに基づき、出力画像を生成する生成部、
     として機能させるための生成プログラム。
PCT/JP2020/041782 2019-11-14 2020-11-09 情報処理装置、生成方法及び生成プログラム WO2021095697A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021556089A JPWO2021095697A1 (ja) 2019-11-14 2020-11-09
US17/755,684 US20220405900A1 (en) 2019-11-14 2020-11-09 Information processing device, generation method, and generation program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019205951 2019-11-14
JP2019-205951 2019-11-14

Publications (1)

Publication Number Publication Date
WO2021095697A1 true WO2021095697A1 (ja) 2021-05-20

Family

ID=75912917

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/041782 WO2021095697A1 (ja) 2019-11-14 2020-11-09 情報処理装置、生成方法及び生成プログラム

Country Status (3)

Country Link
US (1) US20220405900A1 (ja)
JP (1) JPWO2021095697A1 (ja)
WO (1) WO2021095697A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113766190A (zh) * 2021-09-05 2021-12-07 无锡联友塑业有限公司 利用图像监控的自动化控制平台

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017158776A (ja) * 2016-03-09 2017-09-14 ソニー株式会社 画像処理装置、内視鏡手術システム及び画像処理方法
JP2018157917A (ja) * 2017-03-22 2018-10-11 ソニー株式会社 制御装置、制御方法、制御システム、およびプログラム
WO2018198255A1 (ja) * 2017-04-26 2018-11-01 オリンパス株式会社 画像処理装置、画像処理装置の作動方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017158776A (ja) * 2016-03-09 2017-09-14 ソニー株式会社 画像処理装置、内視鏡手術システム及び画像処理方法
JP2018157917A (ja) * 2017-03-22 2018-10-11 ソニー株式会社 制御装置、制御方法、制御システム、およびプログラム
WO2018198255A1 (ja) * 2017-04-26 2018-11-01 オリンパス株式会社 画像処理装置、画像処理装置の作動方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113766190A (zh) * 2021-09-05 2021-12-07 无锡联友塑业有限公司 利用图像监控的自动化控制平台
CN113766190B (zh) * 2021-09-05 2022-05-31 无锡联友塑业有限公司 利用图像监控的自动化控制平台

Also Published As

Publication number Publication date
JPWO2021095697A1 (ja) 2021-05-20
US20220405900A1 (en) 2022-12-22

Similar Documents

Publication Publication Date Title
JP7074065B2 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
US10904437B2 (en) Control apparatus and control method
CN110099599B (zh) 医学图像处理设备、医学图像处理方法和程序
JP5486432B2 (ja) 画像処理装置、その作動方法およびプログラム
WO2017159335A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
WO2018173606A1 (ja) 制御装置、制御方法、制御システム、およびプログラム
JP7127538B2 (ja) 画像処理装置、医療機器の作動方法及び医療システム
US20190182421A1 (en) Reducing smoke occlusion in images from surgical systems
WO2017138209A1 (ja) 医療用画像処理装置、システム、方法及びプログラム
WO2019155931A1 (ja) 手術システム、画像処理装置及び画像処理方法
WO2021095697A1 (ja) 情報処理装置、生成方法及び生成プログラム
WO2020008920A1 (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法
WO2021095773A1 (ja) 情報処理装置、生成方法及び生成プログラム
WO2021140923A1 (ja) 医療画像生成装置、医療画像生成方法および医療画像生成プログラム
WO2018173605A1 (ja) 手術用制御装置、制御方法、手術システム、およびプログラム
WO2020009127A1 (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法
JP2021045337A (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理方法、及びプログラム
JP7354608B2 (ja) 医療用観察システム、医療用観察方法、および情報処理装置
WO2022239495A1 (ja) 生体組織観察システム、生体組織観察装置及び生体組織観察方法
JP7480779B2 (ja) 医療用画像処理装置、医療用画像処理装置の駆動方法、医療用撮像システム、及び医療用信号取得システム
US20220148209A1 (en) Medical system, signal processing device, and signal processing method
WO2022019057A1 (ja) 医療用アーム制御システム、医療用アーム制御方法及びプログラム
JPWO2020084999A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20887028

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021556089

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20887028

Country of ref document: EP

Kind code of ref document: A1