WO2018173606A1 - 制御装置、制御方法、制御システム、およびプログラム - Google Patents

制御装置、制御方法、制御システム、およびプログラム Download PDF

Info

Publication number
WO2018173606A1
WO2018173606A1 PCT/JP2018/006226 JP2018006226W WO2018173606A1 WO 2018173606 A1 WO2018173606 A1 WO 2018173606A1 JP 2018006226 W JP2018006226 W JP 2018006226W WO 2018173606 A1 WO2018173606 A1 WO 2018173606A1
Authority
WO
WIPO (PCT)
Prior art keywords
smoke
control device
control
actual
vivo image
Prior art date
Application number
PCT/JP2018/006226
Other languages
English (en)
French (fr)
Inventor
雅矢 竹本
雄生 杉江
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/494,039 priority Critical patent/US11672516B2/en
Priority to DE112018001478.9T priority patent/DE112018001478T5/de
Publication of WO2018173606A1 publication Critical patent/WO2018173606A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00022Sensing or detecting at the treatment site
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00571Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
    • A61B2018/00595Cauterization
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2218/00Details of surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2218/001Details of surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body having means for irrigation and/or aspiration of substances to and/or from the surgical site
    • A61B2218/007Aspiration
    • A61B2218/008Aspiration for smoke evacuation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image

Definitions

  • the present disclosure relates to a control device, a control method, a control system, and a program.
  • Patent Literature 1 discloses a smoke evacuation apparatus that exhausts smoke in a body cavity in conjunction with an ablation treatment signal of an electric knife.
  • the smoke exhausting device described in Patent Document 1 that performs smoke exhaustion based on the cauterization signal of the electric scalpel may cause excessive or insufficient smoke exhaustion. There is also.
  • the smoke evacuation device described in Patent Document 1 since the time until the surgeon contacts the tissue with the tissue after the start of the operation of the electric knife is not constant, the smoke evacuation device described in Patent Document 1 requires time for the generation of smoke and the emission of smoke. A shift is assumed to occur.
  • the present disclosure proposes a new and improved control device, control method, control system, and program capable of more effectively eliminating the influence of smoke generated by tissue ablation.
  • a control unit that controls smoke removal processing on an in-vivo image captured during surgery and actual smoke exhaustion in the living body, and the control unit detects that the smoke has been detected. Based on this, a control device is provided that causes at least the smoke removal process to be executed.
  • the processor includes a smoke removal process for the in-vivo image captured during the operation and an actual smoke exhaust in the living body, and the controlling includes the smoke
  • a control method is further provided, further comprising causing at least the smoke removal process to be performed based on the detection.
  • an endoscope that captures an in-vivo image during surgery, a control device that controls smoke removal processing on the in-vivo image and actual smoke exhaustion in the living body, and the control device
  • a smoke exhaust device that performs actual smoke exhaustion based on the control, and the control device provides at least the smoke removal processing based on the detection of the smoke.
  • the computer includes a control unit that controls smoke removal processing on an in-vivo image captured during operation and actual smoke exhaustion in the living body, and the control unit A program for functioning as a control device that causes at least the smoke removal processing to be executed based on the detection is provided.
  • a control device, a control method, a control system, and a program according to an embodiment of the present disclosure are configured to perform smoke removal processing on a captured in-vivo image based on detected smoke, and smoke in the living body.
  • One of the features is to control both the actual flue gas. According to the above feature according to the present technical idea, it is possible to effectively eliminate the influence of smoke without causing exhaustion shortage or excessive exhaustion.
  • FIG. 1 is a diagram illustrating an example of a surgical operation to which an operating room system 5100 using the technical idea according to the present disclosure is applied.
  • the ceiling camera 5187 and the operating field camera 5189 are provided on the ceiling of the operating room, and can photograph the state of the operator (doctor) 5181 who performs treatment on the affected part of the patient 5185 on the patient bed 5183 and the entire operating room. It is.
  • the ceiling camera 5187 and the surgical field camera 5189 may be provided with a magnification adjustment function, a focal length adjustment function, a photographing direction adjustment function, and the like.
  • the illumination 5191 is provided on the ceiling of the operating room and irradiates at least the hand of the operator 5181.
  • the illumination 5191 may be capable of appropriately adjusting the irradiation light amount, the wavelength (color) of the irradiation light, the light irradiation direction, and the like.
  • the endoscopic surgery system 5113, the patient bed 5183, the ceiling camera 5187, the operating field camera 5189, and the illumination 5191 are connected to each other via an audiovisual controller and an operating room control device (not shown).
  • a centralized operation panel 5111 is provided in the operating room, and the user can appropriately operate these devices existing in the operating room via the centralized operating panel 5111.
  • an endoscopic surgery system 5113 includes an endoscope 5115, other surgical tools 5131, a support arm device 5141 that supports the endoscope 5115, and various devices for endoscopic surgery. And a cart 5151 on which is mounted.
  • trocars 5139a to 5139d are punctured into the abdominal wall. Then, the lens barrel 5117 of the endoscope 5115 and other surgical tools 5131 are inserted into the body cavity of the patient 5185 from the trocars 5139a to 5139d.
  • a tube 5133, an energy treatment tool 5135, and forceps 5137 are inserted into the body cavity of the patient 5185 as other surgical tools 5131.
  • the tube 5133 may be configured to exhaust smoke generated in the body cavity outside the body cavity.
  • the tube 5133 may have a function of inflating the body cavity by injecting gas into the body pocket.
  • the energy treatment instrument 5135 is a treatment instrument that performs incision and detachment of a tissue, blood vessel sealing, and the like by a high-frequency current and ultrasonic vibration.
  • the illustrated surgical tool 5131 is merely an example, and as the surgical tool 5131, for example, various surgical tools generally used in endoscopic surgery such as a lever and a retractor may be used.
  • An image of the surgical site in the body cavity of the patient 5185 taken by the endoscope 5115 is displayed on the display device 5155.
  • the surgeon 5181 performs a treatment such as excision of the affected part using the energy treatment tool 5135 and the forceps 5137 while viewing the image of the surgical part displayed on the display device 5155 in real time.
  • a treatment such as excision of the affected part using the energy treatment tool 5135 and the forceps 5137 while viewing the image of the surgical part displayed on the display device 5155 in real time.
  • illustration is omitted, the tube 5133, the energy treatment tool 5135, and the forceps 5137 are supported by an operator 5181 or an assistant during surgery.
  • the support arm device 5141 includes an arm portion 5145 extending from the base portion 5143.
  • the arm portion 5145 includes joint portions 5147a, 5147b, and 5147c, and links 5149a and 5149b, and is driven by control from the arm control device 5159.
  • the endoscope 5115 is supported by the arm unit 5145, and its position and posture are controlled. Thereby, the stable position fixing of the endoscope 5115 can be realized.
  • the endoscope 5115 includes a lens barrel 5117 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 5185, and a camera head 5119 connected to the proximal end of the lens barrel 5117.
  • an endoscope 5115 configured as a so-called rigid mirror having a rigid lens barrel 5117 is illustrated, but the endoscope 5115 is configured as a so-called flexible mirror having a flexible lens barrel 5117. Also good.
  • An opening into which an objective lens is fitted is provided at the tip of the lens barrel 5117.
  • a light source device 5157 is connected to the endoscope 5115, and the light generated by the light source device 5157 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 5117, and the objective Irradiation is performed toward the observation target in the body cavity of the patient 5185 through the lens.
  • the endoscope 5115 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 5119, and reflected light (observation light) from the observation target is condensed on the image sensor by the optical system. Observation light is photoelectrically converted by the imaging element, and an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to a camera control unit (CCU) 5153 as RAW data.
  • CCU camera control unit
  • the camera head 5119 has a function of adjusting the magnification and the focal length by appropriately driving the optical system.
  • a plurality of image sensors may be provided in the camera head 5119 in order to cope with, for example, stereoscopic viewing (3D display).
  • a plurality of relay optical systems are provided inside the lens barrel 5117 in order to guide observation light to each of the plurality of imaging elements.
  • the CCU 5153 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 5115 and the display device 5155. Specifically, the CCU 5153 performs various image processing for displaying an image based on the image signal, such as development processing (demosaic processing), for example, on the image signal received from the camera head 5119. The CCU 5153 provides the display device 5155 with the image signal subjected to the image processing. In addition, the audiovisual controller described above is connected to the CCU 5153. The CCU 5153 also provides an image signal subjected to image processing to the audiovisual controller 5107.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the CCU 5153 transmits a control signal to the camera head 5119 to control the driving thereof.
  • the control signal can include information regarding imaging conditions such as magnification and focal length. Information regarding the imaging conditions may be input via the input device 5161 or may be input via the above-described centralized operation panel 5111.
  • the display device 5155 displays an image based on an image signal subjected to image processing by the CCU 5153 under the control of the CCU 5153.
  • the endoscope 5115 is compatible with high-resolution imaging such as 4K (horizontal pixel number 3840 ⁇ vertical pixel number 2160) or 8K (horizontal pixel number 7680 ⁇ vertical pixel number 4320), and / or 3D display.
  • high-resolution imaging such as 4K (horizontal pixel number 3840 ⁇ vertical pixel number 2160) or 8K (horizontal pixel number 7680 ⁇ vertical pixel number 4320), and / or 3D display.
  • a display device 5155 capable of high-resolution display and / or 3D display can be used.
  • 4K or 8K high resolution imaging a more immersive feeling can be obtained by using a display device 5155 having a size of 55 inches or more.
  • a plurality of display devices 5155 having different resolutions and sizes may be provided depending on applications.
  • the light source device 5157 is composed of a light source such as an LED (light emitting diode), for example, and supplies the endoscope 5115 with irradiation light when photographing a surgical site.
  • a light source such as an LED (light emitting diode)
  • the arm control device 5159 is configured by a processor such as a CPU, for example, and operates according to a predetermined program to control driving of the arm portion 5145 of the support arm device 5141 according to a predetermined control method.
  • the input device 5161 is an input interface to the endoscopic surgery system 5113.
  • a user can input various information and instructions to the endoscopic surgery system 5113 via the input device 5161.
  • the user inputs various types of information related to the operation, such as the patient's physical information and information about the surgical technique, via the input device 5161.
  • the user instructs to drive the arm unit 5145 via the input device 5161 or an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 5115.
  • An instruction to drive the energy treatment instrument 5135 is input.
  • the type of the input device 5161 is not limited, and the input device 5161 may be various known input devices.
  • the input device 5161 for example, a mouse, a keyboard, a touch panel, a switch, a foot switch 5171 and / or a lever can be applied.
  • the touch panel may be provided on the display surface of the display device 5155.
  • the input device 5161 is a device worn by the user, such as a glasses-type wearable device or an HMD (Head Mounted Display), for example, and various inputs according to the user's gesture and line of sight detected by these devices. Is done.
  • the input device 5161 includes a camera capable of detecting a user's movement, and various inputs are performed according to a user's gesture and line of sight detected from an image captured by the camera.
  • the input device 5161 includes a microphone that can pick up the voice of the user, and various inputs are performed by voice through the microphone.
  • the input device 5161 is configured to be able to input various types of information without contact, so that a user belonging to the clean area (for example, an operator 5181) operates a device belonging to the unclean area without contact. Is possible.
  • a user belonging to the clean area for example, an operator 5181
  • the user can operate the device without releasing his / her hand from the surgical tool he / she has, the convenience for the user is improved.
  • the treatment instrument control device 5163 controls driving of the energy treatment instrument 5135 for tissue cauterization, incision, blood vessel sealing, or the like.
  • the smoke exhausting device 5165 feeds gas into the body cavity via the tube 5133 in order to inflate the body cavity of the patient 5185 for the purpose of securing the visual field by the endoscope 5115 and securing the operator's work space.
  • the smoke exhaust device 5165 has a function of exhausting smoke generated in the body cavity in order to secure a visual field by the endoscope 5115.
  • the recorder 5167 is an apparatus capable of recording various types of information related to surgery.
  • the printer 5169 is a device that can print various types of information related to surgery in various formats such as text, images, or graphs.
  • the support arm device 5141 includes a base portion 5143 which is a base, and an arm portion 5145 extending from the base portion 5143.
  • the arm portion 5145 includes a plurality of joint portions 5147a, 5147b, and 5147c and a plurality of links 5149a and 5149b connected by the joint portion 5147b.
  • FIG. The structure of the arm part 5145 is shown in a simplified manner. Actually, the shape, number and arrangement of the joint portions 5147a to 5147c and the links 5149a and 5149b, the direction of the rotation axis of the joint portions 5147a to 5147c, and the like are appropriately set so that the arm portion 5145 has a desired degree of freedom. obtain.
  • the arm portion 5145 can be preferably configured to have six or more degrees of freedom. Accordingly, the endoscope 5115 can be freely moved within the movable range of the arm unit 5145, and therefore the lens barrel 5117 of the endoscope 5115 can be inserted into the body cavity of the patient 5185 from a desired direction. It becomes possible.
  • the joint portions 5147a to 5147c are provided with actuators, and the joint portions 5147a to 5147c are configured to be rotatable around a predetermined rotation axis by driving the actuators.
  • the drive of the actuator is controlled by the arm control device 5159
  • the rotation angles of the joint portions 5147a to 5147c are controlled, and the drive of the arm portion 5145 is controlled.
  • control of the position and posture of the endoscope 5115 can be realized.
  • the arm control device 5159 can control the driving of the arm unit 5145 by various known control methods such as force control or position control.
  • the arm controller 5159 appropriately controls the driving of the arm unit 5145 according to the operation input.
  • the position and posture of the endoscope 5115 may be controlled. With this control, the endoscope 5115 at the distal end of the arm portion 5145 can be moved from an arbitrary position to an arbitrary position and then fixedly supported at the position after the movement.
  • the arm unit 5145 may be operated by a so-called master slave method. In this case, the arm unit 5145 can be remotely operated by the user via the input device 5161 installed at a location away from the operating room.
  • the arm control device 5159 When force control is applied, the arm control device 5159 receives the external force from the user and moves the actuators of the joint portions 5147a to 5147c so that the arm portion 5145 moves smoothly according to the external force. You may perform what is called power assist control to drive. Accordingly, when the user moves the arm unit 5145 while directly touching the arm unit 5145, the arm unit 5145 can be moved with a relatively light force. Therefore, the endoscope 5115 can be moved more intuitively and with a simpler operation, and the convenience for the user can be improved.
  • an endoscope 5115 is supported by a doctor called a scopist.
  • the position of the endoscope 5115 can be more reliably fixed without relying on human hands, so that an image of the surgical site can be stably obtained. It becomes possible to perform the operation smoothly.
  • the arm control device 5159 is not necessarily provided in the cart 5151. Further, the arm control device 5159 does not necessarily have to be one device. For example, the arm control device 5159 may be provided in each of the joint portions 5147a to 5147c of the arm portion 5145 of the support arm device 5141, and the plurality of arm control devices 5159 cooperate to drive the arm portion 5145. Control may be realized.
  • the light source device 5157 supplies irradiation light for imaging the surgical site to the endoscope 5115.
  • the light source device 5157 is constituted by a white light source constituted by, for example, an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Adjustments can be made.
  • the laser light from each of the RGB laser light sources is irradiated onto the observation target in a time-sharing manner, and the driving of the image sensor of the camera head 5119 is controlled in synchronization with the irradiation timing, thereby corresponding to each RGB. It is also possible to take the images that have been taken in time division. According to this method, a color image can be obtained without providing a color filter in the image sensor.
  • the driving of the light source device 5157 may be controlled so as to change the intensity of the output light every predetermined time. Synchronously with the timing of changing the intensity of the light, the driving of the image sensor of the camera head 5119 is controlled to acquire an image in a time-sharing manner, and the image is synthesized, so that high dynamic without so-called blackout and overexposure is obtained. A range image can be generated.
  • the light source device 5157 may be configured to be able to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface of the mucous membrane is irradiated by irradiating light in a narrow band compared to irradiation light (ie, white light) during normal observation.
  • narrow band imaging is performed in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
  • the body tissue is irradiated with excitation light to observe fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally administered to the body tissue and applied to the body tissue.
  • a reagent such as indocyanine green (ICG) is locally administered to the body tissue and applied to the body tissue.
  • ICG indocyanine green
  • the light source device 5157 can be configured to be able to supply narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 2 is a diagram illustrating a system configuration example according to the first embodiment of the present disclosure.
  • the control system includes an imaging device 10, a control device 20, and a smoke exhaust device 30. Further, the imaging device 10 and the control device 20, and the control device 20 and the smoke exhaust device 30 are connected to each other via the network 50.
  • the imaging device 10 is an apparatus that captures an in-vivo image in a living body of an observation target.
  • the imaging device 10 according to the present embodiment may be, for example, the endoscope 5115 illustrated in FIG.
  • the imaging device 10 according to the present embodiment includes an imaging unit 110 and a communication unit 120 as illustrated.
  • the imaging unit 110 has a function of capturing an in-vivo image within the living body of the observation target.
  • the imaging unit 110 includes, for example, an imaging device such as a charge coupled device (CCD) or a complementary MOS (CMOS).
  • CCD charge coupled device
  • CMOS complementary MOS
  • the in-vivo image according to the present embodiment widely includes an image (Biological Imaging) acquired from a biological viewpoint for clinical, medical, and experimental purposes, and the imaging target is not limited to a human being.
  • the communication unit 120 has a function of performing information communication with the control device 20 via the network 50. Specifically, the communication unit 120 transmits the in-vivo image captured by the imaging unit 110 to the control device 20.
  • the control device 20 is an information processing device that controls smoke removal processing on an in-vivo image and smoke emission outside the body cavity in the living body based on the detected in-vivo smoke.
  • the control apparatus 20 according to the present embodiment may be, for example, the CCU 5153 illustrated in FIG.
  • the control apparatus 20 which concerns on this embodiment is provided with the smoke detection part 210, the control part 220, the image process part 230, and the communication part 240 so that it may show in figure.
  • the smoke detector 210 has a function of detecting smoke in the living body.
  • the smoke detection unit 210 according to the present embodiment detects the presence or absence of smoke in the living body, and can calculate the amount of smoke when smoke is present. At this time, the smoke detection unit 210 according to the present embodiment may detect smoke and calculate the amount of smoke based on, for example, an in-vivo image captured by the imaging device 10. More specifically, the smoke detection unit 210 can detect smoke and calculate the amount of smoke based on the saturation of the in-vivo image.
  • FIG. 3 is a flowchart showing a flow of smoke detection and smoke amount calculation by the smoke detection unit 210 according to the present embodiment.
  • the smoke detection unit 210 according to the present embodiment first performs a resizing process on the in-vivo image captured by the imaging device 10 (S1101). At this time, the smoke detection unit 210 may convert the in-vivo image to 1/16 size, for example. According to the above processing by the smoke detection unit 210, it is possible to effectively reduce the processing burden in the subsequent image processing.
  • the smoke detection unit 210 converts the in-vivo image resized in step S1101 from the RGB space to the saturation section (S1102).
  • the smoke detection unit 210 performs the above processing to efficiently detect smoke. It becomes possible.
  • the smoke detection unit 210 calculates the maximum value and the minimum value of the saturation in the set block in the in-vivo image converted into the saturation space in step S1101 (S1103).
  • the smoke detection unit 210 determines whether or not there is smoke based on the maximum and minimum values of saturation calculated in step S1103 (S1104). At this time, since the change in saturation due to the influence of smoke is predicted to converge to a predetermined value range, the smoke detection unit 210 detects that smoke is present when the maximum and minimum values of saturation are within the threshold value. It may be determined that it exists.
  • the smoke detector 210 calculates the amount of smoke based on the number of blocks determined to have smoke in step S1104 (S1105).
  • the smoke detection unit 210 may calculate the smoke amount by multiplying the number of blocks by a preset coefficient. That is, the smoke detection unit 210 can calculate the smoke amount based on the area where smoke is detected in the in-vivo image.
  • the flow of smoke detection and smoke amount calculation by the smoke detection unit 210 according to this embodiment has been described above.
  • the case where the smoke detection unit 210 detects smoke and calculates the amount of smoke based on the saturation of the in-vivo image has been described as an example, but the smoke according to the present embodiment.
  • the processing by the detection unit 210 is not limited to such an example.
  • the smoke detection unit 210 according to the present embodiment may perform detection of smoke and calculation of the amount of smoke based on, for example, an ablation treatment signal related to the energy treatment tool 5135.
  • the smoke detection unit 210 can also detect smoke and calculate the amount of smoke based on sensor information collected by various smoke detection sensors, for example.
  • the control unit 220 has a function of controlling smoke removal processing on the in-vivo image captured by the imaging device 10 and actual smoke exhaustion in the living body.
  • the smoke removal process refers to a process of removing smoke reflected in the image by image processing on the in-vivo image, and the actual smoke removal means smoke generated in the living body. Refers to the process of discharging outside the body cavity.
  • control unit 220 may execute at least the smoke removal process based on the detection of smoke by the smoke detection unit 210.
  • the control unit 220 may execute the actual smoke removal.
  • the control unit 220 can control the intensity of the actual smoke based on the calculated amount of smoke.
  • FIG. 4 is a diagram for explaining the smoke removal process controlled by the control unit 220 according to the present embodiment and the relationship between actual smoke and the amount of smoke.
  • the horizontal axis indicates the smoke amount
  • the vertical axis indicates the smoke removal processing amount and the actual smoke amount.
  • a curve C1 in FIG. 4 indicates the smoke removal processing amount
  • a curve C2 indicates the intensity of actual smoke that is controlled by the control unit 220.
  • the image processing unit 230 has a function of executing smoke removal processing on an in-vivo image based on control by the control unit 220.
  • the image processing unit 230 may perform the smoke removal process using, for example, a dehaze technique widely used in the image processing field.
  • the method of smoke removal processing by the image processing unit 230 is not limited to the above example, and various techniques can be used.
  • the communication unit 240 has a function of performing information communication with the imaging device 10 and the smoke exhaust device 30 via the network 50. Specifically, the communication unit 240 receives an in-vivo image from the imaging device 10. In addition, the communication unit 240 transmits the control signal generated by the control unit 220 to the smoke exhausting device 30.
  • the smoke exhausting device 30 is a device having a function of executing actual smoke exhaustion based on control by the control device 20.
  • the smoke exhaust device 30 according to the present embodiment may be, for example, the smoke exhaust device 5165 shown in FIG.
  • the smoke exhaust device 30 according to the present embodiment includes a smoke exhaust unit 310 and a communication unit 320 as illustrated.
  • the smoke exhaust unit 310 has a function of executing actual smoke exhaust in the living body based on the control by the control device 20. At this time, the smoke evacuation unit 310 according to the present embodiment can set the intensity of actual smoke emission based on the received control signal.
  • the smoke exhaust mechanism provided in the smoke exhaust unit 310 according to the present embodiment include a mechanism for adjusting the amount of smoke exhausted by the smoke exhaust tube and a control mechanism for the opening / closing unit of the trocar.
  • the communication unit 320 has a function of performing information communication with the control device 20 via the network 50. Specifically, the communication unit 320 receives a control signal related to actual smoke exhaustion in the living body from the control device 20.
  • FIG. 5 is a flowchart showing a flow of basic operations of the control device 20 according to the present embodiment.
  • the communication unit 240 receives an in-vivo image from the imaging device 10 (S1201).
  • the smoke detection unit 210 detects smoke based on the in-vivo image received in step S1201 (S1202).
  • the smoke detection unit 210 according to the present embodiment may detect smoke by performing the processing of steps S1101 to S1104 shown in FIG. Further, as described above, the smoke detection unit 210 according to the present embodiment can also detect smoke based on the cauterization signal of the energy treatment tool 5135 and the like.
  • control unit 220 determines whether or not smoke is detected in step S1202 (S1203).
  • smoke is not detected (S1203: No)
  • the control device 20 may shift to a standby state.
  • control unit 220 causes the image processing unit 230 to perform smoke removal processing on the in-vivo image (S1204).
  • the smoke detection unit 210 calculates the amount of smoke (S1205). At this time, the smoke detection unit 210 may calculate the amount of smoke by performing the process of step S1105 shown in FIG.
  • control unit 220 determines whether or not the smoke amount calculated in step S1205 is greater than or equal to a threshold value (S1206).
  • a threshold value S1206: No
  • the control apparatus 20 transfers to a standby state.
  • the control unit 220 controls the actual smoke emission based on the smoke amount calculated in step S1205 (S1207). Specifically, the control unit 220 can cause the smoke emission device 30 to execute actual smoke emission with an intensity corresponding to the calculated smoke amount.
  • control apparatus 20 which concerns on this embodiment, the process which concerns on smoke influence exclusion can be controlled automatically, and it becomes possible for an operator to concentrate on surgical operation. For this reason, according to the control apparatus 20 which concerns on this embodiment, not only a surgical field is ensured reliably by performing smoke removal process and actual smoke removal, but the effect of shortening an operation time etc. is anticipated.
  • the control device 20 according to the present embodiment performs smoke detection only once, and controls smoke removal processing and actual smoke when smoke is detected in the smoke detection.
  • An example of the case was mentioned.
  • the control device 20 according to the present embodiment can perform smoke detection again after executing the smoke removal process, and can control actual smoke emission based on detection of smoke in the smoke detection again. It is. In this case, the effect of smoke that could not be removed by the smoke removal process can be eliminated by the actual flue gas. It becomes possible to reduce the influence of.
  • FIG. 6 is a flowchart showing a flow of actual smoke control based on smoke detection after smoke removal processing by the control device 20 according to the present embodiment.
  • the communication unit 240 receives an in-vivo image from the imaging device 10 (S1301).
  • the smoke detection unit 210 performs the first smoke detection based on the in-vivo image received in step S1301 (S1302).
  • control unit 220 determines whether or not smoke is detected in step S1302 (S1303).
  • smoke is not detected (S1303: No)
  • the control device 20 shifts to a standby state.
  • control unit 220 causes the image processing unit 230 to perform smoke removal processing on the in-vivo image (S1304).
  • the smoke detection unit 210 performs second smoke detection based on the in-vivo image subjected to the smoke removal process in step S1304 (S1305).
  • control unit 220 determines whether or not smoke is detected in the second smoke detection in step S1305 (S1306).
  • smoke is not detected (S1306: No)
  • the control device 20 may shift to a standby state.
  • the smoke detection unit 210 calculates the amount of smoke (S1307).
  • control unit 220 determines whether or not the smoke amount calculated in step S1307 is greater than or equal to a threshold value (S1308).
  • a threshold value S1308
  • the control device 20 shifts to a standby state.
  • the control unit 220 controls the actual smoke emission based on the smoke amount calculated in step S1205 (S1309).
  • the imaging function, the smoke detection function, the control function, the image processing function, and the smoke exhausting function according to the present technical idea are not limited to the above examples, and can be realized as one function of various devices.
  • the control device 20 according to the second embodiment of the present disclosure may be the endoscope 5115 illustrated in FIG.
  • FIG. 7 is a diagram illustrating a system configuration example according to the second embodiment of the present disclosure.
  • the control device 20 according to the present embodiment is realized as the endoscope 5115.
  • the control device 20 according to the present embodiment may further include an imaging unit 110 in addition to the components included in the control device 20 according to the first embodiment.
  • control device 20 may have an imaging function, a smoke detection function, a control function, and an image processing function.
  • the control device 20 according to the present embodiment can control execution of actual smoke removal by the smoke removal device 30 based on the calculated amount of smoke.
  • control device 20 functions of the components according to the present embodiment and the operation flow of the control device 20 are substantially the same as those in the first embodiment, and thus detailed description thereof is omitted.
  • control device 20 is the CCU 5153 or the endoscope 5115 has been described.
  • control device 20 according to the third embodiment of the present disclosure may be the smoke exhaust device 5165 illustrated in FIG.
  • FIG. 8 is a diagram illustrating a system configuration example according to the third embodiment of the present disclosure.
  • the control device 20 according to the present embodiment is realized as the smoke exhaust device 5165.
  • the control device 20 according to the present embodiment may further include a smoke exhausting section 310 in addition to the components included in the control device 20 according to the first embodiment.
  • control device 20 may have a smoke detection function, a control function, an image processing function, and a smoke exhaust function.
  • the control device 20 according to the present embodiment can receive the in-vivo image captured by the imaging device 10 and execute smoke detection, smoke amount calculation, smoke removal processing, and actual smoke removal.
  • control device 20 functions of the components according to the present embodiment and the operation flow of the control device 20 are substantially the same as those in the first embodiment, and thus detailed description thereof is omitted.
  • the control device 20 is the CCU 5153, the endoscope 5115, the smoke exhaust device 5165, or the like has been described.
  • the control device 20 according to the fourth embodiment of the present disclosure may be an operating room control device.
  • the operating room control apparatus according to the present embodiment is an apparatus that controls the operations of the medical device and the non-medical device included in the operating room system 5100 illustrated in FIG. 1 in cooperation with each other.
  • the operating room control device 5109 according to the present embodiment will be described.
  • the operating room control device 5109 comprehensively controls processing other than processing related to image display in non-medical devices.
  • the operating room control device 5109 controls the driving of the patient bed 5183, the ceiling camera 5187, the operating field camera 5189, and the illumination 5191.
  • the operating room system 5100 is provided with a centralized operation panel 5111, and the user gives an instruction for image display to the audiovisual controller 5107 via the centralized operation panel 5111, or the operating room control apparatus 5109. An instruction about the operation of the non-medical device can be given.
  • the central operation panel 5111 is configured by providing a touch panel on the display surface of the display device.
  • FIG. 9 is a diagram showing a display example of the operation screen on the centralized operation panel 5111.
  • an operation screen corresponding to a case where the operating room system 5100 is provided with two display devices as output destination devices is shown.
  • a transmission source selection area 5195, a preview area 5197, and a control area 5201 are provided on the operation screen 5193.
  • a transmission source device provided in the operating room system 5100 and a thumbnail screen representing display information of the transmission source device are displayed in association with each other. The user can select display information to be displayed on the display device from any of the transmission source devices displayed in the transmission source selection area 5195.
  • a preview of the screen displayed on the display device which is the output destination device is displayed.
  • the captured original in-vivo image and the in-vivo image subjected to the smoke removal process are displayed.
  • four images are displayed in PinP in the left and right display areas.
  • the four images correspond to display information transmitted from the transmission source device selected in the transmission source selection area 5195.
  • the four images one is displayed as a relatively large main image, and the remaining three are displayed as a relatively small sub image.
  • the user can switch the main image and the sub image by appropriately selecting an area in which four images are displayed.
  • a status display area 5199 is provided below the area where the four images are displayed, and the status relating to the surgery (for example, the elapsed time of the surgery, the patient's physical information, etc.) is appropriately displayed in the area. obtain.
  • a GUI (Graphical User Interface) part for displaying a GUI (Graphical User Interface) part for operating the source apparatus and a GUI part for operating the output destination apparatus are displayed.
  • the transmission source operation area 5203 is provided with GUI parts for performing various operations (panning, tilting, and zooming) on the camera in the transmission source device having an imaging function. The user can operate the operation of the camera in the transmission source device by appropriately selecting these GUI components.
  • the transmission source device selected in the transmission source selection area 5195 is a recorder (that is, in the preview area 5197, images recorded in the past are displayed on the recorder).
  • a GUI component for performing operations such as playback, stop playback, rewind, and fast forward of the image can be provided in the transmission source operation area 5203.
  • GUI parts for performing various operations are provided. Is provided. The user can operate the display on the display device by appropriately selecting these GUI components.
  • the operation screen displayed on the centralized operation panel 5111 is not limited to the example shown in the figure, and the user can use the audiovisual controller 5107 and the operating room control device 5109 provided in the operating room system 5100 via the centralized operation panel 5111. Operation input for each device that can be controlled may be possible.
  • the operating room control device 5109 according to this embodiment has been described above. Subsequently, a system configuration example according to the present embodiment will be described.
  • FIG. 10 is a diagram illustrating a system configuration example according to the fourth embodiment of the present disclosure.
  • the control device 20 according to the present embodiment is realized as the operating room control device 5109.
  • the control device 20 according to the present embodiment may include a control unit 220 and a communication unit 240.
  • the control device 20 according to the present embodiment has a control function.
  • the control device 20 according to the present embodiment integrally controls the smoke detection unit 210 and the image processing unit 230 included in the image processing device 40 realized as the CCU 5153 and the smoke exhaust unit 310 included in the smoke exhaust device 30. It's okay.
  • the control device 20 according to the present embodiment may cause the image processing device 40 to perform smoke removal processing based on the detection of smoke by the image processing device 40.
  • the control device 20 can control actual smoke emission by the smoke removal device 30 based on the smoke amount calculated by the image processing device 40.
  • FIG. 11 is a block diagram illustrating a hardware configuration example of the control device 20 according to an embodiment of the present disclosure.
  • the control device 20 includes, for example, a CPU 871, a ROM 872, a RAM 873, a host bus 874, a bridge 875, an external bus 876, an interface 877, an input device 878, an output device 879, A storage 880, a drive 881, a connection port 882, and a communication device 883 are included.
  • the hardware configuration shown here is an example, and some of the components may be omitted. Moreover, you may further include components other than the component shown here.
  • the CPU 871 functions as, for example, an arithmetic processing unit or a control unit, and controls the overall operation or a part of each component based on various programs recorded in the ROM 872, RAM 873, storage 880, or removable recording medium 901.
  • the ROM 872 is a means for storing programs read by the CPU 871, data used for calculations, and the like.
  • the RAM 873 for example, a program read by the CPU 871, various parameters that change as appropriate when the program is executed, and the like are temporarily or permanently stored.
  • the CPU 871, the ROM 872, and the RAM 873 are connected to each other via, for example, a host bus 874 capable of high-speed data transmission.
  • the host bus 874 is connected to an external bus 876 having a relatively low data transmission speed via a bridge 875, for example.
  • the external bus 876 is connected to various components via the interface 877.
  • the input device 878 for example, a mouse, a keyboard, a touch panel, a button, a switch, a lever, or the like is used. Furthermore, as the input device 878, a remote controller (hereinafter referred to as a remote controller) capable of transmitting a control signal using infrared rays or other radio waves may be used.
  • the input device 878 includes a voice input device such as a microphone.
  • the output device 879 is a display device such as a CRT (Cathode Ray Tube), LCD, or organic EL, an audio output device such as a speaker or a headphone, a printer, a mobile phone, or a facsimile. It is a device that can be notified visually or audibly.
  • the storage 880 is a device for storing various data.
  • a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like is used.
  • the drive 881 is a device that reads information recorded on a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information to the removable recording medium 901.
  • a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory
  • the removable recording medium 901 is, for example, a DVD medium, a Blu-ray (registered trademark) medium, an HD DVD medium, or various semiconductor storage media.
  • the removable recording medium 901 may be, for example, an IC card on which a non-contact IC chip is mounted, an electronic device, or the like.
  • connection port 882 is a port for connecting an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.
  • an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.
  • the external connection device 902 is, for example, a printer, a portable music player, a digital camera, a digital video camera, or an IC recorder.
  • the communication device 883 is a communication device for connecting to a network.
  • control device 20 has a function of controlling smoke removal processing on an in-vivo image captured during surgery and actual smoke exhaustion in the living body.
  • the control device 20 can execute at least the smoke removal process based on the detection of smoke.
  • the control apparatus 20 can control execution and execution intensity
  • a control unit for controlling smoke removal processing on the captured in-vivo image and actual smoke exhaustion in the living body With The control unit causes at least the smoke removal process to be executed based on the detection of the smoke.
  • Control device. (2) The control unit controls execution of the actual smoke based on the calculated amount of smoke. The control device according to (1) above. (3) The control unit, when the amount of smoke is equal to or greater than a threshold, causes the actual smoke removal to be performed. The control device according to (2). (4) The control unit controls the intensity of the actual flue gas based on the amount of smoke. The control device according to (2) or (3). (5) The control unit controls the execution of the actual smoke based on the detection of the smoke after the execution of the smoke removal process.
  • the control device according to any one of (1) to (4). (6)
  • the smoke is detected based on the in-vivo image.
  • the control device according to any one of (1) to (5).
  • the smoke is detected based on the saturation of the in-vivo image.
  • the control device according to any one of (1) to (6).
  • the amount of smoke is calculated based on a region where smoke is detected in the in-vivo image. Further comprising The control device according to any one of (1) to (7).
  • a smoke detector for detecting the smoke Further comprising The control device according to any one of (1) to (8).
  • the smoke detector calculates the amount of smoke; The control device according to (9) above.
  • An image processing unit that performs the smoke removal processing on the in-vivo image based on control by the control unit; Further comprising The control device according to any one of (1) to (10).
  • a smoke exhaust unit that performs actual smoke exhaust of the smoke based on control by the control unit, Further comprising The control device according to any one of (1) to (11).
  • the control device is an operating room control device.
  • the in-vivo image is an image captured by an endoscope.
  • the control device is a smoke exhaust device, The control device according to any one of (1) to (13).
  • the processor controls the smoke removal process for the captured in-vivo image and the actual smoke emission in the living body; Including The controlling causes at least the smoke removal process to be executed based on detection of the smoke; In addition, Control method.
  • An endoscope that captures in-vivo images; A control device for controlling the smoke removal processing on the in-vivo image and the actual smoke exhaustion in the living body; A smoke evacuation device that performs actual smoke evacuation based on the control by the control device; With The control device executes at least the smoke removal process based on the detection of the smoke.
  • Control system (19) Computer A control unit for controlling smoke removal processing on the captured in-vivo image and actual smoke exhaustion in the living body, With The control unit causes at least the smoke removal process to be executed based on the detection of the smoke. Control device, Program to function as.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】組織の焼灼により発生する煙の影響をより効果的に排除する。 【解決手段】術中に撮像された生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御する制御部、を備え、前記制御部は、前記煙が検出されたことに基づいて、少なくとも前記煙除去処理を実行させる、制御装置が提供される。また、術中に生体内画像を撮像する内視鏡と、前記生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御する制御装置と、前記制御装置による制御に基づいて前記煙の実排煙を実行する排煙装置と、を備え、前記制御装置は、前記煙を検出したことに基づいて、少なくとも前記煙除去処理を実行する、制御システムが提供される。

Description

制御装置、制御方法、制御システム、およびプログラム
 本開示は、制御装置、制御方法、制御システム、およびプログラムに関する。
 近年、医療現場において、内視鏡を用いた内視鏡手術が広く行われている。また、内視鏡手術に係る種々の装置が開発されている。例えば、特許文献1には、電気メスの焼灼処置信号と連動し、体腔内の煙を排煙する排煙装置が開示されている。
特開平11-309156号公報
 しかし、通常、焼灼する組織により発生する煙の量は異なるため、電気メスの焼灼処置信号に基づき排煙を実行する特許文献1に記載の排煙装置では、排煙の過不足が生じる可能性もある。また、電気メスの動作開始後、術者が電気メスを組織に接触させるまでの時間は一定ではないため、特許文献1に記載の排煙装置では、煙の発生と排煙とに時間的なずれが生じることが想定される。
 そこで、本開示では、組織の焼灼により発生する煙の影響をより効果的に排除することが可能な、新規かつ改良された制御装置、制御方法、制御システム、およびプログラムを提案する。
 本開示によれば、術中に撮像された生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御する制御部、を備え、前記制御部は、前記煙が検出されたことに基づいて、少なくとも前記煙除去処理を実行させる、制御装置が提供される。
 また、本開示によれば、プロセッサが、術中に撮像された生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御することと、を含み、前記制御することは、前記煙が検出されたことに基づいて、少なくとも前記煙除去処理を実行させること、さらに含む、制御方法が提供される。
 また、本開示によれば、術中に生体内画像を撮像する内視鏡と、前記生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御する制御装置と、前記制御装置による制御に基づいて前記煙の実排煙を実行する排煙装置と、を備え、前記制御装置は、前記煙を検出したことに基づいて、少なくとも前記煙除去処理を実行する、制御システムが提供される。
 また、本開示によれば、コンピュータを、術中に撮像された生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御する制御部、を備え、前記制御部は、前記煙が検出されたことに基づいて、少なくとも前記煙除去処理を実行させる、制御装置、として機能させるためのプログラムが提供される。
 以上説明したように本開示によれば、組織の焼灼により発生する煙の影響をより効果的に排除することが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示に係る技術思想を用いた手術室システムが適用された手術の様子の一例を示す図である。 本開示の第1の実施形態に係るシステム構成例を示す図である。 同実施形態に係る煙検出部による煙の検出および煙量の算出の流れを示すフローチャートである。 同実施形態に係る本実施形態に係る制御部による制御される煙除去処理および実排煙と煙量との関係について説明するための図である。 同実施形態に係る制御装置の基本動作の流れを示すフローチャートである。 同実施形態に係る制御装置による煙除去処理後の煙検出に基づく実排煙制御の流れを示すフローチャートである。 同実施形態に係る 本開示の第2の実施形態に係るシステム構成例を示す図である。 本開示の第3の実施形態に係るシステム構成例を示す図である。 本開示の第4の実施形態に係るシステム構成例を示す図である。 本開示の一実施形態に係る制御システムのハードウェア構成例を示す図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.背景
 2.適用例
 3.第1の実施形態
  3.1.システム構成
  3.2.制御装置20の動作の流れ
 4.第2の実施形態
  4.1.システム構成例
 5.第3の実施形態
  5.1.システム構成例
 6.第4の実施形態
  6.1.システム構成例
 7.ハードウェア構成例
 8.まとめ
 <1.背景>
 まず、本技術思想の発想に至った背景について説明する。上述したとおり、近年では、内視鏡を用いた内視鏡手術が広く行われている。内視鏡手術では、観察対象物(患者)に挿入された内視鏡により観察対象物に係る生体内画像を撮像することで、術者が当該生体内画像を観察しながら検査や手技を行うことができる。
 一方、内視鏡手術では、電気メスなどのエネルギー処置具が組織を焼灼することにより発生した煙が観察対象物の生体内に充満することで、撮像される生体内画像の鮮明度に影響を与える場合がある。すなわち、煙が生体内画像に写り込むことにより、術野に影響を与え、術者による組織の観察効率を低下させる要因となる。
 このため、内視鏡手術においては、観察対象物の生体内に発生した煙を適切に排出するための機構が求められる。排煙の仕組みとしては、トロッカと呼ばれる筒状の開孔器具を術者が手動で開閉することや、特許文献1に開示されるような排煙装置を用いることも想定されるが、これらの場合、状況に応じた適切な排煙量を調整することが困難な場合がある。このため、上記のような装置では、排煙不足による観察効率の低下や、過剰排煙による気腹ガスコストの増加、循環動態変動に伴う観察対象物への影響を招くことも想定される。
 本技術思想は上記の点に着目して発想されたものであり、状況に応じて適切に煙の影響を排除することを可能とする。このために、本開示の一実施形態に係る制御装置、制御方法、制御システム、およびプログラムは、検出された煙に基づいて、撮像された生体内画像に対する煙除去処理と、生体内における煙の実排煙との両方を制御することを特徴の一つとする。本技術思想に係る上記の特徴によれば、排煙不足や過剰排煙を招くことなく、煙の影響を効果的に排除することが可能となる。
 <2.適用例>
 次に、本開示の各実施形態に共通する技術思想の適用例について説明する。図1は、本開示に係る技術思想を用いた手術室システム5100が適用された手術の様子の一例を示す図である。シーリングカメラ5187及び術場カメラ5189は、手術室の天井に設けられ、患者ベッド5183上の患者5185の患部に対して処置を行う術者(医者)5181の手元及び手術室全体の様子を撮影可能である。シーリングカメラ5187及び術場カメラ5189には、倍率調整機能、焦点距離調整機能、撮影方向調整機能等が設けられ得る。照明5191は、手術室の天井に設けられ、少なくとも術者5181の手元を照射する。照明5191は、その照射光量、照射光の波長(色)及び光の照射方向等を適宜調整可能であってよい。
 内視鏡手術システム5113、患者ベッド5183、シーリングカメラ5187、術場カメラ5189及び照明5191は、視聴覚コントローラ及び手術室制御装置(図示せず)を介して互いに連携可能に接続されている。手術室内には、集中操作パネル5111が設けられており、ユーザは、当該集中操作パネル5111を介して、手術室内に存在するこれらの装置を適宜操作することが可能である。
 以下、内視鏡手術システム5113の構成について詳細に説明する。図示するように、内視鏡手術システム5113は、内視鏡5115と、その他の術具5131と、内視鏡5115を支持する支持アーム装置5141と、内視鏡下手術のための各種の装置が搭載されたカート5151と、から構成される。
 内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ5139a~5139dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5139a~5139dから、内視鏡5115の鏡筒5117や、その他の術具5131が患者5185の体腔内に挿入される。図示する例では、その他の術具5131として、チューブ5133、エネルギー処置具5135及び鉗子5137が、患者5185の体腔内に挿入されている。ここで、チューブ5133は、体控内に生じた煙を体腔外に排煙するための構成であってよい。また、一方で、チューブ5133は、体控内にガスを注入し体腔を膨らませる機能を有してよい。また、エネルギー処置具5135は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具5131はあくまで一例であり、術具5131としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
 内視鏡5115によって撮影された患者5185の体腔内の術部の画像が、表示装置5155に表示される。術者5181は、表示装置5155に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5135や鉗子5137を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、チューブ5133、エネルギー処置具5135及び鉗子5137は、手術中に、術者5181又は助手等によって支持される。
 (支持アーム装置)
 支持アーム装置5141は、ベース部5143から延伸するアーム部5145を備える。図示する例では、アーム部5145は、関節部5147a、5147b、5147c、及びリンク5149a、5149bから構成されており、アーム制御装置5159からの制御により駆動される。アーム部5145によって内視鏡5115が支持され、その位置及び姿勢が制御される。これにより、内視鏡5115の安定的な位置の固定が実現され得る。
 (内視鏡)
 内視鏡5115は、先端から所定の長さの領域が患者5185の体腔内に挿入される鏡筒5117と、鏡筒5117の基端に接続されるカメラヘッド5119と、から構成される。図示する例では、硬性の鏡筒5117を有するいわゆる硬性鏡として構成される内視鏡5115を図示しているが、内視鏡5115は、軟性の鏡筒5117を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒5117の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5115には光源装置5157が接続されており、当該光源装置5157によって生成された光が、鏡筒5117の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者5185の体腔内の観察対象に向かって照射される。なお、内視鏡5115は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド5119の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5153に送信される。なお、カメラヘッド5119には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
 なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5119には撮像素子が複数設けられてもよい。この場合、鏡筒5117の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
 (カートに搭載される各種の装置)
 CCU5153は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5115及び表示装置5155の動作を統括的に制御する。具体的には、CCU5153は、カメラヘッド5119から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5153は、当該画像処理を施した画像信号を表示装置5155に提供する。また、CCU5153には、上述した視聴覚コントローラが接続される。CCU5153は、画像処理を施した画像信号を視聴覚コントローラ5107にも提供する。また、CCU5153は、カメラヘッド5119に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。当該撮像条件に関する情報は、入力装置5161を介して入力されてもよいし、上述した集中操作パネル5111を介して入力されてもよい。
 表示装置5155は、CCU5153からの制御により、当該CCU5153によって画像処理が施された画像信号に基づく画像を表示する。内視鏡5115が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置5155としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置5155として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5155が設けられてもよい。
 光源装置5157は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5115に供給する。
 アーム制御装置5159は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5141のアーム部5145の駆動を制御する。
 入力装置5161は、内視鏡手術システム5113に対する入力インタフェースである。ユーザは、入力装置5161を介して、内視鏡手術システム5113に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置5161を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置5161を介して、アーム部5145を駆動させる旨の指示や、内視鏡5115による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5135を駆動させる旨の指示等を入力する。
 入力装置5161の種類は限定されず、入力装置5161は各種の公知の入力装置であってよい。入力装置5161としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5171及び/又はレバー等が適用され得る。入力装置5161としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5155の表示面上に設けられてもよい。
 あるいは、入力装置5161は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置5161は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置5161は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置5161が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5181)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
 処置具制御装置5163は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5135の駆動を制御する。排煙装置5165は、内視鏡5115による視野の確保及び術者の作業空間の確保の目的で、患者5185の体腔を膨らめるために、チューブ5133を介して当該体腔内にガスを送り込む。また、排煙装置5165は、内視鏡5115による視野の確保のため、体腔内に生じた煙を排煙する機能を有する。レコーダ5167は、手術に関する各種の情報を記録可能な装置である。プリンタ5169は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 以下、内視鏡手術システム5113において特に特徴的な構成について、更に詳細に説明する。
 (支持アーム装置)
 支持アーム装置5141は、基台であるベース部5143と、ベース部5143から延伸するアーム部5145と、を備える。図示する例では、アーム部5145は、複数の関節部5147a、5147b、5147cと、関節部5147bによって連結される複数のリンク5149a、5149bと、から構成されているが、図1では、簡単のため、アーム部5145の構成を簡略化して図示している。実際には、アーム部5145が所望の自由度を有するように、関節部5147a~5147c及びリンク5149a、5149bの形状、数及び配置、並びに関節部5147a~5147cの回転軸の方向等が適宜設定され得る。例えば、アーム部5145は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5145の可動範囲内において内視鏡5115を自由に移動させることが可能になるため、所望の方向から内視鏡5115の鏡筒5117を患者5185の体腔内に挿入することが可能になる。
 関節部5147a~5147cにはアクチュエータが設けられており、関節部5147a~5147cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5159によって制御されることにより、各関節部5147a~5147cの回転角度が制御され、アーム部5145の駆動が制御される。これにより、内視鏡5115の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5159は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5145の駆動を制御することができる。
 例えば、術者5181が、入力装置5161(フットスイッチ5171を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5159によってアーム部5145の駆動が適宜制御され、内視鏡5115の位置及び姿勢が制御されてよい。当該制御により、アーム部5145の先端の内視鏡5115を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部5145は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5145は、手術室から離れた場所に設置される入力装置5161を介してユーザによって遠隔操作され得る。
 また、力制御が適用される場合には、アーム制御装置5159は、ユーザからの外力を受け、その外力にならってスムーズにアーム部5145が移動するように、各関節部5147a~5147cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部5145に触れながらアーム部5145を移動させる際に、比較的軽い力で当該アーム部5145を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡5115を移動させることが可能となり、ユーザの利便性を向上させることができる。
 ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5115が支持されていた。これに対して、支持アーム装置5141を用いることにより、人手によらずに内視鏡5115の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
 なお、アーム制御装置5159は必ずしもカート5151に設けられなくてもよい。また、アーム制御装置5159は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5159は、支持アーム装置5141のアーム部5145の各関節部5147a~5147cにそれぞれ設けられてもよく、複数のアーム制御装置5159が互いに協働することにより、アーム部5145の駆動制御が実現されてもよい。
 (光源装置)
 光源装置5157は、内視鏡5115に術部を撮影する際の照射光を供給する。光源装置5157は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5157において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5119の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置5157は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5119の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置5157は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5157は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 <3.第1の実施形態>
 <<3.1.システム構成>>
 次に、本開示の第1の実施形態について詳細に説明する。まず、第1の実施形態に係るシステム構成例について述べる。図2は、本開示の第1の実施形態に係るシステム構成例を示す図である。
 図2を参照すると、本実施形態に係る制御システムは、撮像デバイス10、制御装置20、および排煙デバイス30を備える。また、撮像デバイス10と制御装置20、制御装置20と排煙デバイス30は、ネットワーク50を介して、互いに接続される。
 (撮像デバイス10)
 本実施形態に係る撮像デバイス10は、観察対象物の生体内において生体内画像を撮像する装置である。本実施形態に係る撮像デバイス10は、例えば、図1に示した内視鏡5115であってよい。また、本実施形態に係る撮像デバイス10は、図示するように、撮像部110および通信部120を備える。
 ((撮像部110))
 撮像部110は、観察対象物の生体内において生体内画像を撮像する機能を有する。このために、本実施形態に係る撮像部110は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary MOS)などの撮像素子を含んで構成される。ここで、本実施形態に係る生体内画像とは、臨床、医学、および実験用に生物学的見地から取得される画像(Biological Imaging)を広く含み、撮像対象は人間に限定されない。
 ((通信部120))
 通信部120は、ネットワーク50を介して、制御装置20との情報通信を行う機能を有する。具体的には、通信部120は、撮像部110が撮像した生体内画像を制御装置20に送信する。
 (制御装置20)
 本実施形態に係る制御装置20は、検出した生体内の煙に基づいて、生体内画像に対する煙除去処理と、生体内における煙の体腔外への排煙を制御する情報処理装置である。本実施形態に係る制御装置20は、例えば、図1に示したCCU5153であってよい。また、本実施形態に係る制御装置20は、図示するように、煙検出部210、制御部220、画像処理部230、および通信部240を備える。
 ((煙検出部210))
 煙検出部210は、生体内における煙を検出する機能を有する。本実施形態に係る煙検出部210は、生体内における煙の有無を検出し、また煙が存在する場合には、当該煙の量を算出することができる。この際、本実施形態に係る煙検出部210は、例えば、撮像デバイス10が撮像した生体内画像に基づいて、煙の検出や煙量の算出を行ってよい。より具体的には、煙検出部210は、生体内画像の彩度に基づいて煙の検出および煙量の算出を行うことができる。
 図3は、本実施形態に係る煙検出部210による煙の検出および煙量の算出の流れを示すフローチャートである。図3を参照すると、本実施形態に係る煙検出部210は、まず、撮像デバイス10により撮像された生体内画像に対するリサイズ処理を行う(S1101)。この際、煙検出部210は、例えば、生体内画像を1/16のサイズに変換してもよい。煙検出部210による上記の処理によれば、後続する画像処理における処理負担を効果的に低減することができる。
 次に、煙検出部210は、ステップS1101においてリサイズした生体内画像をRGB空間から彩度区間へと変換する(S1102)。生体内に煙が存在する場合には、撮像される生体内画像の彩度が低下することが予測されるため、煙検出部210が上記の処理を行うことで、効率的に煙を検出することが可能となる。
 次に、煙検出部210は、ステップS1101において彩度空間へと変換した生体内画像において、設定されるブロック中の彩度の最大値および最小値を算出する(S1103)。
 続いて、煙検出部210は、ステップS1103において算出した彩度の最大値および最小値に基づいて煙が存在するか否かを判定する(S1104)。この際、煙の影響による彩度の変化は所定の値域へ収束することが予測されることから、煙検出部210は、彩度の最大値と最小値が閾値内にある場合には煙が存在すると判定してよい。
 次に、煙検出部210は、ステップS1104において煙が存在すると判定したブロック数に基づいて、煙量の算出を行う(S1105)。煙検出部210は、例えば、上記のブロック数に予め設定される係数を掛けあわせることで煙量の算出を行ってもよい。すなわち、煙検出部210は、生体内画像において煙が検出された領域に基づいて煙量を算出することができる。
 以上、本実施形態に係る煙検出部210による煙の検出および煙量の算出の流れについて説明した。なお、図3を用いた上記の説明では、煙検出部210が生体内画像の彩度に基づいて煙の検出および煙量の算出を行う場合を例に述べたが、本実施形態に係る煙検出部210による処理は係る例に限定されない。本実施形態に係る煙検出部210は、例えば、エネルギー処置具5135に係る焼灼処置信号に基づいて、煙の検出や煙量の算出を行ってもよい。また、煙検出部210は、例えば、種々の煙感知センサにより収集されたセンサ情報に基づいて、煙の検出や煙量の算出を行うことも可能である。
 ((制御部220))
 制御部220は、撮像デバイス10により撮像された生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御する機能を有する。ここで、上記の煙除去処理とは、生体内画像に対する画像処理により、画像中に写り込んだ煙を除去する処理を指し、また、上記の実排煙とは、生体内に生じた煙を体腔外に排出する処理を指す。
 この際、本実施形態に係る制御部220は、煙検出部210により煙が検出されたことに基づいて、少なくとも上記の煙除去処理を実行させてよい。また、制御部220は、煙検出部210により算出された煙の量が所定の閾値以上である場合には、上記の実排煙を実行させてよい。この際、制御部220は、算出された煙の量に基づいて、実排煙の強度を制御することができる。
 図4は、本実施形態に係る制御部220による制御される煙除去処理および実排煙と煙量との関係について説明するための図である。図4には、横軸に煙量が示されており、縦軸に煙除去処理量および実排煙量が示されている。また、図4における曲線C1は、煙除去処理量を示しており、曲線C2は制御部220により制御される実排煙の強度を示している。
 ここで、曲線C1およびC2の関係に着目すると、煙量が増大するにつれ、煙除去処理量が低下するのに対し、実排煙量が増加していることがわかる。これは、煙量が多い場合、生体内画像の背景情報が取得しづらくなることで画像処理による煙除去効果が薄れるためである。このため、本実施形態に係る制御部220は、煙量が多い場合には、実排煙の強度を上げることで、煙の影響を効果的に排除することができる。
 ((画像処理部230))
 画像処理部230は、制御部220による制御に基づいて生体内画像に対する煙除去処理を実行する機能を有する。この際、本実施形態に係る画像処理部230は、例えば、画像処理分野で広く用いられるデヘイズ技術などを用いて上記の煙除去処理を行ってもよい。一方、画像処理部230による煙除去処理の手法は上記の例に限定されず、種々の技術が用いられ得る。
 ((通信部240))
 通信部240は、ネットワーク50を介して、撮像デバイス10や排煙デバイス30との情報通信を行う機能を有する。具体的には、通信部240は、撮像デバイス10から生体内画像を受信する。また、通信部240は、制御部220が生成した制御信号を排煙デバイス30に送信する。
 (排煙デバイス30)
 本実施形態に係る排煙デバイス30は、制御装置20による制御に基づいて実排煙を実行する機能を装置である。本実施形態に係る排煙デバイス30は、例えば、図1に示した排煙装置5165であってよい。また、本実施形態に係る排煙デバイス30は、図示するように、排煙部310および通信部320を備える。
 ((排煙部310))
 排煙部310は、制御装置20による制御に基づいて生体内における煙の実排煙を実行する機能を有する。この際、本実施形態に係る排煙部310は、受信された制御信号に基づいて、実排煙の強度を設定することができる。なお、本実施形態に係る排煙部310が備える排煙機構としては、例えば、排煙チューブによる排煙量の調整機構や、トロッカの開閉部に対する制御機構などが挙げられる。
 ((通信部320))
 通信部320は、ネットワーク50を介して、制御装置20との情報通信を行う機能を有する。具体的には、通信部320は、制御装置20から生体内における煙の実排煙に係る制御信号を受信する。
 <<3.2.制御装置20の動作の流れ>>
 次に、本実施形態に係る制御装置20の動作の流れについて詳細に説明する。図5は、本実施形態に係る制御装置20の基本動作の流れを示すフローチャートである。
 図5を参照すると、まず、通信部240は、撮像デバイス10から生体内画像を受信する(S1201)。
 次に、煙検出部210は、ステップS1201において受信された生体内画像に基づいて、煙の検出を行う(S1202)。この際、本実施形態に係る煙検出部210は、図3に示したステップS1101~S1104の処理を行うことで、煙の検出を行ってもよい。また、上述したとおり、本実施形態に係る煙検出部210は、エネルギー処置具5135の焼灼処置信号などに基づいて煙を検出することもできる。
 次に、制御部220は、ステップS1202において、煙が検出されたか否かを判定する(S1203)。ここで、煙が検出されない場合(S1203:No)には、制御装置20は、待機状態へと移行してよい。
 一方、煙が検出された場合(S1203:Yes)、制御部220は、画像処理部230に生体内画像に対する煙除去処理を実行させる(S1204)。
 また、続いて、煙検出部210は、煙の量を算出する(S1205)。この際、煙検出部210は、図3に示したステップS1105の処理を行うことで、煙量の算出を行ってもよい。
 次に、制御部220は、ステップS1205において算出された煙量が閾値以上であるか否かを判定する(S1206)。ここで、煙量が閾値未満である場合(S1206:No)、制御装置20は、待機状態へと移行する。
 一方、煙量が閾値以上である場合(S1206:Yes)、制御部220は、ステップS1205において算出された煙量に基づいて、煙の実排煙を制御する(S1207)。具体的には、制御部220は、算出された煙量に対応する強度で排煙デバイス30に実排煙を実行させることができる。
 以上、本実施形態に係る制御装置20の基本動作の流れについて詳細に説明した。このように、本実施形態に係る制御装置20によれば、煙の影響排除に係る処理を自動で制御することができ、術者が手術操作に専念することが可能となる。このため、本実施形態に係る制御装置20によれば、煙除去処理と実排煙を行うことで術野を確実に確保するのみではなく、手術時間の短縮などの効果も期待される。
 なお、図5を用いた上記の説明では、本実施形態に係る制御装置20が煙検出を一度のみ行い、当該煙検出において煙が検出された場合に、煙除去処理および実排煙を制御する場合の例について述べた。一方、本実施形態に係る制御装置20は、煙除去処理の実行後に再度の煙検出を行い、当該再度の煙検出において煙を検出したことに基づいて、実排煙の制御を行うことも可能である。この場合、煙除去処理により取り除けなかった煙の影響を実排煙により排除することができ、実排煙の量の最小化することで、気腹ガスコストや循環動態変動に伴う観察対象物への影響を低減することが可能となる。
 図6は、本実施形態に係る制御装置20による煙除去処理後の煙検出に基づく実排煙制御の流れを示すフローチャートである。
 図6を参照すると、まず、図5に示した場合と同様に、通信部240は、撮像デバイス10から生体内画像を受信する(S1301)。
 次に、煙検出部210は、ステップS1301において受信された生体内画像に基づいて、1回目の煙検出を行う(S1302)。
 次に、制御部220は、ステップS1302において、煙が検出されたか否かを判定する(S1303)。ここで、煙が検出されない場合(S1303:No)には、制御装置20は、待機状態へと移行する。
 一方、煙が検出された場合(S1303:Yes)、制御部220は、画像処理部230に生体内画像に対する煙除去処理を実行させる(S1304)。
 また、続いて、煙検出部210は、ステップS1304において煙除去処理が施された生体内画像に基づいて2回目の煙検出を行う(S1305)。
 次に、制御部220は、ステップS1305における2回目の煙検出において、煙が検出されたか否かを判定する(S1306)。ここで、煙が検出されない場合(S1306:No)には、制御装置20は、待機状態へと移行してよい。
 一方、煙が検出された場合(S1306:Yes)、煙検出部210は、煙量の算出を行う(S1307)。
 次に、制御部220は、ステップS1307において算出された煙量が閾値以上であるか否かを判定する(S1308)。ここで、煙量が閾値未満である場合(S1308:No)、制御装置20は、待機状態へと移行する。
 一方、煙量が閾値以上である場合(S1308:Yes)、制御部220は、ステップS1205において算出された煙量に基づいて、煙の実排煙を制御する(S1309)。
 以上、本実施形態に係る制御装置20による煙除去処理後の煙検出に基づく実排煙制御の流れについて説明した。このように、本実施形態に係る制御装置20による煙検出や煙量算出、また煙除去処理や実排煙の回数は柔軟に設計変更が可能である。このため、本実施形態に係る制御装置20による処理は、必ずしも図5や図6に示したフローチャートの順番に実行されなくてもよい。本実施形態に係る制御装置20の処理は、各構成の仕様や手術の仕様などに応じて適宜設計され得る。
 <4.第2の実施形態>
 <<4.1.システム構成例>>
 次に、本開示の第2の実施形態について説明する。上記の第1の実施形態では、本実施形態に係る制御装置20がCCU5153であり、撮像デバイス10により撮像された生体内画像に対する煙除去処理や、排煙デバイス30による実排煙を制御する場合について説明した。
 一方、本技術思想に係る撮像機能、煙検出機能、制御機能、画像処理機能、および排煙機能は上記の例に限定されず、種々の装置の一機能として実現され得る。例えば、本開示の第2の実施形態に係る制御装置20は、図1に示した内視鏡5115であってよい。
 図7は、本開示の第2の実施形態に係るシステム構成例を示す図である。上述したように、本実施形態に係る制御装置20は、内視鏡5115として実現される。この際、本実施形態に係る制御装置20は、第1の実施形態に係る制御装置20が備える各構成に加え、撮像部110をさらに備えてよい。
 すなわち、本実施形態に係る制御装置20は、撮像機能、煙検出機能、制御機能、および画像処理機能を有してよい。本実施形態に係る制御装置20は、算出した煙量に基づいて、排煙デバイス30による実排煙の実行を制御することが可能である。
 なお、本実施形態に係る各構成の機能や、制御装置20の動作の流れについては、第1の実施形態と実質的に同一であるため、詳細な説明は省略する。
 <5.第3の実施形態>
 <<5.1.システム構成例>>
 次に、本開示の第3の実施形態について説明する。上記の第1の実施形態および第2の実施形態では、制御装置20がCCU5153または内視鏡5115である場合について説明した。一方、本開示の第3の実施形態に係る制御装置20は、図1に示した排煙装置5165であってよい。
 図8は、本開示の第3の実施形態に係るシステム構成例を示す図である。上述したように、本実施形態に係る制御装置20は、排煙装置5165として実現される。この際、本実施形態に係る制御装置20は、第1の実施形態に係る制御装置20が備える各構成に加え、排煙部310をさらに備えてよい。
 すなわち、本実施形態に係る制御装置20は、煙検出機能、制御機能、画像処理機能、および排煙機能を有してよい。本実施形態に係る制御装置20は、撮像デバイス10により撮像された生体内画像を受信し、煙検出、煙量算出、煙除去処理、および実排煙を実行することができる。
 なお、本実施形態に係る各構成の機能や、制御装置20の動作の流れについては、第1の実施形態と実質的に同一であるため、詳細な説明は省略する。
 <6.第4の実施形態>
 <<6.1.システム構成例>>
 次に、本開示の第4の実施形態について説明する。上記の第1の実施形態~第3の実施形態では、制御装置20がCCU5153、内視鏡5115、排煙装置5165などである場合について説明した。一方、本開示の第4の実施形態に係る制御装置20は、手術室制御装置であってよい。ここで、本実施形態に係る手術室制御装置とは、図1に示した手術室システム5100が備える医療機器及び非医療機器の動作を互いに連携して制御する装置である。まず、本実施形態に係る手術室制御装置5109について説明する。
 手術室制御装置5109は、非医療機器における画像表示に関する処理以外の処理を、統括的に制御する。例えば、手術室制御装置5109は、患者ベッド5183、シーリングカメラ5187、術場カメラ5189及び照明5191の駆動を制御する。
 手術室システム5100には、集中操作パネル5111が設けられており、ユーザは、当該集中操作パネル5111を介して、視聴覚コントローラ5107に対して画像表示についての指示を与えたり、手術室制御装置5109に対して非医療機器の動作についての指示を与えることができる。集中操作パネル5111は、表示装置の表示面上にタッチパネルが設けられて構成される。
 図9は、集中操作パネル5111における操作画面の表示例を示す図である。図9では、一例として、手術室システム5100に、出力先の装置として、2つの表示装置が設けられている場合に対応する操作画面を示している。図9を参照すると、操作画面5193には、発信元選択領域5195と、プレビュー領域5197と、コントロール領域5201と、が設けられる。
 発信元選択領域5195には、手術室システム5100に備えられる発信元装置と、当該発信元装置が有する表示情報を表すサムネイル画面と、が紐付けられて表示される。ユーザは、表示装置に表示させたい表示情報を、発信元選択領域5195に表示されているいずれかの発信元装置から選択することができる。
 プレビュー領域5197には、出力先の装置である表示装置に表示される画面のプレビューが表示される。図示する例では、撮像されたオリジナルの生体内画像と、煙除去処理が施された生体内画像とが表示されている。また、図9に示す一例では、左右の表示領域において4つの画像がPinP表示されている。当該4つの画像は、発信元選択領域5195において選択された発信元装置から発信された表示情報に対応するものである。4つの画像のうち、1つはメイン画像として比較的大きく表示され、残りの3つはサブ画像として比較的小さく表示される。ユーザは、4つの画像が表示された領域を適宜選択することにより、メイン画像とサブ画像を入れ替えることができる。また、4つの画像が表示される領域の下部には、ステータス表示領域5199が設けられており、当該領域に手術に関するステータス(例えば、手術の経過時間や、患者の身体情報等)が適宜表示され得る。
 コントロール領域5201には、発信元の装置に対して操作を行うためのGUI(Graphical User Interface)部品が表示される発信元操作領域5203と、出力先の装置に対して操作を行うためのGUI部品が表示される出力先操作領域5205と、が設けられる。図示する例では、発信元操作領域5203には、撮像機能を有する発信元の装置におけるカメラに対して各種の操作(パン、チルト及びズーム)を行うためのGUI部品が設けられている。ユーザは、これらのGUI部品を適宜選択することにより、発信元の装置におけるカメラの動作を操作することができる。なお、図示は省略しているが、発信元選択領域5195において選択されている発信元の装置がレコーダである場合(すなわち、プレビュー領域5197において、レコーダに過去に記録された画像が表示されている場合)には、発信元操作領域5203には、当該画像の再生、再生停止、巻き戻し、早送り等の操作を行うためのGUI部品が設けられ得る。
 また、出力先操作領域5205には、出力先の装置である表示装置における表示に対する各種の操作(スワップ、フリップ、色調整、コントラスト調整、2D表示と3D表示の切り替え)を行うためのGUI部品が設けられている。ユーザは、これらのGUI部品を適宜選択することにより、表示装置における表示を操作することができる。
 なお、集中操作パネル5111に表示される操作画面は図示する例に限定されず、ユーザは、集中操作パネル5111を介して、手術室システム5100に備えられる、視聴覚コントローラ5107及び手術室制御装置5109によって制御され得る各装置に対する操作入力が可能であってよい。
 以上、本実施形態に係る本実施形態に係る手術室制御装置5109について説明した。続いて、本実施形態に係るシステム構成例について説明する。
 図10は、本開示の第4の実施形態に係るシステム構成例を示す図である。上述したように、本実施形態に係る制御装置20は、手術室制御装置5109として実現される。この際、本実施形態に係る制御装置20は、制御部220および通信部240を備えてよい。
 すなわち、本実施形態に係る制御装置20は、制御機能を有する。この際、本実施形態に係る制御装置20は、CCU5153として実現される画像処理装置40が備える煙検出部210および画像処理部230、排煙デバイス30が備える排煙部310を統合して制御してよい。具体的には、本実施形態に係る制御装置20は、画像処理装置40により煙が検出されたことに基づいて、画像処理装置40に煙除去処理を実行させてよい。また、制御装置20は、画像処理装置40により算出された煙量に基づいて、排煙デバイス30による実排煙を制御することができる。
 なお、本実施形態に係る各構成の機能や、制御装置20や画像処理装置40の動作の流れについては、第1の実施形態と実質的に同一であるため、詳細な説明は省略する。
 <7.ハードウェア構成例>
 次に、本開示の一実施形態に係る制御装置20のハードウェア構成例について説明する。図11は、本開示の一実施形態に係る制御装置20のハードウェア構成例を示すブロック図である。図11を参照すると、制御装置20は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インタフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
 (CPU871)
 CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
 (ROM872、RAM873)
 ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
 (ホストバス874、ブリッジ875、外部バス876、インタフェース877)
 CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インタフェース877を介して種々の構成要素と接続される。
 (入力装置878)
 入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
 (出力装置879)
 出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカー、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
 (ストレージ880)
 ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
 (ドライブ881)
 ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
 (リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
 (接続ポート882)
 接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
 (外部接続機器902)
 外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
 (通信装置883)
 通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
 <8.まとめ>
 以上説明したように、本開示の一実施形態に係る制御装置20は、術中に撮像された生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御する機能を有する。この際、本開示の一実施形態に係る制御装置20は、煙が検出されたことに基づいて、少なくとも上記の煙除去処理を実行させることができる。また、制御装置20は、算出された煙量に基づいて実排煙の実行や実行強度を制御することができる。係る構成によれば、組織の焼灼により発生する煙の影響をより効果的に排除することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 撮像された生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御する制御部、
 を備え、
 前記制御部は、前記煙が検出されたことに基づいて、少なくとも前記煙除去処理を実行させる、
制御装置。
(2)
 前記制御部は、算出された前記煙の量に基づいて、前記実排煙の実行を制御する、
前記(1)に記載の制御装置。
(3)
 前記制御部は、前記煙の量が閾値以上であること場合に、前記実排煙を実行させる、
前記(2)に記載の制御装置。
(4)
 前記制御部は、前記煙の量に基づいて、前記実排煙の強度を制御する、
前記(2)または(3)に記載の制御装置。
(5)
 前記制御部は、前記煙除去処理の実行後に前記煙が検出されたことに基づいて、前記実排煙の実行を制御する、
前記(1)~(4)のいずれかに記載の制御装置。
(6)
 前記煙は、前記生体内画像に基づいて検出される、
前記(1)~(5)のいずれかに記載の制御装置。
(7)
 前記煙は、前記生体内画像の彩度に基づいて検出される、
前記(1)~(6)のいずれかに記載の制御装置。
(8)
 前記煙の量は、前記生体内画像において煙が検出された領域に基づいて算出される、
 をさらに備える、
前記(1)~(7)のいずれかに記載の制御装置。
(9)
 前記煙を検出する煙検出部、
 をさらに備える、
前記(1)~(8)のいずれかに記載の制御装置。
(10)
 前記煙検出部は、前記煙の量を算出する、
前記(9)に記載の制御装置。
(11)
 前記制御部による制御に基づいて前記生体内画像に対する前記煙除去処理を実行する画像処理部、
 をさらに備える、
前記(1)~(10)のいずれかに記載の制御装置。
(12)
 前記制御部による制御に基づいて前記煙の実排煙を実行する排煙部、
 をさらに備える、
前記(1)~(11)のいずれかに記載の制御装置。
(13)
 前記生体内画像を撮像する撮像部、
 をさらに備える、
前記(1)~(12)のいずれかに記載の制御装置。
(14)
 前記制御装置は、手術室制御装置である、
前記(1)~(13)のいずれかに記載の制御装置。
(15)
 前記生体内画像は、内視鏡により撮像された画像である、
前記(1)~(14)のいずれかに記載の制御装置。
(16)
 前記制御装置は、排煙装置である、
前記(1)~(13)のいずれかに記載の制御装置。
(17)
 プロセッサが、撮像された生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御することと、
 を含み、
 前記制御することは、前記煙が検出されたことに基づいて、少なくとも前記煙除去処理を実行させること、
 さらに含む、
制御方法。
(18)
 生体内画像を撮像する内視鏡と、
 前記生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御する制御装置と、
 前記制御装置による制御に基づいて前記煙の実排煙を実行する排煙装置と、
 を備え、
 前記制御装置は、前記煙を検出したことに基づいて、少なくとも前記煙除去処理を実行する、
制御システム。
(19)
 コンピュータを、
 撮像された生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御する制御部、
 を備え、
 前記制御部は、前記煙が検出されたことに基づいて、少なくとも前記煙除去処理を実行させる、
 制御装置、
として機能させるためのプログラム。
 10   撮像デバイス
 110  撮像部
 120  通信部
 20   制御装置
 210  煙検出部
 220  制御部
 230  画像処理部
 240  通信部
 30   排煙デバイス
 310  排煙部
 320  通信部
 40   画像処理装置
 5109 手術室制御装置
 5115 内視鏡
 5153 CCU
 5165 排煙装置

Claims (19)

  1.  術中に撮像された生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御する制御部、
     を備え、
     前記制御部は、前記煙が検出されたことに基づいて、少なくとも前記煙除去処理を実行させる、
    制御装置。
  2.  前記制御部は、算出された前記煙の量に基づいて、前記実排煙の実行を制御する、
    請求項1に記載の制御装置。
  3.  前記制御部は、前記煙の量が閾値以上である場合に、前記実排煙を実行させる、
    請求項2に記載の制御装置。
  4.  前記制御部は、前記煙の量に基づいて、前記実排煙の強度を制御する、
    請求項2に記載の制御装置。
  5.  前記制御部は、前記煙除去処理の実行後に前記煙が検出されたことに基づいて、前記実排煙の実行を制御する、
    請求項1に記載の制御装置。
  6.  前記煙は、前記生体内画像に基づいて検出される、
    請求項1に記載の制御装置。
  7.  前記煙は、前記生体内画像の彩度に基づいて検出される、
    請求項1に記載の制御装置。
  8.  前記煙の量は、前記生体内画像において煙が検出された領域に基づいて算出される、
     をさらに備える、
    請求項1に記載の制御装置。
  9.  前記煙を検出する煙検出部、
     をさらに備える、
    請求項1に記載の制御装置。
  10.  前記煙検出部は、前記煙の量を算出する、
    請求項9に記載の制御装置。
  11.  前記制御部による制御に基づいて前記生体内画像に対する前記煙除去処理を実行する画像処理部、
     をさらに備える、
    請求項1に記載の制御装置。
  12.  前記制御部による制御に基づいて前記煙の実排煙を実行する排煙部、
     をさらに備える、
    請求項1に記載の制御装置。
  13.  前記生体内画像を撮像する撮像部、
     をさらに備える、
    請求項1に記載の制御装置。
  14.  前記制御装置は、手術室制御装置である、
    請求項1に記載の制御装置。
  15.  前記生体内画像は、内視鏡により撮像された画像である、
    請求項1に記載の制御装置。
  16.  前記制御装置は、排煙装置である、
    請求項1に記載の制御装置。
  17.  プロセッサが、術中に撮像された生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御することと、
     を含み、
     前記制御することは、前記煙が検出されたことに基づいて、少なくとも前記煙除去処理を実行させること、
     さらに含む、
    制御方法。
  18.  術中に生体内画像を撮像する内視鏡と、
     前記生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御する制御装置と、
     前記制御装置による制御に基づいて前記煙の実排煙を実行する排煙装置と、
     を備え、
     前記制御装置は、前記煙を検出したことに基づいて、少なくとも前記煙除去処理を実行する、
    制御システム。
  19.  コンピュータを、
     術中に撮像された生体内画像に対する煙除去処理と生体内における煙の実排煙とを制御する制御部、
     を備え、
     前記制御部は、前記煙が検出されたことに基づいて、少なくとも前記煙除去処理を実行させる、
     制御装置、
    として機能させるためのプログラム。
PCT/JP2018/006226 2017-03-22 2018-02-21 制御装置、制御方法、制御システム、およびプログラム WO2018173606A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/494,039 US11672516B2 (en) 2017-03-22 2018-02-21 Control apparatus, control method, and control system
DE112018001478.9T DE112018001478T5 (de) 2017-03-22 2018-02-21 Steuervorrichtung, steuerverfahren, steuersystem und programm

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017056090A JP2018157917A (ja) 2017-03-22 2017-03-22 制御装置、制御方法、制御システム、およびプログラム
JP2017-056090 2017-03-22

Publications (1)

Publication Number Publication Date
WO2018173606A1 true WO2018173606A1 (ja) 2018-09-27

Family

ID=63584384

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/006226 WO2018173606A1 (ja) 2017-03-22 2018-02-21 制御装置、制御方法、制御システム、およびプログラム

Country Status (4)

Country Link
US (1) US11672516B2 (ja)
JP (1) JP2018157917A (ja)
DE (1) DE112018001478T5 (ja)
WO (1) WO2018173606A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11071560B2 (en) 2017-10-30 2021-07-27 Cilag Gmbh International Surgical clip applier comprising adaptive control in response to a strain gauge circuit
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11013563B2 (en) * 2017-12-28 2021-05-25 Ethicon Llc Drive arrangements for robot-assisted surgical platforms
US11589915B2 (en) 2018-03-08 2023-02-28 Cilag Gmbh International In-the-jaw classifier based on a model
EP3852701A4 (en) * 2018-09-18 2022-06-22 Johnson & Johnson Surgical Vision, Inc. CATARACT SURGERY LIVE VIDEO IN A PHACOEMULSIFICATION SURGICAL SYSTEM
US20220405900A1 (en) * 2019-11-14 2022-12-22 Sony Group Corporation Information processing device, generation method, and generation program
EP4016163A4 (en) 2019-11-14 2022-10-12 Sony Group Corporation INFORMATION PROCESSING APPARATUS, GENERATION METHOD AND GENERATION PROGRAM
US20220346855A1 (en) * 2021-04-30 2022-11-03 Sony Group Corporation Electronic device and method for smoke level estimation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11309156A (ja) * 1998-04-27 1999-11-09 Olympus Optical Co Ltd 排煙装置
JP2013039224A (ja) * 2011-08-16 2013-02-28 Fujifilm Corp 煙検出方法および装置並びに画像撮像装置
JP2016158886A (ja) * 2015-03-02 2016-09-05 パナソニックIpマネジメント株式会社 内視鏡及び内視鏡システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11309156A (ja) * 1998-04-27 1999-11-09 Olympus Optical Co Ltd 排煙装置
JP2013039224A (ja) * 2011-08-16 2013-02-28 Fujifilm Corp 煙検出方法および装置並びに画像撮像装置
JP2016158886A (ja) * 2015-03-02 2016-09-05 パナソニックIpマネジメント株式会社 内視鏡及び内視鏡システム

Also Published As

Publication number Publication date
DE112018001478T5 (de) 2019-12-05
US11672516B2 (en) 2023-06-13
JP2018157917A (ja) 2018-10-11
US20200022687A1 (en) 2020-01-23

Similar Documents

Publication Publication Date Title
WO2018173606A1 (ja) 制御装置、制御方法、制御システム、およびプログラム
JP7095679B2 (ja) 情報処理装置、支援システム及び情報処理方法
US10904437B2 (en) Control apparatus and control method
JP7088185B2 (ja) 医療用システム、医療用装置および制御方法
JP2018108173A (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
WO2019155931A1 (ja) 手術システム、画像処理装置及び画像処理方法
JP7363767B2 (ja) 画像処理装置と画像処理方法およびプログラム
JP2021003531A (ja) 手術支援システム、制御装置及び制御方法
WO2018221068A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2006223374A (ja) 手術支援装置、手術支援システム及び手術支援方法
US11883120B2 (en) Medical observation system, medical signal processing device, and medical signal processing device driving method
WO2018173605A1 (ja) 手術用制御装置、制御方法、手術システム、およびプログラム
JP7063321B2 (ja) 撮像装置、映像信号処理装置および映像信号処理方法
WO2018216538A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US11910105B2 (en) Video processing using a blended tone curve characteristic
WO2021010193A1 (ja) 医療機器制御システム、制御装置、および制御方法
WO2020009127A1 (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法
JP2021108793A (ja) 医療画像生成装置、医療画像生成方法および医療画像生成プログラム
WO2020246181A1 (ja) 画像処理装置、画像処理方法、プログラム
WO2022113811A1 (ja) 手術システム、手術用制御装置、制御方法、及び、プログラム
JP2004357789A (ja) 被検体観察システム及び被検体観察システムの制御方法
JP7456385B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP7444074B2 (ja) 撮像装置、撮像制御装置、撮像方法
JP2005211534A (ja) 内視鏡手術システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18772137

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 18772137

Country of ref document: EP

Kind code of ref document: A1