WO2022219878A1 - 医療用観察システム、医療用画像処理方法及び情報処理装置 - Google Patents

医療用観察システム、医療用画像処理方法及び情報処理装置 Download PDF

Info

Publication number
WO2022219878A1
WO2022219878A1 PCT/JP2022/003288 JP2022003288W WO2022219878A1 WO 2022219878 A1 WO2022219878 A1 WO 2022219878A1 JP 2022003288 W JP2022003288 W JP 2022003288W WO 2022219878 A1 WO2022219878 A1 WO 2022219878A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
depth
unit
image
imaging
Prior art date
Application number
PCT/JP2022/003288
Other languages
English (en)
French (fr)
Inventor
和人 横山
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2022219878A1 publication Critical patent/WO2022219878A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes

Definitions

  • the present disclosure relates to a medical observation system, a medical image processing method, and an information processing device.
  • Patent Document 1 discloses a method of autonomously controlling an arm that supports an endoscope based on images captured during surgery.
  • One aspect of the present disclosure aims to estimate the depth of an object in an image captured during surgery.
  • a medical observation system calculates a distance from an imaging unit to an object based on image information of an object imaged by an imaging unit during surgery, information about the object, and imaging conditions of the imaging unit.
  • a medical image processing method includes preparing information about an object, capturing an image during surgery by an imaging unit, image information of the captured object, information about the object, and image capturing. estimating a depth representing the distance from the imaging unit to the object based on imaging conditions of the unit, wherein the information about the object is the actual size of the object. include.
  • An information processing device expresses a distance from an imaging unit to an object based on image information of an object imaged by the imaging unit during surgery, information about the object, and imaging conditions of the imaging unit.
  • FIG. 1 is a diagram showing an example of a schematic configuration of an endoscopic surgery system
  • FIG. 3 is a block diagram showing an example of functional configurations of a camera head and a CCU
  • FIG. BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows the example of schematic structure of the medical observation system which concerns on embodiment.
  • FIG. 4 is a diagram schematically showing an example of an image; It is a figure which shows the example of prior information typically.
  • FIG. 4 is a diagram schematically showing an example of parameter information;
  • FIG. 10 is a diagram schematically showing an example of image recognition results;
  • FIG. 4 is a diagram schematically showing an example of estimating the depth of an object;
  • FIG. 4 is a diagram schematically showing an example of generating prior information;
  • FIG. 4 is a diagram schematically showing functions and processing related to posture calculation of a surgical instrument; It is a figure which shows the example of prior information typically.
  • FIG. 10 is a diagram schematically showing an example of image recognition results;
  • FIG. 4 is a diagram schematically showing functions and processing related to updating a three-dimensional map of an organ;
  • FIG. 4 is a diagram schematically showing an example of functions and processes related to autonomous control;
  • FIG. 4 is a diagram schematically showing an example of functions and processes related to autonomous control;
  • FIG. 4 is a diagram schematically showing an example of functions and processes related to autonomous control;
  • FIG. 4 is a diagram schematically showing an example of functions and processing related to interference avoidance control;
  • FIG. 4 is a diagram schematically showing an example of functions and processing related to interference avoidance control;
  • FIG. 10 is a diagram schematically showing an example of functions and processes related to joint use with other depth estimation units;
  • 4 is a flow chart showing an example of processing executed in the medical observation system; It is
  • Endoscope system 2 Embodiments of Medical Observation System 2.1 First Embodiment 2.2 Second Embodiment 2.3 Third Embodiment 2.4 Fourth Embodiment 2.5 Fifth Embodiment 2.6 Sixth Embodiment 3 .
  • FIG. 1 is a diagram showing an example of a schematic configuration of an endoscopic surgery system 5000 to which technology according to the present disclosure can be applied.
  • FIG. 1 shows a surgeon 5067 performing surgery on a patient 5071 on a patient bed 5069 using an endoscopic surgery system 5000 .
  • an endoscopic surgery system 5000 includes an endoscope 5001, other surgical tools (medical instruments) 5017, and a support arm device ( medical arm) 5027 and a cart 5037 loaded with various devices for endoscopic surgery. Details of the endoscopic surgery system 5000 will be sequentially described below.
  • Surgical tools In endoscopic surgery, instead of cutting the abdominal wall to open the abdomen, for example, a plurality of tubular opening instruments called trocars 5025a to 5025d are punctured into the abdominal wall. Then, the barrel 5003 of the endoscope 5001 and other surgical instruments 5017 are inserted into the body cavity (abdominal cavity) of the patient 5071 from the trocars 5025a to 5025d. In the example shown in FIG. 1 , a pneumoperitoneum tube 5019 , an energy treatment instrument 5021 and forceps 5023 are inserted into the body cavity of a patient 5071 as other surgical instruments 5017 .
  • the energy treatment tool 5021 is a treatment tool that performs tissue incision and ablation, blood vessel sealing, or the like, using high-frequency current or ultrasonic vibration.
  • the surgical tool 5017 shown in FIG. 1 is merely an example, and examples of the surgical tool 5017 include various surgical tools generally used in endoscopic surgery, such as a forceps and retractors.
  • the support arm device 5027 has an arm portion 5031 extending from the base portion 5029 .
  • the arm section 5031 is composed of joint sections 5033a, 5033b, and 5033c and links 5035a and 5035b, and is driven under the control of the arm control device 5045.
  • the arm portion 5031 supports the endoscope 5001 and controls the position and attitude of the endoscope 5001 . As a result, stable position fixation of the endoscope 5001 can be achieved.
  • An endoscope 5001 is composed of a lens barrel 5003 having a predetermined length from its distal end inserted into a body cavity of a patient 5071 and a camera head 5005 connected to the proximal end of the lens barrel 5003 .
  • an endoscope 5001 configured as a so-called rigid scope having a rigid barrel 5003 is illustrated, but the endoscope 5001 is configured as a so-called flexible scope having a flexible barrel 5003. and is not particularly limited in the embodiments of the present disclosure.
  • the tip of the lens barrel 5003 is provided with an opening into which the objective lens is fitted.
  • a light source device 5043 is connected to the endoscope 5001, and light generated by the light source device 5043 is guided to the tip of the lens barrel 5003 by a light guide extending inside the lens barrel 5003, and passes through the objective lens. through the body cavity of the patient 5071 toward the object to be observed.
  • the endoscope 5001 may be a forward viewing scope or a perspective scope, and is not particularly limited.
  • An optical system and an imaging element are provided inside the camera head 5005, and the reflected light (observation light) from the observation target is focused on the imaging element by the optical system.
  • the imaging element photoelectrically converts the observation light to generate an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image signal is transmitted to a camera control unit (CCU: Camera Control Unit) 5039 as RAW data.
  • the camera head 5005 has a function of adjusting the magnification and focal length by appropriately driving the optical system.
  • the camera head 5005 may be provided with a plurality of imaging elements, for example, in order to support stereoscopic vision (3D display).
  • a plurality of relay optical systems are provided inside the lens barrel 5003 in order to guide the observation light to each of the plurality of imaging elements.
  • the display device 5041 displays an image based on an image signal subjected to image processing by the CCU 5039 under the control of the CCU 5039 .
  • the endoscope 5001 is compatible with high-resolution imaging such as 4K (horizontal pixel number 3840 ⁇ vertical pixel number 2160) or 8K (horizontal pixel number 7680 ⁇ vertical pixel number 4320), and/or If the display device 5041 is compatible with 3D display, a device capable of high-resolution display and/or a device capable of 3D display is used as the display device 5041 . Further, a plurality of display devices 5041 having different resolutions and sizes may be provided depending on the application.
  • an image of the surgical site within the body cavity of the patient 5071 captured by the endoscope 5001 is displayed on the display device 5041 .
  • the surgeon 5067 can use the energy treatment tool 5021 and the forceps 5023 to perform treatment such as excision of the affected area while viewing the image of the surgical area displayed on the display device 5041 in real time.
  • the pneumoperitoneum tube 5019, the energy treatment instrument 5021, and the forceps 5023 may be supported by the surgeon 5067, an assistant, or the like during surgery.
  • the CCU 5039 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and can centrally control the operations of the endoscope 5001 and the display device 5041. Specifically, the CCU 5039 subjects the image signal received from the camera head 5005 to various image processing such as development processing (demosaicing) for displaying an image based on the image signal. Furthermore, the CCU 5039 provides the image signal subjected to the image processing to the display device 5041 . Also, the CCU 5039 transmits a control signal to the camera head 5005 to control its driving.
  • the control signal can include information about imaging conditions such as magnification and focal length.
  • the light source device 5043 is composed of a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 5001 with irradiation light for photographing the surgical site.
  • a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 5001 with irradiation light for photographing the surgical site.
  • the arm control device 5045 is composed of a processor such as a CPU, for example, and operates according to a predetermined program to control the driving of the arm portion 5031 of the support arm device 5027 according to a predetermined control method.
  • the input device 5047 is an input interface for the endoscopic surgery system 5000.
  • the surgeon 5067 can input various information and instructions to the endoscopic surgery system 5000 via the input device 5047 .
  • the surgeon 5067 inputs various types of information regarding surgery, such as the patient's physical information and information about surgical techniques, via the input device 5047 .
  • the surgeon 5067 gives an instruction to drive the arm unit 5031 via the input device 5047, or an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 5001. , an instruction to drive the energy treatment instrument 5021, and the like.
  • the type of the input device 5047 is not limited, and the input device 5047 may be various known input devices.
  • the input device 5047 for example, a mouse, keyboard, touch panel, switch, footswitch 5057, and/or lever can be applied.
  • the touch panel may be provided on the display surface of the display device 5041 .
  • the input device 5047 may be a device that is attached to a part of the body of the surgeon 5067, such as a glasses-type wearable device or an HMD (Head Mounted Display). In this case, various inputs are performed according to the gestures and line of sight of the surgeon 5067 detected by these devices.
  • the input device 5047 can include a camera capable of detecting the movement of the surgeon 5067, and various inputs are performed according to the gestures and line of sight of the surgeon 5067 detected from the image captured by the camera. may be broken.
  • the input device 5047 can include a microphone capable of picking up the voice of the surgeon 5067, and various voice inputs may be made through the microphone.
  • the input device 5047 is configured to be capable of inputting various kinds of information in a non-contact manner, a user belonging to a particularly clean area (for example, a surgeon 5067) can operate a device belonging to an unclean area without contact. becomes possible.
  • a surgeon 5067 can operate the device without taking his/her hand off the surgical tool, the convenience of the surgeon 5067 is improved.
  • the treatment instrument control device 5049 controls driving of the energy treatment instrument 5021 for tissue cauterization, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 5051 is inserted into the body cavity through the pneumoperitoneum tube 5019 in order to inflate the body cavity of the patient 5071 for the purpose of securing the visual field of the endoscope 5001 and securing the working space of the surgeon 5067 . send gas.
  • the recorder 5053 is a device capable of recording various types of information regarding surgery.
  • the printer 5055 is a device capable of printing various types of information regarding surgery in various formats such as text, images, and graphs.
  • the support arm device 5027 has a base portion 5029 as a base and an arm portion 5031 extending from the base portion 5029 .
  • the arm 5031 is composed of a plurality of joints 5033a, 5033b, 5033c and a plurality of links 5035a, 5035b connected by the joints 5033b. Therefore, the configuration of the arm portion 5031 is simplified for illustration. Specifically, the shape, number and arrangement of the joints 5033a to 5033c and the links 5035a and 5035b, the direction of the rotation axis of the joints 5033a to 5033c, etc.
  • the arm 5031 has a desired degree of freedom.
  • the arm portion 5031 may preferably be configured to have 6 or more degrees of freedom.
  • the endoscope 5001 can be freely moved within the movable range of the arm portion 5031, so that the barrel 5003 of the endoscope 5001 can be inserted into the body cavity of the patient 5071 from a desired direction. be possible.
  • the joints 5033a to 5033c are provided with actuators, and the joints 5033a to 5033c are configured to be rotatable around a predetermined rotation axis by driving the actuators.
  • the arm control device 5045 By controlling the driving of the actuator by the arm control device 5045, the rotation angles of the joints 5033a to 5033c are controlled, and the driving of the arm 5031 is controlled. Thereby, control of the position and attitude of the endoscope 5001 can be realized.
  • the arm control device 5045 can control the driving of the arm section 5031 by various known control methods such as force control or position control.
  • the arm control device 5045 appropriately controls the driving of the arm section 5031 according to the operation input.
  • the position and orientation of the scope 5001 may be controlled.
  • the arm portion 5031 may be operated by a so-called master-slave method.
  • the arm section 5031 (slave) can be remotely controlled by the surgeon 5067 via the input device 5047 (master console) installed at a location remote from or within the operating room.
  • the endoscope 5001 was supported by a doctor called a scopist.
  • the use of the support arm device 5027 makes it possible to more reliably fix the position of the endoscope 5001 without manual intervention, so that the image of the surgical site is can be stably obtained, and the operation can be performed smoothly.
  • the arm control device 5045 does not necessarily have to be provided on the cart 5037. Also, the arm control device 5045 does not necessarily have to be one device. For example, the arm control device 5045 may be provided at each joint portion 5033a to 5033c of the arm portion 5031 of the support arm device 5027, and the arm portion 5031 is driven by the cooperation of the plurality of arm control devices 5045. Control may be implemented.
  • the light source device 5043 supplies irradiation light to the endoscope 5001 when imaging the surgical site.
  • the light source device 5043 is composed of, for example, a white light source composed of an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high precision. can be adjusted.
  • the laser light from each of the RGB laser light sources is irradiated to the observation object in a time division manner, and by controlling the driving of the imaging device of the camera head 5005 in synchronization with the irradiation timing, each of the RGB can be handled. It is also possible to pick up images by time division. According to this method, a color image can be obtained without providing a color filter in the imaging element.
  • the driving of the light source device 5043 may be controlled so as to change the intensity of the output light every predetermined time.
  • the drive of the imaging device of the camera head 5005 in synchronism with the timing of the change in the intensity of the light to acquire images in a time division manner and synthesizing the images, a high dynamic A range of images can be generated.
  • the light source device 5043 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, the wavelength dependence of light absorption in body tissues is used to irradiate a narrower band of light than the irradiation light (i.e., white light) used during normal observation, thereby observing the mucosal surface layer.
  • narrow band imaging in which a predetermined tissue such as a blood vessel is imaged with high contrast, is performed.
  • fluorescence observation may be performed in which an image is obtained from fluorescence generated by irradiation with excitation light.
  • Fluorescence observation involves irradiating a body tissue with excitation light and observing fluorescence from the body tissue (autofluorescence observation), or locally injecting a reagent such as indocyanine green (ICG) into the body tissue and Then, an excitation light corresponding to the fluorescence wavelength of the reagent is irradiated to obtain a fluorescence image.
  • the light source device 5043 can be configured to supply narrow band light and/or excitation light corresponding to such special light observation.
  • FIG. 2 is a block diagram showing an example of functional configurations of the camera head 5005 and CCU 5039 shown in FIG.
  • the camera head 5005 has, as its functions, a lens unit 5007, an imaging section 5009, a drive section 5011, a communication section 5013, and a camera head control section 5015.
  • the CCU 5039 also has a communication unit 5059, an image processing unit 5061, and a control unit 5063 as its functions.
  • the camera head 5005 and the CCU 5039 are connected by a transmission cable 5065 so as to be bidirectionally communicable.
  • a lens unit 5007 is an optical system provided at a connection portion with the lens barrel 5003 . Observation light captured from the tip of the lens barrel 5003 is guided to the camera head 5005 and enters the lens unit 5007 .
  • a lens unit 5007 is configured by combining a plurality of lenses including a zoom lens and a focus lens. The optical characteristics of the lens unit 5007 are adjusted so that the observation light is condensed on the light receiving surface of the imaging element of the imaging unit 5009 . Also, the zoom lens and the focus lens are configured so that their positions on the optical axis can be moved in order to adjust the magnification and focus of the captured image.
  • the image pickup unit 5009 is configured by an image pickup device, and is arranged behind the lens unit 5007 . Observation light that has passed through the lens unit 5007 is condensed on the light receiving surface of the image sensor, and an image signal corresponding to the observation image is generated by photoelectric conversion. An image signal generated by the imaging unit 5009 is provided to the communication unit 5013 .
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the imaging element for example, one capable of capturing a high-resolution image of 4K or higher may be used.
  • the imaging device that constitutes the imaging unit 5009 may be configured to have a pair of imaging devices for respectively acquiring right-eye and left-eye image signals corresponding to 3D display (stereo system).
  • the 3D display enables the surgeon 5067 to more accurately grasp the depth of the living tissue (organ) in the surgical site and to grasp the distance to the living tissue.
  • a plurality of systems of lens units 5007 may be provided corresponding to each imaging element.
  • the imaging unit 5009 does not necessarily have to be provided in the camera head 5005 .
  • the imaging unit 5009 may be provided inside the lens barrel 5003 immediately after the objective lens.
  • the drive unit 5011 is configured by an actuator, and moves the zoom lens and focus lens of the lens unit 5007 by a predetermined distance along the optical axis under control from the camera head control unit 5015 . Thereby, the magnification and focus of the image captured by the imaging unit 5009 can be appropriately adjusted.
  • the communication unit 5013 is configured by a communication device for transmitting and receiving various information to and from the CCU 5039.
  • the communication unit 5013 transmits the image signal obtained from the imaging unit 5009 as RAW data to the CCU 5039 via the transmission cable 5065 .
  • the image signal is preferably transmitted by optical communication in order to display the captured image of the surgical site with low latency.
  • the surgeon 5067 performs the operation while observing the condition of the affected area using the captured images. Therefore, for safer and more reliable surgery, moving images of the operated area are displayed in real time as much as possible. This is because it is required.
  • the communication unit 5013 is provided with a photoelectric conversion module that converts an electrical signal into an optical signal. After the image signal is converted into an optical signal by the photoelectric conversion module, it is transmitted to the CCU 5039 via the transmission cable 5065 .
  • the communication unit 5013 receives a control signal for controlling driving of the camera head 5005 from the CCU 5039 .
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of capturing, and/or information to specify the magnification and focus of the captured image, etc. Information about imaging conditions is included.
  • the communication section 5013 provides the received control signal to the camera head control section 5015 .
  • the control signal from the CCU 5039 may also be transmitted by optical communication.
  • the communication unit 5013 is provided with a photoelectric conversion module that converts an optical signal into an electrical signal, and the control signal is provided to the camera head control unit 5015 after being converted into an electrical signal by the photoelectric conversion module.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus are automatically set by the control unit 5063 of the CCU 5039 based on the acquired image signal. That is, the endoscope 5001 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • AE Auto Exposure
  • AF Automatic Focus
  • AWB Automatic White Balance
  • the camera head control unit 5015 controls driving of the camera head 5005 based on the control signal from the CCU 5039 received via the communication unit 5013. For example, the camera head control unit 5015 controls the driving of the imaging element of the imaging unit 5009 based on the information specifying the frame rate of the captured image and/or the information specifying the exposure during imaging. . Also, for example, the camera head control unit 5015 appropriately moves the zoom lens and the focus lens of the lens unit 5007 via the driving unit 5011 based on information specifying the magnification and focus of the captured image.
  • the camera head control unit 5015 may also have a function of storing information for identifying the lens barrel 5003 and camera head 5005 .
  • the camera head 5005 can be made resistant to autoclave sterilization.
  • a communication unit 5059 is configured by a communication device for transmitting and receiving various information to and from the camera head 5005 .
  • the communication unit 5059 receives image signals transmitted from the camera head 5005 via the transmission cable 5065 .
  • the image signal can be preferably transmitted by optical communication.
  • the communication unit 5059 is provided with a photoelectric conversion module for converting an optical signal into an electrical signal for optical communication.
  • the communication unit 5059 provides the image processing unit 5061 with the image signal converted into the electric signal.
  • the communication unit 5059 transmits a control signal for controlling driving of the camera head 5005 to the camera head 5005 .
  • the control signal may also be transmitted by optical communication.
  • the image processing unit 5061 performs various types of image processing on the image signal, which is RAW data transmitted from the camera head 5005 .
  • the image processing includes, for example, development processing, image quality improvement processing (band enhancement processing, super resolution processing, NR (Noise Reduction) processing, and/or camera shake correction processing, etc.), and/or enlargement processing (electronic zoom processing) and other known signal processing.
  • image processing unit 5061 performs detection processing on the image signal for performing AE, AF, and AWB.
  • the image processing unit 5061 is configured by a processor such as a CPU or GPU, and the above-described image processing and detection processing can be performed by the processor operating according to a predetermined program. Note that when the image processing unit 5061 is composed of a plurality of GPUs, the image processing unit 5061 appropriately divides information related to image signals and performs image processing in parallel by the plurality of GPUs.
  • the control unit 5063 performs various controls related to the imaging of the surgical site by the endoscope 5001 and the display of the captured image. For example, the control unit 5063 generates control signals for controlling driving of the camera head 5005 . At this time, if the imaging conditions are input by the surgeon 5067 , the control unit 5063 generates a control signal based on the input by the surgeon 5067 . Alternatively, when the endoscope 5001 is equipped with the AE function, the AF function, and the AWB function, the control unit 5063 optimizes the exposure value, focal length, and A white balance is calculated appropriately and a control signal is generated.
  • control unit 5063 causes the display device 5041 to display an image of the surgical site based on the image signal subjected to image processing by the image processing unit 5061 .
  • the control unit 5063 recognizes various objects in the surgical site image using various image recognition techniques. For example, the control unit 5063 detects the shape, color, and the like of the edges of objects included in the surgical site image, thereby detecting surgical tools such as forceps, specific body parts, bleeding, mist when using the energy treatment tool 5021, and the like. can recognize.
  • the control unit 5063 uses the recognition result to superimpose and display various surgical assistance information on the image of the surgical site. By superimposing and displaying the surgery support information and presenting it to the surgeon 5067, it becomes possible to proceed with the surgery more safely and reliably.
  • a transmission cable 5065 connecting the camera head 5005 and the CCU 5039 is an electrical signal cable compatible with electrical signal communication, an optical fiber compatible with optical communication, or a composite cable of these.
  • wired communication is performed using the transmission cable 5065, but communication between the camera head 5005 and the CCU 5039 may be performed wirelessly.
  • the communication between the two is performed wirelessly, it is not necessary to lay the transmission cable 5065 in the operating room, so the movement of the medical staff (for example, the surgeon 5067) in the operating room is hindered by the transmission cable 5065. the situation can be resolved.
  • the imaging unit 5009 of the endoscope 500 more specifically, for example, the distal end of the endoscope 5001 (the distal end of the lens barrel 5003), surgical instruments, organs, etc. It is desirable to grasp (acquire, etc.) the position of the object in order to avoid interference with the object, and to adjust the zoom appropriately.
  • the position of an object including a surgical tool is important and basic information for controlling the arm section 5031 that supports the endoscope 5001, and it is desirable to continuously and stably grasp the position in real time.
  • One of the means for grasping the position of the object is measuring, estimating, etc. the depth, which is the distance (relative distance) from the endoscope 5001 to the object.
  • Direct depth measurement techniques include TOF (Time Of Flight) sensors and lidar (LiDAR: Light Detection And Ranging).
  • TOF Time Of Flight
  • LiDAR Light Detection And Ranging
  • SfM Structure from Motion
  • SfM Structure from Motion
  • noise is likely to appear in the depth recognition result, which may adversely affect the control of the arm section 5031 that supports the endoscope 5001 .
  • the disclosed technology utilizes prior information including the actual size of the target in addition to the image of the target, so that even a general endoscope can be used stably. Allows depth estimation. Various controls using the depth estimation results are also possible.
  • a general two-dimensional image recognition technique can be used for image recognition.
  • the endoscope may be a monocular endoscope.
  • FIG. 3 is a diagram showing an example of a schematic configuration of a medical observation system according to an embodiment.
  • a medical observation system applied to the above-described endoscopic surgery system 5000 (an example of a medical observation system) will be described below.
  • the illustrated medical viewing system 100 includes a camera head 5005 and CCU 5039 , a controller 1 and a support arm device 5027 .
  • the control unit 1 includes an information processing device 10 and an arm control device 5045.
  • the control unit 1 is also a medical image processing device that processes medical images using the information processing device 10 and reflects the processing results in the arm control of the arm control device 5045 .
  • the arm control device 5045 includes an autonomous control section 80, which will be explained again later with reference to FIG. 14 onwards.
  • the information processing device 10 includes an information acquisition unit 20, an image recognition processing unit 30, and a depth estimation unit 40. A part or all of the functions of the information processing device 10 may be provided in the CCU 5039 . Intraoperative images (medical images) continuously captured by the endoscope 5001 , more specifically by the imaging unit 5009 of the camera head 5005 , are input to the information processing apparatus 10 . The image will be described with reference to FIG. 4 as well.
  • FIG. 4 is a diagram schematically showing an example of an image.
  • a surgical tool 5017 and an organ 5071a of a patient 5071 are schematically illustrated as objects in the image.
  • the illustrated surgical instrument 5017 is a scissors forceps and can correspond to the forceps 5023 previously described.
  • imaging may mean including “shooting”.
  • imaging and/or “video” will simply be referred to as “imaging” unless otherwise specified.
  • imaging may be read as “shooting”.
  • image may include “video”.
  • image and/or “video” are simply referred to as “image” unless otherwise specified.
  • image may be read as "video”.
  • the information acquisition unit 20 acquires and stores various information necessary for the processing executed in the information processing device 10 . Some examples of information obtained are described.
  • the advance information 20a is information about the object prepared in advance, and more specifically includes the actual size of the object.
  • the actual size indicates the physical (geometric) size in the actual three-dimensional space, not the size on the screen. Examples of units are mm (millimeters), m (meters), and the like.
  • the prior information 20a may include the sizes of various parts of the surgical instrument 5017 (for example, the tip part, etc.).
  • An example of the distal end portion of the surgical instrument 5017 is the root portion of forceps (the root portion of scissors and does not operate).
  • the thickness of the shaft that constitutes such a portion may be included in the prior information 20a.
  • the prior information 20a may include sizes of various parts of the organ 5071a.
  • the prior information 20a may include the size of a part whose features are likely to be detected in image recognition (for example, the thickness of a blood vessel). If the shape of the organ 5071a can be approximated by a known shape (for example, a circular shape, an elliptical shape, etc.), the size of the known shape may be included in the prior information 20a as the size of the organ 5071a.
  • the advance information 20a will be described with reference to FIG. 5 as well.
  • FIG. 5 is a diagram schematically showing an example of prior information.
  • the illustrated prior information 20a includes an actual size L11 of the surgical tool 5017 and an actual size L21 of the surgical tool 5017.
  • size L11 is the actual thickness of the shaft of the tip portion of the forceps.
  • size L21 is the actual length of the long axis of the elliptical shape that approximates the shape of the organ 5071a.
  • the parameter information 20b is information including imaging conditions of the imaging unit 5009 of the camera head 5005 .
  • the imaging conditions include imaging parameter information (for example, endoscope parameter information).
  • the parameter information 20b will also be described with reference to FIG.
  • FIG. 6 is a diagram schematically showing an example of parameter information.
  • the illustrated parameter information 20b includes the viewing angle ⁇ , the focal length f, and the image plane size p.
  • the viewing angle .theta. and the focal length f are as their names indicate, and therefore detailed descriptions thereof are omitted.
  • the image plane corresponds to the projection plane of the imaging device in front of the endoscope 5001 .
  • the size p of the image plane corresponds to the size of its projection plane (that is, the size of the imaging device).
  • the focal length f and the image plane size p may be expressed in millimeters, meters, etc., or in pixels, etc.
  • the parameter information 20b may be fixed information, or may be information that is appropriately changed during surgery. In either case, the parameter information 20b is known information grasped based on design data of the imaging unit 5009 of the camera head 5005 or the like.
  • the image recognition processing unit 30 executes image recognition processing on the image captured by the imaging unit 5009 of the camera head 5005 .
  • the image recognition processing section 30 recognizes the size of the object in the image.
  • the size here is the size of the object on the projection plane of the imaging device described above.
  • the size may be expressed in millimeters, meters, or the like, or may be expressed in pixels, or the like.
  • Various known image recognition engines, image recognition algorithms (including trained models and the like), and the like may be used for image recognition processing.
  • General two-dimensional image recognition may be used for image recognition.
  • a recognition result by the image recognition processing unit 30 is referred to as an image recognition result 20c.
  • the image recognition result 20c is used to obtain image information of the object.
  • the image recognition result 20c can be different from the prior information 20a and the parameter information 20b in that it is information (for example, endoscopic image information) acquired in real time during surgery.
  • the image recognition result 20c will be described with reference to FIG. 7 as well.
  • FIG. 7 is a diagram schematically showing an example of image recognition results.
  • the exemplified image recognition result 20c is obtained by dividing the size D11 of the surgical tool 5017 on the projection plane of the imaging element (hereinafter sometimes simply referred to as "on the projection plane") and the size D21 of the organ 5071a on the projection plane. include.
  • the size D11 on the projection plane is the thickness of the shaft of the tip portion of the forceps on the projection plane.
  • the size D21 on the projection plane is the length on the projection plane of the major axis of the elliptical shape that approximates the shape of the internal organ 5071a.
  • the depth estimation unit 40 estimates the depth of the object based on the prior information 20a, the parameter information 20b, and the image recognition result 20c.
  • the depth of the object is the distance (relative distance) from the imaging unit 5009 of the camera head 5005 to the object. It is the distance between objects. Estimation of the depth of the object by the depth estimation unit 40 will be described with reference to FIG. 8 as well.
  • FIG. 8 is a diagram schematically showing an example of estimating the depth of an object. Distance z, focal length f, actual size L of the object, and size D of the object on the projection plane are shown as variables used in the calculations for the estimation.
  • the distance z is the depth of the object to be estimated.
  • the actual size L of the object corresponds to, for example, the size L11, the size L21, etc. described with reference to FIG. 5, and is included in the prior information 20a.
  • the focal length f is included in the parameter information 20b as described above.
  • the size D of the object on the projection plane corresponds to, for example, the sizes D11 and D21 described above with reference to FIG. 7, and is included in the image recognition result 20c.
  • the depth estimation unit 40 calculates the distance z, and estimates the calculated distance z as the depth of the object. That is, the depth estimation unit 40 multiplies the focal length f by the actual size L of the object, and divides the result by the size D of the object on the projection plane. For example, when the actual size L of the object is the size L11 in FIG. 5 and the size D of the object on the projection plane is the size D11 in FIG. Estimate z as the depth of the tip of the forceps (root of the scissors).
  • the above formula (2) can be changed as appropriate depending on how to determine the distance z and the actual size L of the object. For example, some operations (multiplication, division, addition, subtraction, etc.) may be added for correction of the distance z and/or the actual size L of the object. In any case, the estimation of the depth of the object by the depth estimator 40 may involve multiplying the focal length f by the actual size L of the object and dividing by the size D of the object on the projection plane.
  • the information acquisition unit 20 is configured to be able to input information about the target object, more specifically, information about the prior information 20a (here, also referred to as "input information").
  • the information acquisition unit 20 may generate the prior information 20a based on the input information that has been input. Generation of the prior information 20a by the information acquisition unit 20 will be described with reference to FIG. 9 as well.
  • FIG. 9 is a diagram schematically showing an example of generating prior information.
  • Examples of the input information include "geometrical information of the surgical instrument”, “manufacturer/model number information of the surgical instrument”, “surgical information”, and "CT scan information”.
  • the input information "geometric information of the surgical tool” is the actual size of the surgical tool 5017 and corresponds to the prior information 20a itself. Such input information may be directly input by a user operation or the like.
  • the input information "manufacturer/model number information of the surgical tool” is information such as the manufacturer of the surgical tool 5017 and the model number of the surgical tool 5017.
  • the information acquisition unit 20 obtains information such as the size of the surgical instrument 5017 from a website or the like (in this example, shown as an external server) that provides information such as the size of the surgical instrument 5017 using the manufacturer, model number, etc. as search keywords. get.
  • the input information "surgery information" is information including the surgical technique to be performed, information on the surgical instrument 5017 to be used, and the like. If the surgical information does not directly include the geometric information of the surgical instrument 5017, the information acquiring unit 20 estimates the size of the surgical instrument 5017 based on the surgical procedure, the thickness of the trocars 5025a to 5025d, and the like. Alternatively, the geometrical information of the surgical instrument may be acquired through a Web search or the like.
  • CT scan information is geometric information inside the body cavity of the patient 5071 obtained by CT scanning.
  • the CT scan information may include geometric information of an object whose size does not change during surgery, such as the diameter of a major blood vessel and the non-treatment organ 5071a.
  • the information acquisition unit 20 may generate the advance information 20a based on the "default information (market price, etc.)" when the input information is insufficient.
  • the default information (market price, etc.) is information indicating common sense (general) sizes of the surgical instrument 5017, the organ 5071a, and the like.
  • the depth estimation unit 40 can perform depth estimation of the object. It can be put to use.
  • the depth of the object in the image is estimated by using the prior information 20a including the actual size of the object in particular.
  • General two-dimensional image recognition is sufficient for image recognition, and processing is more stable than when special image recognition such as stereo images is used, for example. Parallax calculation from stereo images is unnecessary.
  • it can be applied to a monocular endoscope that is widely used in endoscopic surgery.
  • SfM robot operation, mode switching, and the like disclosed in Patent Document 2 are not required. Since there is no mode switching, the depth of the object can be continuously and stably estimated in real time.
  • the method may also be applied to a stereo endoscope, in which case depth estimation is possible even if one camera cannot be used due to dirt or the like.
  • depth estimation is possible even if one camera cannot be used due to dirt or the like.
  • important information required for autonomous control of the endoscope 5001 for example, FIGS. 14 to 17 described later
  • control for example, FIGS. 15 to 17 to be described later
  • FIG. 10 is a diagram schematically showing functions and processing related to posture calculation of a surgical instrument.
  • the control unit 1 includes a surgical tool three-dimensional posture calculation unit 60 .
  • the surgical instrument three-dimensional posture calculation unit 60 may be a component of the information processing device 10 of the control unit 1 .
  • the surgical tool three-dimensional posture calculation unit 60 calculates the three-dimensional posture of the surgical tool 5017 based on the prior information 20 a and the depth of the surgical tool 5017 estimated by the depth estimation unit 40 .
  • the a priori information 20a used in this case includes the actual size of the two parts of the same surgical instrument 5017 and the actual distance between them.
  • the image recognition result 20c recognizes the sizes of two portions of the same surgical tool 5017 on the projection plane. Such advance information 20a and image recognition result 20c will be described with reference to FIGS. 11 and 12 as well.
  • FIG. 11 is a diagram schematically showing an example of prior information.
  • the illustrated prior information 20a includes an actual size L11 of the surgical tool 5017, an actual size L12 of the surgical tool 5017, and an actual distance L13.
  • the size L11 is the actual size of the first portion of the surgical instrument 5017, and more specifically, the actual thickness of the shaft at the tip of the forceps.
  • Size L12 is the actual size of the second portion of surgical instrument 5017, and more specifically the actual thickness of the shaft at a known distance from the first portion.
  • the second portion is provided with markings M along the circumference of the shaft for easy image recognition.
  • the distance L13 is the known distance mentioned above, ie the actual distance between the first part and the second part.
  • FIG. 12 is a diagram schematically showing an example of image recognition results.
  • the illustrated image recognition result 20c includes a size D11 of the surgical tool 5017 on the projection plane and a size D12 of the surgical tool 5017 on the projection plane.
  • the size D11 is the size of the first portion of the surgical instrument 5017 on the projection plane, more specifically, the thickness of the shaft of the distal end portion of the forceps on the projection plane.
  • the size D12 is the size of the second portion of the surgical instrument 5017 on the projection plane. part) thickness.
  • the depth estimation unit 40 estimates the depth of the first portion and the depth of the second portion of the surgical tool 5017 . Based on the principles described so far, the depths of the first portion and the second portion of the surgical instrument 5017 are continuously and stably estimated in real time.
  • the surgical tool three-dimensional posture calculation unit 60 is based on the depth of the first portion and the depth of the second portion of the surgical tool 5017 estimated by the depth estimation unit 40, the prior information 20a, and the image recognition result 20c. , the three-dimensional posture of the surgical instrument 5017 with respect to the imaging unit 5009 is calculated. From the depth of the two parts of the surgical tool 5017, the actual distance between those parts, etc., the three-dimensional posture of the surgical tool is calculated. The three-dimensional posture of the surgical tool 5017 calculated by the surgical tool three-dimensional posture calculation unit 60 is expressed using, for example, Euler angles, quaternions, and the like.
  • the three-dimensional posture of the surgical instrument 5017 can be grasped continuously and stably in real time.
  • a three-dimensional map of the organ 5071a may be updated. This will be described with reference to FIG. 13A and 13B are diagrams schematically showing functions and processes related to updating of a three-dimensional map of an organ.
  • the controller 1 includes an organ three-dimensional position calculator 70 and a three-dimensional map updater 71 .
  • the organ three-dimensional position calculator 70 and the three-dimensional map updater 71 may be components of the information processing device 10 .
  • a three-dimensional map 71a of the organ 5071a in the body cavity of the patient 5071 is generated in advance by CT scan CTS.
  • the three-dimensional map 71a is acquired and stored by the information acquisition unit 20, for example.
  • the depth estimation unit 40 estimates the depth of the organ 5071a based on the prior information 20a, the parameter information 20b, and the image recognition result 20c, as described above.
  • the organ three-dimensional position calculation unit 70 calculates the three-dimensional position of the organ 5071a in the body cavity. Calculate position.
  • the endoscope arm position/orientation information 70a is information on the position and orientation of the arm section 5031 that supports the endoscope 5001, and is given from the arm control device 5045 or the like, for example.
  • the endoscope arm position/orientation information 70 a can also be said to be imaging unit position/orientation information indicating the position and orientation of the imaging unit 5009 .
  • the image recognition result 20c may also include the position of the organ 5071a on the projection plane.
  • the estimated depth of the organ 5071a, the position of the organ 5071a on the projection plane recognized in the image recognition result 20c, and the like are used to determine the three-dimensional depth of the organ 5071a. Position is calculated.
  • the 3D map update unit 71 collates the 3D position of the organ 5071a calculated by the organ 3D position calculation unit 70 with the 3D map 71a, and updates the 3D map 71a as necessary. For example, the 3D map 71a is updated so as to match the 3D position of the organ 5071a calculated by the organ 3D position calculator .
  • the three-dimensional map 71a can be used for appropriate trajectory planning of the operation of the endoscope 5001 inside the body cavity.
  • FIG. 14 and 15 are diagrams schematically showing examples of functions and processes related to autonomous control.
  • the arm section 5031 is controlled so that the depth of the object estimated by the depth estimation section 40 approaches the target depth (target value).
  • the image recognition result of the image recognition processing unit 30 includes the image recognition result 20d in addition to the image recognition result 20c described so far.
  • the image recognition result 20d contains various information that can be used for autonomous control. Examples of the image recognition result 20d are the position and type of the surgical tool, the position and type of the organ, and the like.
  • the image recognition result 20d may also include information such as surgical scenes and actions.
  • the surgical scene indicates, for example, the current position (phase) in a series of surgical sequences.
  • the action indicates the content of the treatment, such as a peeling operation or a cutting operation using a surgical tool, for example.
  • the action time scale may be shorter than the sequence time scale.
  • the autonomous control section 80 controls the arm section 5031 via the support arm device 5027 based on the depth of the object estimated by the depth estimation section 40 and the image recognition result 20d of the image recognition processing section 30. Note that, hereinafter, the control of the arm portion 5031 by the autonomous control section 80 via the support arm device 5027 may simply be referred to as the control of the arm section 5031 by the autonomous control section 80 .
  • FIG. 14 illustrates an object target depth calculation unit 81 and an operation command value calculation unit 82.
  • the object target depth calculation unit 81 calculates a target depth value (target depth) of the object based on the image recognition result 20d.
  • the target depth is calculated based on, for example, the distance between the surgeon 5067 and the screen of the display device 5041, the size of the screen, the resolution, the prior information 20a of the object, and the like.
  • the target depth may be appropriately updated (corrected, etc.) according to changes in those conditions. This is because the size and composition of the object on the screen (on the image plane) that the surgeon 5067 wants to see on the screen (on the image plane) is more important in scope work than the physical numerical value of the depth itself.
  • the target object depth calculation unit 81 may calculate the target depth in accordance with a user operation by the surgeon 5067 or the like. Examples of user operations include specifying and changing the size of the target depth (making it larger or smaller than it is now, etc.).
  • the object target depth calculator 81 may provide an interface that accepts such user operations. For example, the input device 5047 described above may be used as the interface.
  • the action command value calculator 82 compares the depth of the object estimated by the depth estimator 40 with the target depth calculated by the target object depth calculator 81, and adjusts the arm controller so that they match. Calculate the operation command value to be given to the 5045.
  • the action command value is a value that specifies the position, orientation, etc. of the arm unit 5031 that supports the endoscope 5001, for example.
  • the action command value calculated by the action command value calculation unit 82 is given to the arm control device 5045, and the position, orientation, etc. of the arm unit 5031, the position of the imaging unit 5009 (of the endoscope 5001), and the like are determined according to the action command value. Attitude and the like are controlled.
  • autonomous control based on the depth of the object estimated by the depth estimation unit 40 is possible.
  • the endoscope 5001 is a monocular endoscope
  • the autonomy of the arm unit 5031 that stably and continuously estimates (recognizes) the depth of the target object in real time and provides an appropriate visual field.
  • Control robot control
  • the estimated depth of the object is the distance of the object with respect to the endoscope 5001, and is the same three-dimensional space information as the information on the position and orientation of the arm unit 5031 (for example, the endoscope arm position and orientation information 70a in FIG. 13). Therefore, there is also an advantage that the configuration of the autonomous control algorithm can be easily simplified.
  • the screen display size of the captured image of the object is controlled.
  • a target target screen size calculator 83 is also exemplified as main functional blocks related to this control.
  • the object target on-screen size calculator 83 calculates the target size (target screen size).
  • the target screen size is a target value for the screen display size of the object when the estimated depth of the object is the target depth.
  • the target screen size is calculated based on the distance between the surgeon 5067 and the screen of the display device 5041, the size of the screen, the resolution, and the like.
  • the target on-screen size may be appropriately updated (corrected, etc.) in accordance with changes in these conditions.
  • the target object target screen size calculation unit 83 may calculate the target screen size according to a user operation such as the surgeon 5067 .
  • the target target screen size calculator 83 may provide an interface that accepts such user operations.
  • the input device 5047 described above may be used as the interface.
  • the action command value calculation unit 82 calculates the action command value to be given to the arm unit 5031 based on the image recognition result 20d of the image recognition processing unit 30 and the target on-screen size calculated by the target target on-screen size calculation unit 83. to calculate For example, the action command value calculation unit 82 calculates a zoom magnification that brings the screen display size of the object closer to the target screen size, or calculates the insertion amount of the endoscope 5001 . It should be noted that although the actual depth deviates from the target depth due to changes in the amount of insertion of the endoscope 5001, such control is permissible when the field of view desired to be provided to the surgeon 5067 is the final target.
  • FIG. 16 and 17 are diagrams schematically showing an example of functions and processes related to interference avoidance control.
  • the autonomous control unit 80 controls the arm unit 5031 so as to avoid interference between the imaging unit 5009, more specifically, the tip of the lens barrel 5003 of the endoscope 5001, and the object. to control.
  • Main functional blocks related to this control include an object target depth calculation unit 81, an operation command value calculation unit 82, an object target screen size calculation unit 83, an object lower limit depth calculation unit 84 and an object upper limit screen size calculation unit 83.
  • a size calculator 85 is also illustrated.
  • the object lower limit depth calculation unit 84 calculates the allowable value (lower limit depth) that allows physical proximity between the imaging unit 5009 and the object.
  • the lower depth limit may be calculated based on, for example, the type of object.
  • the object lower limit depth calculator 84 may calculate the lower limit depth according to a user operation such as the surgeon 5067 .
  • the object lower limit depth calculator 84 may provide an interface that accepts such user operations. For example, the input device 5047 described above may be used as the interface.
  • the object upper limit screen upper size calculator 85 calculates the upper limit of the screen display size of the object based on the lower limit depth calculated by the object lower limit depth calculator 84, the prior information 20a, and the parameter information 20b. do. Based on the relationship between the screen display size of the object and the depth of the object (for example, the depth of the object becomes smaller as the size of the object on the image plane increases), etc., the upper limit size is calculated.
  • the object upper limit on-screen size calculation unit 85 may calculate the upper limit size according to a user operation such as the surgeon 5067 .
  • the object upper limit screen size calculator 85 may provide an interface that accepts such user operations. For example, the input device 5047 described above may be used as the interface.
  • the operation command value calculation unit 82 calculates the image recognition result 20d of the image recognition processing unit 30, the target object on-screen size calculated by the object target on-screen size calculation unit 83, and the object upper limit on-screen size calculation unit 85.
  • the operation command value to be given to the arm portion 5031 is calculated based on the determined upper limit size.
  • the action command value calculator 82 calculates the action command value so that the screen display size of the object does not exceed the upper limit size.
  • the action command value calculator 82 may calculate an action command value that generates a virtual repulsive force (for example, torque in the opposite direction) as the object appears larger. It can be said that it is a virtual wall for the appearance of the screen.
  • the action command value calculation unit 82 may change the weight of the magnitude of the virtual repulsive force between the left and right according to the surgical procedure, the dominant hand of the operator, and the like. For example, if the surgeon 5067 is right-handed, the movement of the right-hand forceps tends to be greater than the movement of the left-hand forceps. ), the weight of the magnitude of the virtual repulsive force (magnification during calculation, etc.) may be adjusted so as to perform scope work.
  • the profile of the surgeon's 5067 handedness, preference, etc. may be acquired by the information acquisition unit 20 before surgery.
  • the autonomous control unit 80 controls the arm unit 5031 so as to avoid interference between the imaging unit 5009 and the object, taking into consideration the three-dimensional posture of the surgical instrument 5017 as well.
  • Main functional blocks related to this control include an object target depth calculation unit 81, an operation command value calculation unit 82, and an object target on-screen size calculation unit 83, as well as a surgical tool/imaging unit shortest distance calculation unit 86 and a surgical tool
  • the imaging unit distance lower limit calculator 87 is also exemplified.
  • the surgical tool/imaging unit shortest distance calculation unit 86 determines the position of the imaging unit 5009 (for example, the distal end of the lens barrel 5003 of the endoscope 5001) based on the three-dimensional posture of the surgical tool 5017 calculated by the surgical tool three-dimensional posture calculation unit 60. part) and the surgical tool 5017 is calculated. For example, when the surgical instrument 5017 is forceps, the distance from the imaging unit 5009 to any part (one point) on the shaft of the forceps can be calculated as the shortest distance.
  • the surgical tool/imaging unit distance lower limit calculation unit 87 calculates the lower limit value (lower limit distance) of the distance between the imaging unit 5009 and the surgical tool 5017 .
  • the lower limit distance may be calculated based on, for example, the type of object.
  • the action command value calculator 82 normally calculates the action command value to be given to the arm part 5031 so as to provide an appropriate field of view. At the same time, the operation command value calculation unit 82 prevents the shortest distance calculated by the surgical tool/imaging unit shortest distance calculating unit 86 from falling below the lower limit distance calculated by the surgical tool/imaging unit distance lower limit calculation unit 87. , to correct the operation command value.
  • the motion command value calculator 82 determines the magnitude of the virtual repulsive force according to the surgical procedure, the dominant hand of the operator, and the like. You can change the weight of the left and right.
  • interference avoidance control including not only the portion of the surgical tool 5017 whose depth has been estimated, but also other portions.
  • the constituent elements of the autonomous control unit 80 shown in FIGS. 14 to 17 described above may be combined within a consistent range.
  • a configuration that does not include the target object target screen size calculation unit 83 may be adopted.
  • FIG. 18 is a diagram schematically showing an example of functions and processes related to joint use with other depth estimation units.
  • another depth estimation unit 90 can also be used.
  • Various known estimation techniques may be used by other depth estimators 90 .
  • the switching unit 91 switches between estimation of the depth of the object by the depth estimation unit 40 and estimation of the depth of the object by another depth estimation unit 90 . Switching according to the situation increases the possibility of more stable object depth estimation.
  • Another estimation method by the depth estimation unit 90 may include a method using parallax in an endoscope equipped with a stereo camera.
  • the switching unit 91 may switch so that depth estimation by the depth estimation unit 40 is performed (or continued).
  • Another estimation method of the depth estimation unit 90 may include SfM in a monocular endoscope.
  • the switching unit 91 may be switched so that depth estimation by the depth estimation unit 40 is performed.
  • the other depth estimation unit 90 is realized by a dedicated distance measuring device mounted on the endoscope 5001, if the operating conditions are no longer satisfied or if the switching unit 91 breaks down, You may switch so that depth estimation by the depth estimation part 40 may be performed.
  • the switching unit 91 may switch so that depth estimation by the depth estimation unit 40 is performed.
  • the other depth estimation unit 90 uses a trained model or the like, in order to avoid black-boxing, the reliability may be grasped in addition to the depth estimation result. .
  • the other depth estimation unit 90 and switching unit 91 may also be components of the information processing device 10 .
  • the depth estimation unit 40 described so far but also another depth estimation unit 90 by using (fusion) not only the depth estimation unit 40 described so far but also another depth estimation unit 90, the possibility of improving the depth estimation performance increases. For example, even when another depth estimation unit 90 cannot be used, the depth estimation can be stably continued by switching to the depth estimation unit 40 .
  • FIG. 19 is a flowchart showing an example of processing (medical image processing method) executed in the medical observation system. Explanations overlapping with the explanations so far will be omitted as appropriate.
  • step S1 information about the object is prepared.
  • the prior information 20a is acquired by the information acquisition unit 20 (FIG. 9) of the information processing device 10 of the control unit 1.
  • FIG. 1 is a diagrammatic representation of the prior information 20a.
  • step S2 an image is captured.
  • the imaging unit 5009 of the camera head 5005 of the medical observation system 100 captures images during surgery.
  • the captured image is input to the information processing device 10 of the control section 1 .
  • step S3 the depth of the object is estimated. Based on the prior information 20a prepared in step S1 above, the parameter information 20b, and the image recognition result 20c of the image captured in step S2 above, the depth estimation unit 40 of the information processing device 10 of the control unit 1 to estimate the depth of the object.
  • step S4 the estimation result is utilized.
  • the depth estimated by the depth estimating unit 40 of the information processing device 10 of the control unit 1 may be calculated by calculating the three-dimensional posture of the surgical tool 5017 as described above, updating the three-dimensional map of the organ 5071a, and updating the three-dimensional map of the organ 5071a. It is used for autonomous control by the depth estimating unit 90, joint use with another depth estimating unit 90, and the like.
  • FIG. 20 is a diagram showing an example of the hardware configuration of the apparatus.
  • the controller 1 described so far is implemented by, for example, a computer 1000 shown in FIG.
  • the computer 1000 has a CPU 1100, a RAM 1200, a ROM (Read Only Memory) 1300, a HDD (Hard Disk Drive) 1400, a communication interface 1500, and an input/output interface 1600. Each part of computer 1000 is connected by bus 1050 .
  • the CPU 1100 operates based on programs stored in the ROM 1300 or HDD 1400 and controls each section. For example, the CPU 1100 loads programs stored in the ROM 1300 or HDD 1400 into the RAM 1200 and executes processes corresponding to various programs.
  • the ROM 1300 stores boot programs such as the BIOS (Basic Input Output System) executed by the CPU 1100 when the computer 1000 is started, programs dependent on the hardware of the computer 1000, and the like.
  • BIOS Basic Input Output System
  • the HDD 1400 is a computer-readable recording medium that non-temporarily records programs executed by the CPU 1100 and data used by such programs.
  • the HDD 1400 is a recording medium that records programs for the medical image processing method and the information processing method according to the present disclosure, which are examples of the program data 1450 .
  • a communication interface 1500 is an interface for connecting the computer 1000 to an external network 1550 (for example, the Internet).
  • CPU 1100 receives data from another device via communication interface 1500, and transmits data generated by CPU 1100 to another device.
  • the input/output interface 1600 is an interface for connecting the input/output device 1650 and the computer 1000 .
  • the CPU 1100 receives data from input devices such as a keyboard and mouse via the input/output interface 1600 .
  • the CPU 1100 also transmits data to an output device such as a display, speaker, or printer via the input/output interface 1600 .
  • the input/output interface 1600 may function as a media interface for reading a program or the like recorded on a predetermined computer-readable recording medium.
  • Media include, for example, optical recording media such as DVD (Digital Versatile Disc) PD (Phase change rewritable Disk), magneto-optical recording media such as MO (Magneto-Optical Disk), tape media, magnetic recording media, or semiconductor memory. be.
  • the CPU 1100 of the computer 1000 implements the functions of the control unit 1 by executing a program for estimating the depth loaded on the RAM 1200.
  • the HDD 1400 may store a program for executing the processing of the control unit 1 .
  • CPU 1100 reads program data 1450 from HDD 1400 and executes it, but as another example, the program may be obtained from another device via external network 1550 .
  • the control unit 1 may be applied to a system consisting of a plurality of devices, such as cloud computing, which assumes connection to a network (or communication between devices).
  • Each of the above components may be configured using general-purpose members, or may be configured with hardware specialized for the function of each component. Such a configuration can be changed as appropriate according to the technical level of implementation.
  • the endoscope 5001 (the imaging unit 5009 thereof) was used as an example of the imaging unit that captures an image.
  • the image may be captured by an imaging unit other than the endoscope 5001 .
  • Another example of an imaging unit is a surgical microscope.
  • the medical observation system 100 uses an image of an object (for example, surgical tool 5017, organ 5071a, etc.) imaged by the imaging unit 5009 (of the endoscope 5001) during surgery. ), the information about the object, and the imaging condition of the imaging unit 5009, the control unit 1 for estimating the depth representing the distance from the imaging unit 5009 to the object, and the information about the object is It contains the actual size L of the object (prior information 20a).
  • the imaging unit may be an imaging unit other than the endoscope 5001, such as a surgical microscope.
  • the image information includes the size D of the object on the projection plane of the imaging element (image recognition result 20c), and the imaging condition includes the focal length f. Good (parameter information 20b). For example, from this information the depth of the object can be estimated.
  • estimation of the depth of the object by the depth estimation unit 40 consists of multiplying the focal length f by the actual size L of the object, A division by the object size D may be included. For example, in this way the depth of the object can be estimated (eg calculated).
  • the information about the object includes at least one of geometric information of the surgical instrument 5018, manufacturer/model number information of the surgical instrument 5017, surgical information, and CT scan information. good. For example, based on such information, information about the object can be prepared in advance.
  • the information about the object includes the actual size L (for example, size L11) of the first portion of the surgical tool 5017 and the second size. including the actual size of the portion (eg size L12) and the actual distance between the first portion and the second portion (eg distance L13), the control unit 1 determines the depth of the first portion and the The depth of the two parts may be estimated, and the three-dimensional pose of the surgical tool 5017 may be calculated based on the information about the object and the estimated depth of the first part and the depth of the second part. As a result, the three-dimensional posture of the surgical instrument 5017 can be grasped continuously and stably in real time.
  • L for example, size L11
  • the control unit 1 determines the depth of the first portion and the The depth of the two parts may be estimated, and the three-dimensional pose of the surgical tool 5017 may be calculated based on the information about the object and the estimated depth of the first part and the depth of the second part.
  • the control unit 1 controls the estimated depth of the organ 5071a, image information, and imaging unit position/orientation information indicating the position and orientation of the imaging unit 5009 (for example, endoscope arm position).
  • the three-dimensional position of the organ 5071a may be calculated, and the three-dimensional map 71a within the body cavity may be updated based on the three-dimensional position of the organ. This makes it possible to observe changes in the body cavity in real time, which cannot be obtained by preoperative CT scan CTS, and to update the three-dimensional map 71a so as to reflect the observation results.
  • the three-dimensional map 71a can be used for appropriate trajectory planning of the movement of the endoscope 5001 inside the body cavity.
  • the medical observation system 100 further includes the arm unit 5031 that holds the imaging unit 5009, and the control unit 1 controls the estimated depth of the object and the image information.
  • You may control the arm part 5031 based on.
  • the image information includes the position and/or type of the object (image recognition result 20d), and the control unit 1 causes the depth of the object estimated based on the position and/or type of the object to approach the target depth.
  • the arm portion 5031 may be controlled as follows. This enables control (for example, autonomous control) of the arm unit 5031 based on the estimated depth of the object.
  • control unit 1 may control the arm unit 5031 so that the screen display size of the captured image of the object approaches the target size. This makes it possible to directly control the appearance of the object on the screen.
  • control unit 1 may control the arm unit 5031 so that the screen display size of the object does not exceed the upper limit size.
  • arm section 5031 may be controlled to generate virtual repulsive force. This makes it possible to avoid contact between the imaging unit 5009 (for example, the tip of the lens barrel 5003 of the endoscope 5001) and the object.
  • control section 1 may control the arm section 5031 so that the shortest distance between the imaging section 5009 and the surgical instrument 5017 does not fall below the lower limit distance.
  • arm section 5031 may be controlled to generate virtual repulsive force. This enables interference avoidance control including not only the portion of the surgical tool 5017 whose depth has been estimated, but also other portions.
  • control unit 1 may further switch between estimation of the depth of the object by the control unit 1 and estimation of the depth of the object by another depth estimation unit 90 .
  • the control unit 1 may further switch between estimation of the depth of the object by the control unit 1 and estimation of the depth of the object by another depth estimation unit 90 .
  • the medical image processing method described with reference to FIG. 19 and the like is also one of the embodiments.
  • the medical image processing method includes preparing information about the object (step S1), capturing an image during surgery by the imaging unit 5009 (step S2), image information of the captured object, estimating the depth of the object from the imaging unit 5009 based on the information and the imaging conditions of the imaging unit 5009 (step S3).
  • Such a medical image processing method can also estimate the depth of an object in an image captured during surgery, as described above.
  • the information processing apparatus 10 described with reference to FIG. 3 and the like is also one of the embodiments.
  • the information processing apparatus 10 expresses the distance from the imaging unit 5009 to the object based on the image information of the object imaged by the imaging unit 5009 during surgery, the information about the object, and the imaging conditions of the imaging unit 5009. Estimate depth.
  • Such an information processing apparatus 10 can also estimate the depth of an object in an image captured during surgery, as described above.
  • the present technology can also take the following configuration.
  • the image information includes the size of the object on the projection plane of the imaging device, The imaging conditions include a focal length, The medical observation system according to (1).
  • (3) estimating the depth of the object comprises multiplying the focal length by the actual size of the object and dividing by the size of the object on the projection plane of the imaging device; The medical observation system according to (2).
  • the object includes at least one of a surgical tool and an organ, A medical observation system according to any one of (1) to (3).
  • the information about the object includes at least one of geometric information of the surgical tool, manufacturer/model number information of the surgical tool, surgical information and CT scan information, A medical observation system according to any one of (1) to (4).
  • the object includes a surgical tool, The information about the object includes the actual size of the first portion of the surgical instrument, the actual size of the second portion, and the actual distance between the first portion and the second portion.
  • the control unit estimating the depth of the first portion and the depth of the second portion; calculating a three-dimensional posture of the surgical tool based on the information about the object and the estimated depth of the first portion and the estimated depth of the second portion; A medical observation system according to any one of (1) to (5).
  • the object includes an organ, The control unit calculates the three-dimensional position of the organ based on the estimated depth of the organ, the image information, and imaging unit position/orientation information indicating the position and orientation of the imaging unit. updating a three-dimensional map within the body cavity based on the three-dimensional position; A medical observation system according to any one of (1) to (6).
  • the control unit controls the arm based on the estimated depth of the object and the image information.
  • a medical observation system according to any one of (1) to (7).
  • the image information includes the position and/or type of the object;
  • the control unit controls the arm based on the depth of the object estimated based on the position and/or type of the object and the image information.
  • the medical observation system according to (8).
  • the control unit controls the arm unit so that the screen display size of the captured image of the object approaches a target size.
  • (11) The control unit controls the arm unit so that the screen display size of the captured image of the object does not exceed an upper limit size.
  • the medical observation system according to any one of (10).
  • the object includes a surgical tool;
  • the control unit controls the arm unit so that the shortest distance between the imaging unit and the surgical tool does not fall below a lower limit distance.
  • the medical observation system according to any one of (8) to (11).
  • the control unit controls the arm unit to generate a virtual repulsive force, (8)
  • the control unit further switches between estimating the depth of the object by and estimating the depth of the object by another depth estimating unit.
  • the imaging unit is at least one of an operating microscope, A medical observation system according to any one of (1) to (14).
  • control unit 10 information processing device 20 information acquisition unit 20a prior information 20b parameter information 20c image recognition result 20d image recognition result 30 image recognition processing unit 40 depth estimation unit 60 surgical tool three-dimensional posture calculation unit 70 organ three-dimensional position calculation unit 70a Endoscope arm position/orientation information 71 3D map updating unit 71a 3D map 80 Autonomous control unit 81 Object target depth calculation unit 82 Operation command value calculation unit 83 Object target upper screen size calculation unit 84 Object lower limit depth calculation unit 85 Object upper limit screen size calculator 86 Surgical tool/imaging unit shortest distance calculator 87 Surgical tool/imaging unit distance lower limit calculator 90 Other depth estimation unit 91 Switching unit 100 Medical observation system 5000 Endoscopic surgery system 5001 Endoscope 5003 Lens barrel 5005 Camera head 5009 Imaging unit 5017 Surgical tool 5023 Forceps 5027 Support arm device 5031 Arm unit 5045 Arm control device

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)

Abstract

医療用観察システム(100)は、手術中に撮像部(5009)によって撮像された対象物(5017)の画像情報、対象物(5017)に関する情報(20a)、及び、撮像部(5009)の撮像条件に基づいて、撮像部(5009)から対象物(5017)までの距離を表すデプスを推定する制御部(1)、を備え、対象物(5017)に関する情報(20a)は、対象物(5017)の実際のサイズ(L)を含む。

Description

医療用観察システム、医療用画像処理方法及び情報処理装置
 本開示は、医療用観察システム、医療用画像処理方法及び情報処理装置に関する。
 例えば特許文献1は、手術中に撮像された画像に基づいて、内視鏡を支持するアームの自律制御を行う手法を開示する。
特開2021-13412号公報 特開2015-123201号公報
 画像中の対象物のデプスを推定する技術への要望が存在し、また、そのようなデプス推定技術には依然として改善の余地が残る。
 本開示の一側面は、手術中に撮像された画像中の対象物のデプスを推定することを目的とする。
 一側面に係る医療用観察システムは、手術中に撮像部によって撮像された対象物の画像情報、対象物に関する情報、及び、撮像部の撮像条件に基づいて、撮像部から対象物までの距離を表すデプスを推定する制御部、を備え、対象物に関する情報は、対象物の実際のサイズを含む。
 一側面に係る医療用画像処理方法は、対象物に関する情報を準備することと、撮像部によって手術中の画像を撮像することと、撮像した対象物の画像情報、対象物に関する情報、及び、撮像部の撮像条件に基づいて、撮像部から対象物までの距離を表すデプスを推定することと、を含む、医療用画像処理方法であって、対象物に関する情報は、対象物の実際のサイズを含む。
 一側面に係る情報処理装置は、手術中に撮像部によって撮像された対象物の画像情報、対象物に関する情報、及び、撮像部の撮像条件に基づいて、撮像部から対象物までの距離を表すデプスを推定する、情報処理装置であって、対象物に関する情報は、対象物の実際のサイズを含む。
内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 実施形態に係る医療用観察システムの概略構成の例を示す図である。 画像の例を模式的に示す図である。 事前情報の例を模式的に示す図である。 パラメータ情報の例を模式的に示す図である。 画像認識結果の例を模式的に示す図である。 対象物のデプスの推定の例を模式的に示す図である。 事前情報の生成の例を模式的に示す図である。 術具の姿勢計算に関する機能及び処理を模式的に示す図である。 事前情報の例を模式的に示す図である。 画像認識結果の例を模式的に示す図である。 臓器の3次元マップの更新に関する機能及び処理を模式的に示す図である。 自律制御に関する機能及び処理の例を模式的に示す図である。 自律制御に関する機能及び処理の例を模式的に示す図である。 干渉回避制御に関する機能及び処理の例を模式的に示す図である。 干渉回避制御に関する機能及び処理の例を模式的に示す図である。 他のデプス推定部との併用に関する機能及び処理の例を模式的に示す図である。 医療用観察システムにおいて実行される処理の例を示すフローチャートである。 装置のハードウェア構成の例を示す図である。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の要素には同一の符号を付することにより重複する説明を省略する。
 以下に示す項目順序に従って本開示を説明する。
  1.内視鏡システム
  2.医療用観察システムの実施形態
   2.1 第1実施形態
   2.2 第2実施形態
   2.3 第3実施形態
   2.4 第4実施形態
   2.5 第5実施形態
   2.6 第6実施形態
  3.ハードウェア構成の例
  4.効果の例
1.内視鏡手術システム
 まず、本開示の実施形態の詳細を説明する前に、図1を参照して、本開示に係る技術が適用され得る内視鏡手術システム5000の概略的な構成について説明する。図1は、本開示に係る技術が適用され得る内視鏡手術システム5000の概略的な構成の一例を示す図である。図1では、執刀医5067が、内視鏡手術システム5000を用いて、患者ベッド5069上の患者5071に手術を行っている様子が図示されている。図1に示すように、内視鏡手術システム5000は、内視鏡5001と、その他の術具(医療用器具)5017と、内視鏡(医療用観察装置)5001を支持する支持アーム装置(医療用アーム)5027と、内視鏡下手術のための各種の装置が搭載されたカート5037とを有する。以下、内視鏡手術システム5000の詳細について、順次説明する。
[術具]
 内視鏡手術では、腹壁を切って開腹する代わりに、例えば、トロッカ5025a~5025dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5025a~5025dから、内視鏡5001の鏡筒5003や、その他の術具5017が患者5071の体腔内(腹腔内)に挿入される。図1に示す例では、その他の術具5017として、気腹チューブ5019、エネルギー処置具5021及び鉗子5023が、患者5071の体腔内に挿入されている。また、エネルギー処置具5021は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図1に示す術具5017はあくまで一例であり、術具5017としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具を挙げることができる。
[支持アーム装置]
 支持アーム装置5027は、ベース部5029から延伸するアーム部5031を有する。図1に示す例では、アーム部5031は、関節部5033a、5033b、5033c、及びリンク5035a、5035bから構成されており、アーム制御装置5045からの制御により駆動される。そして、アーム部5031によって内視鏡5001が支持され、内視鏡5001の位置及び姿勢が制御される。これにより、内視鏡5001の安定的な位置の固定が実現され得る。
[内視鏡]
 内視鏡5001は、先端から所定の長さの領域が患者5071の体腔内に挿入される鏡筒5003と、鏡筒5003の基端に接続されるカメラヘッド5005とから構成される。図1に示す例では、硬性の鏡筒5003を有するいわゆる硬性鏡として構成される内視鏡5001を図示しているが、内視鏡5001は、軟性の鏡筒5003を有するいわゆる軟性鏡として構成されてもよく、本開示の実施形態においては、特に限定されるものではない。
 鏡筒5003の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5001には光源装置5043が接続されており、当該光源装置5043によって生成された光が、鏡筒5003の内部に延設されるライトガイドによって当該鏡筒の先端まで導かれ、対物レンズを介して患者5071の体腔内の観察対象に向かって照射される。なお、本開示の実施形態においては、内視鏡5001は、前方直視鏡であってもよいし、斜視鏡であってもよく、特に限定されるものではない。
 カメラヘッド5005の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5039に送信される。なお、カメラヘッド5005には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
 なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5005には撮像素子が複数設けられてもよい。この場合、鏡筒5003の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられることとなる。
[カートに搭載される各種装置]
 まず、表示装置5041は、CCU5039からの制御により、当該CCU5039によって画像処理が施された画像信号に基づく画像を表示する。内視鏡5001が、例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は、3D表示に対応したものである場合には、表示装置5041として、それぞれに対応する、高解像度の表示が可能なもの、及び/又は、3D表示可能なものが用いられる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5041が設けられていてもよい。
 また、内視鏡5001によって撮影された患者5071の体腔内の術部の画像は、当該表示装置5041に表示される。執刀医5067は、表示装置5041に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5021や鉗子5023を用いて、例えば患部を切除する等の処置を行うことができる。なお、図示を省略しているが、気腹チューブ5019、エネルギー処置具5021及び鉗子5023は、手術中に、執刀医5067又は助手等によって支持されてもよい。
 また、CCU5039は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5001及び表示装置5041の動作を統括的に制御することができる。具体的には、CCU5039は、カメラヘッド5005から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。さらに、CCU5039は、当該画像処理を施した画像信号を表示装置5041に提供する。また、CCU5039は、カメラヘッド5005に対して制御信号を送信し、その駆動を制御する。当該制御信号は、倍率や焦点距離等、撮像条件に関する情報を含むことができる。
 光源装置5043は、例えばLED(Light Emitting Diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5001に供給する。
 アーム制御装置5045は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5027のアーム部5031の駆動を制御する。
 入力装置5047は、内視鏡手術システム5000に対する入力インターフェイスである。執刀医5067は、入力装置5047を介して、内視鏡手術システム5000に対して各種の情報の入力や指示入力を行うことができる。例えば、執刀医5067は、入力装置5047を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、執刀医5067は、入力装置5047を介して、アーム部5031を駆動させる旨の指示や、内視鏡5001による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5021を駆動させる旨の指示等を入力することができる。なお、入力装置5047の種類は限定されず、入力装置5047は各種の公知の入力装置であってよい。入力装置5047としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5057、及び/又は、レバー等が適用され得る。例えば、入力装置5047としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5041の表示面上に設けられていてもよい。
 あるいは、入力装置5047は、例えば、メガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、執刀医5067の身体の一部に装着されるデバイスであってもよい。この場合、これらのデバイスによって検出される執刀医5067のジェスチャや視線に応じて、各種の入力が行われることとなる。また、入力装置5047は、執刀医5067の動きを検出可能なカメラを含むことができ、当該カメラによって撮像された画像から検出される執刀医5067のジェスチャや視線に応じて、各種の入力が行われてもよい。さらに、入力装置5047は、執刀医5067の声を収音可能なマイクロフォンを含むことができ、当該マイクロフォンを介して音声によって各種の入力が行われてもよい。このように、入力装置5047が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば執刀医5067)が、不潔域に属する機器を非接触で操作することが可能となる。また、執刀医5067は、所持している術具から手を離すことなく機器を操作することが可能となるため、執刀医5067の利便性が向上する。
 処置具制御装置5049は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5021の駆動を制御する。気腹装置5051は、内視鏡5001による視野の確保及び執刀医5067の作業空間の確保の目的で、患者5071の体腔を膨らめるために、気腹チューブ5019を介して当該体腔内にガスを送り込む。レコーダ5053は、手術に関する各種の情報を記録可能な装置である。プリンタ5055は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
[支持アーム装置(詳細構成)]
 さらに、支持アーム装置5027の詳細構成の一例について説明する。支持アーム装置5027は、基台であるベース部5029と、ベース部5029から延伸するアーム部5031とを有する。図1に示す例では、アーム部5031は、複数の関節部5033a、5033b、5033cと、関節部5033bによって連結される複数のリンク5035a、5035bとから構成されているが、図1では、簡単のため、アーム部5031の構成を簡略化して図示している。具体的には、アーム部5031が所望の自由度を有するように、関節部5033a~5033c及びリンク5035a、5035bの形状、数及び配置、並びに関節部5033a~5033cの回転軸の方向等が適宜設定され得る。例えば、アーム部5031は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5031の可動範囲内において内視鏡5001を自由に移動させることが可能になるため、所望の方向から内視鏡5001の鏡筒5003を患者5071の体腔内に挿入することが可能になる。
 関節部5033a~5033cにはアクチュエータが設けられており、関節部5033a~5033cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5045によって制御されることにより、各関節部5033a~5033cの回転角度が制御され、アーム部5031の駆動が制御される。これにより、内視鏡5001の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5045は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5031の駆動を制御することができる。
 例えば、執刀医5067が、入力装置5047(フットスイッチ5057を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5045によってアーム部5031の駆動が適宜制御され、内視鏡5001の位置及び姿勢が制御されてよい。なお、アーム部5031は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5031(スレーブ)は、手術室から離れた場所または手術室内に設置される入力装置5047(マスターコンソール)を介して執刀医5067によって遠隔操作され得る。
 ここで、一般的には、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5001が支持されていた。これに対して、本開示の実施形態においては、支持アーム装置5027を用いることにより、人手によらずに内視鏡5001の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
 なお、アーム制御装置5045は必ずしもカート5037に設けられなくてもよい。また、アーム制御装置5045は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5045は、支持アーム装置5027のアーム部5031の各関節部5033a~5033cにそれぞれ設けられてもよく、複数のアーム制御装置5045が互いに協働することにより、アーム部5031の駆動制御が実現されてもよい。
[光源装置]
 次に、光源装置5043の詳細構成の一例について説明する。光源装置5043は、内視鏡5001に術部を撮影する際の照射光を供給する。光源装置5043は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5043において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5005の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置5043は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5005の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置5043は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又は、インドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5043は、このような特殊光観察に対応した狭帯域光、及び/又は、励起光を供給可能に構成され得る。
[カメラヘッド及びCCU(詳細構成例)>
 次に、図2を参照して、カメラヘッド5005及びCCU5039の詳細構成の一例について説明する。図2は、図1に示すカメラヘッド5005及びCCU5039の機能構成の一例を示すブロック図である。
 詳細には、図2に示すように、カメラヘッド5005は、その機能として、レンズユニット5007と、撮像部5009と、駆動部5011と、通信部5013と、カメラヘッド制御部5015とを有する。また、CCU5039は、その機能として、通信部5059と、画像処理部5061と、制御部5063とを有する。そして、カメラヘッド5005とCCU5039とは、伝送ケーブル5065によって双方向に通信可能に接続されている。
 まず、カメラヘッド5005の機能構成について説明する。レンズユニット5007は、鏡筒5003との接続部に設けられる光学系である。鏡筒5003の先端から取り込まれた観察光は、カメラヘッド5005まで導光され、当該レンズユニット5007に入射する。レンズユニット5007は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット5007は、撮像部5009の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
 撮像部5009は撮像素子によって構成され、レンズユニット5007の後段に配置される。レンズユニット5007を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部5009によって生成された画像信号は、通信部5013に提供される。
 撮像部5009を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。CMOS以外の撮像素子の例は、CCD(Charge Coupled Device)タイプのイメージセンサである。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、執刀医5067は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
 また、撮像部5009を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい(ステレオ方式)。3D表示が行われることにより、執刀医5067は術部における生体組織(臓器)の奥行きをより正確に把握することや、生体組織までの距離を把握することが可能になる。なお、撮像部5009が多板式で構成される場合には、各撮像素子に対応して、レンズユニット5007も複数系統設けられてもよい。
 また、撮像部5009は、必ずしもカメラヘッド5005に設けられなくてもよい。例えば、撮像部5009は、鏡筒5003の内部に、対物レンズの直後に設けられてもよい。
 駆動部5011は、アクチュエータによって構成され、カメラヘッド制御部5015からの制御により、レンズユニット5007のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部5009による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部5013は、CCU5039との間で各種の情報を送受信するための通信装置によって構成される。通信部5013は、撮像部5009から得た画像信号をRAWデータとして伝送ケーブル5065を介してCCU5039に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。手術の際には、執刀医5067が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部5013には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル5065を介してCCU5039に送信される。
 また、通信部5013は、CCU5039から、カメラヘッド5005の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、及び/又は、撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部5013は、受信した制御信号をカメラヘッド制御部5015に提供する。なお、CCU5039からの制御信号も、光通信によって伝送されてもよい。この場合、通信部5013には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部5015に提供される。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU5039の制御部5063によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡5001に搭載される。
 カメラヘッド制御部5015は、通信部5013を介して受信したCCU5039からの制御信号に基づいて、カメラヘッド5005の駆動を制御する。例えば、カメラヘッド制御部5015は、撮像画像のフレームレートを指定する旨の情報、及び/又は、撮像時の露光を指定する旨の情報に基づいて、撮像部5009の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部5015は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部5011を介してレンズユニット5007のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部5015は、さらに、鏡筒5003やカメラヘッド5005を識別するための情報を記憶する機能を有していてもよい。
 なお、レンズユニット5007や撮像部5009等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド5005について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
 次に、CCU5039の機能構成について説明する。通信部5059は、カメラヘッド5005との間で各種の情報を送受信するための通信装置によって構成される。通信部5059は、カメラヘッド5005から、伝送ケーブル5065を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部5059には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部5059は、電気信号に変換した画像信号を画像処理部5061に提供する。
 また、通信部5059は、カメラヘッド5005に対して、カメラヘッド5005の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
 画像処理部5061は、カメラヘッド5005から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise Reduction)処理、及び/又は、手ブレ補正処理等)、及び/又は、拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部5061は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
 画像処理部5061は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部5061が複数のGPUによって構成される場合には、画像処理部5061は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
 制御部5063は、内視鏡5001による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部5063は、カメラヘッド5005の駆動を制御するための制御信号を生成する。この際、撮像条件が執刀医5067によって入力されている場合には、制御部5063は、当該執刀医5067による入力に基づいて制御信号を生成する。あるいは、内視鏡5001にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部5063は、画像処理部5061による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
 また、制御部5063は、画像処理部5061によって画像処理が施された画像信号に基づいて、術部の画像を表示装置5041に表示させる。この際、制御部5063は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部5063は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具5021使用時のミスト等を認識することができる。制御部5063は、表示装置5041に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、執刀医5067に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
 カメラヘッド5005及びCCU5039を接続する伝送ケーブル5065は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又は、これらの複合ケーブルである。
 ここで、図示する例においては、伝送ケーブル5065を用いて有線で通信が行われているものとしていたが、カメラヘッド5005とCCU5039との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル5065を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフ(例えば、執刀医5067)の移動が当該伝送ケーブル5065によって妨げられる事態が解消され得る。
 上述のような内視鏡手術システム5000においては、内視鏡5001の撮像部5009、より具体的には内視鏡5001の例えば先端部(鏡筒5003の先端部)と、術具、臓器等の対象物との干渉回避、適切なズーム調整等のために、対象物の位置を把握(取得等)することが望ましい。また、術具を含む対象物の位置は、内視鏡5001を支持するアーム部5031の制御に重要で基本的な情報であり、連続的且つ安定的にリアルタイムで把握されることが望ましい。
 対象物の位置の把握するための手段の一つは、内視鏡5001から対象物までの距離(相対距離)であるデプスの測定、推定等である。直接的なデプス測定技術としては、TOF(Time Of Flight)センサ及びライダー(LiDAR:Light Detection And Ranging)等がある。しかしながら、これらの技術は、内視鏡5001の構造的制約、滅菌対応等の観点から使用が困難である。単眼でのデプス推定方法としては、SfM(Structure from Motion)があるが、内視鏡5001を動かす必要があり、適切な視野の確保のために不要な動作が求められることがある。ステレオ内視鏡の視差を利用する方法もあるが、デプス認識結果にノイズが出やすく、内視鏡5001を支持するアーム部5031の制御に悪影響を及ぼす可能性がある。
 上述のような課題の少なくとも一部が、開示される技術によって対処される。詳細は後述するが、開示される技術は、対象物の画像に加えて、対象物の実際のサイズを含む事前情報も活用することにより、例えば一般的な内視鏡であっても安定的なデプス推定を可能にする。デプス推定結果を活用したさまざまな制御等も可能になる。画像認識には一般的な2次元画像認識技術を用いることができる。内視鏡は単眼内視鏡であってもよい。
2.医療用観察システムの実施形態
2.1 第1実施形態
 図3は、実施形態に係る医療用観察システムの概略構成の例を示す図である。以下では、上述の内視鏡手術システム5000(医療用観察システムの一例)に適用される場合の医療観察システムについて説明する。例示される医療用観察システム100は、カメラヘッド5005及びCCU5039と、制御部1と、支持アーム装置5027とを含む。
 制御部1は、情報処理装置10と、アーム制御装置5045とを含む。制御部1は、情報処理装置10によって医療用画像を処理し、処理結果をアーム制御装置5045のアーム制御に反映させる医療用画像処理装置でもある。アーム制御装置5045は自律制御部80を含み、これについては後に図14以降を参照して改めて説明する。
 情報処理装置10は、情報取得部20と、画像認識処理部30と、デプス推定部40とを含む。情報処理装置10の一部又は全部の機能は、CCU5039に備えられていてもよい。情報処理装置10には、内視鏡5001、より具体的にはカメラヘッド5005の撮像部5009によって例えば連続的に撮像された手術中の画像(医療用画像)が入力される。画像について、図4も参照して説明する。
 図4は、画像の例を模式的に示す図である。画像中の対象物として、術具5017及び患者5071の臓器5071aが模式的に図示される。例示される術具5017は、はさみ鉗子であり、先に説明した鉗子5023に相当し得る。
 なお、本開示において、「撮像」は、「撮影」を含む意味であってよい。以下、とくに説明がある場合を除き、「撮像」及び/又は「映像」を、単に「撮像」という。矛盾の無い範囲において、「撮像」は、「撮影」に読み替えられてよい。また、「画像」は、「映像」を含む意味であってよい。以下、とくに説明がある場合を除き、「画像」及び/又は「映像」を、単に「画像」という。矛盾の無い範囲において、「画像」は「映像」に読み替えられてよい。
 図3に戻り、情報取得部20は、情報処理装置10において実行される処理に必要なさまざまな情報を取得したり記憶したりする。取得される情報のいくつかの例について説明する。
 情報取得部20によって取得される情報の例は、事前情報20aである。事前情報20aは、予め準備されている対象物に関する情報であり、より具体的には、対象物の実際のサイズ(大きさ)を含む。実際のサイズは、画面上等のサイズではなく、現実の3次元空間上の物理的な(幾何学的な)サイズを指し示す。単位の例は、mm(ミリメートル)、m(メートル)等である。
 対象物が術具5017の場合、事前情報20aは、術具5017のさまざまな部分(例えば先端部分等)のサイズを含んでよい。術具5017の先端部分の例は、鉗子の根本部分(はさみの根本部分であり稼働しない部分)等である。例えばそのような部分を構成するシャフトの太さ等が、事前情報20aに含まれてよい。
 対象物が臓器5071aの場合、事前情報20aは、臓器5071aのさまざまな部分のサイズを含んでよい。例えば、臓器5071aの各部分のうち、画像認識において特徴が検出されやすい部分のサイズ(例えば血管の太さ等)が、事前情報20aに含まれてよい。臓器5071aの形状が公知の形状(例えば円形形状、楕円形形状等)で近似できる場合には、その公知の形状のサイズが、臓器5071aのサイズとして事前情報20aに含まれてもよい。事前情報20aについて、図5も参照して説明する。
 図5は、事前情報の例を模式的に示す図である。例示される事前情報20aは、術具5017の実際のサイズL11と、術具5017の実際のサイズL21とを含む。この例では、サイズL11は、鉗子の先端部分のシャフトの実際の太さである。サイズL21は、臓器5071aの形状に近似する楕円形形状の長軸の実際の長さである。
 図3に戻り、情報取得部20によって取得される情報の別の例は、パラメータ情報20bである。パラメータ情報20bは、カメラヘッド5005の撮像部5009の撮像条件を含む情報である。撮像条件は、撮像のパラメータ情報(例えば内視鏡パラメータ情報)を含む。パラメータ情報20bについて、図6も参照して説明する。
 図6は、パラメータ情報の例を模式的に示す図である。例示されるパラメータ情報20bは、視野角θと、焦点距離fと、画像平面のサイズpとを含む。視野角θ及び焦点距離fは、その名称のとおりであるので、詳細な説明は行わない。画像平面は、内視鏡5001の前方における撮像素子の投影面に相当する。画像平面のサイズpは、その投影面のサイズ(すなわち撮像素子のサイズ)に相当する。焦点距離f及び画像平面のサイズpは、ミリメートル、メートル等で表されてもよいし、ピクセル(pixel)等で表されてもよい。パラメータ情報20bは、固定の情報であってもよいし、手術中に適宜変更される情報であってもよい。いずれにおいても、パラメータ情報20bは、カメラヘッド5005の撮像部5009の設計データ等に基づいて把握される既知の情報である。
 図3に戻り、画像認識処理部30は、カメラヘッド5005の撮像部5009によって撮像された画像に対して、画像認識処理を実行する。例えば、画像認識処理部30は、画像中の対象物のサイズを認識する。ここでのサイズは、上述の撮像素子の投影面上の対象物のサイズである。サイズは、ミリメートル、メートル等で表されてもよいし、ピクセル(pixel)等で表されてもよい。画像認識処理には、種々の公知の画像認識エンジン、画像認識アルゴリズム(学習済みモデル等を含む)等が用いられてよい。画像認識には、一般的な2次元画像認識が用いられてよい。画像認識処理部30による認識結果を、画像認識結果20cと称する。画像認識結果20cは、対象物の画像情報を取得するために用いられる。
 画像認識結果20cは、手術中にリアルタイムで取得される情報(例えば内視鏡映像情報)である点において、事前情報20a及びパラメータ情報20bと異なり得る。画像認識結果20cについて、図7も参照して説明する。
 図7は、画像認識結果の例を模式的に示す図である。例示される画像認識結果20cは、撮像素子の投影面上(以下、単に「投影面上」という場合もある。)の術具5017のサイズD11と、投影面上の臓器5071aのサイズD21とを含む。この例では、投影面上のサイズD11は、投影面上の鉗子の先端部分のシャフトの太さである。投影面上のサイズD21は、臓器5071aの形状に近似する楕円形形状の長軸の投影面上の長さである。
 図3に戻り、デプス推定部40は、事前情報20a、パラメータ情報20b及び画像認識結果20cに基づいて、対象物のデプスを推定する。対象物のデプスは、カメラヘッド5005の撮像部5009から対象物までの距離(相対距離)であり、より具体的には、例えば内視鏡5001の先端部(鏡筒5003の先端部)と、対象物との間の距離である。デプス推定部40による対象物のデプスの推定について、図8も参照して説明する。
 図8は、対象物のデプスの推定の例を模式的に示す図である。推定のための計算に用いられる変数として、距離z、焦点距離f、対象物の実際のサイズL、及び、投影面上の対象物のサイズDが図示される。
 距離zは、推定しようとする対象物のデプスである。対象物の実際のサイズLは、例えば先に図5を参照して説明したサイズL11、サイズL21等に相当し、事前情報20aに含まれている。焦点距離fは、先に述べたように、パラメータ情報20bに含まれている。投影面上の対象物のサイズDは、例えば先に図7を参照して説明したサイズD11、サイズD21等に相当し、画像認識結果20cに含まれている。
 図8から幾何学的に理解されるように、以下の式(1)が成立する。焦点距離fの単位と、投影面上の対象物のサイズDの単位とは、同じであるものとする。
Figure JPOXMLDOC01-appb-M000001
 例えば上記の式(1)に従って、デプス推定部40は、距離zを計算し、計算した距離zを、対象物のデプスとして推定する。すなわち、デプス推定部40は、焦点距離fと対象物の実際のサイズLとを乗算し、投影面上の対象物のサイズDで除算する。例えば、対象物の実際のサイズLが図5のサイズL11であり、投影面上の対象物のサイズDが図7のサイズD11である場合、デプス推定部40は、以下のように計算した距離zを、鉗子の先端部分(はさみの根本部分)のデプスとして推定する。
Figure JPOXMLDOC01-appb-M000002
 なお、図8から理解されるように、距離z及び対象物の実際のサイズLの定め方等に応じて、上記の式(2)は適宜変更され得る。例えば、距離z及び/又は対象物の実際のサイズLの補正等のための何らかの演算(乗算、除算、加算、減算等)が追加されてもよい。いずれにおいても、デプス推定部40による対象物のデプスの推定は、焦点距離fと対象物の実際のサイズLとの乗算、及び、投影面上の対象物のサイズDによる除算を含み得る。
 図3に戻り、再び情報取得部20について説明する。情報取得部20は、対象物に関する情報、より具体的には事前情報20aに関する情報(ここでは「入力情報」ともいう。)を入力可能に構成される。情報取得部20は、入力された入力情報に基づいて、事前情報20aを生成してもよい。情報取得部20による事前情報20aの生成について、図9も参照して説明する。
 図9は、事前情報の生成の例を模式的に示す図である。入力情報として、「術具の幾何学的な情報」、「術具のメーカー・型番情報」、「手術情報」及び「CTスキャン情報」が例示される。
 入力情報「術具の幾何学的な情報」は、術具5017の実際のサイズであり、事前情報20aそのものに相当する。このような入力情報がユーザ操作等によって直接入力されてよい。
 入力情報「術具のメーカー・型番情報」は、術具5017のメーカー、術具5017の型番等の情報である。情報取得部20は、例えばメーカー、型番等を検索キーワードとして、術具5017のサイズ等の情報を提供するWebサイト等(この例では外部サーバとして図示)から、術具5017のサイズ等の情報を取得する。
 入力情報「手術情報」は、実施する手術の術式、使用する術具5017の情報等を含む情報である。手術情報に術具5017の幾何学的な情報が直接には含まれていない場合、情報取得部20は、術式、トロッカ5025a~5025dの太さ等に基づいて術具5017のサイズを推定してもよいし、Web検索等により術具の幾何学的な情報を取得してもよい。
 入力情報「CTスキャン情報」は、CTスキャンによる患者5071の体腔内の幾何情報である。例えば、主要な血管の太さ、処置対象外の臓器5071a等、術中にサイズが変化しない対象物の幾何情報がCTスキャン情報に含まれてよい。
 また、情報取得部20は、入力情報が不足等している場合には、「デフォルト情報(相場値等)」に基づいて事前情報20aを生成してよい。デフォルト情報(相場値等)は、その術具5017、臓器5071a等の常識的な(一般的な)サイズを示す情報である。
 例えば以上のようにして、情報取得部20を介して必要な事前情報20aを予め入力したり生成ししたりすることで(準備することで)、デプス推定部40による対象物のデプス推定への活用に供することができる。
 これまで説明した制御部1によれば、とくに対象物の実際のサイズを含む事前情報20a等を用いることにより、画像中の対象物のデプスが推定される。画像認識は一般的な2次元画像認識で足り、例えばステレオ画像等の特殊な画像認識を用いる場合よりも、処理が安定化する。ステレオ画像からの視差算出等は不要である。例えば鏡視下手術で広く用いられている単眼内視鏡に適用することができる。例えば特許文献2に開示されているようなSfMのロボット動作、モード切替等も不要である。モード切替が無いので、対象物のデプスを連続的且つ安定的にリアルタイムで推定することができる。なお、ステレオ内視鏡にも適用されてよく、その場合には、例えば一方のカメラが汚れなどで使えない場合でもデプス推定が可能になる。対象物のデプスを推定することにより、例えば内視鏡5001の自律制御(例えば後述の図14~図17)に必要な重要な情報を取得できる。術具5017を画面内に適切な距離感で捉え続けるような制御(例えば後述の図15~図17)も可能になる。
 以上説明した対象物のデプス推定結果を活用するいくつかの実施形態について説明する。
2.2 第2実施形態
 術具5017の3次元姿勢が計算されてよい。これについて、図10~図12を参照して説明する。
 図10は、術具の姿勢計算に関する機能及び処理を模式的に示す図である。制御部1は、術具3次元姿勢計算部60を含む。術具3次元姿勢計算部60は、制御部1の情報処理装置10の構成要素であってよい。術具3次元姿勢計算部60は、事前情報20aと、デプス推定部40によって推定された術具5017のデプスとに基づいて、術具5017の3次元姿勢を計算する。この場合に用いられる事前情報20aは、同じ術具5017の2つの部分の実際のサイズと、それらの間の実際の距離とを含む。画像認識結果20cは、投影面上の同じ術具5017の2つの部分のサイズを認識する。このような事前情報20a及び画像認識結果20cについて、図11及び図12も参照して説明する。
 図11は、事前情報の例を模式的に示す図である。例示される事前情報20aは、術具5017の実際のサイズL11と、術具5017の実際のサイズL12と、実際の距離L13とを含む。サイズL11は、術具5017における第1の部分の実際のサイズであり、より具体的には、鉗子の先端部分のシャフトの実際の太さである。サイズL12は、術具5017における第2の部分の実際のサイズであり、より具体的には、第1の部分から既知の距離だけ離間した部分のシャフトの実際の太さである。この例では、第2の部分には、画像認識が行い易いように、マーキングMがシャフトの円周方向に沿って設けられる。距離L13は、上述の既知の距離、すなわち第1の部分と第2の部分との間の実際の距離である。
 図12は、画像認識結果の例を模式的に示す図である。例示される画像認識結果20cは、投影面上の術具5017のサイズD11と、投影面上の術具5017のサイズD12とを含む。サイズD11は、投影面上の術具5017における第1の部分のサイズであり、より具体的には、投影面上の鉗子の先端部分のシャフトの太さである。サイズD12は、投影面上の術具5017における第2の部分のサイズであり、より具体的には、投影面上の第1の部分から既知の距離だけ離間した部分(マーキングMが設けられた部分)の太さである。
 図10に戻り、デプス推定部40は、術具5017における第1の部分のデプスと、第2の部分のデプスとを推定する。これまで説明した原理により、術具5017の第1の部分及び第2の部分それぞれのデプスが連続的且つ安定的にリアルタイムで推定される。
 術具3次元姿勢計算部60は、デプス推定部40によって推定された術具5017の第1の部分のデプス及び第2の部分のデプスと、事前情報20aと、画像認識結果20cとに基づいて、撮像部5009に対する術具5017の3次元姿勢を計算する。術具5017における2つの部分のデプス、それらの部分どうしの間の実際の距離等から、術具の3次元姿勢が計算される。術具3次元姿勢計算部60によって計算された術具5017の3次元姿勢は、例えばオイラー角、クオータニオン等を用いて表される。
 このような実施形態によれば、術具5017の3次元姿勢を、連続的且つ安定的にリアルタイムで把握することができる。
2.3 第3実施形態
 臓器5071aの3次元マップが更新されてよい。これについて、図13を参照して説明する。図13は、臓器の3次元マップの更新に関する機能及び処理を模式的に示す図である。制御部1は、臓器3次元位置計算部70と、3次元マップ更新部71とを含む。臓器3次元位置計算部70及び3次元マップ更新部71は、情報処理装置10の構成要素であってよい。
 例えば手術前に、CTスキャンCTSによって予め患者5071の体腔内における臓器5071aの3次元マップ71aが生成される。3次元マップ71aは、例えば情報取得部20によって取得され記憶される。
 デプス推定部40は、これまで説明したように、事前情報20aと、パラメータ情報20bと、画像認識結果20cとに基づいて、臓器5071aのデプスを推定する。
 臓器3次元位置計算部70は、デプス推定部40によって推定された臓器5071aのデプスと、画像認識結果20cと、内視鏡アーム位置姿勢情報70aとに基づいて、体腔内における臓器5071aの3次元位置を計算する。内視鏡アーム位置姿勢情報70aは、内視鏡5001支持するアーム部5031の位置及び姿勢の情報であり、例えばアーム制御装置5045等から与えられる。内視鏡アーム位置姿勢情報70aは、撮像部5009の位置姿勢を示す撮像部位置姿勢情報ともいえる。画像認識結果20cには、投影面上の臓器5071aの位置も含まれてよい。例えば、内視鏡アーム位置姿勢情報70aを基準として、推定された臓器5071aのデプス、さらには画像認識結果20cにおいて認識された投影面上の臓器5071aの位置等に基づいて、臓器5071aの3次元位置が計算される。
 3次元マップ更新部71は、臓器3次元位置計算部70によって計算された臓器5071aの3次元位置と、3次元マップ71aとを照合し、必要に応じて3次元マップ71aを更新する。例えば、臓器3次元位置計算部70によって計算された臓器5071aの3次元位置に整合するように、3次元マップ71aが更新される。
 このような実施形態によれば、手術前のCTスキャンCTSでは得ることのできない、体腔内のリアルタイムな変化を観測し、その観測結果が反映されるように3次元マップ71aを更新することができる。例えば、体腔内での内視鏡5001の動作の適切な軌道計画等に3次元マップ71aを活用することができる。
2.4 第4実施形態
 先に図3を参照して説明したように、制御部1はアーム制御装置5045を含み、アーム制御装置5045は自律制御部80を含む。自律制御部80による自律制御について、図14及び図15を参照して説明する。図14及び図15は、自律制御に関する機能及び処理の例を模式的に示す図である。
 図14に示される例では、デプス推定部40によって推定された対象物のデプスが目標デプス(目標値)に近づくように、アーム部5031が制御される。
 画像認識処理部30の画像認識結果は、これまで説明した画像認識結果20cの他に、画像認識結果20dも含む。画像認識結果20dは、自律制御に使用することのできるさまざまな情報を含む。画像認識結果20dの例は、術具の位置、種類、臓器の位置、種類等である。画像認識結果20dは、手術シーン、アクション等の情報も含んでよい。手術シーンは、例えば、手術の一連のシーケンスにおける現時点での位置(フェーズ)等を示す。アクションは、例えば、術具による剥離操作、切離操作等、処置の内容等を示す。アクションの時間スケールは、シーケンスの時間スケールよりも短くてよい。
 自律制御部80は、デプス推定部40によって推定された対象物のデプスと、画像認識処理部30の画像認識結果20dとに基づいて、支持アーム装置5027を介してアーム部5031を制御する。なお、以降において、自律制御部80による支持アーム装置5027を介したアーム部5031の制御のことを、単に自律制御部80によるアーム部5031の制御という場合もある。自律制御部80の制御に関する主な機能ブロックとして、図14には、対象物目標デプス計算部81及び動作指令値計算部82が例示される。
 対象物目標デプス計算部81は、画像認識結果20dに基づいて、対象物のデプスの目標値(目標デプス)を計算する。目標デプスは、例えば、執刀医5067と表示装置5041の画面との距離、画面の大きさ、解像度、対象物の事前情報20a等に基づいて計算される。それらの条件の変化に合わせて、目標デプスは適宜更新(補正等)されてよい。スコープワークにおいては、デプスの物理的な数値そのものよりも、執刀医5067が画面上(画像平面上)で対象物をどれくらいの大きさや構図で見たいかが重要となるからである。
 対象物目標デプス計算部81は、執刀医5067等によるユーザ操作に応じて目標デプスを計算してもよい。ユーザ操作の例は、目標デプスの大きさの指定、変更(今よりも大きくする又は小さくする等)等である。対象物目標デプス計算部81は、そのようなユーザ操作を受け付けるインターフェイスを提供してよい。インターフェイスには、例えば先に説明した入力装置5047等が用いられてよい。
 動作指令値計算部82は、デプス推定部40によって推定された対象物のデプスと、対象物目標デプス計算部81によって計算された目標デプスとを比較し、両者が一致するように、アーム制御装置5045に与える動作指令値を計算する。動作指令値は、例えば内視鏡5001を支持するアーム部5031の位置、姿勢等を指定する値である。動作指令値計算部82によって計算された動作指令値がアーム制御装置5045に与えられ、動作指令値に従って、アーム部5031の位置、姿勢等、ひいては撮像部5009の(内視鏡5001の)位置、姿勢等が制御される。
 このような実施形態によれば、デプス推定部40によって推定された対象物のデプスに基づく自律制御が可能になる。例えば内視鏡5001が単眼内視鏡の場合であっても、安定的且つ連続的に、しかもリアルタイムで対象物のデプスを推定(認識)し、適切な視野提供等を行うアーム部5031の自律制御(ロボット制御)が可能になる。推定される対象物のデプスが内視鏡5001に対する対象物の距離であり、アーム部5031の位置姿勢に関する情報(例えば図13の内視鏡アーム位置姿勢情報70a)と同じ3次元空間の情報であるので、自律制御アルゴリズムの構成をシンプルにしやすいといったメリットもある。
 さらに図15に示される例では、対象物の撮像画像の画面表示サイズが制御される。この制御に関する主な機能ブロックとして、対象物目標デプス計算部81及び動作指令値計算部82の他に、対象物目標画面上サイズ計算部83も例示される。
 対象物目標画面上サイズ計算部83は、対象物目標デプス計算部81によって計算された目標デプスと、事前情報20aと、パラメータ情報20bとに基づいて、画面表示される対象物の目標サイズ(目標画面上サイズ)を計算する。目標画面上サイズは、推定された対象物のデプスが目標デプスであるときの、対象物の画面表示サイズの目標値である。目標画面上サイズは、執刀医5067と表示装置5041の画面との距離、画面の大きさ、解像度等に基づいて計算される。それらの条件の変化に合わせて、目標画面上サイズは適宜更新(補正等)されてよい。
 対象物目標画面上サイズ計算部83は、執刀医5067等のユーザ操作に応じて目標画面上サイズを計算してもよい。対象物目標画面上サイズ計算部83は、そのようなユーザ操作を受け付けるインターフェイスを提供してよい。インターフェイスには、例えば先に説明した入力装置5047等が用いられてよい。
 動作指令値計算部82は、画像認識処理部30の画像認識結果20dと、対象物目標画面上サイズ計算部83によって計算された目標画面上サイズとに基づいて、アーム部5031に与える動作指令値を計算する。例えば、動作指令値計算部82は、対象物の画面表示サイズを目標画面上サイズに近づけるようなズーム倍率を計算したり、内視鏡5001の挿入量を計算したりする。なお、内視鏡5001の挿入量の変化によって実際のデプスが目標デプスから離れることになるが、執刀医5067に提供したい視野を最終目標とした場合にはそのような制御も許容され得る。
 このような実施形態によれば、画面上の対象物のサイズ(見え方等)を直接制御することができる。例えば、最終的に執刀医5067に提供したい視野の観点で、アーム制御装置5045への動作指令値の調整を容易に行えるようになる。
2.5 第5実施形態
 干渉回避制御が自律制御に含まれてもよい。これについて、図16及び図17を参照して説明する。図16及び図17は、干渉回避制御に関する機能及び処理の例を模式的に示す図である。
 図16に示される例では、自律制御部80は、撮像部5009、より具体的には内視鏡5001の例えば鏡筒5003の先端部と対象物との干渉を回避するように、アーム部5031を制御する。この制御に関する主な機能ブロックとして、対象物目標デプス計算部81、動作指令値計算部82及び対象物目標画面上サイズ計算部83の他に、対象物下限デプス計算部84及び対象物上限画面上サイズ計算部85も例示される。
 対象物下限デプス計算部84は、撮像部5009と対象物との物理的な接近を許容するその許容値(下限デプス)を計算する。下限デプスは、例えば、対象物の種類等に基づいて計算されてよい。対象物下限デプス計算部84は、執刀医5067等のユーザ操作に応じて下限デプスを計算してもよい。対象物下限デプス計算部84は、そのようなユーザ操作を受け付けるインターフェイスを提供してよい。インターフェイスには、例えば先に説明した入力装置5047等が用いられてよい。
 対象物上限画面上サイズ計算部85は、対象物下限デプス計算部84によって計算された下限デプスと、事前情報20aと、パラメータ情報20bとに基づいて、対象物の画面表示サイズの上限サイズを計算する。対象物の画面表示サイズとその対象物のデプスとの間の関係性(例えば画像平面上での対象物のサイズが大きくなるにつれてその対象物のデプスが小さくなる等)等に基づいて、上限サイズが計算される。対象物上限画面上サイズ計算部85は、執刀医5067等のユーザ操作に応じて上限サイズを計算してもよい。対象物上限画面上サイズ計算部85は、そのようなユーザ操作を受け付けるインターフェイスを提供してよい。インターフェイスには、例えば先に説明した入力装置5047等が用いられてよい。
 動作指令値計算部82は、画像認識処理部30の画像認識結果20dと、対象物目標画面上サイズ計算部83によって計算された目標画面上サイズと、対象物上限画面上サイズ計算部85によって計算された上限サイズとに基づいて、アーム部5031に与える動作指令値を計算する。具体的に、動作指令値計算部82は、対象物の画面表示サイズが上限サイズを上回らないように、動作指令値を計算する。例えば、動作指令値計算部82は、対象物が大きく見えるにつれて、仮想的な斥力(例えば逆方向のトルク等)を発生させるような動作指令値を計算してよい。画面の見え方に対するバーチャルウォールともいえる。
 左右の術具の両方が画面内に見える場合、動作指令値計算部82は、術式、術者の利き手等に応じて、仮想的な斥力の大きさの重みを左右で変えてもよい。例えば、執刀医5067が右利きの場合には、右手鉗子の動作が左手鉗子の動作よりも大きくなりやすいため、相対的に、左手鉗子よりも対象物からの距離を確保して(距離を置いて)スコープワークするように、仮想的な斥力の大きさの重み(計算時の倍率等)を調整してよい。手術前に執刀医5067の利き手、好み等のプロファイルが情報取得部20によって取得されてよい。
 このような実施形態によれば、安定的且つ連続的にリアルタイムで対象物のデプスを推定し、適切な視野提供等を行いつつ、対象物との接触を回避する制御も行える。
 また、図17に示される例では、自律制御部80は、術具5017の3次元姿勢も考慮して、撮像部5009と対象物との干渉を回避するように、アーム部5031を制御する。この制御に関する主な機能ブロックとして、対象物目標デプス計算部81、動作指令値計算部82及び対象物目標画面上サイズ計算部83の他に、術具・撮像部最短距離計算部86及び術具・撮像部距離下限計算部87も例示される。
 術具・撮像部最短距離計算部86は、術具3次元姿勢計算部60によって計算された術具5017の3次元姿勢に基づいて、撮像部5009(例えば内視鏡5001の鏡筒5003の先端部)と、術具5017との間の最短距離を計算する。例えば、術具5017が鉗子である場合、撮像部5009から鉗子のシャフト上のいずれかの部分(1点)までの距離が、最短距離として計算され得る。
 術具・撮像部距離下限計算部87は、撮像部5009と術具5017との間の距離の下限値(下限距離)を計算する。下限距離は、例えば、対象物の種類等に基づいて計算されてよい。
 動作指令値計算部82は、通常は、適切な視野を提供するようにアーム部5031に与える動作指令値を計算する。それとともに、動作指令値計算部82は、術具・撮像部最短距離計算部86によって計算された最短距離が、術具・撮像部距離下限計算部87によって計算された下限距離を下回らないように、動作指令値を補正する。
 なお、先の説明と同様に、左右の術具の両方が画面内に見える場合には、動作指令値計算部82は、術式、術者の利き手等に応じて、仮想的な斥力の大きさの重みを左右で変えてもよい。
 このような実施形態によれば、術具5017においてデプスが推定された部分だけでなく、他の部分も含めた干渉回避制御が可能になる。
 なお、以上説明した図14~図17に示される自律制御部80の各構成要素は、矛盾の無い範囲において組み合わされてよい。例えば、図17に示される自律制御部80において、対象物目標画面上サイズ計算部83を備えない構成が採用されてもよい。
2.6 第6実施形態
 他のデプス推定部が併用されてもよい。これについて、図18を参照して説明する。図18は、他のデプス推定部との併用に関する機能及び処理の例を模式的に示す図である。
 これまで説明したデプス推定部40に加えて、他のデプス推定部90も利用可能である。種々の公知の推定手法が、他のデプス推定部90によって用いられてよい。切替部91は、デプス推定部40による対象物のデプスの推定と、他のデプス推定部90による対象物のデプスの推定とを切り替える。状況に応じた切り替えにより、対象物のデプス推定がより安定化する可能性が高まる。
 他のデプス推定部90による推定手法は、ステレオカメラが搭載された内視鏡における視差を用いた手法を含んでよい。このような他のデプス推定部90によって対象物のデプスが推定されているときに、片側のカメラがレンズ汚れなどで使用できなくなったり、対象物との距離が近く左右のカメラで対象物が映る範囲のずれが大きくなりデプス推定ができなくなったりした場合に、切替部91は、デプス推定部40によるデプス推定が行われる(或いは継続される)ように切り替えてよい。
 他のデプス推定部90の推定手法は、単眼内視鏡におけるSfMを含んでよい。このような他のデプス推定部90によって対象物のデプスが推定されているときに、内視鏡の状態を変えずに対象物のデプスを推定する必要が出てきた場合等に、切替部91は、デプス推定部40によるデプス推定が行われるように切り替えてよい。
 他にも、他のデプス推定部90が内視鏡5001に搭載される専用の測距デバイスによって実現される場合に、動作条件を満たさなくなったり、故障したりした場合に、切替部91は、デプス推定部40によるデプス推定が行われるように切り替えてよい。
 また、他のデプス推定部90において、デプス推定結果の信頼度が低下している場合にも、切替部91は、デプス推定部40によるデプス推定が行われるように切り替えてよい。例えば、他のデプス推定部90が学習済みモデル等を用いるものである場合には、ブラックボックス化を避けるために、デプス推定結果に加えて信頼度も把握されるようになっていることがある。
 他のデプス推定部90及び切替部91も、情報処理装置10の構成要素であってよい。
 このような実施形態によれば、これまで説明したデプス推定部40だけでなく、他のデプス推定部90も併用(フュージョン)することで、デプス推定性能を向上できる可能性が高まる。例えば、他のデプス推定部90が使用できない状況に陥った場合においても、デプス推定部40に切り替えることにより、デプス推定を安定して継続できる。
 図19は、医療用観察システムにおいて実行される処理(医療用画像処理方法)の例を示すフローチャートである。これまでの説明と重複する説明は適宜省略する。
 ステップS1において、対象物に関する情報が準備される。例えば制御部1の情報処理装置10の情報取得部20(図9)によって事前情報20aが取得される。
 ステップS2において、画像が撮像される。医療用観察システム100のカメラヘッド5005の撮像部5009が、手術中の画像を撮像する。撮像された画像は、制御部1の情報処理装置10に入力される。
 ステップS3において、対象物のデプスが推定される。制御部1の情報処理装置10のデプス推定部40が、先のステップS1で準備された事前情報20aと、パラメータ情報20bと、先のステップS2で撮像された画像の画像認識結果20cとに基づいて、対象物のデプスを推定する。
 ステップS4において、推定結果が活用される。例えば、制御部1の情報処理装置10のデプス推定部40によって推定されたデプスが、先に説明したような術具5017の3次元姿勢計算、臓器5071aの3次元マップの更新、アーム制御装置5045による自律制御、他のデプス推定部90との併用等に活用される。
3.ハードウェア構成の例
 図20は、装置のハードウェア構成の例を示す図である。これまで説明した制御部1は、例えば図20に示されるコンピュータ1000によって実現される。
 コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び、入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
 CPU1100は、ROM1300又はHDD1400に保存されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に保存されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
 ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を保存する。
 HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る医療用画像処理方法、情報処理方法のためのプログラムを記録する記録媒体である。
 通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
 入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、コンピュータ読み取り可能な所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical Disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
 例えば、コンピュータ1000がこれまで説明した制御部1として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたデプスを推定するためのプログラムを実行することにより、制御部1の機能を実現する。また、HDD1400には、制御部1の処理を実行するためのプログラムが格納されてもよい。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からプログラムを取得してもよい。
 制御部1は、例えばクラウドコンピューティング等のように、ネットワークへの接続(または各装置間の通信)を前提とした、複数の装置からなるシステムに適用されてもよい。
 上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更され得る。
 上記実施形態では、画像を撮像する撮像部として、内視鏡5001(の撮像部5009)を例に挙げて説明した。ただし、内視鏡5001以外の他の撮像部によって画像が撮像されてもよい。他の撮像部の例は、手術用顕微鏡である。
4.効果の例
 以上説明した技術は、例えば次のように特定される。図1~図9等を参照して説明したように、医療用観察システム100は、手術中に(内視鏡5001の)撮像部5009によって撮像された対象物(例えば術具5017、臓器5071a等)の画像情報、対象物に関する情報、及び、撮像部5009の撮像条件に基づいて、撮像部5009から対象物までの距離を表すデプスを推定する制御部1、を備え、対象物に関する情報は、対象物の実際のサイズLを含む(事前情報20a)。このような医療用観察システム100によって、手術中に撮像された画像中の対象物のデプスを推定することができる。例えば、対象物のデプスを連続的且つ安定的にリアルタイムで推定することができる。なお、撮像部は、内視鏡5001以外の撮像部、例えば手術用顕微鏡であってもよい。
 図5~図7等を参照して説明したように、画像情報は、撮像素子の投影面上の対象物のサイズDを含み(画像認識結果20c)、撮像条件は、焦点距離fを含んでよい(パラメータ情報20b)。例えばこれらの情報から、対象物のデプスを推定することができる。
 図8等を参照して説明したように、デプス推定部40による対象物のデプスの推定は、焦点距離fと対象物の実際のサイズLとの乗算、及び、撮像素子の投影面上の対象物のサイズDによる除算を含んでよい。例えばこのようにして、対象物のデプスを推定(計算等)することができる。
 図9等を参照して説明したように、対象物に関する情報は、術具5018の幾何学的な情報、術具5017のメーカー・型番情報、手術情報及びCTスキャン情報の少なくとも1つを含んでよい。例えばこのような情報に基づいて、対象物に関する情報を予め準備することができる。
 図10~図12等を参照して説明したように、対象物に関する情報(例えば事前情報20a)は、術具5017の第1の部分の実際のサイズL(例えばサイズL11)と、第2の部分の実際のサイズ(例えばサイズL12)と、第1の部分及び第2の部分の間の実際の距離(例えば距離L13)とを含み、制御部1は、第1の部分のデプスと、第2の部分のデプスとを推定し、対象物に関する情報と、推定した第1の部分のデプス及び第2の部分のデプスとに基づいて、術具5017の3次元姿勢を計算してよい。これにより、術具5017の3次元姿勢を連続的且つ安定的に、リアルタイムで把握することができる。
 図13等を参照して説明したように、制御部1は、推定した臓器5071aのデプスと、画像情報と、撮像部5009の位置及び姿勢を示す撮像部位置姿勢情報(例えば内視鏡アーム位置姿勢情報70a)とに基づいて、臓器5071aの3次元位置を計算し、臓器の3次元位置に基づいて、体腔内の3次元マップ71aを更新してよい。これにより、手術前のCTスキャンCTSでは得ることのできない、体腔内のリアルタイムな変化を観測し、その観測結果が反映されるように3次元マップ71aを更新することができる。例えば、体腔内での内視鏡5001の動作の適切な軌道計画等に3次元マップ71aを活用することができる。
 図14~図17等を参照して説明したように、医療用観察システム100は、撮像部5009を保持するアーム部5031を更に備え、制御部1は、推定した対象物のデプスと、画像情報とに基づいて、アーム部5031を制御してよい。例えば、画像情報は、対象物の位置及び/又は種類を含み(画像認識結果20d)、制御部1は、対象物の位置及び/又は種類に基づいて推定した対象物のデプスが目標デプスに近づくようにアーム部5031を制御してよい。これにより、推定した対象物のデプスに基づくアーム部5031の制御(例えば自律制御)が可能になる。
 図15等を参照して説明したように、制御部1は、対象物の撮像画像の画面表示サイズが目標サイズに近づくようにアーム部5031を制御してよい。これにより、対象物の画面上の見え方等を直接制御することができる。
 図16等を参照して説明したように、制御部1は、対象物の画面表示サイズが上限サイズを上回らないようにアーム部5031を制御してよい。例えば仮想的な斥力を発生させるようにアーム部5031が制御されてもよい。これにより、撮像部5009(例えば内視鏡5001の鏡筒5003の先端部)と、対象物との接触を回避することができる。
 図17等を参照して説明したように、制御部1は、撮像部5009と術具5017との最短距離が下限距離を下回らないようにアーム部5031を制御してよい。例えば仮想的な斥力を発生させるようにアーム部5031が制御されてもよい。これにより、術具5017においてデプスが推定された部分だけでなく、他の部分も含めた干渉回避制御が可能になる。
 図18等を参照して説明したように、制御部1は、更に、制御部1による対象物のデプスの推定と、他のデプス推定部90による対象物のデプスの推定とを切り替えてよい。このように他のデプス推定部90を併用することで、デプス推定性能を向上できる可能性が高まる。
 図19等を参照して説明した医療用画像処理方法も、実施形態の1つである。医療用画像処理方法は、対象物に関する情報を準備すること(ステップS1)と、撮像部5009によって手術中の画像を撮像すること(ステップS2)と、撮像した対象物の画像情報、対象物に関する情報、及び、撮像部5009の撮像条件に基づいて、撮像部5009から対象物のデプスを推定すること(ステップS3)と、を含む。このような医療用画像処理方法によっても、これまで説明したように、手術中に撮像された画像中の対象物のデプスを推定することができる。
 図3等を参照して説明した情報処理装置10も、実施形態の1つである。情報処理装置10は、手術中に撮像部5009によって撮像された対象物の画像情報、対象物に関する情報、及び、撮像部5009の撮像条件に基づいて、撮像部5009から対象物までの距離を表すデプスを推定する。このような情報処理装置10によっても、これまで説明したように、手術中に撮像された画像中の対象物のデプスを推定することができる。
 なお、本開示に記載された効果は、あくまで例示であって、開示された内容に限定されない。他の効果があってもよい。
 以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 手術中に撮像部によって撮像された対象物の画像情報、前記対象物に関する情報、及び、前記撮像部の撮像条件に基づいて、前記撮像部から前記対象物までの距離を表すデプスを推定する制御部、
 を備え、
 前記対象物に関する情報は、前記対象物の実際のサイズを含む、
 医療用観察システム。
(2)
 前記画像情報は、撮像素子の投影面上の前記対象物のサイズを含み、
 前記撮像条件は、焦点距離を含む、
 (1)に記載の医療用観察システム。
(3)
 前記対象物のデプスの推定は、前記焦点距離と前記対象物の実際のサイズとの乗算、及び、前記撮像素子の前記投影面上の前記対象物のサイズによる除算を含む、
 (2)に記載の医療用観察システム。
(4)
 前記対象物は、術具及び臓器の少なくとも一方を含む、
 (1)~(3)のいずれかに記載の医療用観察システム。
(5)
 前記対象物に関する情報は、術具の幾何学的な情報、術具のメーカー・型番情報、手術情報及びCTスキャン情報の少なくとも1つを含む、
 (1)~(4)のいずれかに記載の医療用観察システム。
(6)
 前記対象物は、術具を含み、
 前記対象物に関する情報は、前記術具の第1の部分の実際のサイズと、第2の部分の実際のサイズと、前記第1の部分及び前記第2の部分の間の実際の距離とを含み、
 前記制御部は、
  前記第1の部分のデプスと、前記第2の部分のデプスとを推定し、
  前記対象物に関する情報と、推定した前記第1の部分のデプス及び前記第2の部分のデプスとに基づいて、前記術具の3次元姿勢を計算する、
 (1)~(5)のいずれかに記載の医療用観察システム。
(7)
 前記対象物は、臓器を含み、
 前記制御部は、推定した前記臓器のデプスと、前記画像情報と、前記撮像部の位置及び姿勢を示す撮像部位置姿勢情報とに基づいて、前記臓器の3次元位置を計算し、前記臓器の3次元位置に基づいて、体腔内の3次元マップを更新する、
 (1)~(6)のいずれかに記載の医療用観察システム。
(8)
 前記撮像部を保持するアーム部を更に備え、
 前記制御部は、推定した前記対象物のデプスと、前記画像情報とに基づいて、前記アーム部を制御する、
 (1)~(7)のいずれかに記載の医療用観察システム。
(9)
 前記画像情報は、前記対象物の位置及び/又は種類を含み、
 前記制御部は、前記対象物の位置及び/又は種類に基づいて推定した前記対象物のデプスと、前記画像情報とに基づいて、前記アーム部を制御する、
 (8)に記載の医療用観察システム。
(10)
 前記制御部は、前記対象物の撮像画像の画面表示サイズが目標サイズに近づくように前記アーム部を制御する、
 (8)又は(9)に記載の医療用観察システム。
(11)
 前記制御部は、前記対象物の撮像画像の画面表示サイズが上限サイズを上回らないように前記アーム部を制御する、
 (8)~(10)のいずれかに記載の医療用観察システム。
(12)
 前記対象物は術具を含み、
 前記制御部は、前記撮像部と前記術具との最短距離が下限距離を下回らないように前記アーム部を制御する、
 (8)~(11)のいずれかに記載の医療用観察システム。
(13)
 前記制御部は、仮想的な斥力を発生させるように前記アーム部を制御する、
 (8)~(12)のいずれかに記載の医療用観察システム。
(14)
 前記制御部は、更に、による前記対象物のデプスの推定と、他のデプス推定部による前記対象物のデプスの推定とを切り替える、
 (1)~(13)のいずれかに記載の医療用観察システム。
(15)
 前記撮像部は、又は手術用顕微鏡のうちの少なくとも一方である、
 (1)~(14)のいずれかに記載の医療用観察システム。
(16)
 対象物に関する情報を準備することと、
 撮像部によって手術中の画像を撮像することと、
 撮像した対象物の画像情報、前記対象物に関する前記情報、及び、前記撮像部の撮像条件に基づいて、前記撮像部から前記対象物までの距離を表すデプスを推定することと、
 を含む、
 医療用画像処理方法であって、
 前記対象物に関する情報は、前記対象物の実際のサイズを含む、
 医療用画像処理方法。
(17)
 手術中に撮像部によって撮像された対象物の画像情報、前記対象物に関する情報、及び、前記撮像部の撮像条件に基づいて、前記撮像部から前記対象物までの距離を表すデプスを推定する、
 情報処理装置であって、
 前記対象物に関する情報は、前記対象物の実際のサイズを含む、
 情報処理装置。
   1 制御部
  10 情報処理装置
  20 情報取得部
 20a 事前情報
 20b パラメータ情報
 20c 画像認識結果
 20d 画像認識結果
  30 画像認識処理部
  40 デプス推定部
  60 術具3次元姿勢計算部
  70 臓器3次元位置計算部
 70a 内視鏡アーム位置姿勢情報
  71 3次元マップ更新部
 71a 3次元マップ
  80 自律制御部
  81 対象物目標デプス計算部
  82 動作指令値計算部
  83 対象物目標画面上サイズ計算部
  84 対象物下限デプス計算部
  85 対象物上限画面上サイズ計算部
  86 術具・撮像部最短距離計算部
  87 術具・撮像部距離下限計算部
  90 他のデプス推定部
  91 切替部
 100 医療用観察システム
5000 内視鏡手術システム
5001 内視鏡
5003 鏡筒
5005 カメラヘッド
5009 撮像部
5017 術具
5023 鉗子
5027 支持アーム装置
5031 アーム部
5045 アーム制御装置

Claims (17)

  1.  手術中に撮像部によって撮像された対象物の画像情報、前記対象物に関する情報、及び、前記撮像部の撮像条件に基づいて、前記撮像部から前記対象物までの距離を表すデプスを推定する制御部、
     を備え、
     前記対象物に関する情報は、前記対象物の実際のサイズを含む、
     医療用観察システム。
  2.  前記画像情報は、撮像素子の投影面上の前記対象物のサイズを含み、
     前記撮像条件は、焦点距離を含む、
     請求項1に記載の医療用観察システム。
  3.  前記対象物のデプスの推定は、前記焦点距離と前記対象物の実際のサイズとの乗算、及び、前記撮像素子の前記投影面上の前記対象物のサイズによる除算を含む、
     請求項2に記載の医療用観察システム。
  4.  前記対象物は、術具及び臓器の少なくとも一方を含む、
     請求項1に記載の医療用観察システム。
  5.  前記対象物に関する情報は、術具の幾何学的な情報、術具のメーカー・型番情報、手術情報及びCTスキャン情報の少なくとも1つを含む、
     請求項1に記載の医療用観察システム。
  6.  前記対象物は、術具を含み、
     前記対象物に関する情報は、前記術具の第1の部分の実際のサイズと、第2の部分の実際のサイズと、前記第1の部分及び前記第2の部分の間の実際の距離とを含み、
     前記制御部は、
      前記第1の部分のデプスと、前記第2の部分のデプスとを推定し、
      前記対象物に関する情報と、推定した前記第1の部分のデプス及び前記第2の部分のデプスとに基づいて、前記術具の3次元姿勢を計算する、
     請求項1に記載の医療用観察システム。
  7.  前記対象物は、臓器を含み、
     前記制御部は、推定した前記臓器のデプスと、前記画像情報と、前記撮像部の位置及び姿勢を示す撮像部位置姿勢情報とに基づいて、前記臓器の3次元位置を計算し、前記臓器の3次元位置に基づいて、体腔内の3次元マップを更新する、
     請求項1に記載の医療用観察システム。
  8.  前記撮像部を保持するアーム部を更に備え、
     前記制御部は、推定した前記対象物のデプスと、前記画像情報とに基づいて、前記アーム部を制御する、
     請求項1に記載の医療用観察システム。
  9.  前記画像情報は、前記対象物の位置及び/又は種類を含み、
     前記制御部は、前記対象物の位置及び/又は種類に基づいて推定した前記対象物のデプスが目標デプスに近づくように前記アーム部を制御する、
     請求項8に記載の医療用観察システム。
  10.  前記制御部は、前記対象物の撮像画像の画面表示サイズが目標サイズに近づくように前記アーム部を制御する、
     請求項8に記載の医療用観察システム。
  11.  前記制御部は、前記対象物の撮像画像の画面表示サイズが上限サイズを上回らないように前記アーム部を制御する、
     請求項8に記載の医療用観察システム。
  12.  前記対象物は術具を含み、
     前記制御部は、前記撮像部と前記術具との最短距離が下限距離を下回らないように前記アーム部を制御する、
     請求項8に記載の医療用観察システム。
  13.  前記制御部は、仮想的な斥力を発生させるように前記アーム部を制御する、
     請求項8に記載の医療用観察システム。
  14.  前記制御部は、更に、前記対象物のデプスの推定と、他のデプス推定部による前記対象物のデプスの推定とを切り替える、
     請求項1に記載の医療用観察システム。
  15.  前記撮像部は、内視鏡又は手術用顕微鏡のうちの少なくとも一方である、
     請求項1に記載の医療用観察システム。
  16.  対象物に関する情報を準備することと、
     撮像部によって手術中の画像を撮像することと、
     撮像した対象物の画像情報、前記対象物に関する前記情報、及び、前記撮像部の撮像条件に基づいて、前記撮像部から前記対象物までの距離を表すデプスを推定することと、
     を含む、
     医療用画像処理方法であって、
     前記対象物に関する情報は、前記対象物の実際のサイズを含む、
     医療用画像処理方法。
  17.  手術中に撮像部によって撮像された対象物の画像情報、前記対象物に関する情報、及び、前記撮像部の撮像条件に基づいて、前記撮像部から前記対象物までの距離を表すデプスを推定する、
     情報処理装置であって、
     前記対象物に関する情報は、前記対象物の実際のサイズを含む、
     情報処理装置。
PCT/JP2022/003288 2021-04-12 2022-01-28 医療用観察システム、医療用画像処理方法及び情報処理装置 WO2022219878A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021067306 2021-04-12
JP2021-067306 2021-04-12

Publications (1)

Publication Number Publication Date
WO2022219878A1 true WO2022219878A1 (ja) 2022-10-20

Family

ID=83639527

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/003288 WO2022219878A1 (ja) 2021-04-12 2022-01-28 医療用観察システム、医療用画像処理方法及び情報処理装置

Country Status (1)

Country Link
WO (1) WO2022219878A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006218239A (ja) * 2005-02-14 2006-08-24 Olympus Corp 手技支援システム
JP2011136005A (ja) * 2009-12-28 2011-07-14 Fujifilm Corp 内視鏡装置
JP2021013412A (ja) * 2019-07-10 2021-02-12 ソニー株式会社 医療用観察システム、制御装置及び制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006218239A (ja) * 2005-02-14 2006-08-24 Olympus Corp 手技支援システム
JP2011136005A (ja) * 2009-12-28 2011-07-14 Fujifilm Corp 内視鏡装置
JP2021013412A (ja) * 2019-07-10 2021-02-12 ソニー株式会社 医療用観察システム、制御装置及び制御方法

Similar Documents

Publication Publication Date Title
JP7003985B2 (ja) 医療用支持アームシステムおよび制御装置
JP7067467B2 (ja) 医療用情報処理装置、情報処理方法、医療用情報処理システム
JP7115493B2 (ja) 手術アームシステム及び手術アーム制御システム
JPWO2018159328A1 (ja) 医療用アームシステム、制御装置及び制御方法
WO2020045015A1 (ja) 医療システム、情報処理装置及び情報処理方法
KR20140115575A (ko) 수술 로봇 시스템 및 그 제어 방법
JP7480477B2 (ja) 医療用観察システム、制御装置及び制御方法
WO2018123613A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
JP7334499B2 (ja) 手術支援システム、制御装置及び制御方法
WO2018088105A1 (ja) 医療用支持アーム及び医療用システム
JP7286948B2 (ja) 医療用観察システム、信号処理装置及び医療用観察方法
JP2020156800A (ja) 医療用アームシステム、制御装置、及び制御方法
WO2021049438A1 (ja) 医療用支持アーム、及び医療用システム
US20230172438A1 (en) Medical arm control system, medical arm control method, medical arm simulator, medical arm learning model, and associated programs
WO2020262262A1 (ja) 医療用観察システム、制御装置及び制御方法
US20220322919A1 (en) Medical support arm and medical system
WO2022219878A1 (ja) 医療用観察システム、医療用画像処理方法及び情報処理装置
CN115517615A (zh) 内窥镜主从运动控制方法及手术机器人系统
WO2021256168A1 (ja) 医用画像処理システム、手術画像制御装置、及び、手術画像制御方法
WO2020203164A1 (ja) 医療システム、情報処理装置及び情報処理方法
JP2023507063A (ja) 手術中に画像取込装置を制御するための方法、装置、およびシステム
WO2018043205A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
WO2022269992A1 (ja) 医療用観察システム、情報処理装置及び情報処理方法
WO2022019057A1 (ja) 医療用アーム制御システム、医療用アーム制御方法及びプログラム
WO2022172733A1 (ja) 医療用観察装置、観察装置、観察方法及びアダプタ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22787806

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22787806

Country of ref document: EP

Kind code of ref document: A1