WO2021256168A1 - 医用画像処理システム、手術画像制御装置、及び、手術画像制御方法 - Google Patents

医用画像処理システム、手術画像制御装置、及び、手術画像制御方法 Download PDF

Info

Publication number
WO2021256168A1
WO2021256168A1 PCT/JP2021/019308 JP2021019308W WO2021256168A1 WO 2021256168 A1 WO2021256168 A1 WO 2021256168A1 JP 2021019308 W JP2021019308 W JP 2021019308W WO 2021256168 A1 WO2021256168 A1 WO 2021256168A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
surgical
unit
model
model image
Prior art date
Application number
PCT/JP2021/019308
Other languages
English (en)
French (fr)
Inventor
信二 勝木
加奈 松浦
素明 小林
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to US18/000,914 priority Critical patent/US20230222740A1/en
Publication of WO2021256168A1 publication Critical patent/WO2021256168A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/293Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Definitions

  • the present disclosure relates to a medical image processing system, a surgical image control device, and a surgical image control method.
  • a surgical style has been proposed in which surgery is performed while viewing surgical images of the surgical site taken with an endoscope or surgical microscope.
  • the surgeon can display the surgical site in 3D by displaying a 3D crossing image, an image for the right eye and an image for the left eye, etc. to the surgeon. It is required to be an image that can be grasped (hereinafter, 3D surgical image).
  • one aspect of the present disclosure provides a medical image processing system in which the position of a 3D model image can be easily grasped in a 3D surgical image.
  • a real-time 3D surgical image obtained by capturing a stereoscopic surgical site by an operator and a 3D model image which is a stereoscopic CG image related to the 3D surgical image. And the acquisition department to acquire, When the superposition of the 3D model image is started at a predetermined spatial position when the 3D surgical image is stereoscopically viewed based on the information set in the 3D model image, the 3D surgical image or the 3D model image is subjected to. A superimposing portion that emphasizes that the 3D model image is located at the predetermined spatial position, and a superimposing portion that emphasizes the position of the 3D model image.
  • a medical image processing system is provided.
  • a display device that displays the 3D surgical image and the 3D model image on which the superposed portion is superimposed. You may also prepare further.
  • the superimposing portion may generate the 3D model image that moves back and forth in the depth direction with respect to the predetermined spatial position.
  • the superimposing portion may generate the 3D model image in which the amount of forward / backward movement in the depth direction with respect to the predetermined spatial position gradually decreases.
  • the superimposing portion may change the amount of forward / backward movement in the depth direction with respect to the predetermined spatial position according to the size of the 3D model image.
  • the superimposing portion may rotate the 3D model image with reference to the predetermined spatial position.
  • the superimposing portion may change the color of the 3D model image with reference to the predetermined spatial position.
  • the superimposing portion may gradually change the color of the 3D model image with reference to the predetermined spatial position.
  • the superimposing portion may change at least one of the color and the spatial frequency of the 3D surgical image when the enhancement process is performed.
  • At least one of an endoscope for capturing an original image used to generate the 3D surgical image and a surgical microscope may be further provided.
  • a real-time 3D surgical image obtained by capturing a stereoscopic surgical site by an operator and a 3D model image which is a stereoscopic CG image related to the 3D surgical image. And the acquisition department to acquire, When the superposition of the 3D model image is started at a predetermined spatial position when the 3D surgical image is stereoscopically viewed based on the information set in the 3D model image, the 3D surgical image or the 3D model image is subjected to. A superimposing portion that emphasizes that the 3D model image is located at the predetermined spatial position, and a superimposing portion that emphasizes the position of the 3D model image.
  • a surgical image control device is provided.
  • a real-time 3D surgical image obtained by capturing a stereoscopic surgical site by an operator and a 3D model image which is a stereoscopic CG image related to the 3D surgical image. And the acquisition process to acquire, When the superposition of the 3D model image is started at a predetermined spatial position when the 3D surgical image is stereoscopically viewed based on the information set in the 3D model image, the 3D surgical image or the 3D model image is subjected to. A superimposing step of emphasizing that the 3D model image is located at the predetermined spatial position and a superimposing process.
  • a surgical image control method is provided.
  • FIG. 2 is a block diagram showing an example of the functional configuration of the camera head and the CCU shown in FIG.
  • the block diagram which shows the structural example of the medical image processing apparatus and the surgical image control apparatus 0.
  • the block diagram which shows the structural example of the 3D data generation part.
  • the figure which shows the example which displays a part of the 3D model image of the blood vessel stored in the image storage part for finger doctor on the display device.
  • the figure which shows an example of the instruction coordinate c by the alignment processing unit 206.
  • the figure which arranged the 3D model image at the designated coordinates in a 3D operation image The figure which shows typically the example which superposed the CG image generated by the depth processing part on the 3D surgical image. The figure which shows typically the CG image generated by the adjustment processing part. The figure which shows typically the CG image generated by the rotation processing part. The figure which shows typically the CG image generated by the color processing part. The figure which shows typically the 3D operation image image generated by coloring the 3D operation image and making it transparent.
  • the flowchart which shows the processing example of the medical image processing system. The figure which shows an example of the schematic structure of the microscopic surgery system to which the technique which concerns on this disclosure can be applied. The figure which shows the state of the operation using the microscope operation system shown in FIG.
  • FIG. 1 is a block diagram of the medical image processing system 1 according to the present embodiment.
  • the medical image processing system 1 is a system capable of displaying a surgical image to an operator as a 3D crossing image, an image for the right eye, an image for the left eye, and the like.
  • the medical image processing system 1 includes a medical image photographing device 100, a medical image processing device 200, a surgical image control device 300, a display device 400, and an operation input unit 500.
  • the medical image photographing device 100 is an photographing device capable of photographing a human body.
  • the medical imaging apparatus 100 is, for example, an endoscope, a surgical microscope, or the like, and can particularly capture an image during surgery in real time. Details of the medical imaging apparatus 100 will be described later.
  • the medical image processing device 200 uses the original image captured by the medical image capturing device 100 to generate a real-time 3D surgical image that captures the surgical site that can be viewed stereoscopically by the operator. Further, the medical image processing device 200 generates a 3D model image showing navigation and the like on the 3D surgical image.
  • the 3D model image is, for example, a 3D model of a blood vessel, an organ, or the like to be transplanted. Details of the medical image processing apparatus 200 will also be described later.
  • the surgical image control device 300 controls to superimpose the 3D surgical image generated by the medical image processing device 200 and the 3D model image and display them on the display device 400. Details of the surgical image control device 300 will also be described later.
  • the display device 400 is a device capable of 3D display and displays various information.
  • the display device 400 superimposes a 3D surgical image generated by the surgical image control device 300 and a 3D model image to provide a medical image, a GUI (Graphical User Interface) for receiving various operations from an operator, and the like. Output.
  • a 3D surgical image generated by the surgical image control device 300
  • a 3D model image to provide a medical image
  • GUI Graphic User Interface
  • the operation input unit 500 receives various input operations from the operator, converts the received input operations into electric signals, and outputs the received input operations to the medical image processing device 200.
  • the operation input unit 500 may use the 3D model image placement position, the 3D model image display condition, the configuration condition for composing the 3D surgical image, and the image processing for superimposing the 3D surgical image and the 3D model image. Accept conditions etc. from the operator.
  • the operation input unit 500 is realized by a mouse, a keyboard, a trackball, a switch, a button, a joystick, or the like.
  • the endoscope 5001 of the endoscopic surgery system 5000 corresponds to the medical imaging device 100
  • the CCU 5039 corresponds to the medical image processing device 200 and the surgical image control device 300
  • the display device 5041 Corresponds to the display device 400.
  • the general functions of the CCU 5039 will be described in detail first, and the characteristic functions will be described in more detail with reference to FIGS. 4 to 14.
  • FIG. 2 is a diagram showing an example of a schematic configuration of an endoscopic surgery system 5000 to which the technique according to the present disclosure can be applied.
  • FIG. 2 shows a surgeon (doctor) 5067 performing surgery on patient 5071 on patient bed 5069 using the endoscopic surgery system 5000.
  • the endoscopic surgery system 5000 includes an endoscope 5001, other surgical tools 5017, a support arm device 5027 for supporting the endoscope 5001, and various devices for endoscopic surgery. It is composed of a cart 5037 and a cart 5037.
  • trocca 5025a to 5025d In endoscopic surgery, instead of cutting the abdominal wall to open the abdomen, multiple tubular opening devices called trocca 5025a to 5025d are punctured into the abdominal wall. Then, from the trocca 5025a to 5025d, the lens barrel 5003 of the endoscope 5001 and other surgical tools 5017 are inserted into the body cavity of the patient 5071.
  • other surgical tools 5017 a pneumoperitoneum tube 5019, an energy treatment tool 5021 and forceps 5023 are inserted into the body cavity of patient 5071.
  • the energy treatment tool 5021 is a treatment tool for incising and peeling a tissue, sealing a blood vessel, or the like by using a high frequency current or ultrasonic vibration.
  • the surgical tool 5017 shown in the illustration is merely an example, and as the surgical tool 5017, various surgical tools generally used in endoscopic surgery such as a sword and a retractor may be used.
  • the image of the surgical site in the body cavity of the patient 5071 taken by the endoscope 5001 is displayed on the display device 5041.
  • the surgeon 5067 performs a procedure such as excising the affected area by using the energy treatment tool 5021 or the forceps 5023 while viewing the image of the surgical site displayed on the display device 5041 in real time.
  • the pneumoperitoneum tube 5019, the energy treatment tool 5021, and the forceps 5023 are supported by the operator 5067, an assistant, or the like during the operation.
  • the support arm device 5027 includes an arm portion 5031 extending from the base portion 5029.
  • the arm portion 5031 is composed of joint portions 5033a, 5033b, 5033c, and links 5035a, 5035b, and is driven by control from the arm control device 5045.
  • the endoscope 5001 is supported by the arm portion 5031, and its position and posture are controlled. Thereby, the stable position fixing of the endoscope 5001 can be realized.
  • the endoscope 5001 is composed of a lens barrel 5003 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 5071, and a camera head 5005 connected to the base end of the lens barrel 5003.
  • the endoscope 5001 configured as a so-called rigid mirror having a rigid barrel 5003 is illustrated, but the endoscope 5001 is configured as a so-called flexible mirror having a flexible barrel 5003. May be good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 5003.
  • a light source device 5043 is connected to the endoscope 5001, and the light generated by the light source device 5043 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 5003, and is an objective. It is irradiated toward the observation target in the body cavity of the patient 5071 through the lens.
  • the endoscope 5001 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image pickup element are provided inside the camera head 5005, and the reflected light (observation light) from the observation target is focused on the image pickup element by the optical system.
  • the observation light is photoelectrically converted by the image pickup device, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 5039.
  • the camera head 5005 is equipped with a function of adjusting the magnification and the focal length by appropriately driving the optical system thereof.
  • the camera head 5005 may be provided with a plurality of image pickup elements.
  • a plurality of relay optical systems are provided inside the lens barrel 5003 in order to guide the observation light to each of the plurality of image pickup elements.
  • the CCU 5039 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 5001 and the display device 5041. Specifically, the CCU 5039 performs various image processing for displaying an image based on the image signal, such as a development process (demosaic process), on the image signal received from the camera head 5005. The CCU 5039 provides the image signal subjected to the image processing to the display device 5041. Further, the CCU 5039 transmits a control signal to the camera head 5005 and controls the driving thereof.
  • the control signal may include information about imaging conditions such as magnification and focal length.
  • the display device 5041 displays an image based on the image signal processed by the CCU 5039 under the control of the CCU 5039.
  • the endoscope 5001 is compatible with high-resolution shooting such as 4K (horizontal pixel number 3840 x vertical pixel number 2160) or 8K (horizontal pixel number 7680 x vertical pixel number 4320), and / or 3D display.
  • the display device 5041 a display device capable of displaying a high resolution and / or a device capable of displaying in 3D can be used.
  • a display device 5041 having a size of 55 inches or more is used for high-resolution shooting such as 4K or 8K, a further immersive feeling can be obtained.
  • a plurality of display devices 5041 having different resolutions and sizes may be provided depending on the application.
  • the light source device 5043 is composed of, for example, a light source such as an LED (light emitting diode), and supplies irradiation light for photographing the surgical site to the endoscope 5001.
  • a light source such as an LED (light emitting diode)
  • the arm control device 5045 is configured by a processor such as a CPU, and operates according to a predetermined program to control the drive of the arm portion 5031 of the support arm device 5027 according to a predetermined control method.
  • the input device 5047 is an input interface for the endoscopic surgery system 5000.
  • the user can input various information and input instructions to the endoscopic surgery system 5000 via the input device 5047.
  • the user inputs various information related to the surgery, such as physical information of the patient and information about the surgical procedure, via the input device 5047.
  • the user is instructed to drive the arm portion 5031 via the input device 5047, or is instructed to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 5001. , Instructions to drive the energy treatment tool 5021, etc. are input.
  • the type of the input device 5047 is not limited, and the input device 5047 may be various known input devices.
  • the input device 5047 for example, a mouse, a keyboard, a touch panel, a switch, a foot switch 5057 and / or a lever and the like can be applied.
  • the touch panel may be provided on the display surface of the display device 5041.
  • the input device 5047 is a device worn by the user, such as a glasses-type wearable device or an HMD (Head Mounted Display), and various inputs are made according to the user's gesture and line of sight detected by these devices. Is done. Further, the input device 5047 includes a camera capable of detecting the movement of the user, and various inputs are performed according to the gesture and the line of sight of the user detected from the image captured by the camera. Further, the input device 5047 includes a microphone capable of picking up the voice of the user, and various inputs are performed by voice via the microphone.
  • a glasses-type wearable device or an HMD Head Mounted Display
  • the input device 5047 is configured to be able to input various information in a non-contact manner, so that a user who belongs to a clean area (for example, an operator 5067) can operate a device belonging to the unclean area in a non-contact manner. Is possible. In addition, the user can operate the device without taking his / her hand off the surgical tool that he / she has, which improves the convenience of the user.
  • a clean area for example, an operator 5067
  • the treatment tool control device 5049 controls the drive of the energy treatment tool 5021 for tissue cauterization, incision, blood vessel sealing, and the like.
  • the pneumoperitoneum device 5051 gas in the body cavity through the pneumoperitoneum tube 5019 in order to inflate the body cavity of the patient 5071 for the purpose of securing the field of view by the endoscope 5001 and securing the work space of the operator. Is sent.
  • the recorder 5053 is a device capable of recording various information related to surgery.
  • the printer 5055 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the support arm device 5027 includes a base portion 5029 which is a base, and an arm portion 5031 extending from the base portion 5029.
  • the arm portion 5031 is composed of a plurality of joint portions 5033a, 5033b, 5033c and a plurality of links 5035a, 5035b connected by the joint portions 5033b, but in FIG. 2, for the sake of simplicity.
  • the configuration of the arm portion 5031 is simplified and illustrated. Actually, the shapes, numbers and arrangements of the joint portions 5033a to 5033c and the links 5035a and 5035b, the direction of the rotation axis of the joint portions 5033a to 5033c, and the like are appropriately set so that the arm portion 5031 has a desired degree of freedom.
  • the arm portion 5031 may be preferably configured to have more than 6 degrees of freedom.
  • the endoscope 5001 can be freely moved within the movable range of the arm portion 5031, so that the lens barrel 5003 of the endoscope 5001 can be inserted into the body cavity of the patient 5071 from a desired direction. It will be possible.
  • Actuators are provided in the joint portions 5033a to 5033c, and the joint portions 5033a to 5033c are configured to be rotatable around a predetermined rotation axis by driving the actuator.
  • the arm control device 5045 By controlling the drive of the actuator by the arm control device 5045, the rotation angles of the joint portions 5033a to 5033c are controlled, and the drive of the arm portion 5031 is controlled. Thereby, control of the position and posture of the endoscope 5001 can be realized.
  • the arm control device 5045 can control the drive of the arm unit 5031 by various known control methods such as force control or position control.
  • the drive of the arm unit 5031 is appropriately controlled by the arm control device 5045 according to the operation input.
  • the position and orientation of the endoscope 5001 may be controlled.
  • the endoscope 5001 at the tip of the arm portion 5031 can be moved from an arbitrary position to an arbitrary position, and then fixedly supported at the moved position.
  • the arm portion 5031 may be operated by a so-called master slave method. In this case, the arm portion 5031 can be remotely controlled by the user via an input device 5047 installed at a location away from the operating room.
  • the arm control device 5045 When force control is applied, the arm control device 5045 receives an external force from the user, and the actuators of the joint portions 5033a to 5033c are arranged so that the arm portion 5031 moves smoothly according to the external force. So-called power assist control for driving may be performed.
  • the arm portion 5031 when the user moves the arm portion 5031 while directly touching the arm portion 5031, the arm portion 5031 can be moved with a relatively light force. Therefore, the endoscope 5001 can be moved more intuitively and with a simpler operation, and the convenience of the user can be improved.
  • the endoscope 5001 was supported by a doctor called a scopist.
  • the support arm device 5027 by using the support arm device 5027, the position of the endoscope 5001 can be more reliably fixed without human intervention, so that an image of the surgical site can be stably obtained. , It becomes possible to perform surgery smoothly.
  • the arm control device 5045 does not necessarily have to be provided on the cart 5037. Further, the arm control device 5045 does not necessarily have to be one device. For example, the arm control device 5045 may be provided in each of the joint portions 5033a to 5033c of the arm portion 5031 of the support arm device 5027, and the plurality of arm control devices 5045 cooperate with each other to drive the arm portion 5031. Control may be realized.
  • the light source device 5043 supplies the endoscope 5001 with irradiation light for photographing the surgical site.
  • the light source device 5043 is composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • the white light source is configured by the combination of the RGB laser light sources, the output intensity and the output timing of each color (each wavelength) can be controlled with high accuracy, so that the white balance of the captured image in the light source device 5043 can be controlled. Can be adjusted.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-division manner, and the drive of the image sensor of the camera head 5005 is controlled in synchronization with the irradiation timing to correspond to each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter in the image pickup device.
  • the drive of the light source device 5043 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 5005 in synchronization with the timing of the change of the light intensity to acquire an image in time division and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 5043 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface layer of the mucous membrane is irradiated with light in a narrower band than the irradiation light (that is, white light) during normal observation.
  • a so-called narrow band light observation is performed in which a predetermined tissue such as a blood vessel is photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected.
  • An excitation light corresponding to the fluorescence wavelength of the reagent may be irradiated to obtain a fluorescence image.
  • the light source device 5043 may be configured to be capable of supplying narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 3 is a block diagram showing an example of the functional configuration of the camera head 5005 and CCU5039 shown in FIG.
  • the camera head 5005 has a lens unit 5007, an image pickup unit 5009, a drive unit 5011, a communication unit 5013, and a camera head control unit 5015 as its functions.
  • the CCU 5039 has a communication unit 5059, an image processing unit 5061, and a control unit 5063 as its functions.
  • the camera head 5005 and the CCU 5039 are bidirectionally connected by a transmission cable 5065 so as to be communicable.
  • the lens unit 5007 is an optical system provided at a connection portion with the lens barrel 5003.
  • the observation light taken in from the tip of the lens barrel 5003 is guided to the camera head 5005 and incident on the lens unit 5007.
  • the lens unit 5007 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the optical characteristics of the lens unit 5007 are adjusted so as to collect the observation light on the light receiving surface of the image pickup element of the image pickup unit 5009.
  • the zoom lens and the focus lens are configured so that their positions on the optical axis can be moved in order to adjust the magnification and the focus of the captured image.
  • the image pickup unit 5009 is composed of an image pickup element and is arranged after the lens unit 5007.
  • the observation light that has passed through the lens unit 5007 is focused on the light receiving surface of the image pickup device, and an image signal corresponding to the observation image is generated by photoelectric conversion.
  • the image signal generated by the image pickup unit 5009 is provided to the communication unit 5013.
  • CMOS Complementary Metal Oxide Semiconductor
  • image pickup device for example, an image pickup device capable of capturing a high-resolution image of 4K or higher may be used.
  • the image pickup elements constituting the image pickup unit 5009 are configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D display, respectively.
  • the 3D display enables the surgeon 5067 to more accurately grasp the depth of the living tissue in the surgical site.
  • the image pickup unit 5009 is composed of a multi-plate type, a plurality of lens units 5007 are also provided corresponding to each image pickup element.
  • the image pickup unit 5009 does not necessarily have to be provided on the camera head 5005.
  • the image pickup unit 5009 may be provided inside the lens barrel 5003 immediately after the objective lens.
  • the drive unit 5011 is composed of an actuator, and the zoom lens and the focus lens of the lens unit 5007 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 5015. As a result, the magnification and focus of the image captured by the image pickup unit 5009 can be adjusted as appropriate.
  • the communication unit 5013 is composed of a communication device for transmitting and receiving various information to and from the CCU 5039.
  • the communication unit 5013 transmits the image signal obtained from the image pickup unit 5009 as RAW data to the CCU 5039 via the transmission cable 5065.
  • the image signal is transmitted by optical communication.
  • the surgeon 5067 performs the surgery while observing the condition of the affected area with the captured image, so for safer and more reliable surgery, the moving image of the surgical site is displayed in real time as much as possible. This is because it is required.
  • the communication unit 5013 is provided with a photoelectric conversion module that converts an electric signal into an optical signal.
  • the image signal is converted into an optical signal by the photoelectric conversion module, and then transmitted to the CCU 5039 via the transmission cable 5065.
  • the communication unit 5013 receives a control signal for controlling the drive of the camera head 5005 from the CCU 5039.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image. Contains information about the condition.
  • the communication unit 5013 provides the received control signal to the camera head control unit 5015.
  • the control signal from the CCU 5039 may also be transmitted by optical communication.
  • the communication unit 5013 is provided with a photoelectric conversion module that converts an optical signal into an electric signal, and the control signal is converted into an electric signal by the photoelectric conversion module and then provided to the camera head control unit 5015.
  • the image pickup conditions such as the frame rate, the exposure value, the magnification, and the focal point are automatically set by the control unit 5063 of the CCU 5039 based on the acquired image signal. That is, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 5001.
  • the camera head control unit 5015 controls the drive of the camera head 5005 based on the control signal from the CCU 5039 received via the communication unit 5013. For example, the camera head control unit 5015 controls the drive of the image pickup element of the image pickup unit 5009 based on the information to specify the frame rate of the image pickup image and / or the information to specify the exposure at the time of image pickup. Further, for example, the camera head control unit 5015 appropriately moves the zoom lens and the focus lens of the lens unit 5007 via the drive unit 5011 based on the information that the magnification and the focus of the captured image are specified.
  • the camera head control unit 5015 may further have a function of storing information for identifying the lens barrel 5003 and the camera head 5005.
  • the camera head 5005 can be made resistant to autoclave sterilization.
  • the communication unit 5059 is configured by a communication device for transmitting and receiving various information to and from the camera head 5005.
  • the communication unit 5059 receives an image signal transmitted from the camera head 5005 via the transmission cable 5065.
  • the image signal can be suitably transmitted by optical communication.
  • the communication unit 5059 is provided with a photoelectric conversion module that converts an optical signal into an electric signal.
  • the communication unit 5059 provides the image processing unit 5061 with an image signal converted into an electric signal.
  • the communication unit 5059 transmits a control signal for controlling the drive of the camera head 5005 to the camera head 5005.
  • the control signal may also be transmitted by optical communication.
  • the image processing unit 5061 performs various image processing on the image signal which is the RAW data transmitted from the camera head 5005.
  • the image processing includes, for example, development processing, high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing (electronic zoom processing). Etc., various known signal processing is included. Further, the image processing unit 5061 performs detection processing on the image signal for performing AE, AF and AWB.
  • the image processing unit 5061 is composed of a processor such as a CPU or GPU, and the above-mentioned image processing and detection processing can be performed by operating the processor according to a predetermined program.
  • the image processing unit 5061 is composed of a plurality of GPUs, the image processing unit 5061 appropriately divides the information related to the image signal and performs image processing in parallel by the plurality of GPUs.
  • the control unit 5063 performs various controls regarding the imaging of the surgical site by the endoscope 5001 and the display of the captured image. For example, the control unit 5063 generates a control signal for controlling the drive of the camera head 5005. At this time, when the imaging condition is input by the user, the control unit 5063 generates a control signal based on the input by the user. Alternatively, when the endoscope 5001 is equipped with an AE function, an AF function, and an AWB function, the control unit 5063 has an optimum exposure value, a focal length, and an optimum exposure value according to the result of detection processing by the image processing unit 5061. The white balance is calculated appropriately and a control signal is generated.
  • control unit 5063 causes the display device 5041 to display the image of the surgical unit based on the image signal processed by the image processing unit 5061.
  • the control unit 5063 recognizes various objects in the surgical unit image by using various image recognition techniques.
  • the control unit 5063 detects a surgical tool such as forceps, a specific biological part, bleeding, a mist when using the energy treatment tool 5021, etc. by detecting the shape, color, etc. of the edge of the object included in the surgical site image. Can be recognized.
  • the control unit 5063 uses the recognition result to superimpose and display various surgical support information on the image of the surgical site. By superimposing the surgical support information and presenting it to the surgeon 5067, it becomes possible to proceed with the surgery more safely and surely.
  • the transmission cable 5065 connecting the camera head 5005 and the CCU 5039 is an electric signal cable compatible with electric signal communication, an optical fiber compatible with optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 5065, but the communication between the camera head 5005 and the CCU 5039 may be performed wirelessly.
  • the communication between the two is performed wirelessly, it is not necessary to lay the transmission cable 5065 in the operating room, so that the situation where the movement of the medical staff in the operating room is hindered by the transmission cable 5065 can be solved.
  • the above is an example of the endoscopic surgery system 5000 to which the technique according to the present disclosure can be applied.
  • the endoscopic surgery system 5000 has been described here as an example, the system to which the technique according to the present disclosure can be applied is not limited to such an example.
  • the technique according to the present disclosure may be applied to a flexible endoscopic system for examination or a microsurgery system.
  • FIG. 4 is a block diagram showing a configuration example of the medical image processing device 200 and the surgical image control device 300.
  • the medical image processing apparatus 200 includes a 3D data generation unit 202, a medical image storage unit 204, and an alignment processing unit 206.
  • the surgical image control device 300 has an acquisition unit 302 and a superimposing unit 304.
  • the 3D data generation unit 202 generates a real-time 3D surgical image that captures the surgical site that can be viewed stereoscopically by the operator based on the original image data supplied from the medical imaging apparatus 100.
  • FIG. 5 is a block diagram showing a configuration example of the 3D data generation unit 202. As shown in FIG. 5, the 3D data generation unit 202 includes a development processing unit 202a, a 3D surface restoration unit 202b, and a camera position / orientation estimation unit 202c.
  • the development processing unit 202a generates image data by performing development processing on the image signals from each of the plurality of image pickup elements in the endoscope 5001. Further, the developing processing unit 202a generates depth data of the imaging range by triangulation by parallax using image signals from each of the plurality of image pickup elements, and the 3D surface restoration unit 202b and the camera position / attitude estimation unit 202c. Supply to.
  • the 3D surface restoration unit 202b acquires three-dimensional information of the subject from the depth data from the development processing unit 202a. As a result, the 3D surface restoration unit 202b generates 3D surface map data as a 3D surgical image. Further, the 3D surface restoration unit 202b updates the 3D surface map data by generating 3D surface map data and aligning in the 3D space, and the medical image storage unit 204 as 3D information.
  • the 3D surface restoration unit 202b acquires three-dimensional information of the subject from the depth data from the development processing unit 202a. As a result, the 3D surface restoration unit 202b generates 3D surface map data as a 3D surgical image. Further, the 3D surface restoration unit 202b updates the 3D surface map data by generating 3D surface map data and aligning in the 3D space, and the medical image storage unit 204 as 3D information.
  • the camera position / orientation estimation unit 202c estimates the camera position / orientation by comparing the depth data obtained from the development processing unit 202a with the 3D surface map data generated / restored by the 3D surface restoration unit 202b. (Estimating the movement of the endoscope 5001) (see Patent Document 2).
  • the medical image storage unit 204 is realized by, for example, a RAM (Random Access Memory), a semiconductor memory element such as a flash memory, a hard disk, an optical disk, or the like.
  • the medical image storage unit 204 stores, for example, 3D model images of blood vessels, organs, and the like. That is, 3D model images of blood vessels, organs, etc. based on case data of organs and blood vessels used for past transplantation and case data such as artificial blood vessels are stored in the medical image storage unit 204.
  • the 3D model image is a CG image that can be viewed stereoscopically. Color information for each three-dimensional coordinate is set in the 3D model image.
  • organ information such as the external dimensions of the organ, the outer diameter of the blood vessel, and the inner diameter of the blood vessel is also set in the 3D model image.
  • the alignment processing unit 206 selects a 3D model image to be used for display from the 3D model images stored in the medical image storage unit 204, and instructs the placement position.
  • FIG. 6 is a diagram showing an example in which the alignment processing unit 206 displays a part of the 3D model image of the blood vessel stored in the medical image storage unit 204 on the display device 400.
  • Image 204a is an image example in which the alignment processing unit 206 displays a part of the 3D model image of the blood vessel on the display device 400.
  • Image 204b is an example of an image in which the alignment processing unit 206 displays a selection unit that can be operated via the operation input unit 500 on the display device 400. When the arrow in the image 204b is instructed via the operation input unit 500, the alignment processing unit 206 scrolls the 3D model image in the image 204a in the direction of the arrow.
  • an operator such as an operator or an assistant operates a selection unit displayed as an image 204b displayed on the display device 400 via an operation input unit 500.
  • the operator can sequentially display and view 3D model images of blood vessels, organs, etc. stored in the medical image storage unit 204 on the display device 400.
  • the operator instructs the 3D model image to be used for display from the three-dimensional image data displayed on the display device 400 via the operation input unit 500.
  • the alignment processing unit 206 selects a 3D model image based on the position information instructed via the operation input unit 500.
  • FIG. 6 shows a 3D model image 206d in which a blood vessel model surrounded by a double frame is selected.
  • FIG. 7 is a diagram showing an example of the indicated coordinates 206b and 206c by the alignment processing unit 206. As shown in FIG. 7, the operator directs the instruction coordinates 206b and 206c in the 3D surgical image 206a via the operation input unit 500. For example, the alignment processing unit 206 associates the indicated coordinates 206b and 206c with the 3D model image 206d and stores them in the medical image storage unit 204.
  • the instruction position calculation unit 208 acquires the information of the instruction coordinates 206b and 206c as the operation information representing the user's operation, the position / posture information from the 3D data generation unit 202 and the position / posture information stored in the medical image storage unit 204 3
  • the indicated coordinates 206b and 206c are sequentially calculated based on the three-dimensional surface map data. More specifically, in the designated position calculation unit 208, the positions to which the designated coordinates 206b and 206c are designated are three-dimensional based on the current position and posture of the endoscope 5001 represented by the position / posture information. Find out where on the surface map data it corresponds.
  • the indicated coordinates 206b and 206c recalculated in this way are supplied to the superimposing unit 304 in real time via the acquisition unit 302.
  • the acquisition unit 302 acquires the real-time 3D operation image generated by the 3D data generation unit 202 and the instructed 3D model image 206d (see FIG. 6). That is, the acquisition unit 302 acquires a real-time 3D surgical image that captures the surgical site that can be viewed stereoscopically by the operator, and a 3D model image 206d that is a CG image that can be viewed stereoscopically related to the 3D surgical image.
  • the superimposing unit 304 starts superimposing the 3D model image on a predetermined spatial position (indicated coordinates 206b, 206c) when the 3D surgical image is stereoscopically viewed based on the information set in the 3D model image, the 3D operation is performed.
  • An enhancement process is performed to emphasize that the 3D model image is located at a predetermined spatial position with respect to the image or the 3D model image.
  • FIG. 8 is a block diagram showing a configuration example of the superimposing portion 304.
  • the superimposing unit 304 generates a 3D model image 206d that makes the 3D model stereoscopically viewed.
  • the superimposing unit 304 includes an initial model generation unit 304a, a depth processing unit 304b, an adjustment processing unit 304c, a rotation processing unit 304d, and a color processing unit 304e.
  • the superimposing unit 304 generates a 3D model image 206d by computer graphics (hereinafter may be referred to as CG).
  • CG computer graphics
  • the stereoscopic vision in the present embodiment means, for example, convergence, accommodation, binocular disparity, motion parallax, and the like, but is not limited thereto.
  • Convergence is a stereoscopic view in which the depth is perceived by the principle of triangulation from the rotation angles of the left and right eyes when one point is gazed, for example.
  • Accommodation is stereoscopic vision in which the depth is perceived by focusing the eye.
  • binocular disparity is a stereoscopic view in which the depth is perceived by the amount of horizontal displacement of the corresponding points of the retinas of the left and right eyes.
  • motion parallax is a stereoscopic view that perceives depth based on a change in the retinal image accompanying movement of the viewpoint.
  • a wrench killer lens type monitor, a barrier type monitor, or the like can be used for the display device 400.
  • a method is used in which an image with left and right parallax is displayed on the display portion of the display device 400, and each image is separately inserted into the left and right eyes by the glasses worn by the operator. You may.
  • a polarized spectacle method, an anaglyph method, a liquid crystal shutter method, or the like can be used.
  • the initial model generation unit 304a generates the 3D model image 206d based on the information about the 3D model image 206d acquired via the acquisition unit 302 and the indicated coordinates 206b and 206c. Further, the initial model generation unit 304a adjusts the size of the 3D model image 206d based on the indicated coordinates 206b and 206c. For example, based on the information of the blood vessel diameter set in the 3D model image 206d, the length of the blood vessel is adjusted while maintaining the outer diameter of the blood vessel diameter.
  • FIG. 9 is a diagram in which the 3D model image 206d generated by the initial model generation unit 304a is arranged at the indicated coordinates 206b and 206c in the 3D surgical image 206a. That is, it is a screen showing the initial state of the 3D model image 206d arranged in the 3D surgical image 206a. Since the instruction position calculation unit 208 constantly calculates the instruction coordinates 206b and 206c, the initial state screen of the 3D model image 206d is the instruction in the 3D surgery image 206a even if the positions of the instruction coordinates 206b and 206c change. It is arranged at the positions of coordinates 206b and 206c.
  • the depth processing unit 304b displays the 3D model image 206d generated by the initial model generation unit 304a on the display device 400 before and after the 3D model image 206d in the depth direction of 3D, and then arranges the 3D model image 206b at the correct indicated coordinates 206b and 206c. More specifically, the depth processing unit 304b generates a 3D model image 206d that moves back and forth in the depth direction with respect to a predetermined spatial position (indicated coordinates 206b, 206c) in the 3D surgical image 206a, and creates a real-time 3D. It is superimposed on the surgical image 206a.
  • FIG. 10 is a diagram schematically showing an example in which a CG image generated by the depth processing unit 304b is superimposed on a 3D surgical image 206a.
  • A The figure is a diagram showing an example in which the 3D model image 206d is moved to the operator side in the depth direction.
  • B The figure is a diagram showing an example in which the 3D model image 206d is moved in the direction away from the operator side in the depth direction.
  • the 3D surgical image 206a and the 3D model image 206d are integrally recognized as a 3D image and 3D. It becomes easy to observe the model image 206d in 3D.
  • the indicated position calculation unit 208 since the indicated position calculation unit 208 always calculates the indicated coordinates 206b and 206c (see FIG. 9), the final state screen of the 3D model image 206d even if the positions of the indicated coordinates 206b and 206c change. Is arranged at the positions of the indicated coordinates 206b and 206c in the 3D surgical image 206a.
  • the depth processing unit 304b changes the amount of forward / backward movement in the depth direction with respect to a predetermined spatial position according to the size of the 3D model image 206d. For example, the depth processing unit 304b increases the amount of forward / backward movement as the size of the 3D model image 206d increases. As a result, an observer including an assistant can recognize the 3D model image 206d as a 3D image more naturally, and can fix the recognition.
  • the depth processing unit 304b changes the amount of forward / backward movement in the depth direction with respect to a predetermined spatial position (indicated coordinates 206b, 206c) according to the relative size between the 3D surgical image 206a and the 3D model image 206d. You may. For example, the depth processing unit 304b increases the amount of forward / backward movement as the size of the 3D model image 206d becomes relatively larger than that of the 3D surgical image 206a. As a result, an observer including an assistant can more naturally fix the recognition by using the 3D model image 206d as a 3D image regardless of the size of the 3D model image 206d.
  • the adjustment processing unit 304c generates a 3D model image 206d in which the amount of forward / backward movement in the depth direction with respect to a predetermined spatial position (indicated coordinates 206b, 206c) in the 3D surgical image 206a gradually decreases, and generates a real-time 3D model image 206d. It is superimposed on the 3D surgical image 206a.
  • the adjustment processing unit 304c may generate a 3D model image 206d in which the amount of forward / backward movement gradually decreases.
  • the adjustment processing unit 304c first generates a 3D model image 206d that moves significantly back and forth in the depth direction, and then moves back and forth in the depth direction with respect to the spatial position (indicated coordinates 206b, 206c).
  • a 3D model image 206d is generated in which the amount gradually decreases.
  • FIG. 11 is a diagram schematically showing a CG image generated by the adjustment processing unit 304c.
  • A The figure is a diagram showing an example in which the 3D model image 206d is moved from the spatial position (indicated coordinates 206b, 206c) to the operator side in the depth direction.
  • B The figure is a diagram showing an example in which the 3D model image 206d is moved in a direction away from the operator side in the depth direction from the spatial position (indicated coordinates 206b, 206c).
  • C The figure is a diagram showing an example in which the 3D model image 206d is moved from the spatial position (indicated coordinates 206b, 206c) to the operator side in the depth direction.
  • the amount of movement of the 3D model image 206d gradually decreases in the order of (a), (b), and (c).
  • the adjust processing unit 304c generates a 3D model image 206d in which the amount of forward / backward movement in the depth direction with respect to a predetermined spatial position (indicated coordinates 206b, 206c) in the 3D surgical image 206a gradually decreases.
  • the 3D model image 206d is stopped at the spatial position (indicated coordinates 206b, 206c).
  • the observer including the assistant can more naturally fix the recognition by using the 3D model image 206d as a 3D image while gazing at a predetermined spatial position (indicated coordinates 206b, 206c) in the 3D surgical image 206a. It is possible to make it. Therefore, the transplantation position of the 3D model image 206d can be recognized more accurately.
  • the rotation processing unit 304d generates a 3D model image that rotates the 3D model image 206d with reference to a predetermined spatial position (indicated coordinates 206b, 206c) in the 3D surgical image 206a.
  • the rotation processing unit 304d can perform a process of rotating the 3D model image 206d for each processing function of the depth processing unit 304b and the adjustment processing unit 304c. For example, a demo that rotates the 3D model image 206d, shows the hidden part of the 3D model image 206d, recognizes the entire shape of the model, moves it greatly in the depth direction, and finally adjusts it to fit it in the correct position. It becomes possible to display.
  • FIG. 12 is a diagram schematically showing a CG image generated by the rotation processing unit 304.
  • the figure is a diagram showing an example in which the 3D model image 206d is rotated to the right while moving from the spatial position (indicated coordinates 206b, 206c) to the operator side in the depth direction.
  • the figure is a diagram showing an example in which the 3D model image 206d is rotated to the left while moving in the direction away from the operator side in the depth direction from the spatial position (indicated coordinates 206b, 206c).
  • the color processing unit 304e gradually changes the color of the 3D model image 206d with reference to a predetermined spatial position (indicated coordinates 206b, 206c) in the 3D surgical image 206a.
  • the color processing unit 304e can perform processing for changing the color of the 3D model image 206d in addition to the processing functions of the depth processing unit 304b, the adjustment processing unit 304c, and the rotation processing unit 304d. Further, the color processing unit 304e can also perform a process of coloring the 3D surgical image 206a.
  • FIG. 13 is a diagram schematically showing a CG image generated by the color processing unit 304e.
  • the figure is a diagram showing an example in which the 3D model image 206d is moved from the spatial position (indicated coordinates 206b, 206c) to the operator side in the depth direction and the color is changed.
  • the dotted line schematically indicates a rainbow color.
  • the rainbow colors are, for example, six colors of red, orange, yellow, green, blue, and purple.
  • the color processing unit 304e changes the color of the 3D model image 206d in the order of six colors of red, orange, yellow, green, blue, and purple.
  • the figure is a diagram showing an example in which the 3D model image 206d is moved in a direction away from the operator side in the depth direction from the spatial position (indicated coordinates 206b, 206c).
  • the dotted line shows a color different from that in the figure (a).
  • C The figure is a diagram showing an example in which the 3D model image 206d is moved from the spatial position (indicated coordinates 206b, 206c) to the operator side in the depth direction.
  • the dotted line indicates a color different from that in the figures (a) and (b).
  • FIG. 14 is a diagram schematically showing a 3D surgical image image 2060a generated by coloring and transmitting a 3D surgical image 206a by the color processing unit 304e.
  • A The figure is a diagram showing an example of moving the 3D model image 206d from the spatial position (indicated coordinates 206b, 206c) to the operator side in the depth direction.
  • the 3D surgical image 206a is transparently colored with a light blue color.
  • the figure is a diagram showing an example in which the 3D model image 206d is moved in a direction away from the operator side in the depth direction from the spatial position (indicated coordinates 206b, 206c).
  • the figure is a diagram showing an example in which the 3D model image 206d is moved from the spatial position (indicated coordinates 206b, 206c) to the operator side in the depth direction.
  • FIG. 15 is a flowchart showing a processing example of the medical image processing system 1.
  • the alignment processing unit 206 selects the 3D model image 206d by an operation via the operation input unit 500 (step S100). Subsequently, the alignment processing unit 206 instructs the spatial position (instruction coordinates 206b, 206c) in the 3D surgical image 206a by the operation via the operation input unit 500 (step S102). Subsequently, the designated position calculation unit 208 sequentially calculates the designated coordinates 206b and 206c in the 3D surgical image 206a generated in real time.
  • the acquisition unit 302 acquires the 3D surgical image 206a, the information of the selected 3D model image 206d, and the indicated coordinates 206b and 206c as image information (step S104).
  • the acquisition unit 302 sequentially acquires the real-time 3D surgical image 206a and the indicated coordinates 206b and 206c.
  • the initial model generation unit 304a generates an initial model of the 3D model image 206d based on the image information set in the 3D model image 206d (step S106).
  • the superimposing unit 304 generates a highlighted image (for example, any of FIGS. 10 to 14) of the 3D model image 206d and superimposes and displays it on the real-time 3D surgical image 206a (step S108).
  • the superimposing unit 304 determines whether or not a predetermined end condition is satisfied (step S110), and if the end condition is not satisfied (No in step S110), the process from step S108 is repeated. On the other hand, when the end condition is satisfied (Yes in step S110), the 3D model image 206d is fixedly displayed at the indicated coordinates 206b and 206c, and the process is terminated.
  • the superimposing portion 304 places the 3D model image 206d at a predetermined spatial position (indicated coordinates 206b, 206c) when the 3D surgical image 206a is viewed stereoscopically.
  • a predetermined spatial position indicated coordinates 206b, 206c
  • the 3D surgical image 206a and the 3D model image 206d are used as 3D images. It becomes easier to recognize them integrally.
  • the technology according to the present disclosure can be applied to various products.
  • the technique according to the present disclosure may be applied to a microsurgery system used for so-called microsurgery, which is performed while magnifying and observing a minute part of a patient.
  • FIG. 16 is a diagram showing an example of a schematic configuration of a microsurgery system 5300 to which the technique according to the present disclosure can be applied.
  • the microscope surgery system 5300 includes a microscope device 5301, a control device 5317, and a display device 5319.
  • the "user” means any medical staff who uses the microsurgery system 5300, such as an operator and an assistant.
  • the microscope device 5301 includes a microscope unit 5303 for magnifying and observing an observation target (patient's surgical unit), an arm unit 5309 that supports the microscope unit 5303 at the tip, and a base unit 5315 that supports the base end of the arm unit 5309. , Have.
  • the microscope unit 5303 includes a substantially cylindrical tubular portion 5305, an imaging unit (not shown) provided inside the tubular portion 5305, and an operating unit 5307 provided in a part of the outer periphery of the tubular portion 5305. And consists of.
  • the microscope unit 5303 is an electron imaging type microscope unit (so-called video type microscope unit) that electronically captures an image captured by the imaging unit.
  • a cover glass that protects the internal image pickup unit is provided on the opening surface at the lower end of the tubular portion 5305.
  • the light from the observation target (hereinafter, also referred to as observation light) passes through the cover glass and is incident on the image pickup portion inside the tubular portion 305.
  • a light source made of, for example, an LED (Light Emitting Diode) may be provided inside the tubular portion 5305, and light is emitted from the light source to the observation target through the cover glass at the time of imaging. You may.
  • the image pickup unit is composed of an optical system that collects observation light and an image pickup element that receives the observation light collected by the optical system.
  • the optical system is composed of a combination of a plurality of lenses including a zoom lens and a focus lens, and its optical characteristics are adjusted so as to form an image of observation light on a light receiving surface of an image pickup device.
  • the image pickup device receives the observation light and performs photoelectric conversion to generate a signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • an image pickup device having a Bayer array and capable of color photographing is used.
  • the image pickup device may be various known image pickup devices such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor.
  • the image signal generated by the image pickup device is transmitted to the control device 5317 as RAW data.
  • the transmission of this image signal may be preferably performed by optical communication.
  • the surgeon performs the surgery while observing the condition of the affected area with the captured image, so for safer and more reliable surgery, it is required that the moving image of the surgical site be displayed in real time as much as possible. Because it is done.
  • By transmitting the image signal by optical communication it becomes possible to display the captured image with low latency.
  • the image pickup unit may have a drive mechanism for moving the zoom lens and the focus lens of the optical system along the optical axis. By appropriately moving the zoom lens and the focus lens by the drive mechanism, the magnifying power of the captured image and the focal length at the time of imaging can be adjusted.
  • the imaging unit may be equipped with various functions that can be generally provided in an electronic imaging type microscope unit, such as an AE (Auto Exposure) function and an AF (Auto Focus) function.
  • the image pickup unit may be configured as a so-called single-plate image pickup unit having one image pickup element, or may be configured as a so-called multi-plate type image pickup unit having a plurality of image pickup elements.
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and left eye corresponding to stereoscopic vision (3D display), respectively.
  • the 3D display enables the operator to more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of optical systems may be provided corresponding to each image pickup element.
  • the operation unit 5307 is composed of, for example, a cross lever or a switch, and is an input means for receiving a user's operation input.
  • the user can input an instruction to change the magnification of the observation image and the focal length to the observation target via the operation unit 5307.
  • the magnification and focal length can be adjusted by the drive mechanism of the imaging unit appropriately moving the zoom lens and the focus lens according to the instruction.
  • the user can input an instruction to switch the operation mode (all-free mode and fixed mode described later) of the arm unit 5309 via the operation unit 5307.
  • the operation mode all-free mode and fixed mode described later
  • the operation unit 5307 may be provided at a position where the user can easily operate the tubular portion 5305 with a finger while holding the tubular portion 5305 so that the operation unit 5307 can be operated even while the user is moving the tubular portion 5305. preferable.
  • the arm portion 5309 is configured by connecting a plurality of links (first link 5313a to sixth link 5313f) rotatably to each other by a plurality of joint portions (first joint portion 5311a to sixth joint portion 5311f). Will be done.
  • the first joint portion 5311a has a substantially cylindrical shape, and at its tip (lower end), the upper end of the tubular portion 5305 of the microscope unit 5303 is a rotation axis parallel to the central axis of the tubular portion 5305 (first axis). O 1 ) Support rotatably around.
  • the first joint portion 5311a, the first shaft O 1 can be configured to match the optical axis of the imaging unit of the microscope unit 5303.
  • the first link 5313a fixedly supports the first joint portion 5311a at the tip. More specifically, the first link 5313a is a rod-shaped member having a substantially L-shaped, while stretching in the direction in which one side of the front end side is perpendicular to the first axis O 1, the end portion of the one side is first It is connected to the first joint portion 5311a so as to abut on the upper end portion of the outer periphery of the joint portion 5311a.
  • the second joint portion 5311b is connected to the other end of the base end side of the substantially L-shape of the first link 5313a.
  • the second joint portion 5311b has a substantially cylindrical shape, and at its tip, the base end of the first link 5313a can be rotated around a rotation axis (second axis O 2 ) orthogonal to the first axis O 1. To support.
  • the tip of the second link 5313b is fixedly connected to the base end of the second joint portion 5311b.
  • the second link 5313b is a rod-shaped member having a substantially L-shaped, while stretching in the direction in which one side of the front end side is perpendicular to the second axis O 2, the ends of the one side of the second joint portion 5311b It is fixedly connected to the base end.
  • the third joint portion 5311c is connected to the other side of the base end side of the substantially L-shape of the second link 5313b.
  • the third joint portion 5311c has a substantially cylindrical shape, and at the tip thereof, the base end of the second link 5313b is a rotation axis (third axis O 3) orthogonal to the first axis O 1 and the second axis O 2. ) Support rotatably around.
  • the tip of the third link 5313c is fixedly connected to the base end of the third joint portion 5311c.
  • the third link 5313c is configured so that its tip side has a substantially cylindrical shape, and the proximal end of the third joint portion 5311c has a substantially same central axis at the tip of the cylindrical shape. It is fixedly connected.
  • the base end side of the third link 5313c has a prismatic shape, and the fourth joint portion 5311d is connected to the end portion thereof.
  • Fourth joint section 5311d may have a substantially cylindrical shape, at its distal end, a proximal end of the third link 5313C, rotating axis orthogonal to the third axis O 3 (the fourth shaft O 4) around the rotatable To support.
  • the tip of the fourth link 5313d is fixedly connected to the base end of the fourth joint portion 5311d.
  • Fourth link 5313d is a rod-shaped member extending substantially in a straight line, while stretched so as to be orthogonal to the fourth axis O 4, the end of the tip side of the substantially cylindrical shape of the fourth joint portion 5311d It is fixedly connected to the fourth joint portion 5311d so as to abut.
  • a fifth joint portion 5311e is connected to the base end of the fourth link 5313d.
  • Fifth joint portion 5311e has a substantially cylindrical shape, at its distal end, a proximal end of the fourth link 5313D, parallel rotary shaft and the fourth shaft O 4 pivotable (fifth axis O 5) around Support.
  • the tip of the fifth link 5313e is fixedly connected to the base end of the fifth joint portion 5311e.
  • the fourth axis O 4 and the fifth axis O 5 are rotation axes capable of moving the microscope unit 5303 in the vertical direction. By rotating the distal end of the side structure including a microscope unit 5303 about the fourth shaft O 4 and the fifth axis O 5, the height of the microscope unit 5303, i.e. by adjusting the distance between the observation target and the microscope section 5303 Can be done.
  • the fifth link 5313e has a first member having a substantially L-shape in which one side extends in the vertical direction and the other side extends in the horizontal direction, and the fifth link 5313e vertically downward from a portion of the first member extending in the horizontal direction. It is configured by combining with a rod-shaped second member to be stretched.
  • the base end of the fifth joint portion 5311e is fixedly connected to the vicinity of the upper end of the portion extending in the vertical direction of the first member of the fifth link 5313e.
  • the sixth joint portion 5311f is connected to the base end (lower end) of the second member of the fifth link 5313e.
  • Sixth articulation 5311f has a substantially cylindrical shape, at its distal end, a proximal end of the fifth link 5313E, rotatably supported around a vertical direction parallel to the rotation axis (sixth axis O 6) .
  • the tip of the sixth link 5313f is fixedly connected to the base end of the sixth joint portion 5311f.
  • the sixth link 5313f is a rod-shaped member extending in the vertical direction, and its base end is fixedly connected to the upper surface of the base portion 5315.
  • the rotatable range of the first joint portion 5311a to the sixth joint portion 5311f is appropriately set so that the microscope unit 5303 can perform a desired movement.
  • the arm unit 5309 having the configuration described above a total of 6 degrees of freedom of translation 3 degrees of freedom and rotation 3 degrees of freedom can be realized with respect to the movement of the microscope unit 5303.
  • the position and posture of the microscope unit 5303 can be freely controlled within the movable range of the arm unit 5309. It will be possible. Therefore, it becomes possible to observe the surgical site from all angles, and the surgery can be performed more smoothly.
  • the configuration of the arm portion 5309 shown in the figure is merely an example, and the number and shape (length) of the links constituting the arm portion 5309, the number of joint portions, the arrangement position, the direction of the rotation axis, and the like are freely desired. It may be appropriately designed so that the degree can be realized.
  • the arm unit 5309 in order to move the microscope unit 5303 freely, it is preferable that the arm unit 5309 is configured to have 6 degrees of freedom, but the arm unit 5309 has a larger degree of freedom (that is, redundant freedom). It may be configured to have degrees of freedom.
  • the arm portion 5309 can change the posture of the arm portion 5309 while the position and posture of the microscope portion 5303 are fixed. Therefore, more convenient control for the operator can be realized, for example, by controlling the posture of the arm unit 5309 so that the arm unit 5309 does not interfere with the field of view of the operator looking at the display device 5319.
  • the first joint portion 5311a to the sixth joint portion 5311f may be provided with an actuator equipped with a drive mechanism such as a motor and an encoder or the like for detecting the rotation angle in each joint portion.
  • the posture of the arm portion 5309 that is, the position and posture of the microscope portion 5303 can be controlled by appropriately controlling the drive of each actuator provided in the first joint portion 5311a to the sixth joint portion 5311f by the control device 5317. ..
  • the control device 5317 grasps the current posture of the arm portion 5309 and the current position and posture of the microscope portion 5303 based on the information about the rotation angle of each joint portion detected by the encoder. Can be done.
  • the control device 5317 uses the grasped information to calculate a control value (for example, rotation angle or generated torque) for each joint portion that realizes the movement of the microscope unit 5303 in response to an operation input from the user. Then, the drive mechanism of each joint is driven according to the control value.
  • a control value for example, rotation angle or generated torque
  • the control method of the arm unit 5309 by the control device 5317 is not limited, and various known control methods such as force control or position control may be applied.
  • the control device 5317 appropriately controls the drive of the arm unit 5309 according to the operation input, and controls the position and posture of the microscope unit 5303. May be done.
  • the microscope unit 5303 can be moved from an arbitrary position to an arbitrary position, and then fixedly supported at the moved position.
  • an input device such as a foot switch that can be operated even if the operator holds the surgical tool in his hand.
  • the operation input may be performed in a non-contact manner based on the gesture detection and the line-of-sight detection using a wearable device or a camera provided in the operating room.
  • the arm portion 5309 may be operated by a so-called master slave method.
  • the arm portion 5309 can be remotely controlled by the user via an input device installed at a location away from the operating room.
  • the actuators of the first joint portion 5311a to the sixth joint portion 5311f are driven so as to receive an external force from the user and smoothly move the arm portion 5309 according to the external force.
  • So-called power assist control may be performed.
  • the drive of the arm portion 5309 may be controlled so as to perform a pivot operation.
  • the pivot operation is an operation of moving the microscope unit 5303 so that the optical axis of the microscope unit 5303 always faces a predetermined point in space (hereinafter referred to as a pivot point). According to the pivot operation, it is possible to observe the same observation position from various directions, so that it is possible to observe the affected part in more detail.
  • the pivot operation is performed with the distance between the microscope unit 5303 and the pivot point fixed. In this case, the distance between the microscope unit 5303 and the pivot point may be adjusted to a fixed focal length of the microscope unit 5303.
  • the microscope unit 5303 moves on a hemisphere (schematically illustrated in FIG. 16) having a radius corresponding to the focal length centered on the pivot point, and is clear even if the observation direction is changed. An captured image will be obtained.
  • the pivot operation may be performed in a state where the distance between the microscope unit 5303 and the pivot point is variable.
  • the control device 5317 calculates the distance between the microscope unit 5303 and the pivot point based on the information about the rotation angle of each joint portion detected by the encoder, and the microscope is based on the calculation result.
  • the focal length of unit 5303 may be automatically adjusted.
  • the microscope unit 5303 is provided with an AF function, the AF function may automatically adjust the focal length each time the distance between the microscope unit 5303 and the pivot point changes due to the pivot operation. ..
  • first joint portion 5311a to the sixth joint portion 5311f may be provided with a brake for restraining the rotation thereof.
  • the operation of the brake may be controlled by the control device 5317.
  • the control device 5317 activates the brake of each joint portion.
  • the posture of the arm portion 5309 that is, the position and posture of the microscope portion 5303 can be fixed without driving the actuator, so that the power consumption can be reduced.
  • the control device 5317 may release the brake of each joint unit and drive the actuator according to a predetermined control method.
  • Such an operation of the brake can be performed in response to an operation input by the user via the above-mentioned operation unit 5307.
  • the user wants to move the position and posture of the microscope unit 5303, the user operates the operation unit 5307 to release the brake of each joint portion.
  • the operation mode of the arm portion 5309 shifts to a mode in which rotation in each joint portion can be freely performed (all-free mode).
  • the operation mode of the arm portion 5309 shifts to the mode in which the rotation of each joint portion is restricted (fixed mode).
  • the control device 5317 comprehensively controls the operation of the microscope surgery system 5300 by controlling the operations of the microscope device 5301 and the display device 5319.
  • the control device 5317 controls the drive of the arm portion 5309 by operating the actuators of the first joint portion 5311a to the sixth joint portion 5311f according to a predetermined control method.
  • the control device 5317 changes the operation mode of the arm portion 5309 by controlling the operation of the brakes of the first joint portion 5311a to the sixth joint portion 5311f.
  • the control device 5317 generates image data for display by performing various signal processing on the image signal acquired by the image pickup unit of the microscope unit 5303 of the microscope device 5301, and displays the image data. Displayed on the device 5319.
  • the signal processing for example, development processing (demosaic processing), high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.) and / or enlargement processing (that is, Various known signal processing such as electronic zoom processing) may be performed.
  • the communication between the control device 5317 and the microscope unit 5303 and the communication between the control device 5317 and the first joint portion 5311a to the sixth joint portion 5311f may be wired communication or wireless communication.
  • wired communication communication by an electric signal may be performed, or optical communication may be performed.
  • the transmission cable used for wired communication may be configured as an electric signal cable, an optical fiber, or a composite cable thereof depending on the communication method.
  • wireless communication since it is not necessary to lay a transmission cable in the operating room, it is possible to solve the situation where the transmission cable hinders the movement of the medical staff in the operating room.
  • the control device 5317 may be a processor such as a CPU (Central Processing Unit) or GPU (Graphics Processing Unit), or a microcomputer or a control board in which a processor and a storage element such as a memory are mixedly mounted. By operating the processor of the control device 5317 according to a predetermined program, the various functions described above can be realized.
  • the control device 5317 is provided as a device separate from the microscope device 5301, but the control device 5317 is installed inside the base portion 5315 of the microscope device 5301 and is integrated with the microscope device 5301. It may be configured in.
  • the control device 5317 may be composed of a plurality of devices.
  • a microcomputer, a control board, and the like are arranged in the microscope unit 5303 and the first joint portion 5311a to the sixth joint portion 5311f of the arm portion 5309, respectively, and these are connected to each other so as to be communicable with the control device 5317. Similar functionality may be realized.
  • the display device 5319 is provided in the operating room and displays an image corresponding to the image data generated by the control device 5317 under the control of the control device 5317. That is, the display device 5319 displays an image of the surgical site taken by the microscope unit 5303.
  • the display device 5319 may display various information related to the surgery, such as physical information of the patient and information about the surgical procedure, in place of the image of the surgical site or together with the image of the surgical site. In this case, the display of the display device 5319 may be appropriately switched by an operation by the user.
  • a plurality of display devices 5319 may be provided, and each of the plurality of display devices 5319 may display an image of the surgical site and various information related to the surgery.
  • various known display devices such as a liquid crystal display device or an EL (Electroluminescence) display device may be applied.
  • FIG. 17 is a diagram showing a state of surgery using the microscopic surgery system 5300 shown in FIG.
  • FIG. 17 schematically shows a surgeon 5321 performing surgery on a patient 5325 on a patient bed 5323 using the microsurgery system 5300.
  • the control device 5317 is not shown in the configuration of the microscope surgery system 5300, and the microscope device 5301 is shown in a simplified manner.
  • the image of the surgical site taken by the microscope device 5301 is enlarged and displayed on the display device 5319 installed on the wall surface of the operating room by using the microscope surgery system 5300.
  • the display device 5319 is installed at a position facing the operator 5321, and the operator 5321 observes the state of the operation site by the image projected on the display device 5319, for example, excision of the affected area, and the like.
  • Various measures are taken for.
  • the microscope device 5301 can also function as a support arm device that supports another observation device or other surgical instrument in place of the microscope unit 5303 at its tip.
  • another observation device for example, an endoscope may be applied.
  • forceps, a forceps, a pneumoperitoneum tube for pneumoperitoneum, an energy treatment tool for incising a tissue or sealing a blood vessel by abdomen, or the like can be applied.
  • the technique according to the present disclosure may be applied to a support arm device that supports a configuration other than such a microscope unit.
  • the technique according to the present disclosure can be suitably applied to the control device 5317 among the configurations described above. Specifically, by applying the technique according to the present disclosure to the control device 5317, it becomes easy to recognize the 3D model image 206d as a 3D image. As a result, it is possible to obtain an image of the surgical site that is easy to recognize, so that the surgery can be performed more safely and reliably.
  • An acquisition unit that acquires a real-time 3D surgical image of a surgical site that can be viewed stereoscopically by an operator and a 3D model image that is a CG image that can be viewed stereoscopically related to the 3D surgical image.
  • the superposition of the 3D model image is started at a predetermined spatial position when the 3D surgical image is stereoscopically viewed based on the information set in the 3D model image, the 3D surgical image or the 3D model image is subjected to.
  • a superimposing portion that emphasizes that the 3D model image is located at the predetermined spatial position, and a superimposing portion that emphasizes the position of the 3D model image.
  • a display device for displaying the 3D surgical image and the 3D model image on which the superposed portion is superimposed.
  • the superimposing portion changes the amount of movement in the anteroposterior direction in the depth direction with respect to the predetermined spatial position according to the relative size of the 3D model image and the surgical 3D image, (3) or (4).
  • the medical image processing system further comprising at least one of an endoscope for capturing an original image used to generate the 3D surgical image and a surgical microscope.
  • An acquisition unit that acquires a real-time 3D surgical image of a surgical site that can be viewed stereoscopically by an operator, and a 3D model image that is a CG image that can be viewed stereoscopically related to the 3D surgical image, and the 3D.
  • the 3D surgical image or the 3D model image is said to be described.
  • a superimposing part that emphasizes that the 3D model image is located at the predetermined spatial position, and a superimposing portion that emphasizes that the 3D model image is located at the predetermined spatial position.
  • the superimposition of the 3D model image is started at a predetermined spatial position when the 3D surgical image is stereoscopically viewed based on the information set in the model image, the 3D surgical image or the 3D model image is described as described above.

Abstract

[課題]本開示の一態様は、医用画像内において3Dモデル画像の位置が容易に把握可能な医用画像処理システムを提供する。 [解決手段]医用画像処理システムは、術者が立体視可能な術場を撮像したリアルタイムの3D手術画像と、前記3D手術画像に関連した立体視可能なCG画像である3Dモデル画像とを取得する取得部と、前記3Dモデル画像に設定された情報に基づいて前記3D手術画像を立体視したときの所定の空間位置に前記3Dモデル画像の重畳を開始するときに、前記3D手術画像または前記3Dモデル画像に対して前記3Dモデル画像が前記所定の空間位置に位置することを強調する強調処理を行う重畳部と、を備える。

Description

医用画像処理システム、手術画像制御装置、及び、手術画像制御方法
 本開示は、医用画像処理システム、手術画像制御装置、及び、手術画像制御方法に関する。
 内視鏡や手術用顕微鏡により術場を撮像した手術画像を見ながら手術を行う手術スタイルが提案されている。このとき、血管の位置などをより正確に術者が把握するため、手術画像は3D交差画像や右目用画像と左目用画像などを術者に表示することにより、術者が術場を3Dで把握できる画像(以下、3D手術画像)となっていることが求められている。
特開2020-22563号公報 特開2019-162339号公報
 しかしながら、3D手術画像にナビゲーションなどを示す3Dモデル画像を重畳した場合、リアル画像と3Dモデル画像のテクスチャーの不一致や明るさの不一致などにより、術者の視覚時に違和感が生じる。これにより、術者の脳内において、3D手術画像が示す空間における3Dモデル画像の位置が把握しづらくなる。すなわち、3D手術画像において3Dモデル画像の空間的な重畳位置が術者の脳内における3Dモデル画像の空間的な重畳位置が異なったり、3Dモデル画像が3Dとして把握されなかったりする可能性がある。そこで、本開示の一態様は、3D手術画像内において3Dモデル画像の位置が容易に把握可能な医用画像処理システムを提供する。
 上記の課題を解決するために、本開示では、術者が立体視可能な術場を撮像したリアルタイムの3D手術画像と、前記3D手術画像に関連した立体視可能なCG画像である3Dモデル画像とを取得する取得部と、
 前記3Dモデル画像に設定された情報に基づいて前記3D手術画像を立体視したときの所定の空間位置に前記3Dモデル画像の重畳を開始するときに、前記3D手術画像または前記3Dモデル画像に対して前記3Dモデル画像が前記所定の空間位置に位置することを強調する強調処理を行う重畳部と、
 を備える、医用画像処理システムが提供される。
 前記重畳部が重畳した前記3D手術画像と前記3Dモデル画像とを表示する表示装置を、
 更に備えてもよい。
 前記重畳部は、前記所定の空間位置を基準とした奥行方向に前後移動する前記3Dモデル画像を生成してもよい。
 前記重畳部は、前記所定の空間位置を基準とした奥行方向の前後移動の移動量が徐々に小さくなる前記3Dモデル画像を生成してもよい。
 前記重畳部は、前記所定の空間位置を基準とした奥行方向の前後移動の移動量を前記3Dモデル画像の大きさにより変えてもよい。
 前記重畳部は、前記所定の空間位置を基準として前記3Dモデル画像を回転させてもよい。
 前記重畳部は、前記所定の空間位置を基準として前記3Dモデル画像の色を変更させてもよい。
 前記重畳部は、前記所定の空間位置を基準として前記3Dモデル画像の色を徐々に変化させてもよい。
 前記重畳部は、前記強調処理を行う場合に、3D手術画像の色、空間周波数の少なくとも一方を変更してもよい。
 前記3D手術画像を生成するために用いる原画像を撮影する内視鏡、及び手術用顕微鏡の少なくとも一方を、更に備えてもよい。
 上記の課題を解決するために、本開示では、術者が立体視可能な術場を撮像したリアルタイムの3D手術画像と、前記3D手術画像に関連した立体視可能なCG画像である3Dモデル画像とを取得する取得部と、
 前記3Dモデル画像に設定された情報に基づいて前記3D手術画像を立体視したときの所定の空間位置に前記3Dモデル画像の重畳を開始するときに、前記3D手術画像または前記3Dモデル画像に対して前記3Dモデル画像が前記所定の空間位置に位置することを強調する強調処理を行う重畳部と、
を備える、手術画像制御装置が提供される。
 上記の課題を解決するために、本開示では、術者が立体視可能な術場を撮像したリアルタイムの3D手術画像と、前記3D手術画像に関連した立体視可能なCG画像である3Dモデル画像とを取得する取得工程と、
 前記3Dモデル画像に設定された情報に基づいて前記3D手術画像を立体視したときの所定の空間位置に前記3Dモデル画像の重畳を開始するときに、前記3D手術画像または前記3Dモデル画像に対して前記3Dモデル画像が前記所定の空間位置に位置することを強調する強調処理を行う重畳工程と、
を備える、手術画像制御方法が提供される。
本実施形態に係る医用画像処理システム1のブロック図。 本開示に係る技術が適用され得る内視鏡手術システムの概略的な構成の一例を示す図。 図2に示すカメラヘッド及びCCUの機能構成の一例を示すブロック図。 医用画像処理装置、及び手術画像制御装置0の構成例を示すブロック図。 3Dデータ生成部の構成例を示すブロック図。 指医用画像記憶部に記憶される血管の3Dモデル画像の一部を表示装置に表示させる例を示す図。 位置合わせ処理部206による指示座標cの一例を示す図。 重畳部の構成例を示すブロック図。 3Dモデル画像を3D手術画像内の指示座標に配置した図。 奥行き処理部が生成したCG画像を3D手術画像に重畳した例を模式的に示す図。 アジャスト処理部が生成したCG画像を模式的に示す図。 回転処理部が生成したCG画像を模式的に示す図。 色処理部が生成したCG画像を模式的に示す図。 3D手術画像に色を付け透過させ生成した3D手術画像像を模式的に示す図。 医用画像処理システムの処理例を示すフローチャート。 本開示に係る技術が適用され得る顕微鏡手術システムの概略的な構成の一例を示す図。 図16に示す顕微鏡手術システムを用いた手術の様子を示す図。
 以下、図面を参照して、医用画像処理システム、手術画像制御装置、及び手術画像制御方法の実施形態について説明する。以下では、医用画像処理システム、手術画像制御装置、及び手術画像制御方法の主要な構成部分を中心に説明するが、医用画像処理システム、手術画像制御装置、及び手術画像制御方法には、図示又は説明されていない構成部分や機能が存在しうる。以下の説明は、図示又は説明されていない構成部分や機能を除外するものではない。
 図1は、本実施形態に係る医用画像処理システム1のブロック図である。図1に示すように、医用画像処理システム1は、術者に手術画像を3D交差画像や右目用画像と左目用画像などとして表示可能なシステムである。この医用画像処理システム1は、医用画像撮影装置100と、医用画像処理装置200と、手術画像制御装置300と、表示装置400 と、操作入力部500とを、備える。
 医用画像撮影装置100は、人体を撮影可能な撮影装置である。医用画像撮影装置100は、例えば内視鏡、及び手術用顕微鏡などであり、特に手術中の画像をリアルタイムに撮影可能である。医用画像撮影装置100の詳細は、後述する。
 医用画像処理装置200は、医用画像撮影装置100が撮像した原画像を用いて、術者が立体視可能な術場を撮像したリアルタイムの3D手術画像を生成する。また、医用画像処理装置200は、3D手術画像にナビゲーションなどを示す3Dモデル画像を生成する。3Dモデル画像は、例えば移植する血管、臓器などの3Dモデルである。医用画像処理装置200の詳細も後述する。
 手術画像制御装置300は、医用画像処理装置200で生成された3D手術画像と、3Dモデル画像とを重畳し、表示装置400に表示させる制御を行う。手術画像制御装置300の詳細も後述する。
 表示装置400は、3D表示が可能な装置であり、各種の情報を表示する。例えば、表示装置400は、手術画像制御装置300によって生成された3D手術画像と、3Dモデル画像とを重畳し医用画像や、操作者からの各種操作を受け付けるためのGUI(Graphical User Interface)等を出力する。
 操作入力部500は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して医用画像処理装置200に出力する。例えば、操作入力部500は、3Dモデル画像の配置位置、3Dモデル画像の表示条件や、3D手術画像を構成する際の構成条件、3D手術画像と、3Dモデル画像とを重畳する際の画像処理条件等を操作者から受け付ける。例えば、操作入力部500は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック等により実現される。
 ここで、図2、及び3を用いて、医用画像処理システム1を含む内視鏡手術システム5000の一構成例を説明する。なお、本実施形態に係る内視鏡手術システム5000の内視鏡5001が医用画像撮影装置100に対応し、CCU5039が医用画像処理装置200、及び手術画像制御装置300に対応し、表示装置5041が表示装置400に対応する。このCCU5039の一般的な機能をまず詳細に説明し、特徴的な機能は図4乃至図14を用いてより詳細に説明する。
 図2は、本開示に係る技術が適用され得る内視鏡手術システム5000の概略的な構成の一例を示す図である。図2では、術者(医師)5067が、内視鏡手術システム5000を用いて、患者ベッド5069上の患者5071に手術を行っている様子が図示されている。図示するように、内視鏡手術システム5000は、内視鏡5001と、その他の術具5017と、内視鏡5001を支持する支持アーム装置5027と、内視鏡下手術のための各種の装置が搭載されたカート5037と、から構成される。
 内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ5025a~5025dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5025a~5025dから、内視鏡5001の鏡筒5003や、その他の術具5017が患者5071の体腔内に挿入される。図示する例では、その他の術具5017として、気腹チューブ5019、エネルギー処置具5021及び鉗子5023が、患者5071の体腔内に挿入されている。また、エネルギー処置具5021は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具5017はあくまで一例であり、術具5017としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
 内視鏡5001によって撮影された患者5071の体腔内の術部の画像が、表示装置5041に表示される。術者5067は、表示装置5041に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5021や鉗子5023を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、気腹チューブ5019、エネルギー処置具5021及び鉗子5023は、手術中に、術者5067又は助手等によって支持される。
 (支持アーム装置)
 支持アーム装置5027は、ベース部5029から延伸するアーム部5031を備える。図示する例では、アーム部5031は、関節部5033a、5033b、5033c、及びリンク5035a、5035bから構成されており、アーム制御装置5045からの制御により駆動される。アーム部5031によって内視鏡5001が支持され、その位置及び姿勢が制御される。これにより、内視鏡5001の安定的な位置の固定が実現され得る。
(内視鏡)
 内視鏡5001は、先端から所定の長さの領域が患者5071の体腔内に挿入される鏡筒5003と、鏡筒5003の基端に接続されるカメラヘッド5005と、から構成される。図示する例では、硬性の鏡筒5003を有するいわゆる硬性鏡として構成される内視鏡5001を図示しているが、内視鏡5001は、軟性の鏡筒5003を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒5003の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5001には光源装置5043が接続されており、当該光源装置5043によって生成された光が、鏡筒5003の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者5071の体腔内の観察対象に向かって照射される。なお、内視鏡5001は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド5005の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5039に送信される。なお、カメラヘッド5005には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
 なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5005には撮像素子が複数設けられてもよい。この場合、鏡筒5003の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
 (カートに搭載される各種の装置)
 CCU5039は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5001及び表示装置5041の動作を統括的に制御する。具体的には、CCU5039は、カメラヘッド5005から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5039は、当該画像処理を施した画像信号を表示装置5041に提供する。また、CCU5039は、カメラヘッド5005に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
 表示装置5041は、CCU5039からの制御により、当該CCU5039によって画像処理が施された画像信号に基づく画像を表示する。内視鏡5001が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置5041としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置5041として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5041が設けられてもよい。
 光源装置5043は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5001に供給する。
 アーム制御装置5045は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5027のアーム部5031の駆動を制御する。
 入力装置5047は、内視鏡手術システム5000に対する入力インタフェースである。ユーザは、入力装置5047を介して、内視鏡手術システム5000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置5047を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置5047を介して、アーム部5031を駆動させる旨の指示や、内視鏡5001による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5021を駆動させる旨の指示等を入力する。
 入力装置5047の種類は限定されず、入力装置5047は各種の公知の入力装置であってよい。入力装置5047としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5057及び/又はレバー等が適用され得る。入力装置5047としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5041の表示面上に設けられてもよい。
 あるいは、入力装置5047は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置5047は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置5047は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置5047が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5067)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
 処置具制御装置5049は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5021の駆動を制御する。気腹装置5051は、内視鏡5001による視野の確保及び術者の作業空間の確保の目的で、患者5071の体腔を膨らめるために、気腹チューブ5019を介して当該体腔内にガスを送り込む。レコーダ5053は、手術に関する各種の情報を記録可能な装置である。プリンタ5055は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 以下、内視鏡手術システム5000において特に特徴的な構成について、更に詳細に説明する。
 (支持アーム装置)
 支持アーム装置5027は、基台であるベース部5029と、ベース部5029から延伸するアーム部5031と、を備える。図示する例では、アーム部5031は、複数の関節部5033a、5033b、5033cと、関節部5033bによって連結される複数のリンク5035a、5035bと、から構成されているが、図2では、簡単のため、アーム部5031の構成を簡略化して図示している。実際には、アーム部5031が所望の自由度を有するように、関節部5033a~5033c及びリンク5035a、5035bの形状、数及び配置、並びに関節部5033a~5033cの回転軸の方向等が適宜設定され得る。例えば、アーム部5031は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5031の可動範囲内において内視鏡5001を自由に移動させることが可能になるため、所望の方向から内視鏡5001の鏡筒5003を患者5071の体腔内に挿入することが可能になる。
 関節部5033a~5033cにはアクチュエータが設けられており、関節部5033a~5033cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5045によって制御されることにより、各関節部5033a~5033cの回転角度が制御され、アーム部5031の駆動が制御される。これにより、内視鏡5001の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5045は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5031の駆動を制御することができる。
 例えば、術者5067が、入力装置5047(フットスイッチ5057を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5045によってアーム部5031の駆動が適宜制御され、内視鏡5001の位置及び姿勢が制御されてよい。当該制御により、アーム部5031の先端の内視鏡5001を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部5031は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5031は、手術室から離れた場所に設置される入力装置5047を介してユーザによって遠隔操作され得る。
 また、力制御が適用される場合には、アーム制御装置5045は、ユーザからの外力を受け、その外力にならってスムーズにアーム部5031が移動するように、各関節部5033a~5033cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部5031に触れながらアーム部5031を移動させる際に、比較的軽い力で当該アーム部5031を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡5001を移動させることが可能となり、ユーザの利便性を向上させることができる。
 ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5001が支持されていた。これに対して、支持アーム装置5027を用いることにより、人手によらずに内視鏡5001の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
 なお、アーム制御装置5045は必ずしもカート5037に設けられなくてもよい。また、アーム制御装置5045は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5045は、支持アーム装置5027のアーム部5031の各関節部5033a~5033cにそれぞれ設けられてもよく、複数のアーム制御装置5045が互いに協働することにより、アーム部5031の駆動制御が実現されてもよい。
 (光源装置)
 光源装置5043は、内視鏡5001に術部を撮影する際の照射光を供給する。光源装置5043は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5043において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5005の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置5043は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5005の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置5043は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5043は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 (カメラヘッド及びCCU)
 図3を参照して、内視鏡5001のカメラヘッド5005及びCCU5039の機能についてより詳細に説明する。図3は、図2に示すカメラヘッド5005及びCCU5039の機能構成の一例を示すブロック図である。
 図3を参照すると、カメラヘッド5005は、その機能として、レンズユニット5007と、撮像部5009と、駆動部5011と、通信部5013と、カメラヘッド制御部5015と、を有する。また、CCU5039は、その機能として、通信部5059と、画像処理部5061と、制御部5063と、を有する。カメラヘッド5005とCCU5039とは、伝送ケーブル5065によって双方向に通信可能に接続されている。
 まず、カメラヘッド5005の機能構成について説明する。レンズユニット5007は、鏡筒5003との接続部に設けられる光学系である。鏡筒5003の先端から取り込まれた観察光は、カメラヘッド5005まで導光され、当該レンズユニット5007に入射する。レンズユニット5007は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット5007は、撮像部5009の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
 撮像部5009は撮像素子によって構成され、レンズユニット5007の後段に配置される。レンズユニット5007を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部5009によって生成された画像信号は、通信部5013に提供される。
 撮像部5009を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者5067は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
 また、撮像部5009を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成される。3D表示が行われることにより、術者5067は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部5009が多板式で構成される場合には、各撮像素子に対応して、レンズユニット5007も複数系統設けられる。
 また、撮像部5009は、必ずしもカメラヘッド5005に設けられなくてもよい。例えば、撮像部5009は、鏡筒5003の内部に、対物レンズの直後に設けられてもよい。
 駆動部5011は、アクチュエータによって構成され、カメラヘッド制御部5015からの制御により、レンズユニット5007のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部5009による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部5013は、CCU5039との間で各種の情報を送受信するための通信装置によって構成される。通信部5013は、撮像部5009から得た画像信号をRAWデータとして伝送ケーブル5065を介してCCU5039に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。手術の際には、術者5067が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部5013には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル5065を介してCCU5039に送信される。
 また、通信部5013は、CCU5039から、カメラヘッド5005の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部5013は、受信した制御信号をカメラヘッド制御部5015に提供する。なお、CCU5039からの制御信号も、光通信によって伝送されてもよい。この場合、通信部5013には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部5015に提供される。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU5039の制御部5063によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡5001に搭載される。
 カメラヘッド制御部5015は、通信部5013を介して受信したCCU5039からの制御信号に基づいて、カメラヘッド5005の駆動を制御する。例えば、カメラヘッド制御部5015は、撮像画像のフレームレートを指定する旨の情報及び/又は撮像時の露光を指定する旨の情報に基づいて、撮像部5009の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部5015は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部5011を介してレンズユニット5007のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部5015は、更に、鏡筒5003やカメラヘッド5005を識別するための情報を記憶する機能を備えてもよい。
 なお、レンズユニット5007や撮像部5009等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド5005について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
 次に、CCU5039の機能構成について説明する。通信部5059は、カメラヘッド5005との間で各種の情報を送受信するための通信装置によって構成される。通信部5059は、カメラヘッド5005から、伝送ケーブル5065を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部5059には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部5059は、電気信号に変換した画像信号を画像処理部5061に提供する。
 また、通信部5059は、カメラヘッド5005に対して、カメラヘッド5005の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
 画像処理部5061は、カメラヘッド5005から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部5061は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
 画像処理部5061は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部5061が複数のGPUによって構成される場合には、画像処理部5061は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
 制御部5063は、内視鏡5001による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部5063は、カメラヘッド5005の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部5063は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡5001にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部5063は、画像処理部5061による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
 また、制御部5063は、画像処理部5061によって画像処理が施された画像信号に基づいて、術部の画像を表示装置5041に表示させる。この際、制御部5063は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部5063は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具5021使用時のミスト等を認識することができる。制御部5063は、表示装置5041に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者5067に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
 カメラヘッド5005及びCCU5039を接続する伝送ケーブル5065は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル5065を用いて有線で通信が行われていたが、カメラヘッド5005とCCU5039との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル5065を手術室内に敷設する必要がなくなるため、手術室内における医用スタッフの移動が当該伝送ケーブル5065によって妨げられる事態が解消され得る。
 以上、本開示に係る技術が適用され得る内視鏡手術システム5000の一例について説明した。なお、ここでは、一例として内視鏡手術システム5000について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、本開示に係る技術は、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。
 ここで、図4に基づき、医用画像処理装置200及び手術画像制御装置300の詳細を説明する。図4は、医用画像処理装置200、及び手術画像制御装置300の構成例を示すブロック図である。図4に示すように、医用画像処理装置200は、3Dデータ生成部202と、医用画像記憶部204と、位置合わせ処理部206と有する。手術画像制御装置300は、取得部302と、重畳部304とを有する。
 3Dデータ生成部202は、医用画像撮影装置100から供給された原画像データに基づき、術者が立体視可能な術場を撮像したリアルタイムの3D手術画像を生成する。
 図5は、3Dデータ生成部202の構成例を示すブロック図である。図5に示すように、3Dデータ生成部202は、現像処理部202aと、3D表面復元部202bと、カメラ位置・姿勢推定部202cとを有する。
 現像処理部202aは、内視鏡5001における複数の撮像素子それぞれからの画像信号に対して現像処理を行うことで画像データを生成する。また、この現像処理部202aは、複数の撮像素子それぞれからの画像信号を用いた視差による三角測量により、撮像範囲の深度データを生成し、3D表面復元部202bとカメラ位置・姿勢推定部202cとに供給する。
 3D表面復元部202bは、現像処理部202aからの深度データから被写体の3次元情報を取得する。これにより、3D表面復元部202bは、3次元表面マップデータを3D手術画像として生成する。また、3D表面復元部202bは、3次元表面マップデータを生成したり、3次元空間内での位置合わせを行うことで、3次元表面マップデータを更新し、3次元情報として医用画像記憶部204に記憶する。
 カメラ位置・姿勢推定部202cは、現像処理部202aから得られる深度データと3D表面復元部202bにより生成・復元されている3次元表面マップデータと比較することで、カメラ位置・姿勢の推定を行う(内視鏡5001の動きを推定する)(特許文献2を参照)。
 医用画像記憶部204は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。医用画像記憶部204は、例えば、血管、臓器などの3Dモデル画像を記憶する。すなわち、過去の移植に使用された臓器、及び血管の症例データや、人工血管などの症例データに基づく血管、臓器などの3Dモデル画像が医用画像記憶部204に記憶される。3Dモデル画像は、立体視可能なCG画像である。3Dモデル画像には、3次元座標ごとの色情報が設定される。また、3Dモデル画像には、例えば臓器の外形寸法、血管の外径、内径などの臓器情報も設定される。
 位置合わせ処理部206は、医用画像記憶部204が記憶する3Dモデル画像の中から表示に使用する3Dモデル画像を選択し、配置位置を指示する。
 図6は、位置合わせ処理部206が医用画像記憶部204に記憶される血管の3Dモデル画像の一部を表示装置400に表示させる例を示す図である。画像204aは、位置合わせ処理部206が血管の3Dモデル画像の一部を表示装置400に表示させている画像例である。画像204bは、位置合わせ処理部206が操作入力部500を介して操作可能な選択部を表示装置400に表示している画像例である。位置合わせ処理部206は、画像204b内の矢印が操作入力部500を介して指示されると、矢印の向きに画像204a内の3Dモデル画像をスクロールする。
 例えば、図6に示すように、術者、補助者などの操作者は、表示装置400に表示される画像204bとして表示される選択部を、操作入力部500を介して操作する。これにより、操作者は、医用画像記憶部204に記憶される血管、臓器などの3Dモデル画像を表示装置400に順に表示し、閲覧することが可能となる。そして、操作者は、表示装置400に表示された三次元画像データの中から表示に用いる3Dモデル画像を、操作入力部500を介して指示する。位置合わせ処理部206は、操作入力部500を介して指示された位置情報に基づき、3Dモデル画像を選択する。図6では、二重枠で囲まれた血管モデルが選択された3Dモデル画像206dを示している。
 また、位置合わせ処理部206は、3Dモデル画像と3D手術画像との位置合わせ位置を指示する処理を行う。
 図7は、位置合わせ処理部206による指示座標206b、206cの一例を示す図である。図7に示すように、操作者は、3D手術画像206a内の指示座標206b、206cを、操作入力部500を介して指示する。位置合わせ処理部206は、例えば、この指示座標206b、206cを3Dモデル画像206dに関連づけて医用画像記憶部204に記憶する。
 指示位置算出部208は、ユーザの操作を表す操作情報として、指示座標206b、206cの情報を取得すると、3Dデータ生成部202からの位置・姿勢情報と、医用画像記憶部204に記憶される3次元表面マップデータに基づいて、指示座標206b、206cを順次に算出する。より、具体的には、指示位置算出部208は、位置・姿勢情報で表される現在の内視鏡5001の位置および姿勢に基づいて、指示座標206b、206cが指示されたた位置が3次元表面マップデータ上のどこに該当するかを求める。このようにして再算出された指示座標206b、206cは、取得部302を介して重畳部304にリアルタイムに供給される。
 再び図4に戻り、取得部302は、3Dデータ生成部202が生成したリアルタイムの3D手術画像と、指示された3Dモデル画像206d(図6参照)とを取得する。すなわち、取得部302は、術者が立体視可能な術場を撮像したリアルタイムの3D手術画像と、3D手術画像に関連した立体視可能なCG画像である3Dモデル画像206dとを取得する。
 重畳部304は、3Dモデル画像に設定された情報に基づいて3D手術画像を立体視したときの所定の空間位置(指示座標206b、206c)に3Dモデル画像の重畳を開始するときに、3D手術画像または3Dモデル画像に対して3Dモデル画像が所定の空間位置に位置することを強調する強調処理を行う。
 図8は、重畳部304の構成例を示すブロック図である。図8に示すように、重畳部304は、3Dモデルを立体視させる3Dモデル画像206dを生成する。この重畳部304は、初期モデル生成部304aと、奥行き処理部304bと、アジャスト処理部304cと、回転処理部304dと、色処理部304eとを、有する。例えば、重畳部304は、コンピュータグラフィックス(computer graphics、以下ではCGと称する場合がある)により、3Dモデル画像206dを生成する。
 本実施形態での立体視とは、例えば輻輳(vergence)、調整(accommodation) 、両眼視差(binocular disparity)、運動視差(motion parallax)などを意味するが、これに限定されない。輻輳(vergence)とは、例えば一点を注視したときの左右眼の回転角から3角測量の原理で奥行きを知覚する立体視である。また、調整(accommodation)とは、眼のピント合わせにより奥行きを知覚する立体視である。さらにまた、両眼視差(binocular disparity)とは、左右眼の網膜贈の対応点の水平ずれ量により奥行きを知覚する立体視である。また、運動視差(motion parallax)は、視点移動に伴う網膜像の変化に基づき奥行きを知覚する立体視である。これらの立体視を実現するため、表示装置400に、例えばレンチキラーレンズ方式のモニタ、バリヤー方式のモニタなどを用いることが可能である。或いは、3Dモデル画像206dの表示では、表示装置400の表示部分に、左右の視差をつけた映像を表示し、操作者が装着した眼鏡で左右の目にそれぞれの映像を分けて入れる方法を用いてもよい。この場合、例えば偏光眼鏡方式、アナグリフ方式、液晶シャッター方式などを用いることが可能である。
 初期モデル生成部304aは、取得部302を介して取得された3Dモデル画像206dに関する情報と、指示座標206b、206cとに基づき、3Dモデル画像206dを生成する。また、この初期モデル生成部304aは、指示座標206b、206cに基づき3Dモデル画像206dの大きさを調整する。例えば、3Dモデル画像206dに設定された血管径の情報に基づき、血管径の外径を維持した状態で血管の長さを調整する。
 図9は、初期モデル生成部304aが生成した3Dモデル画像206dを3D手術画像206a内の指示座標206b、206cに配置した図である。すなわち、3D手術画像206a内に配置した3Dモデル画像206dの初期状態を示す画面である。なお、指示位置算出部208が指示座標206b、206cを常に算出しているため、指示座標206b、206cの位置が変動しても3Dモデル画像206dの初期状態画面は、3D手術画像206a内の指示座標206b、206cの位置に配置される。
 奥行き処理部304bは、初期モデル生成部304aが生成した3Dモデル画像206dを3Dの奥行方向に前後するCG画像を表示装置400に表示した後に、正しい指示座標206b、206cに配置する。より具体的には、奥行き処理部304bは、3D手術画像206a内の所定の空間位置(指示座標206b、206c)を基準とした奥行方向に前後移動する3Dモデル画像206dを生成し、リアルタイムの3D手術画像206aに重畳する。
 図10は、奥行き処理部304bが生成したCG画像を3D手術画像206aに重畳した例を模式的に示す図である。(a)図が奥行き方向において操作者側に、3Dモデル画像206dを移動させている例を示す図である。(b)図が奥行き方向において操作者側から離れる方向に、3Dモデル画像206dを移動させている例を示す図である。このようなCG画像を表示させることにより、操作者は3Dモデル画像206dを3D画像としての認識が容易となる。一度、3D画像として認識された3Dモデル画像206dは、指示座標206b、206cに配置されても、3D画像として認識される。このように、3Dモデル画像206dを、補助者を含む観察者などに、3D画像として認識を定着させることにより、3D手術画像206aと3Dモデル画像206dとが3D画像として一体化して認識され、3Dモデル画像206dを3D観察することが容易となる。なお、この場合も、指示位置算出部208が指示座標206b、206c(図9参照)を常に算出しているため、指示座標206b、206cの位置が変動しても3Dモデル画像206dの最終状態画面は、3D手術画像206a内の指示座標206b、206cの位置に配置される。
 また、奥行き処理部304bは、所定の空間位置を基準とした奥行方向の前後移動の移動量を3Dモデル画像206dの大きさにより変える。例えば、奥行き処理部304bは、3Dモデル画像206dの大きさが大きくなるに従い、前後移動の移動量を増加させる。これにより、補助者を含む観察者などは、3Dモデル画像206dを3D画像として、より自然に認識し、認識を定着させることが可能となる。
 また、奥行き処理部304bは、所定の空間位置(指示座標206b、206c)を基準とした奥行方向の前後移動の移動量を3D手術画像206aと3Dモデル画像206dとの相対的な大きさにより変更してもよい。例えば、奥行き処理部304bは、3Dモデル画像206dの大きさが3D手術画像206aに対して相対的に大きくなるに従い、前後移動の移動量を増加させる。これにより、補助者を含む観察者などは、3Dモデル画像206dの大きさによらず、3Dモデル画像206dを3D画像として、より自然に認識を定着させることが可能となる。
 アジャスト処理部304cは、3D手術画像206a内の所定の空間位置(指示座標206b、206c)を基準とした奥行方向の前後移動の移動量が徐々に小さくなる3Dモデル画像206dを生成し、リアルタイムの3D手術画像206aに重畳する。アジャスト処理部304cは、奥行き処理部304bの処理機能に加えて、前後移動の移動量が徐々に小さくなる3Dモデル画像206dを生成してもよい。この場合、アジャスト処理部304cは、最初に奥行方向の前後に大きく移動する3Dモデル画像206dを生成し、次に、空間位置(指示座標206b、206c)を基準とした奥行方向の前後移動の移動量が徐々に小さくなる3Dモデル画像206dを生成する。
 図11は、アジャスト処理部304cが生成したCG画像を模式的に示す図である。(a)図が空間位置(指示座標206b、206c)から奥行き方向において操作者側に、3Dモデル画像206dを移動させている例を示す図である。(b)図が空間位置(指示座標206b、206c)から奥行き方向において操作者側から離れる方向に、3Dモデル画像206dを移動させている例を示す図である。(c)図が空間位置(指示座標206b、206c)から奥行き方向において操作者側に、3Dモデル画像206dを移動させている例を示す図である。3Dモデル画像206dの移動量は、(a)図、(b)図、(c)図の順に次第に小さくなる。このように、アジャスト処理部304cは、3D手術画像206a内の所定の空間位置(指示座標206b、206c)を基準とした奥行方向の前後移動の移動量が徐々に小さくなる3Dモデル画像206dを生成し、最終的に空間位置(指示座標206b、206c)に3Dモデル画像206dを停止する。これにより、補助者を含む観察者などは、3D手術画像206a内の所定の空間位置(指示座標206b、206c)を注視した状態で、3Dモデル画像206dを3D画像として、より自然に認識を定着させることが可能となる。このため、3Dモデル画像206dの移植位置をより正確に認識可能となる。
 回転処理部304dは、3D手術画像206a内の所定の空間位置(指示座標206b、206c)を基準として3Dモデル画像206dを回転させる3Dモデル画像を生成する。回転処理部304dは、奥行き処理部304b、及びアジャスト処理部304cのそれぞれの処理機能に、3Dモデル画像206dを回転させる処理を行うことが可能である。例えば、3Dモデル画像206dを回転させ、3Dモデル画像206dの非表示部分も見せてモデルの全体形状を認識させた後に、奥行き方向に大きく動かし、最後にアジャストして正しい位置にフィッティングするようなデモ表示を行うことが可能となる。
 図12は、回転処理部304が生成したCG画像を模式的に示す図である。(a)図が空間位置(指示座標206b、206c)から奥行き方向において操作者側に、3Dモデル画像206dを移動しつつ右回転させている例を示す図である。(b)図が空間位置(指示座標206b、206c)から奥行き方向において操作者側から離れる方向に、3Dモデル画像206dを移動しつつ左回転させている例を示す図である。このように、3Dモデル画像206dを回転させることにより、3Dモデル画像206dの非表示部分も見せて、3Dモデル画像206dの全体形状を認識させることができる。これにより、3Dモデル画像206dの全体形状を把握した上で、3Dモデル画像206dを3D画像として、より自然に認識を定着させることが可能となる。
 色処理部304eは、3D手術画像206a内の所定の空間位置(指示座標206b、206c)を基準として3Dモデル画像206dの色を徐々に変化させる。色処理部304eは、奥行き処理部304b、アジャスト処理部304c、及び回転処理部304dのそれぞれの処理機能に加え、3Dモデル画像206dの色を変更させる処理を行うことが可能である。また、色処理部304eは、3D手術画像206aに色を付ける処理を行うことも可能である。
 図13は、色処理部304eが生成したCG画像を模式的に示す図である。(a)図が空間位置(指示座標206b、206c)から奥行き方向において操作者側に、3Dモデル画像206dを移動させ、色を変更している例を示す図である。ここで、例えば点線は、レインボーカラーを模式的に示す。レインボーカラーとは、例えば赤、橙、黄、緑、青、紫の6色である。色処理部304eは、例えば、3Dモデル画像206dを赤、橙、黄、緑、青、紫の6色の順に色を変更する。(b)図が空間位置(指示座標206b、206c)から奥行き方向において操作者側から離れる方向に、3Dモデル画像206dを移動させている例を示す図である。ここで、例えば点線は、(a)図と異なる色を示している。(c)図が空間位置(指示座標206b、206c)から奥行き方向において操作者側に、3Dモデル画像206dを移動させている例を示す図である。ここで、例えば点線は、(a)図及び(b)図と異なる色を示している。このように、レインボーカラー表示することにより、3Dモデル画像206dに躍動感を与え、モデル自体を際立たせることが可能となる。
 図14は、色処理部304eが3D手術画像206aに色を付け透過させ生成した3D手術画像像2060aを模式的に示す図である。(a)図が空間位置(指示座標206b、206c)から奥行き方向において操作者側に、3Dモデル画像206dを移動させる例を示す図である。ここで、3D手術画像像2060aは、例えば3D手術画像206aに薄い青色を付け透過させている。(b)図が空間位置(指示座標206b、206c)から奥行き方向において操作者側から離れる方向に、3Dモデル画像206dを移動させている例を示す図である。(c)図が空間位置(指示座標206b、206c)から奥行き方向において操作者側に、3Dモデル画像206dを移動させている例を示す図である。このように、3D手術画像206aに色を付け透過させることにより、3D手術画像206aの鮮鋭感が弱まり、3D手術画像2060aと3Dモデル画像206dとのテクスチャーの違和感が抑制され、3Dモデル画像206dの認識がより容易となる。
 図15は、医用画像処理システム1の処理例を示すフローチャートである。図15に示すように、位置合わせ処理部206は、操作入力部500を介した操作により、3Dモデル画像206dを選択する(ステップS100)。続けて、位置合わせ処理部206は、操作入力部500を介した操作により、3D手術画像206a内に空間位置(指示座標206b、206c)を指示する(ステップS102)。続けて,指示位置算出部208は、リアルタイムに生成される3D手術画像206a内の指示座標206b、206cを順次に演算する。
 次に、取得部302は、3D手術画像206aと、選択された3Dモデル画像206dの情報と、指示座標206b、206cと、を画像情報として取得する(ステップS104)。取得部302は、リアルタイムの3D手術画像206aと指示座標206b、206cとを逐次に取得する。
 次に、初期モデル生成部304aは、3Dモデル画像206dに設定された画像情報に基づき、3Dモデル画像206dの初期モデルを生成する(ステップS106)。
 次に、重畳部304は、3Dモデル画像206dは、強調画像(例えば図10乃至図14のいずれか)を生成し、リアルタイムの3D手術画像206aに重畳表示する(ステップS108)。重畳部304は、所定の終了条件を満たすか否かを判定し(ステップS110)、終了条件を満たさない場合(ステップS110のNo)、ステップS108からの処理を繰り返す。一方で、終了条件を満たす場合(ステップS110のYes)、指示座標206b、206cに3Dモデル画像206dを固定表示し、処理を終了する。
 以上説明したように、本実施形態に係る医用画像処理システム1は、重畳部304が、3D手術画像206aを立体視したときの所定の空間位置(指示座標206b、206c)に3Dモデル画像206dの重畳を開始するときに、3D手術画像206aまたは3Dモデル画像206dに対して3Dモデル画像206dが所定の空間位置(指示座標206b、206c)に位置することを強調する強調処理を行うこととした。このような強調処理をすることにより、3Dモデル画像206dを3D画像として認識することが容易となる。一度、3D画像として認識された3Dモデル画像206dは、指示座標206b、206cに固定的に配置されても、3D画像として認識されるので、3D手術画像206aと3Dモデル画像206dとを3D画像として一体的に認識させることがより容易となる。
 <<応用例>>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、患者の微細部位を拡大観察しながら行う、いわゆるマイクロサージェリーに用いられる顕微鏡手術システムに適用されてもよい。
 図16は、本開示に係る技術が適用され得る顕微鏡手術システム5300の概略的な構成の一例を示す図である。図16を参照すると、顕微鏡手術システム5300は、顕微鏡装置5301と、制御装置5317と、表示装置5319と、から構成される。なお、以下の顕微鏡手術システム5300についての説明において、「ユーザ」とは、術者及び助手等、顕微鏡手術システム5300を使用する任意の医用スタッフのことを意味する。
 顕微鏡装置5301は、観察対象(患者の術部)を拡大観察するための顕微鏡部5303と、顕微鏡部5303を先端で支持するアーム部5309と、アーム部5309の基端を支持するベース部5315と、を有する。
 顕微鏡部5303は、略円柱形状の筒状部5305と、当該筒状部5305の内部に設けられる撮像部(図示せず)と、筒状部5305の外周の一部領域に設けられる操作部5307と、から構成される。顕微鏡部5303は、撮像部によって電子的に撮像画像を撮像する、電子撮像式の顕微鏡部(いわゆるビデオ式の顕微鏡部)である。
 筒状部5305の下端の開口面には、内部の撮像部を保護するカバーガラスが設けられる。観察対象からの光(以下、観察光ともいう)は、当該カバーガラスを通過して、筒状部305の内部の撮像部に入射する。なお、筒状部5305の内部には例えばLED(Light Emitting Diode)等からなる光源が設けられてもよく、撮像時には、当該カバーガラスを介して、当該光源から観察対象に対して光が照射されてもよい。
 撮像部は、観察光を集光する光学系と、当該光学系が集光した観察光を受光する撮像素子と、から構成される。当該光学系は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成され、その光学特性は、観察光を撮像素子の受光面上に結像するように調整されている。当該撮像素子は、観察光を受光して光電変換することにより、観察光に対応した信号、すなわち観察像に対応した画像信号を生成する。当該撮像素子としては、例えばBayer配列を有するカラー撮影可能なものが用いられる。当該撮像素子は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等、各種の公知の撮像素子であってよい。撮像素子によって生成された画像信号は、RAWデータとして制御装置5317に送信される。ここで、この画像信号の送信は、好適に光通信によって行われてもよい。手術現場では、術者が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信で画像信号が送信されることにより、低レイテンシで撮像画像を表示することが可能となる。
 なお、撮像部は、その光学系のズームレンズ及びフォーカスレンズを光軸に沿って移動させる駆動機構を有してもよい。当該駆動機構によってズームレンズ及びフォーカスレンズが適宜移動されることにより、撮像画像の拡大倍率及び撮像時の焦点距離が調整され得る。また、撮像部には、AE(Auto Exposure)機能やAF(Auto Focus)機能等、一般的に電子撮像式の顕微鏡部に備えられ得る各種の機能が搭載されてもよい。
 また、撮像部は、1つの撮像素子を有するいわゆる単板式の撮像部として構成されてもよいし、複数の撮像素子を有するいわゆる多板式の撮像部として構成されてもよい。撮像部が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、当該撮像部は、立体視(3D表示)に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、当該撮像部が多板式で構成される場合には、各撮像素子に対応して、光学系も複数系統が設けられ得る。
 操作部5307は、例えば十字レバー又はスイッチ等によって構成され、ユーザの操作入力を受け付ける入力手段である。例えば、ユーザは、操作部5307を介して、観察像の拡大倍率及び観察対象までの焦点距離を変更する旨の指示を入力することができる。当該指示に従って撮像部の駆動機構がズームレンズ及びフォーカスレンズを適宜移動させることにより、拡大倍率及び焦点距離が調整され得る。また、例えば、ユーザは、操作部5307を介して、アーム部5309の動作モード(後述するオールフリーモード及び固定モード)を切り替える旨の指示を入力することができる。なお、ユーザが顕微鏡部5303を移動させようとする場合には、当該ユーザは筒状部5305を握るように把持した状態で当該顕微鏡部5303を移動させる様態が想定される。従って、操作部5307は、ユーザが筒状部5305を移動させている間でも操作可能なように、ユーザが筒状部5305を握った状態で指によって容易に操作しやすい位置に設けられることが好ましい。
 アーム部5309は、複数のリンク(第1リンク5313a~第6リンク5313f)が、複数の関節部(第1関節部5311a~第6関節部5311f)によって互いに回動可能に連結されることによって構成される。
 第1関節部5311aは、略円柱形状を有し、その先端(下端)で、顕微鏡部5303の筒状部5305の上端を、当該筒状部5305の中心軸と平行な回転軸(第1軸O)まわりに回動可能に支持する。ここで、第1関節部5311aは、第1軸Oが顕微鏡部5303の撮像部の光軸と一致するように構成され得る。これにより、第1軸Oまわりに顕微鏡部5303を回動させることにより、撮像画像を回転させるように視野を変更することが可能になる。
 第1リンク5313aは、先端で第1関節部5311aを固定的に支持する。具体的には、第1リンク5313aは略L字形状を有する棒状の部材であり、その先端側の一辺が第1軸Oと直交する方向に延伸しつつ、当該一辺の端部が第1関節部5311aの外周の上端部に当接するように、第1関節部5311aに接続される。第1リンク5313aの略L字形状の基端側の他辺の端部に第2関節部5311bが接続される。
 第2関節部5311bは、略円柱形状を有し、その先端で、第1リンク5313aの基端を、第1軸Oと直交する回転軸(第2軸O)まわりに回動可能に支持する。第2関節部5311bの基端には、第2リンク5313bの先端が固定的に接続される。
 第2リンク5313bは、略L字形状を有する棒状の部材であり、その先端側の一辺が第2軸Oと直交する方向に延伸しつつ、当該一辺の端部が第2関節部5311bの基端に固定的に接続される。第2リンク5313bの略L字形状の基端側の他辺には、第3関節部5311cが接続される。
 第3関節部5311cは、略円柱形状を有し、その先端で、第2リンク5313bの基端を、第1軸O及び第2軸Oと互いに直交する回転軸(第3軸O)まわりに回動可能に支持する。第3関節部5311cの基端には、第3リンク5313cの先端が固定的に接続される。第2軸O及び第3軸Oまわりに顕微鏡部5303を含む先端側の構成を回動させることにより、水平面内での顕微鏡部5303の位置を変更するように、当該顕微鏡部5303を移動させることができる。つまり、第2軸O及び第3軸Oまわりの回転を制御することにより、撮像画像の視野を平面内で移動させることが可能になる。
 第3リンク5313cは、その先端側が略円柱形状を有するように構成されており、当該円柱形状の先端に、第3関節部5311cの基端が、両者が略同一の中心軸を有するように、固定的に接続される。第3リンク5313cの基端側は角柱形状を有し、その端部に第4関節部5311dが接続される。
 第4関節部5311dは、略円柱形状を有し、その先端で、第3リンク5313cの基端を、第3軸Oと直交する回転軸(第4軸O)まわりに回動可能に支持する。第4関節部5311dの基端には、第4リンク5313dの先端が固定的に接続される。
 第4リンク5313dは、略直線状に延伸する棒状の部材であり、第4軸Oと直交するように延伸しつつ、その先端の端部が第4関節部5311dの略円柱形状の側面に当接するように、第4関節部5311dに固定的に接続される。第4リンク5313dの基端には、第5関節部5311eが接続される。
 第5関節部5311eは、略円柱形状を有し、その先端側で、第4リンク5313dの基端を、第4軸Oと平行な回転軸(第5軸O)まわりに回動可能に支持する。第5関節部5311eの基端には、第5リンク5313eの先端が固定的に接続される。第4軸O及び第5軸Oは、顕微鏡部5303を上下方向に移動させ得る回転軸である。第4軸O及び第5軸Oまわりに顕微鏡部5303を含む先端側の構成を回動させることにより、顕微鏡部5303の高さ、すなわち顕微鏡部5303と観察対象との距離を調整することができる。
 第5リンク5313eは、一辺が鉛直方向に延伸するとともに他辺が水平方向に延伸する略L字形状を有する第1の部材と、当該第1の部材の水平方向に延伸する部位から鉛直下向きに延伸する棒状の第2の部材と、が組み合わされて構成される。第5リンク5313eの第1の部材の鉛直方向に延伸する部位の上端近傍に、第5関節部5311eの基端が固定的に接続される。第5リンク5313eの第2の部材の基端(下端)には、第6関節部5311fが接続される。
 第6関節部5311fは、略円柱形状を有し、その先端側で、第5リンク5313eの基端を、鉛直方向と平行な回転軸(第6軸O)まわりに回動可能に支持する。第6関節部5311fの基端には、第6リンク5313fの先端が固定的に接続される。
 第6リンク5313fは鉛直方向に延伸する棒状の部材であり、その基端はベース部5315の上面に固定的に接続される。
 第1関節部5311a~第6関節部5311fの回転可能範囲は、顕微鏡部5303が所望の動きを可能であるように適宜設定されている。これにより、以上説明した構成を有するアーム部5309においては、顕微鏡部5303の動きに関して、並進3自由度及び回転3自由度の計6自由度の動きが実現され得る。このように、顕微鏡部5303の動きに関して6自由度が実現されるようにアーム部5309を構成することにより、アーム部5309の可動範囲内において顕微鏡部5303の位置及び姿勢を自由に制御することが可能になる。従って、あらゆる角度から術部を観察することが可能となり、手術をより円滑に実行することができる。
 なお、図示するアーム部5309の構成はあくまで一例であり、アーム部5309を構成するリンクの数及び形状(長さ)、並びに関節部の数、配置位置及び回転軸の方向等は、所望の自由度が実現され得るように適宜設計されてよい。例えば、上述したように、顕微鏡部5303を自由に動かすためには、アーム部5309は6自由度を有するように構成されることが好ましいが、アーム部5309はより大きな自由度(すなわち、冗長自由度)を有するように構成されてもよい。冗長自由度が存在する場合には、アーム部5309においては、顕微鏡部5303の位置及び姿勢が固定された状態で、アーム部5309の姿勢を変更することが可能となる。従って、例えば表示装置5319を見る術者の視界にアーム部5309が干渉しないように当該アーム部5309の姿勢を制御する等、術者にとってより利便性の高い制御が実現され得る。
 ここで、第1関節部5311a~第6関節部5311fには、モータ等の駆動機構、及び各関節部における回転角度を検出するエンコーダ等が搭載されたアクチュエータが設けられ得る。そして、第1関節部5311a~第6関節部5311fに設けられる各アクチュエータの駆動が制御装置5317によって適宜制御されることにより、アーム部5309の姿勢、すなわち顕微鏡部5303の位置及び姿勢が制御され得る。具体的には、制御装置5317は、エンコーダによって検出された各関節部の回転角度についての情報に基づいて、アーム部5309の現在の姿勢、並びに顕微鏡部5303の現在の位置及び姿勢を把握することができる。制御装置5317は、把握したこれらの情報を用いて、ユーザからの操作入力に応じた顕微鏡部5303の移動を実現するような各関節部に対する制御値(例えば、回転角度又は発生トルク等)を算出し、当該制御値に応じて各関節部の駆動機構を駆動させる。なお、この際、制御装置5317によるアーム部5309の制御方式は限定されず、力制御又は位置制御等、各種の公知の制御方式が適用されてよい。
 例えば、術者が、図示しない入力装置を介して適宜操作入力を行うことにより、当該操作入力に応じて制御装置5317によってアーム部5309の駆動が適宜制御され、顕微鏡部5303の位置及び姿勢が制御されてよい。当該制御により、顕微鏡部5303を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、当該入力装置としては、術者の利便性を考慮して、例えばフットスイッチ等、術者が手に術具を有していても操作可能なものが適用されることが好ましい。また、ウェアラブルデバイスや手術室内に設けられるカメラを用いたジェスチャ検出や視線検出に基づいて、非接触で操作入力が行われてもよい。これにより、清潔域に属するユーザであっても、不潔域に属する機器をより自由度高く操作することが可能になる。あるいは、アーム部5309は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5309は、手術室から離れた場所に設置される入力装置を介してユーザによって遠隔操作され得る。
 また、力制御が適用される場合には、ユーザからの外力を受け、その外力にならってスムーズにアーム部5309が移動するように第1関節部5311a~第6関節部5311fのアクチュエータが駆動される、いわゆるパワーアシスト制御が行われてもよい。これにより、ユーザが、顕微鏡部5303を把持して直接その位置を移動させようとする際に、比較的軽い力で顕微鏡部5303を移動させることができる。従って、より直感的に、より簡易な操作で顕微鏡部5303を移動させることが可能となり、ユーザの利便性を向上させることができる。
 また、アーム部5309は、ピボット動作をするようにその駆動が制御されてもよい。ここで、ピボット動作とは、顕微鏡部5303の光軸が空間上の所定の点(以下、ピボット点という)を常に向くように、顕微鏡部5303を移動させる動作である。ピボット動作によれば、同一の観察位置を様々な方向から観察することが可能となるため、より詳細な患部の観察が可能となる。なお、顕微鏡部5303が、その焦点距離を調整不可能に構成される場合には、顕微鏡部5303とピボット点との距離が固定された状態でピボット動作が行われることが好ましい。この場合には、顕微鏡部5303とピボット点との距離を、顕微鏡部5303の固定的な焦点距離に調整しておけばよい。これにより、顕微鏡部5303は、ピボット点を中心とする焦点距離に対応する半径を有する半球面(図16に概略的に図示する)上を移動することとなり、観察方向を変更しても鮮明な撮像画像が得られることとなる。一方、顕微鏡部5303が、その焦点距離を調整可能に構成される場合には、顕微鏡部5303とピボット点との距離が可変な状態でピボット動作が行われてもよい。この場合には、例えば、制御装置5317は、エンコーダによって検出された各関節部の回転角度についての情報に基づいて、顕微鏡部5303とピボット点との距離を算出し、その算出結果に基づいて顕微鏡部5303の焦点距離を自動で調整してもよい。あるいは、顕微鏡部5303にAF機能が設けられる場合であれば、ピボット動作によって顕微鏡部5303とピボット点との距離が変化するごとに、当該AF機能によって自動で焦点距離の調整が行われてもよい。
 また、第1関節部5311a~第6関節部5311fには、その回転を拘束するブレーキが設けられてもよい。当該ブレーキの動作は、制御装置5317によって制御され得る。例えば、顕微鏡部5303の位置及び姿勢を固定したい場合には、制御装置5317は各関節部のブレーキを作動させる。これにより、アクチュエータを駆動させなくてもアーム部5309の姿勢、すなわち顕微鏡部5303の位置及び姿勢が固定され得るため、消費電力を低減することができる。顕微鏡部5303の位置及び姿勢を移動したい場合には、制御装置5317は、各関節部のブレーキを解除し、所定の制御方式に従ってアクチュエータを駆動させればよい。
 このようなブレーキの動作は、上述した操作部5307を介したユーザによる操作入力に応じて行われ得る。ユーザは、顕微鏡部5303の位置及び姿勢を移動したい場合には、操作部5307を操作し、各関節部のブレーキを解除させる。これにより、アーム部5309の動作モードが、各関節部における回転を自由に行えるモード(オールフリーモード)に移行する。また、ユーザは、顕微鏡部5303の位置及び姿勢を固定したい場合には、操作部5307を操作し、各関節部のブレーキを作動させる。これにより、アーム部5309の動作モードが、各関節部における回転が拘束されたモード(固定モード)に移行する。
 制御装置5317は、顕微鏡装置5301及び表示装置5319の動作を制御することにより、顕微鏡手術システム5300の動作を統括的に制御する。例えば、制御装置5317は、所定の制御方式に従って第1関節部5311a~第6関節部5311fのアクチュエータを動作させることにより、アーム部5309の駆動を制御する。また、例えば、制御装置5317は、第1関節部5311a~第6関節部5311fのブレーキの動作を制御することにより、アーム部5309の動作モードを変更する。また、例えば、制御装置5317は、顕微鏡装置5301の顕微鏡部5303の撮像部によって取得された画像信号に各種の信号処理を施すことにより、表示用の画像データを生成するとともに、当該画像データを表示装置5319に表示させる。当該信号処理では、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)及び/又は拡大処理(すなわち、電子ズーム処理)等、各種の公知の信号処理が行われてよい。
 なお、制御装置5317と顕微鏡部5303との通信、及び制御装置5317と第1関節部5311a~第6関節部5311fとの通信は、有線通信であってもよいし無線通信であってもよい。有線通信の場合には、電気信号による通信が行われてもよいし、光通信が行われてもよい。この場合、有線通信に用いられる伝送用のケーブルは、その通信方式に応じて電気信号ケーブル、光ファイバ、又はこれらの複合ケーブルとして構成され得る。一方、無線通信の場合には、手術室内に伝送ケーブルを敷設する必要がなくなるため、当該伝送ケーブルによって医用スタッフの手術室内の移動が妨げられる事態が解消され得る。
 制御装置5317は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイコン若しくは制御基板等であり得る。制御装置5317のプロセッサが所定のプログラムに従って動作することにより、上述した各種の機能が実現され得る。なお、図示する例では、制御装置5317は、顕微鏡装置5301と別個の装置として設けられているが、制御装置5317は、顕微鏡装置5301のベース部5315の内部に設置され、顕微鏡装置5301と一体的に構成されてもよい。あるいは、制御装置5317は、複数の装置によって構成されてもよい。例えば、顕微鏡部5303や、アーム部5309の第1関節部5311a~第6関節部5311fにそれぞれマイコンや制御基板等が配設され、これらが互いに通信可能に接続されることにより、制御装置5317と同様の機能が実現されてもよい。
 表示装置5319は、手術室内に設けられ、制御装置5317からの制御により、当該制御装置5317によって生成された画像データに対応する画像を表示する。つまり、表示装置5319には、顕微鏡部5303によって撮影された術部の画像が表示される。なお、表示装置5319は、術部の画像に代えて、又は術部の画像とともに、例えば患者の身体情報や手術の術式についての情報等、手術に関する各種の情報を表示してもよい。この場合、表示装置5319の表示は、ユーザによる操作によって適宜切り替えられてよい。あるいは、表示装置5319は複数設けられてもよく、複数の表示装置5319のそれぞれに、術部の画像や手術に関する各種の情報が、それぞれ表示されてもよい。なお、表示装置5319としては、液晶ディスプレイ装置又はEL(Electro Luminescence)ディスプレイ装置等、各種の公知の表示装置が適用されてよい。
 図17は、図16に示す顕微鏡手術システム5300を用いた手術の様子を示す図である。図17では、術者5321が、顕微鏡手術システム5300を用いて、患者ベッド5323上の患者5325に対して手術を行っている様子を概略的に示している。なお、図17では、簡単のため、顕微鏡手術システム5300の構成のうち制御装置5317の図示を省略するとともに、顕微鏡装置5301を簡略化して図示している。
 図17に示すように、手術時には、顕微鏡手術システム5300を用いて、顕微鏡装置5301によって撮影された術部の画像が、手術室の壁面に設置される表示装置5319に拡大表示される。表示装置5319は、術者5321と対向する位置に設置されており、術者5321は、表示装置5319に映し出された映像によって術部の様子を観察しながら、例えば患部の切除等、当該術部に対して各種の処置を行う。
 以上、本開示に係る技術が適用され得る顕微鏡手術システム5300の一例について説明した。なお、ここでは、一例として顕微鏡手術システム5300について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、顕微鏡装置5301は、その先端に顕微鏡部5303に代えて他の観察装置や他の術具を支持する、支持アーム装置としても機能し得る。当該他の観察装置としては、例えば内視鏡が適用され得る。また、当該他の術具としては、鉗子、攝子、気腹のための気腹チューブ、又は焼灼によって組織の切開や血管の封止を行うエネルギー処置具等が適用され得る。これらの観察装置や術具を支持アーム装置によって支持することにより、医用スタッフが人手で支持する場合に比べて、より安定的に位置を固定することが可能となるとともに、医用スタッフの負担を軽減することが可能となる。本開示に係る技術は、このような顕微鏡部以外の構成を支持する支持アーム装置に適用されてもよい。
 本開示に係る技術は、以上説明した構成のうち、制御装置5317に好適に適用され得る。具体的には、制御装置5317に本開示に係る技術を適用することにより、3Dモデル画像206dを3D画像として認識することが容易となる。これにより、認識容易な術部画像を得ることができるため、手術をより安全にかつより確実に行うことが可能になる。
 なお、本技術は以下のような構成を取ることができる。
 (1)術者が立体視可能な術場を撮像したリアルタイムの3D手術画像と、前記3D手術画像に関連した立体視可能なCG画像である3Dモデル画像とを取得する取得部と、
 前記3Dモデル画像に設定された情報に基づいて前記3D手術画像を立体視したときの所定の空間位置に前記3Dモデル画像の重畳を開始するときに、前記3D手術画像または前記3Dモデル画像に対して前記3Dモデル画像が前記所定の空間位置に位置することを強調する強調処理を行う重畳部と、
を備える、医用画像処理システム。
 (2)前記重畳部が重畳した前記3D手術画像と前記3Dモデル画像とを表示する表示装置を、
 更に備える、(1)に記載の医用画像処理システム。
 (3)前記重畳部は、前記所定の空間位置を基準とした奥行方向に前後移動する前記3Dモデル画像を生成する、(1)又は(2)に記載の医用画像処理システム。
 (4)前記重畳部は、前記所定の空間位置を基準とした奥行方向の前後移動の移動量が徐々に小さくなる前記3Dモデル画像を生成する、(3)に記載の医用画像処理システム。
 (5)前記重畳部は、前記所定の空間位置を基準とした奥行方向の前後移動の移動量を前記3Dモデル画像の大きさにより変える、(3)又は(4)に記載の医用画像処理システム。
 (6)前記重畳部は、前記所定の空間位置を基準とした奥行方向の前後移動の移動量を前記3Dモデル画像と手術3D画像との相対的な大きさにより変える、(3)又は(4)に記載の医用画像処理システム。
 (7)前記重畳部は、前記所定の空間位置を基準として前記3Dモデル画像を回転させる、(3)乃至(5)のいずれかに記載の医用画像処理システム。
 (8)前記重畳部は、前記所定の空間位置を基準として前記3Dモデル画像の色を変更させる、(3)乃至(7)のいずれかに記載の医用画像処理システム。
 (9)前記重畳部は、前記所定の空間位置を基準として前記3Dモデル画像の色を徐々に変化させる、(8)に記載の医用画像処理システム。
 (10)記重畳部は、前記強調処理を行う場合に、3D手術画像の色、空間周波数の少なくとも一方を変更する、(1)に記載の医用画像処理システム。
 (11)前記3D手術画像を生成するために用いる原画像を撮影する内視鏡、及び手術用顕微鏡の少なくとも一方を、更に備える、(1)に記載の医用画像処理システム。
 (12)術者が立体視可能な術場を撮像したリアルタイムの3D手術画像と、前記3D手術画像に関連した立体視可能なCG画像である3Dモデル画像とを取得する取得部と、 前記3Dモデル画像に設定された情報に基づいて前記3D手術画像を立体視したときの所定の空間位置に前記3Dモデル画像の重畳を開始するときに、前記3D手術画像または前記3Dモデル画像に対して前記3Dモデル画像が前記所定の空間位置に位置することを強調する強調処理を行う重畳部と、
 を備える、手術画像制御装置。
 (13)術者が立体視可能な術場を撮像したリアルタイムの3D手術画像と、前記3D手術画像に関連した立体視可能なCG画像である3Dモデル画像とを取得する取得工程と、 前記3Dモデル画像に設定された情報に基づいて前記3D手術画像を立体視したときの所定の空間位置に前記3Dモデル画像の重畳を開始するときに、前記3D手術画像または前記3Dモデル画像に対して前記3Dモデル画像が前記所定の空間位置に位置することを強調する強調処理を行う重畳工程と、
を備える、手術画像制御方法。
 1:医用画像処理システム、206a:3D手術画像、206d:3Dモデル画像、302:取得部、304:重畳部、400、5041,5319:表示装置、5011:内視鏡、5301:顕微鏡装置。

Claims (13)

  1.  術者が立体視可能な術場を撮像したリアルタイムの3D手術画像と、前記3D手術画像に関連した立体視可能なCG画像である3Dモデル画像とを取得する取得部と、
     前記3Dモデル画像に設定された情報に基づいて前記3D手術画像を立体視したときの所定の空間位置に前記3Dモデル画像の重畳を開始するときに、前記3D手術画像または前記3Dモデル画像に対して前記3Dモデル画像が前記所定の空間位置に位置することを強調する強調処理を行う重畳部と、
     を備える、医用画像処理システム。
  2.  前記重畳部が重畳した前記3D手術画像と前記3Dモデル画像とを表示する表示装置を、
     更に備える、請求項1に記載の医用画像処理システム。
  3.  前記重畳部は、前記所定の空間位置を基準とした奥行方向に前後移動する前記3Dモデル画像を生成する、請求項1に記載の医用画像処理システム。
  4.  前記重畳部は、前記所定の空間位置を基準とした奥行方向の前後移動の移動量が徐々に小さくなる前記3Dモデル画像を生成する、請求項3に記載の医用画像処理システム。
  5.  前記重畳部は、前記所定の空間位置を基準とした奥行方向の前後移動の移動量を前記3Dモデル画像の大きさにより変える、請求項3に記載の医用画像処理システム。
  6.  前記重畳部は、前記所定の空間位置を基準とした奥行方向の前後移動の移動量を前記3Dモデル画像と手術3D画像との相対的な大きさにより変える、請求項3に記載の医用画像処理システム。
  7.  前記重畳部は、前記所定の空間位置を基準として前記3Dモデル画像を回転させる、請求項3に記載の医用画像処理システム。
  8.  前記重畳部は、前記所定の空間位置を基準として前記3Dモデル画像の色を変更させる、請求項3に記載の医用画像処理システム。
  9.  前記重畳部は、前記所定の空間位置を基準として前記3Dモデル画像の色を徐々に変化させる、請求項8に記載の医用画像処理システム。
  10.  前記重畳部は、前記強調処理を行う場合に、3D手術画像の色、空間周波数の少なくとも一方を変更する、請求項1に記載の医用画像処理システム。
  11.  前記3D手術画像を生成するために用いる原画像を撮影する内視鏡、及び手術用顕微鏡の少なくとも一方を、更に備える、請求項1に記載の医用画像処理システム。
  12.  術者が立体視可能な術場を撮像したリアルタイムの3D手術画像と、前記3D手術画像に関連した立体視可能なCG画像である3Dモデル画像とを取得する取得部と、
     前記3Dモデル画像に設定された情報に基づいて前記3D手術画像を立体視したときの所定の空間位置に前記3Dモデル画像の重畳を開始するときに、前記3D手術画像または前記3Dモデル画像に対して前記3Dモデル画像が前記所定の空間位置に位置することを強調する強調処理を行う重畳部と、
     を備える、手術画像制御装置。
  13.  術者が立体視可能な術場を撮像したリアルタイムの3D手術画像と、前記3D手術画像に関連した立体視可能なCG画像である3Dモデル画像とを取得する取得工程と、
     前記3Dモデル画像に設定された情報に基づいて前記3D手術画像を立体視したときの所定の空間位置に前記3Dモデル画像の重畳を開始するときに、前記3D手術画像または前記3Dモデル画像に対して前記3Dモデル画像が前記所定の空間位置に位置することを強調する強調処理を行う重畳工程と、
     を備える、手術画像制御方法。
PCT/JP2021/019308 2020-06-15 2021-05-21 医用画像処理システム、手術画像制御装置、及び、手術画像制御方法 WO2021256168A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/000,914 US20230222740A1 (en) 2020-06-15 2021-05-21 Medical image processing system, surgical image control device, and surgical image control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020103123A JP2023103499A (ja) 2020-06-15 2020-06-15 医用画像処理システム、手術画像制御装置、及び、手術画像制御方法
JP2020-103123 2020-06-15

Publications (1)

Publication Number Publication Date
WO2021256168A1 true WO2021256168A1 (ja) 2021-12-23

Family

ID=79267819

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/019308 WO2021256168A1 (ja) 2020-06-15 2021-05-21 医用画像処理システム、手術画像制御装置、及び、手術画像制御方法

Country Status (3)

Country Link
US (1) US20230222740A1 (ja)
JP (1) JP2023103499A (ja)
WO (1) WO2021256168A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022124398A1 (ja) * 2020-12-10 2022-06-16 三菱電機株式会社 遠隔制御マニピュレータシステムおよび遠隔制御支援システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017502807A (ja) * 2014-01-06 2017-01-26 ボディ・ビジョン・メディカル・リミテッドBody Vision Medical Ltd. 外科装置及び該使用の方法
JP2017512554A (ja) * 2014-03-19 2017-05-25 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 視線追跡を使用する医療装置、システム、及び方法
WO2018012080A1 (ja) * 2016-07-12 2018-01-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム
WO2018195216A1 (en) * 2017-04-18 2018-10-25 Intuitive Surgical Operations, Inc. Graphical user interface for monitoring an image-guided procedure
JP2018532467A (ja) * 2015-09-18 2018-11-08 オーリス ヘルス インコーポレイテッド 管状網のナビゲーション

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017502807A (ja) * 2014-01-06 2017-01-26 ボディ・ビジョン・メディカル・リミテッドBody Vision Medical Ltd. 外科装置及び該使用の方法
JP2017512554A (ja) * 2014-03-19 2017-05-25 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 視線追跡を使用する医療装置、システム、及び方法
JP2018532467A (ja) * 2015-09-18 2018-11-08 オーリス ヘルス インコーポレイテッド 管状網のナビゲーション
WO2018012080A1 (ja) * 2016-07-12 2018-01-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム
WO2018195216A1 (en) * 2017-04-18 2018-10-25 Intuitive Surgical Operations, Inc. Graphical user interface for monitoring an image-guided procedure

Also Published As

Publication number Publication date
JP2023103499A (ja) 2023-07-27
US20230222740A1 (en) 2023-07-13

Similar Documents

Publication Publication Date Title
JP7088185B2 (ja) 医療用システム、医療用装置および制御方法
JP7151109B2 (ja) 医療用撮像装置及び医療用観察システム
WO2020045015A1 (ja) 医療システム、情報処理装置及び情報処理方法
CN111278344B (zh) 手术臂系统和手术臂控制系统
US11540700B2 (en) Medical supporting arm and medical system
WO2018088113A1 (ja) 関節駆動用アクチュエータ及び医療用システム
US20220008156A1 (en) Surgical observation apparatus, surgical observation method, surgical light source device, and surgical light irradiation method
JP2020074926A (ja) 医療用観察システム、信号処理装置及び医療用観察方法
JPWO2018221041A1 (ja) 医療用観察システム及び医療用観察装置
WO2021256168A1 (ja) 医用画像処理システム、手術画像制御装置、及び、手術画像制御方法
US11729493B2 (en) Image capture apparatus and image capture method
WO2020262262A1 (ja) 医療用観察システム、制御装置及び制御方法
JP7092111B2 (ja) 撮像装置、映像信号処理装置および映像信号処理方法
WO2019181242A1 (ja) 内視鏡及びアームシステム
WO2017221491A1 (ja) 制御装置、制御システム、および制御方法
WO2020203225A1 (ja) 医療システム、情報処理装置及び情報処理方法
WO2020203164A1 (ja) 医療システム、情報処理装置及び情報処理方法
WO2020045014A1 (ja) 医療システム、情報処理装置及び情報処理方法
WO2018043205A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
WO2022004250A1 (ja) 医療システム、情報処理装置及び情報処理方法
WO2023176133A1 (ja) 内視鏡用保持装置、内視鏡手術システム、及び制御方法
JP7420141B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
WO2021044900A1 (ja) 施術システム、画像処理装置、画像処理方法、及びプログラム
WO2020050187A1 (ja) 医療システム、情報処理装置及び情報処理方法
WO2020084999A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21826776

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21826776

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP