JP2013031660A - Method and apparatus for processing medical image, and robotic surgery system using image guidance - Google Patents

Method and apparatus for processing medical image, and robotic surgery system using image guidance Download PDF

Info

Publication number
JP2013031660A
JP2013031660A JP2012167110A JP2012167110A JP2013031660A JP 2013031660 A JP2013031660 A JP 2013031660A JP 2012167110 A JP2012167110 A JP 2012167110A JP 2012167110 A JP2012167110 A JP 2012167110A JP 2013031660 A JP2013031660 A JP 2013031660A
Authority
JP
Japan
Prior art keywords
medical
image
video
surface information
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012167110A
Other languages
Japanese (ja)
Other versions
JP6395995B2 (en
Inventor
Dong Ryeol Park
東 烈 朴
Yeon-Ho Kim
錬 ▲ほ▼ 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013031660A publication Critical patent/JP2013031660A/en
Application granted granted Critical
Publication of JP6395995B2 publication Critical patent/JP6395995B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/506Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of nerves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Pulmonology (AREA)
  • Dentistry (AREA)
  • Neurology (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method and apparatus for processing medical image, and robotic surgery system using image guidance.SOLUTION: The method of processing a medical image, includes: acquiring medical images captured using a plurality of different medical image capturing apparatuses with respect to a predetermined organ; extracting surface information of the predetermined organ, which is included in each of the medical images, from each of the medical images; mapping each of the medical images using the extracted surface information; and generating a synthesis image in which the medical images have been matched, based on the mapping result.

Description

本発明は、医療映像を処理する方法及び装置に関り、特に映像誘導を利用したロボット手術システムに関する。   The present invention relates to a method and apparatus for processing medical images, and more particularly, to a robotic surgery system using image guidance.

ロボット手術は、開腹手術と異なり、医師が患者の体内の手術部位を直接肉眼で見ることができず、モニターに表示された画面のみを通じて手術部位を把握することになる。ロボット手術を執刀する医師は、手術前にコンピュータ断層撮影(Computed Tomography:CT)、磁気共鳴映像(Magnetic Resonance Imaging:MRI)、超音波映像などを通じて手術部位を把握して手術するが、これは、医師の経験に多く依存するという限界がある。また、手術部位映像を獲得するために、腹腔鏡を患者の体内に挿入して、表示された体内の実際の映像を見つつ、ロボット手術を進める方法も試みられた。しかし、手術部位に対して、腹腔鏡のような内視鏡のみで獲得できる映像は、体内の臓器組織の外部表面についての映像だけであるので、手術部位が臓器により隠れて見えない場合や手術部位が臓器の内部である場合には、手術部位についての正確な位置及び形態などを正確に把握し難い。   In robotic surgery, unlike open surgery, a doctor cannot directly see the surgical site in the patient's body with the naked eye, but grasps the surgical site only through the screen displayed on the monitor. Doctors who perform robotic surgery perform surgery by grasping the surgical site through computed tomography (CT), magnetic resonance imaging (MRI), ultrasound images, etc. before surgery, There is a limit that depends heavily on the experience of the doctor. In addition, in order to acquire a surgical site image, a method has been tried in which a laparoscope is inserted into a patient's body and robot surgery is performed while viewing the displayed actual image in the body. However, the only images that can be acquired with an endoscope such as a laparoscope are only images of the external surface of the organ tissue in the body. When the site is inside an organ, it is difficult to accurately grasp the exact position and form of the surgical site.

米国特許第5704897号明細書US Pat. No. 5,704,897

本発明の目的は、医療映像を処理する方法及び装置を提供することである。また、前記方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供することである。さらに、処理された医療映像に基づいて、映像誘導を利用したロボット手術システムを提供することである。ただし、本発明の目的は、前記したような目的に限定されるものではない。   An object of the present invention is to provide a method and apparatus for processing medical images. It is another object of the present invention to provide a computer-readable recording medium that records a program for causing the computer to execute the method. Furthermore, it is to provide a robotic surgery system using image guidance based on the processed medical image. However, the object of the present invention is not limited to the object described above.

本発明の一側面によれば、医療映像処理方法は、相異なる複数の医療映像撮影装置を利用して撮影された所定の臓器についての医療映像を獲得するステップと、前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出するステップと、前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングするステップと、前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成するステップと、を含む。   According to an aspect of the present invention, a medical image processing method includes a step of acquiring a medical image of a predetermined organ imaged using a plurality of different medical image imaging devices, and each of the acquired medical images Respectively, extracting the surface information of the predetermined organ included in each of the acquired medical images, mapping the medical images using the extracted surface information, Generating a composite image in which the medical images are aligned based on a mapping result.

他の側面によれば、前記医療映像処理方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供する。   According to another aspect, a computer-readable recording medium recording a program for causing the medical image processing method to be executed by a computer is provided.

さらに他の側面によれば、医療映像処理装置は、相異なる複数の医療映像撮影装置を利用して撮影された所定の臓器についての医療映像を獲得する映像獲得部と、前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出する表面情報抽出部と、前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングする映像マッピング部と、前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成する合成映像生成部と、を備える。   According to still another aspect, the medical video processing device includes a video acquisition unit that acquires a medical video of a predetermined organ imaged using a plurality of different medical video imaging devices, and the acquired medical video The medical image is mapped by using a surface information extraction unit that extracts surface information of the predetermined organ included in each of the acquired medical images, and the extracted surface information. A video mapping unit; and a composite video generation unit configured to generate a composite video in which the medical video is matched based on the mapping result.

さらに他の側面によれば、手術部位についての映像を誘導して、手術用ロボットによるロボット手術を行うロボット手術システムにおいて、被検体内の所定の臓器に対して、医療映像を撮影する内視鏡装置と、前記所定の臓器に対して、医療映像を撮影する、超音波装置、コンピュータ断層撮影(CT)装置、磁気共鳴映像(MRI)装置及び陽電子放射断層撮影(Positron Emission Tomography: PET)装置のうち少なくとも一つを含む非内視鏡装置と、前記複数の医療映像撮影装置を利用して撮影された前記医療映像を獲得し、前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出し、前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングし、前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成する医療映像処理装置と、前記生成された合成映像を表示する表示装置と、ユーザーの入力によってロボット手術を行う手術用ロボットと、を備える。   According to still another aspect, in a robotic surgery system that guides an image of a surgical site and performs robotic surgery with a surgical robot, an endoscope that captures a medical image of a predetermined organ in a subject An ultrasonic device, a computed tomography (CT) device, a magnetic resonance imaging (MRI) device, and a positron emission tomography (PET) device for imaging medical images of the device and the predetermined organ A non-endoscopic device including at least one of the medical images, and the medical images captured using the plurality of medical image capturing devices, and each of the acquired medical images from the acquired medical images. And extracting the surface information of the predetermined organ contained in the map, mapping the medical image using each of the extracted surface information, A medical image processing device that generates a combined image in which the medical images are aligned, a display device that displays the generated combined image, a surgical robot that performs a robotic operation by a user input, Is provided.

本発明によれば、人工的なマーカーを使用せず、医療映像に含まれた情報のみに基づいて、リアルタイムで医療映像を整合することで、映像整合時にマーカーの使用による面倒さ、不便さなどを減らすことができる。特に、ロボット手術において、金属成分のマーカーと手術用ロボットとの干渉による映像整合の正確度の低下を減らすことができる。   According to the present invention, the use of a marker at the time of video alignment is troublesome and inconvenient by matching a medical video in real time based on only information included in the medical video without using an artificial marker. Can be reduced. In particular, in robotic surgery, it is possible to reduce a decrease in the accuracy of image matching due to interference between the marker of the metal component and the surgical robot.

そして、リアルタイムで内視鏡映像及び非内視鏡映像が整合された合成映像を生成することで、医師にさらに正確な患者の診断映像が提供され、ロボット手術システムでさらに正確な映像誘導を行ったりすることができる。また、ロボット手術の場合、このように手術部位についての正確な医療映像が提供されることで、手術すべき部位と保存すべき部位とを正確に把握できるので、手術性能が向上する。さらに、今後ロボット手術が自動化される場合、ロボットを正確に制御することができる情報が提供される。   Then, by generating a composite image in which the endoscopic image and the non-endoscopic image are aligned in real time, a more accurate patient diagnosis image is provided to the doctor, and the robot operation system performs more accurate image guidance. Can be. Further, in the case of robotic surgery, by providing an accurate medical image of the surgical site in this way, it is possible to accurately grasp the site to be operated and the site to be stored, so that the surgical performance is improved. Furthermore, when robot surgery is automated in the future, information that can accurately control the robot is provided.

本発明の一実施形態によるロボット手術システムの構成図である。It is a block diagram of the robotic surgery system by one Embodiment of this invention. 本発明の一実施形態によるロボット手術システムの構成図である。It is a block diagram of the robotic surgery system by one Embodiment of this invention. 本発明の一実施形態による膀胱についての内視鏡装置と超音波装置との相対的な位置を示す図面である。It is drawing which shows the relative position of the endoscope apparatus and ultrasound apparatus about the bladder by one Embodiment of this invention. 本発明の一実施形態による医療映像処理装置の構成図である。1 is a configuration diagram of a medical image processing apparatus according to an embodiment of the present invention. 本発明の一実施形態による第1抽出部で第1表面モデルが生成された後、第1表面情報が抽出される過程を示す図面である。4 is a diagram illustrating a process of extracting first surface information after a first surface model is generated by a first extraction unit according to an exemplary embodiment of the present invention. 本発明の一実施形態による第2抽出部で第2表面モデルが生成された後、第2表面情報が抽出される過程を示す図面である。4 is a diagram illustrating a process of extracting second surface information after a second surface model is generated by a second extraction unit according to an exemplary embodiment of the present invention. 本発明の一実施形態による図1Bのロボット手術システムにおいて、内視鏡装置と超音波装置との配置のみを別途に示す図面である。2 is a diagram separately showing only an arrangement of an endoscope device and an ultrasonic device in the robotic surgical system of FIG. 1B according to an embodiment of the present invention. 本発明の一実施形態によって、合成映像生成部で合成映像を生成する時に利用される三次元の超音波映像に含まれた情報の例を示す図面である。4 is a diagram illustrating an example of information included in a three-dimensional ultrasound image used when a synthesized image is generated by a synthesized image generation unit according to an exemplary embodiment of the present invention. 本発明の一実施形態による合成映像を示す図面である。3 is a view illustrating a composite image according to an exemplary embodiment of the present invention. 本発明の一実施形態による医療映像を処理する方法のフローチャートである。4 is a flowchart of a method for processing medical images according to an embodiment of the present invention. 図9の医療映像を処理する方法の詳細なフローチャートである。10 is a detailed flowchart of a method for processing the medical image of FIG. 9. 本発明の一実施形態による第1表面情報を抽出する過程のフローチャートである。4 is a flowchart of a process of extracting first surface information according to an embodiment of the present invention. 本発明の一実施形態による第2表面情報を抽出する過程のフローチャートである。5 is a flowchart of a process of extracting second surface information according to an exemplary embodiment of the present invention.

以下、図面を参照して、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1Aは、本発明の一実施形態によるロボット手術システム1の構成図である。図1Aを参照すれば、ロボット手術システム1は、第1医療映像撮影装置11、第2医療映像撮影装置21、医療映像処理装置30、手術用ロボット40及び表示装置50から構成される。図1Aでは、本実施形態の特徴が不明確になることを防止するために、本実施形態に関連したハードウェア構成要素のみを記述する。ただし、図1Aに示すハードウェア構成要素以外に、他の汎用的なハードウェア構成要素が含まれることを当業者ならば理解できるであろう。   FIG. 1A is a configuration diagram of a robotic surgery system 1 according to an embodiment of the present invention. Referring to FIG. 1A, the robot surgery system 1 includes a first medical image photographing device 11, a second medical image photographing device 21, a medical image processing device 30, a surgical robot 40, and a display device 50. In FIG. 1A, only hardware components related to the present embodiment are described in order to prevent the features of the present embodiment from becoming unclear. However, those skilled in the art will understand that other general-purpose hardware components are included in addition to the hardware components shown in FIG. 1A.

図1Aを参照すれば、ロボット手術システム1は、第1及び第2医療映像撮影装置11,21のみを備えるものと示されたが、これに限定されず、本実施形態は、その他にも少なくとも一つの更なる医療映像撮影装置を備えてもよい。   Referring to FIG. 1A, the robotic surgical system 1 is shown to include only the first and second medical image capturing apparatuses 11 and 21, but the present embodiment is not limited thereto. One additional medical imaging device may be provided.

医療映像撮影装置の種類には、内視鏡装置、超音波装置、コンピュータ断層撮影(Computed Tomography:CT)装置、磁気共鳴映像(Magnetic Resonance Imaging:MRI)装置、陽電子放射断層撮影(Positron Emission Tomography:PET)装置など多様な種類がある。以下、内視鏡映像を撮影する医療映像撮影装置以外の医療映像撮影装置は、非内視鏡装置という。すなわち、超音波装置、コンピュータ断層撮影装置、磁気共鳴映像装置及び陽電子放射断層撮影装置は、非内視鏡装置である。   Types of medical imaging equipment include endoscopic equipment, ultrasound equipment, computed tomography (CT) equipment, magnetic resonance imaging (MRI) equipment, positron emission tomography (Positron Emission Tomography: There are various types such as PET) devices. Hereinafter, medical video imaging apparatuses other than the medical video imaging apparatus that captures endoscopic video are referred to as non-endoscopic apparatuses. That is, the ultrasonic apparatus, the computer tomography apparatus, the magnetic resonance imaging apparatus, and the positron emission tomography apparatus are non-endoscopic apparatuses.

以下、説明の便宜のために、本実施形態によるロボット手術システム1の第1医療映像撮影装置11は、腹腔鏡装置のような内視鏡装置に該当し、第2医療映像撮影装置21は、経直腸的超音波(Trans-Rectal Ultrasound:TRUS)装置のような超音波装置に該当するものと説明するが、本実施形態は、これに限定されない。すなわち、第1及び第2医療映像撮影装置11,21それぞれは、前記内視鏡装置、超音波装置、コンピュータ断層撮影装置、磁気共鳴映像装置、陽電子放射断層撮影装置のような医療映像撮影装置のうちいずれか一つであってもよい。   Hereinafter, for convenience of explanation, the first medical image photographing apparatus 11 of the robotic surgery system 1 according to the present embodiment corresponds to an endoscope apparatus such as a laparoscopic apparatus, and the second medical image photographing apparatus 21 is Although described as corresponding to an ultrasound device such as a trans-rectal ultrasound (TRUS) device, the present embodiment is not limited to this. That is, each of the first and second medical imaging apparatuses 11 and 21 is a medical imaging apparatus such as the endoscope apparatus, ultrasonic apparatus, computed tomography apparatus, magnetic resonance imaging apparatus, or positron emission tomography apparatus. Any one of them may be used.

図1Bは、本発明の一実施形態によるロボット手術システム100の構成図である。図1Bを参照すれば、ロボット手術システム100は、前述したように、内視鏡装置10、超音波装置20、医療映像処理装置30、手術用ロボット40及び表示装置50から構成される。   FIG. 1B is a block diagram of a robotic surgery system 100 according to an embodiment of the present invention. Referring to FIG. 1B, as described above, the robot surgical system 100 includes the endoscope device 10, the ultrasonic device 20, the medical image processing device 30, the surgical robot 40, and the display device 50.

図1Bでも、図1Aと同様に、本実施形態の特徴が不明確になることを防止するために、本実施形態に関連したハードウェア構成要素のみを記述する。   In FIG. 1B, as in FIG. 1A, only hardware components related to the present embodiment are described in order to prevent the features of the present embodiment from becoming unclear.

ロボット手術システム100は、患者の体にあけられた小さい穴に手術用ロボット40のアームを挿入し、患者の体外で医師が手術用ロボット40の動きを制御して、患者を手術するシステムである。   The robotic surgery system 100 is a system in which an arm of a surgical robot 40 is inserted into a small hole formed in a patient's body, and a doctor operates the patient by controlling the movement of the surgical robot 40 outside the patient's body. .

最近、米国のインテュイティヴ・サージカル社製のda Vinci(登録商標)が、かかる手術用ロボット40として一般的に多く使われている。より詳細に説明すれば、da Vinci(登録商標)は、患者の体内に直接挿入されるロボットであって、医師の手のように動くことができるので、あたかも医師が直接手術部位に手術するように手術するロボットである。本実施形態では、単に説明の便宜のために、手術用ロボット40としてda Vinci(登録商標)を例として挙げただけであり、手術用ロボット40は、患者の体内でロボットの動きを通じて手術する他の装置でもよい。   Recently, da Vinci (registered trademark) manufactured by Intuitive Surgical, Inc. of the United States has been generally used as such a surgical robot 40. More specifically, da Vinci (registered trademark) is a robot that is directly inserted into a patient's body and can move like a doctor's hand, so that the doctor operates directly on the surgical site. It is a robot that operates on. In the present embodiment, for convenience of explanation, da Vinci (registered trademark) is merely given as an example of the surgical robot 40, and the surgical robot 40 can be operated through the movement of the robot in the patient's body. The apparatus may be used.

ロボット手術システム100で医師が手術用ロボット40を利用して手術しようとする時、医師は、表示装置50に表示された患者の体内の医療映像を参考にして手術を進める。すなわち、ロボット手術システム100において、医師は、患者の体内に特殊レンズを挿入して、肉眼で見られない神経、血管、臓器についての映像を通じて視野を確保した後で手術を進める。   When a doctor intends to perform an operation using the operation robot 40 in the robot operation system 100, the doctor proceeds with the operation with reference to a medical image in the patient's body displayed on the display device 50. That is, in the robotic surgery system 100, a doctor inserts a special lens into a patient's body, and proceeds with surgery after securing a visual field through images of nerves, blood vessels, and organs that cannot be seen with the naked eye.

ロボット手術システム100では、開腹手術と異なり、医師が患者の体内の手術部位を直接肉眼で見ることができず、表示装置50に表示された画面のみを通じて手術部位を把握できるため、手術部位についての正確な映像が要求される。   In the robotic surgery system 100, unlike the laparotomy, the doctor cannot directly see the surgical site in the patient's body with the naked eye and can grasp the surgical site only through the screen displayed on the display device 50. Accurate video is required.

特に、ロボット手術は、手術中に周辺神経及び血管に損傷を与えた時、激しい副作用と合併症とが生じる前立腺癌、直腸癌、食道癌、膀胱癌の手術などに一般的に多く使われるので、手術部位についての精巧かつ細密な映像が表示装置50に表示されることが重要である。   In particular, robotic surgery is commonly used for operations such as prostate cancer, rectal cancer, esophageal cancer, and bladder cancer that cause severe side effects and complications when peripheral nerves and blood vessels are damaged during surgery. It is important that an elaborate and detailed image of the surgical site is displayed on the display device 50.

従来は、手術前にCT、MRI、超音波、PET映像などを医師に見せることで、診断映像を記憶する医師の頭脳から現在手術すべき部位を思い起こして手術する方法を使用した。しかし、これは、医師の経験に多く依存するので、正確な手術が困難であった。   Conventionally, a method of performing an operation by recalling a site to be operated from the brain of a doctor who stores a diagnostic image by showing a CT, MRI, ultrasound, PET image or the like to the doctor before the operation has been used. However, this is highly dependent on the experience of the doctor, making accurate surgery difficult.

また、従来のロボット手術の場合、腹腔鏡を患者の体内に挿入して、表示された体内の実際の映像を見つつ、ロボット手術を進めた。しかし、手術部位に対して、腹腔鏡のみで獲得できる映像は、体内の臓器組織の外部表面についての映像だけである。したがって、手術部位が臓器に隠れて見えない場合や手術部位が臓器の内部である場合には、腹腔鏡で手術部位についての実際の映像を獲得しがたかった。特に、前立腺手術の場合がそうであった。   In the case of conventional robotic surgery, a laparoscope was inserted into the patient's body, and the robotic surgery was performed while viewing the displayed actual image of the body. However, the only images that can be acquired with a laparoscope for the surgical site are only images of the external surface of the organ tissue in the body. Therefore, when the surgical site is hidden behind the organ and cannot be seen, or when the surgical site is inside the organ, it is difficult to obtain an actual image of the surgical site with a laparoscope. This was especially the case for prostate surgery.

前立腺手術を説明すれば、前立腺は、手術部位が狭く、尿道と連結されている。そして、前立腺が除去される時、前立腺近辺の神経血管束は保存されねばならない。なぜならば、この神経血管束は、尿機能、性機能などに重要な役割を行うためである。しかし、腹腔鏡は、外部表面の組織についての映像のみを提供するので、腹腔鏡のみでは前立腺の位置及び形態などを精巧かつ細密に把握するのに多少困難さがある。   To describe prostate surgery, the prostate has a narrow surgical site and is connected to the urethra. And when the prostate is removed, the neurovascular bundle near the prostate must be preserved. This is because this neurovascular bundle plays an important role in urine function, sexual function and the like. However, since the laparoscope provides only an image of the tissue on the outer surface, it is somewhat difficult to precisely and precisely grasp the position and form of the prostate with only the laparoscope.

かかる既存の方法を改善するために、従来には、経直腸的超音波(TRUS)装置を利用したが、手術部位の実際の映像ではない超音波映像という限界があった。   In order to improve such an existing method, a transrectal ultrasound (TRUS) apparatus has been conventionally used. However, there is a limitation of an ultrasound image that is not an actual image of a surgical site.

また、従来には、光学方式あるいは磁場方式のマーカーを利用して、経直腸的超音波装置の位置と方向をリアルタイムで検出することで、三次元超音波映像を獲得し、それを手術に使用した。しかし、磁場方式を利用する場合、手術ロボットのような金属性物質と磁場との干渉により、マーカーの位置測定が不正確になった。そして、光学方式を利用する場合には、位置測定時に手術用ロボットの活動範囲と重なって、手術用ロボットの動きに制約を与えた。   Conventionally, the position and direction of a transrectal ultrasound device is detected in real time using an optical or magnetic field marker to acquire a 3D ultrasound image and use it for surgery. did. However, when the magnetic field method is used, the marker position measurement becomes inaccurate due to the interference between a metallic substance such as a surgical robot and the magnetic field. When using the optical method, the movement range of the surgical robot overlaps with the range of activity of the surgical robot at the time of position measurement, and the movement of the surgical robot is restricted.

さらに、従来には、手術ロボット以外のタンデムロボットを利用して、経直腸的超音波装置を回転させ、それから三次元前立腺映像を獲得する方法も使われた。しかし、この方法は、更なるロボットを使用せねばならないので、タンデムロボットによる干渉のために、手術ロボットの移動が制限された。そして、手術ロボットとタンデムロボットとの位置を補正せねばならないので、実際の手術時に超音波映像を全く利用できなかった。   Furthermore, conventionally, a method of rotating a transrectal ultrasound apparatus using a tandem robot other than a surgical robot and then acquiring a three-dimensional prostate image has been used. However, this method requires the use of additional robots, which limits the movement of the surgical robot due to interference by the tandem robot. In addition, since the positions of the surgical robot and the tandem robot have to be corrected, the ultrasonic image cannot be used at the time of actual surgery.

すなわち、前記したように、ロボット手術を行う時、特に前立腺に対するロボット手術のように、周辺神経及び血管に損傷を与えてはならないロボット手術を行う時、従来は、手術部位についての正確な映像を得がたく、患者の安全に問題があるという限界があった。   That is, as described above, when performing robotic surgery, particularly when performing robotic surgery that should not damage peripheral nerves and blood vessels, such as robotic surgery for the prostate, an accurate image of the surgical site has been conventionally used. It was difficult to obtain and there was a limit to patient safety.

しかし、本実施形態によるロボット手術システム100では、相異なる複数の医療映像撮影装置で撮影された相異なる医療映像がリアルタイムで整合された合成映像を利用することで、臓器に隠された手術部位または臓器の内部に位置した手術部位に対しても、正確な映像が提供される。したがって、本実施形態によれば、ロボット手術の性能や患者の安全を保証することができる。   However, in the robotic surgery system 100 according to the present embodiment, a surgical site hidden in an organ or the like can be obtained by using a composite image in which different medical images captured by a plurality of different medical image capturing apparatuses are aligned in real time. An accurate image is also provided for a surgical site located inside an organ. Therefore, according to the present embodiment, it is possible to guarantee the performance of the robot operation and the safety of the patient.

ただし、本実施形態では、ロボット手術システム100下でロボット手術を行う医師のための医療映像を提供すること、すなわち医療映像誘導について説明するが、本実施形態の医療映像処理装置30で生成された合成映像は、必ずしもロボット手術システム100のみで提供されるものに限定されない。すなわち、本実施形態で提供される医療映像は、ロボット手術ではない患者を単純に診察または診断するための他のシステムでも同様に提供される。   However, in the present embodiment, a medical image for a doctor who performs robotic surgery under the robotic surgery system 100, that is, medical image guidance will be described, but the medical image processing apparatus 30 according to the present embodiment generates the medical image. The composite image is not necessarily limited to that provided only by the robotic surgery system 100. That is, the medical image provided in the present embodiment is similarly provided in other systems for simply diagnosing or diagnosing a patient who is not robotic surgery.

以下では、本実施形態によるロボット手術システム100において、医療映像を処理する過程について詳細に説明する。   Hereinafter, a process of processing a medical image in the robotic surgery system 100 according to the present embodiment will be described in detail.

ここで、本実施形態による手術部位は、説明の便宜のために、前立腺である場合を例として挙げる。そして、前述したように、手術部位が前立腺である場合、本実施形態による医療映像処理過程は、前立腺の周辺に位置している特定の臓器である膀胱を利用するものと説明する。すなわち、かかる特定の臓器は、手術用ロボット40により治療される手術部位の臓器または手術部位の周辺の他の臓器であってもよい。   Here, for the convenience of explanation, the case where the surgical site according to the present embodiment is the prostate is taken as an example. As described above, when the surgical site is the prostate, the medical image processing process according to the present embodiment will be described as using a bladder that is a specific organ located around the prostate. That is, the specific organ may be an organ at a surgical site to be treated by the surgical robot 40 or another organ around the surgical site.

さらに、当業者ならば、本実施形態は、手術部位が患者の他の部位であるか、または他の臓器を利用して医療映像処理が行われることを理解できるであろう。   Further, those skilled in the art will understand that the present embodiment is that the surgical site is another part of the patient, or medical image processing is performed using other organs.

再び図1Bを参照すれば、ロボット手術システム100下で、内視鏡装置10は、患者の臓器、例えば、膀胱についての内視鏡映像を獲得する。したがって、内視鏡映像には、膀胱及びその周辺についての映像が含まれる。本実施形態において、内視鏡装置10は、腹腔鏡装置に該当するが、これに限定されない。   Referring to FIG. 1B again, under the robotic surgical system 100, the endoscope apparatus 10 acquires an endoscopic image of a patient's organ, for example, the bladder. Therefore, the endoscopic image includes an image of the bladder and its surroundings. In the present embodiment, the endoscope apparatus 10 corresponds to a laparoscopic apparatus, but is not limited thereto.

そして、超音波装置20は、患者の膀胱及びその周辺についての超音波映像を獲得する。したがって、超音波映像には、膀胱及びその内外部の周辺についての映像が含まれる。すなわち、超音波映像には、内視鏡映像と異なり、膀胱の内部の組織についての情報も含まれる。本実施形態において、超音波装置20は、経直腸的超音波装置に該当するが、これに限定されない。   Then, the ultrasonic device 20 acquires an ultrasonic image of the patient's bladder and its surroundings. Therefore, the ultrasound image includes images of the bladder and the periphery inside and outside thereof. That is, unlike the endoscopic image, the ultrasonic image includes information about the tissue inside the bladder. In the present embodiment, the ultrasound device 20 corresponds to a transrectal ultrasound device, but is not limited thereto.

図1Bにおいて、内視鏡装置10と超音波装置20とは、相異なる位置で医療映像を撮影する。すなわち、ロボット手術システム100では、内視鏡装置10と超音波装置20の動き及び位置がそれぞれ制御されることで、医療映像が撮影される。この時、ロボット手術システム100は、制御中である内視鏡装置10と超音波装置20それぞれの撮影位置、例えば、ロボット手術テーブル上での仮想的座標などをロボット手術システム100上の保存部(図示せず)に保存し続ける。   In FIG. 1B, the endoscope apparatus 10 and the ultrasonic apparatus 20 capture medical images at different positions. That is, in the robotic surgery system 100, medical images are taken by controlling the movement and position of the endoscope apparatus 10 and the ultrasonic apparatus 20 respectively. At this time, the robotic surgery system 100 stores the imaging positions of the endoscope device 10 and the ultrasonic device 20 under control, for example, virtual coordinates on the robotic surgery table, etc. Continue to save (not shown).

図2は、本発明の一実施形態による膀胱についての内視鏡装置10と超音波装置20との相対的な位置を示す図面である。図2を参照すれば、内視鏡装置10が腹腔鏡装置である場合、膀胱を基準として相対的に膀胱の上方から内視鏡映像を獲得する。そして、超音波装置20が経直腸的超音波装置である場合、膀胱を基準として相対的に膀胱の下方から超音波映像を獲得する。しかし、かかる内視鏡装置10及び超音波装置20それぞれの位置は、例示的なものであって、ロボット手術環境によって変更してもよい。   FIG. 2 is a view showing the relative positions of the endoscope apparatus 10 and the ultrasonic apparatus 20 with respect to the bladder according to an embodiment of the present invention. Referring to FIG. 2, when the endoscope apparatus 10 is a laparoscopic apparatus, an endoscope image is acquired from above the bladder relative to the bladder. When the ultrasound device 20 is a transrectal ultrasound device, an ultrasound image is acquired from below the bladder relative to the bladder. However, the positions of the endoscope apparatus 10 and the ultrasonic apparatus 20 are exemplary and may be changed depending on the robot operation environment.

再び図1Bを参照すれば、医療映像処理装置30は、内視鏡装置10及び超音波装置20から獲得された内視鏡映像及び超音波映像を整合することで、合成映像を生成する。本実施形態による医療映像処理装置30の動作及び機能についてさらに詳細に説明すれば、次の通りである。   Referring to FIG. 1B again, the medical image processing apparatus 30 generates a composite image by matching the endoscope image and the ultrasound image acquired from the endoscope apparatus 10 and the ultrasound apparatus 20. The operation and function of the medical image processing apparatus 30 according to the present embodiment will be described in more detail as follows.

図3は、本発明の一実施形態による医療映像処理装置30の構成図である。図3を参照すれば、医療映像処理装置30は、検出部31、映像獲得部32、表面情報抽出部33、映像マッピング部34及び合成映像生成部35を備える。そして、映像獲得部32は、内視鏡映像獲得部321及び非内視鏡映像獲得部322を備え、表面情報抽出部33は、第1抽出部331及び第2抽出部332を備え、映像マッピング部34は、比較部341及び位置マッチング部342を備える。   FIG. 3 is a block diagram of the medical image processing apparatus 30 according to an embodiment of the present invention. Referring to FIG. 3, the medical video processing apparatus 30 includes a detection unit 31, a video acquisition unit 32, a surface information extraction unit 33, a video mapping unit 34, and a composite video generation unit 35. The video acquisition unit 32 includes an endoscopic video acquisition unit 321 and a non-endoscopic video acquisition unit 322. The surface information extraction unit 33 includes a first extraction unit 331 and a second extraction unit 332, and video mapping. The unit 34 includes a comparison unit 341 and a position matching unit 342.

かかる医療映像処理装置30は、プロセッサに該当する。このプロセッサは、多数の論理ゲートのアレイにより具現されてもよく、汎用的なマイクロプロセッサと、このマイクロプロセッサで実行されるプログラムが保存されたメモリとの組み合わせにより具現されてもよい。また、他の形態のハードウェアにより具現されてもよいことを当業者ならば理解できるであろう。   The medical image processing apparatus 30 corresponds to a processor. The processor may be realized by an array of a large number of logic gates, or may be realized by a combination of a general-purpose microprocessor and a memory in which a program executed by the microprocessor is stored. Further, those skilled in the art will understand that the present invention may be realized by other forms of hardware.

検出部31は、合成映像を生成しようとする時、前述したロボット手術システム100上の保存部(図示せず)に保存された医療映像撮影装置それぞれの現在の位置を検出する。   The detection unit 31 detects the current position of each medical video imaging apparatus stored in the storage unit (not shown) on the robotic surgery system 100 described above when trying to generate a composite video.

映像獲得部32は、相異なる複数の医療映像撮影装置を利用して撮影された臓器についての医療映像、すなわち、内視鏡映像及び非内視鏡映像を獲得する。表面情報抽出部33は、獲得された医療映像それぞれから獲得された医療映像それぞれに含まれた臓器の表面情報をそれぞれ抽出する。特に、表面情報抽出部33は、獲得された医療映像それぞれから、所定の臓器の表面の位置及び形態のうち少なくとも一つを表す情報を表面情報として抽出する。   The image acquisition unit 32 acquires medical images of an organ imaged using a plurality of different medical image capturing devices, that is, an endoscopic image and a non-endoscopic image. The surface information extraction unit 33 extracts the surface information of the organs included in each acquired medical image from each acquired medical image. In particular, the surface information extraction unit 33 extracts, as surface information, information representing at least one of the position and form of the surface of a predetermined organ from each acquired medical image.

映像マッピング部34は、抽出されたそれぞれの表面情報を利用して、医療映像をマッピングする。特に、表面情報抽出部33は、抽出されたそれぞれの表面情報を利用して、医療映像撮影装置それぞれの位置をマッチングさせることで、医療映像をマッピングする。   The video mapping unit 34 maps the medical video using each extracted surface information. In particular, the surface information extraction unit 33 maps the medical image by using the extracted surface information to match the positions of the medical image capturing devices.

以下、まず、内視鏡映像を処理する過程についてさらに詳細に説明し、次に、超音波映像、CT映像、MR(Magnetic Resonance)映像のような非内視鏡映像を処理する過程についてさらに詳細に説明する。   Hereinafter, the process of processing an endoscopic image will be described in more detail first, and then the process of processing a non-endoscopic image such as an ultrasound image, a CT image, and an MR (Magnetic Resonance) image will be described in further detail. Explained.

内視鏡映像獲得部321は、内視鏡装置10(図1B)を利用して撮影された内視鏡映像を獲得する。   The endoscope video acquisition unit 321 acquires an endoscope video imaged using the endoscope apparatus 10 (FIG. 1B).

第1抽出部331は、内視鏡装置10(図1B)により撮影された内視鏡映像から、臓器の表面の位置及び形態のうち少なくとも一つを表す第1表面情報を抽出する。すなわち、本実施形態において、第1抽出部331は、内視鏡映像に表れた膀胱についての第1表面情報を抽出する。   The first extraction unit 331 extracts first surface information representing at least one of the position and form of the surface of the organ from the endoscopic image captured by the endoscope apparatus 10 (FIG. 1B). That is, in this embodiment, the 1st extraction part 331 extracts the 1st surface information about the bladder which appeared in the endoscopic image | video.

その方法として、第1抽出部331は、膀胱及び周辺の外部組織と内視鏡装置10(図1B)との距離情報を獲得することで、視差空間映像を生成する。一実施形態によれば、第1抽出部331は、二つのステレオカメラが備えられた内視鏡装置10(図1B)を利用して、視差空間映像を獲得する。この時、他の実施形態によれば、第1抽出部331は、構造光及びパターン光のうち少なくとも一つを照射するプロジェクタをさらに備えた内視鏡装置10(図1B)を利用することで、視差空間映像を生成する。この場合、内視鏡映像獲得部321は、膀胱及び周辺の外部組織から反射された構造光またはパターン光についての情報も共に獲得する。すなわち、第1抽出部331は、獲得された構造光またはパターン光についての情報を利用して、内視鏡装置10(図1B)から膀胱及び周辺の外部組織までの距離を計算する。この時、第1抽出部331は、計算された距離に基づいて、視差空間映像のような距離映像を生成する。   As the method, the first extraction unit 331 generates disparity space images by acquiring distance information between the bladder and surrounding external tissues and the endoscope apparatus 10 (FIG. 1B). According to one embodiment, the first extraction unit 331 acquires a parallax space image using the endoscope apparatus 10 (FIG. 1B) provided with two stereo cameras. At this time, according to another embodiment, the first extraction unit 331 uses the endoscope apparatus 10 (FIG. 1B) further including a projector that emits at least one of structured light and pattern light. Generate parallax space video. In this case, the endoscopic image acquisition unit 321 also acquires information about structured light or pattern light reflected from the bladder and surrounding external tissues. That is, the first extraction unit 331 calculates the distance from the endoscope apparatus 10 (FIG. 1B) to the bladder and surrounding external tissues using information about the acquired structured light or pattern light. At this time, the first extraction unit 331 generates a distance image such as a parallax space image based on the calculated distance.

次いで、第1抽出部331は、獲得された距離情報、すなわち、計算された距離または生成された距離映像を利用することで、内視鏡映像に対応する三次元の第1表面モデルを生成する。   Next, the first extraction unit 331 generates a three-dimensional first surface model corresponding to the endoscopic image by using the acquired distance information, that is, the calculated distance or the generated distance image. .

最後に、第1抽出部331は、このように生成された第1表面モデルから、膀胱の表面の位置及び形態のうち少なくとも一つを表す第1表面情報を抽出する。   Finally, the first extraction unit 331 extracts first surface information representing at least one of the position and shape of the bladder surface from the first surface model generated in this way.

図4は、本発明の一実施形態による第1抽出部331(図3)で第1表面モデルが生成された後、第1表面情報が抽出される過程を示す図面である。図4の映像401は、内視鏡装置10(図1B)で獲得された内視鏡映像であって、実際の膀胱及びその周辺に構造光またはパターン光を照射した映像である。   FIG. 4 is a diagram illustrating a process of extracting first surface information after the first surface model is generated by the first extraction unit 331 (FIG. 3) according to an embodiment of the present invention. 4 is an endoscopic image acquired by the endoscope apparatus 10 (FIG. 1B), and is an image in which structured light or pattern light is irradiated to the actual bladder and its periphery.

図4の映像402は、視差空間映像であって、構造光及びパターン光のうち少なくとも一つを利用して生成された一種の距離映像に該当する。しかし、前述したように、第1抽出部331(図3)は、構造光及びパターン光を利用せずに視差空間映像を生成することも可能である。   An image 402 in FIG. 4 is a parallax space image, and corresponds to a kind of distance image generated using at least one of structured light and pattern light. However, as described above, the first extraction unit 331 (FIG. 3) can also generate a parallax space image without using structured light and pattern light.

図4の映像403は、前記のような過程を通じて、第1抽出部331(図3)で生成された第1表面モデルである。第1抽出部331(図3)は、映像403の第1表面モデルから、膀胱の表面の形態及び位置についての第1表面情報404を抽出する。   A video 403 in FIG. 4 is a first surface model generated by the first extraction unit 331 (FIG. 3) through the above process. The first extraction unit 331 (FIG. 3) extracts first surface information 404 about the form and position of the bladder surface from the first surface model of the image 403.

再び図3を参照すれば、非内視鏡映像獲得部322は、超音波装置20(図1B)のような非内視鏡装置を利用して撮影された非内視鏡映像を獲得する。第2抽出部332は、非内視鏡装置により撮影された映像から、臓器の表面の位置及び形態のうち少なくとも一つを表す第2表面情報を抽出する。すなわち、本実施形態において、第2抽出部332は、非内視鏡映像に表れた膀胱についての第2表面情報を抽出する。   Referring to FIG. 3 again, the non-endoscopic image acquisition unit 322 acquires a non-endoscopic image captured using a non-endoscopic device such as the ultrasound device 20 (FIG. 1B). The second extraction unit 332 extracts second surface information representing at least one of the position and form of the surface of the organ from the video imaged by the non-endoscopic device. That is, in this embodiment, the 2nd extraction part 332 extracts the 2nd surface information about the bladder which appeared in the non-endoscopic image | video.

その方法として、まず、第2抽出部332は、非内視鏡装置により撮影された非内視鏡映像から、膀胱の表面を表す境界線についての情報を獲得する。この時、境界線についての情報は、非内視鏡映像に対して、ライン検出及びエッジ検出のうち少なくとも一つを適用することによって獲得する。   As the method, first, the second extraction unit 332 acquires information about the boundary line representing the surface of the bladder from the non-endoscopic video imaged by the non-endoscopic device. At this time, the information about the boundary line is acquired by applying at least one of line detection and edge detection to the non-endoscopic image.

非内視鏡映像が超音波映像である場合、超音波の特性上、超音波が臓器の表面組織に対して高いエコー輝度(high echogenicity)を有する性質を利用する。すなわち、第2抽出部332は、臓器の表面組織が超音波映像で相対的に明るい線で表れる性質を利用することで、境界線についての情報を獲得する。   When the non-endoscopic image is an ultrasonic image, the property that the ultrasonic wave has high echogenicity with respect to the surface tissue of the organ is used due to the characteristics of the ultrasonic wave. That is, the second extraction unit 332 acquires information about the boundary line by using the property that the surface tissue of the organ appears as a relatively bright line in the ultrasound image.

非内視鏡映像がMR映像である場合、第2抽出部332は、組織の分子構成比の差によるMR映像での映像明度差が発生する点に基づいて、ライン検出またはエッジ検出を利用することで、境界線についての情報を獲得する。   When the non-endoscopic image is an MR image, the second extraction unit 332 uses line detection or edge detection based on the point that a difference in image brightness occurs in the MR image due to the difference in the molecular composition ratio of the tissue. In this way, information about the boundary line is acquired.

同様に、非内視鏡映像がCT映像である場合、第2抽出部332は、組織の密度差によるCT映像での映像明度差が発生する点に基づいて、ライン検出またはエッジ検出を利用することで、境界線についての情報を獲得する。   Similarly, when the non-endoscopic video is a CT video, the second extraction unit 332 uses line detection or edge detection based on the point that a video brightness difference occurs in the CT video due to a tissue density difference. In this way, information about the boundary line is acquired.

次いで、第2抽出部332は、獲得された境界線情報を利用して、臓器(膀胱)の表面に対応する三次元の第2表面モデルを生成する。この時、第2抽出部332は、獲得された境界線情報に基づいて、境界線を三次元的にレンダリングすることで、三次元の第2表面モデルを生成する。   Next, the second extraction unit 332 generates a three-dimensional second surface model corresponding to the surface of the organ (bladder) using the acquired boundary line information. At this time, the second extraction unit 332 generates a three-dimensional second surface model by rendering the boundary line three-dimensionally based on the acquired boundary line information.

最後に、第2抽出部332は、このように生成された第2表面モデルから、膀胱の表面の位置及び形態のうち少なくとも一つを表す第2表面情報を抽出する。   Finally, the second extraction unit 332 extracts second surface information representing at least one of the position and shape of the surface of the bladder from the second surface model generated in this way.

図5は、本発明の一実施形態による第2抽出部332(図3)で第2表面モデルが生成された後、第2表面情報が抽出される過程を示す図面である。図5を参照すれば、超音波映像501から第2表面情報505が抽出される過程、MR映像502から第2表面情報505が抽出される過程、及びCT映像503から第2表面情報505が抽出される過程が示されている。ロボット手術システム100(図1B)の環境で、いかなる医療映像撮影装置を利用したかによって、第2抽出部332(図3)は、それぞれの過程のうちそれに対応する過程によって、第2表面情報505を抽出する。   FIG. 5 is a diagram illustrating a process of extracting second surface information after the second surface model is generated by the second extraction unit 332 (FIG. 3) according to an embodiment of the present invention. Referring to FIG. 5, the process of extracting the second surface information 505 from the ultrasound image 501, the process of extracting the second surface information 505 from the MR image 502, and the second surface information 505 from the CT image 503. The process is shown. Depending on what medical imaging device is used in the environment of the robotic surgical system 100 (FIG. 1B), the second extraction unit 332 (FIG. 3) performs the second surface information 505 according to the corresponding process among the respective processes. To extract.

超音波映像501である場合、第2抽出部332(図3)は、前述した超音波映像の特性を利用して、膀胱の表面に該当する境界線をそれぞれの映像から抽出する。そして、それぞれの境界線を三次元的にレンダリングすることで、第2表面モデル504を生成する。   In the case of the ultrasound image 501, the second extraction unit 332 (FIG. 3) extracts the boundary line corresponding to the surface of the bladder from each image using the characteristics of the ultrasound image described above. Then, the second surface model 504 is generated by rendering each boundary line three-dimensionally.

MR映像502である場合、第2抽出部332(図3)は、前述したMR映像の特性を利用して、直腸の表面に該当する境界線をそれぞれの映像から抽出する。そして、それぞれの境界線を三次元的にレンダリングすることで、第2表面モデル504を生成する。   In the case of the MR image 502, the second extraction unit 332 (FIG. 3) extracts the boundary line corresponding to the rectal surface from each image using the above-described MR image characteristics. Then, the second surface model 504 is generated by rendering each boundary line three-dimensionally.

CT映像503である場合、第2抽出部332(図3)は、前述したCT映像の特性を利用して、直腸の表面に該当する境界線をそれぞれの映像から抽出する。そして、それぞれの境界線を三次元的にレンダリングすることで、第2表面モデル504を生成する。   In the case of the CT image 503, the second extraction unit 332 (FIG. 3) extracts the boundary line corresponding to the rectal surface from each image using the characteristics of the CT image described above. Then, the second surface model 504 is generated by rendering each boundary line three-dimensionally.

第2抽出部332(図3)は、第2表面モデル504に表れた境界線情報に基づいて、臓器の表面の形態及び位置のうち少なくとも一つを表す第2表面情報505を抽出する。   The second extraction unit 332 (FIG. 3) extracts second surface information 505 representing at least one of the shape and position of the surface of the organ based on the boundary line information appearing in the second surface model 504.

すなわち、ロボット手術システム100(図1B)の環境で、いかなる医療映像撮影装置を利用したかによって、第2抽出部332(図3)は、超音波映像501、MR映像502及びCT映像503についてのそれぞれの過程のうち該当する過程によって、第2表面情報505を抽出する。   That is, the second extraction unit 332 (FIG. 3) determines the ultrasonic image 501, the MR image 502, and the CT image 503 depending on what medical image capturing device is used in the environment of the robotic surgery system 100 (FIG. 1B). The second surface information 505 is extracted by a corresponding process among the processes.

再び図3を参照すれば、映像マッピング部34は、抽出されたそれぞれの表面情報を利用して、医療映像をマッピングする。映像マッピング部34は、抽出された第1表面情報及び第2表面情報を利用して、医療映像撮影装置それぞれの位置をマッチングさせることで、医療映像をマッピングする。前述した図1Bのように、内視鏡装置10(図1B)及び超音波装置20(図1B)を利用する場合、表面情報を利用して、内視鏡装置10(図1B)の位置及び超音波装置20(図1B)の位置をマッチングさせることで、内視鏡映像及び超音波映像をマッピングする。   Referring to FIG. 3 again, the video mapping unit 34 maps the medical video using the extracted surface information. The video mapping unit 34 maps the medical video by matching the positions of the respective medical video imaging apparatuses using the extracted first surface information and second surface information. When the endoscope apparatus 10 (FIG. 1B) and the ultrasonic apparatus 20 (FIG. 1B) are used as shown in FIG. 1B, the position of the endoscope apparatus 10 (FIG. 1B) and the surface information are used. The endoscopic image and the ultrasonic image are mapped by matching the position of the ultrasonic device 20 (FIG. 1B).

マッピング過程についてさらに詳細に説明すれば、映像マッピング部34は、前述したように、比較部341及び位置マッチング部342を備える。   The mapping process will be described in more detail. The video mapping unit 34 includes the comparison unit 341 and the position matching unit 342 as described above.

比較部341は、抽出されたそれぞれの表面情報を比較する。すなわち、比較部341は、第1表面情報と第2表面情報とを比較する。その理由は、抽出された第1表面情報及び第2表面情報は、臓器(膀胱)の同じ部位の表面についての情報であるためである。したがって、比較部341は、抽出された第1表面情報及び第2表面情報が臓器の同じ部位の表面に対してどのように対応するかを比較する。この時、比較部341は、公知のアルゴリズムであるICP(Iterative Closest Point)アルゴリズムなどを利用して比較する。   The comparison unit 341 compares the extracted surface information. That is, the comparison unit 341 compares the first surface information and the second surface information. The reason is that the extracted first surface information and second surface information are information on the surface of the same part of the organ (bladder). Therefore, the comparison unit 341 compares how the extracted first surface information and second surface information correspond to the surface of the same part of the organ. At this time, the comparison unit 341 performs comparison using an ICP (Iterative Closest Point) algorithm, which is a known algorithm.

位置マッチング部342は、比較結果に基づいて、前記検出部31で検出された医療映像装置の位置をマッチングさせる。   The position matching unit 342 matches the position of the medical image apparatus detected by the detection unit 31 based on the comparison result.

結局、映像マッピング部34は、かかる過程によるマッチング結果に基づいて、医療映像をマッピングする。   Eventually, the video mapping unit 34 maps the medical video based on the matching result of the process.

図6は、本発明の一実施形態による図1Bのロボット手術システム100において、内視鏡装置10と超音波装置20との配置のみを別途に示す図面である。図6を参照すれば、内視鏡装置10は、腹腔鏡装置に該当し、超音波装置20は、経直腸的超音波装置に該当する。   FIG. 6 is a diagram separately showing only the arrangement of the endoscope apparatus 10 and the ultrasonic apparatus 20 in the robotic surgical system 100 of FIG. 1B according to an embodiment of the present invention. Referring to FIG. 6, the endoscope apparatus 10 corresponds to a laparoscopic apparatus, and the ultrasonic apparatus 20 corresponds to a transrectal ultrasonic apparatus.

ロボット手術システム100(図1B)上で、内視鏡装置10の仮想的位置は、Xcamera座標系による。そして、超音波装置20の仮想的位置は、XUS座標系による。すなわち、内視鏡装置10の位置と超音波装置20の位置とは、相異なる座標系を利用しているので、相互の位置は独立している。 On the robotic surgery system 100 (FIG. 1B), the virtual position of the endoscope apparatus 10 is based on the X camera coordinate system. The virtual position of the ultrasonic device 20 is based on the XUS coordinate system. That is, since the position of the endoscope apparatus 10 and the position of the ultrasonic apparatus 20 use different coordinate systems, the mutual positions are independent.

しかし、内視鏡装置10の位置と超音波装置20の位置とは、同じ基準によりマッチングされる。このために、本実施形態によれば、映像マッピング部34は、基準として、抽出された第1表面情報及び第2表面情報を利用する。さらに詳細に説明すれば、第1表面情報及び第2表面情報は、臓器(膀胱)の同じ部位の表面についての情報である。したがって、内視鏡映像から抽出された第1表面情報と、超音波映像から抽出された第2表面情報とを基準として、Xcamera座標系とXUS座標系とをマッチングさせる。その結果、内視鏡装置10の位置と超音波装置20の位置もマッチングされる。 However, the position of the endoscope apparatus 10 and the position of the ultrasonic apparatus 20 are matched according to the same reference. For this reason, according to the present embodiment, the video mapping unit 34 uses the extracted first surface information and second surface information as a reference. If it demonstrates in detail, 1st surface information and 2nd surface information are the information about the surface of the same site | part of an organ (bladder). Therefore, the X camera coordinate system and the X US coordinate system are matched based on the first surface information extracted from the endoscopic image and the second surface information extracted from the ultrasound image. As a result, the position of the endoscope apparatus 10 and the position of the ultrasonic apparatus 20 are also matched.

再び図3を参照すれば、合成映像生成部35は、マッピング結果に基づいて、医療映像が整合された合成映像を生成する。生成された合成映像は、臓器及びその周辺についての三次元医療映像であってもよい。さらに詳しくは、生成された合成映像は、内視鏡装置10(図1B)により撮影された映像に含まれた臓器及び周辺についての外部組織の映像と、非内視鏡装置20(図1B)により撮影された映像に含まれた臓器及び周辺についての内外部組織の映像とが三次元的に同時に表現された映像である。合成映像は、一種の増強映像に該当する。   Referring to FIG. 3 again, the composite video generation unit 35 generates a composite video in which the medical video is matched based on the mapping result. The generated composite image may be a three-dimensional medical image of the organ and its surroundings. More specifically, the generated composite image includes an image of an external tissue about the organ and the periphery included in the image captured by the endoscope apparatus 10 (FIG. 1B), and a non-endoscopic apparatus 20 (FIG. 1B). 3 is an image in which the organs and the images of the internal and external tissues in the periphery included in the image captured by the above are simultaneously expressed in three dimensions. The composite video corresponds to a kind of augmented video.

合成映像生成部35で生成された合成映像は、結局、内視鏡映像及び非内視鏡映像それぞれで表れた臓器の位置が同一であるように合成されて生成されるものである。   The composite video generated by the composite video generation unit 35 is generated by being synthesized so that the positions of the organs appearing in the endoscopic video and the non-endoscopic video are the same.

内視鏡映像は、それ自体で臓器及びその周辺の実際の三次元映像に該当する。しかし、内視鏡映像は、臓器の内外部の組織の形態及び位置などの情報を知りがたい。   An endoscopic image itself corresponds to an actual three-dimensional image of an organ and its surroundings. However, it is difficult for the endoscopic image to know information such as the form and position of the tissue inside and outside the organ.

一般的に、かかる非内視鏡映像は、臓器を断面で撮影した映像の集合に該当する。しかし、超音波映像、CT映像及びMR映像のような非内視鏡映像は、臓器及び周辺の内外部の組織の形態及び位置などについての一種の透視情報を含んでいる。したがって、獲得された非内視鏡映像には、臓器の外部組織だけでなく、内部組織の形態及び位置などについての情報も共に含まれている。したがって、内視鏡映像と非内視鏡映像とが合成される場合、実際の臓器及び周辺の内外部にある組織についての情報を正確に知ることができ、それが医師に提供されることで、医師はさらに精巧かつ細密な手術を進めることができる。   In general, such a non-endoscopic image corresponds to a set of images obtained by photographing an organ in a cross section. However, non-endoscopic images such as ultrasound images, CT images, and MR images include a kind of fluoroscopic information about the forms and positions of organs and surrounding internal and external tissues. Therefore, the acquired non-endoscopic image includes not only the external tissue of the organ but also information on the form and position of the internal tissue. Therefore, when an endoscopic image and a non-endoscopic image are combined, information about the actual organ and surrounding tissues inside and outside can be accurately known and provided to the doctor. Doctors can proceed with more elaborate and detailed surgery.

ここで、超音波映像、CT映像及びMR映像のような非内視鏡映像は、その映像を撮影する医療映像撮影装置11,21(図1A)の種類によって、二次元映像であってもよく、三次元映像であってもよい。獲得された非内視鏡映像が、図5のように複数の二次元的な非内視鏡映像である場合、合成映像生成部35は、ボリュームレンダリングなどの既知の方法を通じて、二次元の非内視鏡映像を三次元の非内視鏡映像に生成した後で合成に利用する。   Here, non-endoscopic images such as ultrasound images, CT images, and MR images may be two-dimensional images depending on the types of medical image capturing apparatuses 11 and 21 (FIG. 1A) that capture the images. 3D video may be used. When the acquired non-endoscopic image is a plurality of two-dimensional non-endoscopic images as shown in FIG. 5, the synthesized image generating unit 35 performs a two-dimensional non-endoscopic image through a known method such as volume rendering. An endoscopic video is generated into a three-dimensional non-endoscopic video and then used for composition.

図7は、本発明の一実施形態によって、合成映像生成部35で合成映像を生成する時に利用される三次元の超音波映像に含まれた情報の例を示す図面である。図7は、経直腸的超音波装置を使用した場合の例示についての図面である。図7を参照すれば、超音波映像は、前述したように、膀胱のような臓器の内外部の組織の形態及び位置などについての一種の透視情報を含んでいる。したがって、三次元の超音波映像には、膀胱の外部表面701の形態及び位置、膀胱の内部の前立腺702の位置、膀胱の周辺の神経束703の位置が三次元的に表現されている。ここで、膀胱の外部表面701の形態及び位置は、第2表面情報に含まれた情報である。たとえ図7が三次元の超音波映像ではないとしても、当業者ならば、三次元の超音波映像を通じて、かかる情報(701,702,703の情報)が含まれているということが分かるであろう。   FIG. 7 is a diagram illustrating an example of information included in a three-dimensional ultrasound image used when the composite image generation unit 35 generates a composite image according to an embodiment of the present invention. FIG. 7 is a diagram illustrating an example when a transrectal ultrasonic device is used. Referring to FIG. 7, as described above, the ultrasound image includes a kind of fluoroscopic information about the form and position of the tissue inside and outside the organ such as the bladder. Therefore, in the three-dimensional ultrasound image, the form and position of the outer surface 701 of the bladder, the position of the prostate 702 inside the bladder, and the position of the nerve bundle 703 around the bladder are three-dimensionally expressed. Here, the form and position of the outer surface 701 of the bladder are information included in the second surface information. Even if FIG. 7 is not a three-dimensional ultrasound image, those skilled in the art will understand that such information (information of 701, 702, and 703) is included through the three-dimensional ultrasound image. Let's go.

再び図3を参照すれば、合成映像生成部35は、かかる内視鏡映像及び非内視鏡映像を整合することで、合成映像を生成する。   Referring to FIG. 3 again, the composite video generation unit 35 generates a composite video by matching the endoscopic video and the non-endoscopic video.

再び図1A及び図1Bを参照すれば、表示装置50は、合成映像生成部35で生成された合成映像を表示する。ロボット手術システム1,100は、表示装置50を通じてロボット手術を進める医師に、かかる合成映像を提供することで、映像誘導(image guidance)を行う。表示装置50は、ユーザーに情報を報告するために、視覚情報を表示するための装置、例えば、一般的なモニタ、LCD(Liquid Crystal Display)画面、LED(Light Emitting Diode)画面、目盛り表示装置などを含む。   Referring to FIGS. 1A and 1B again, the display device 50 displays the composite video generated by the composite video generation unit 35. The robotic surgery system 1, 100 performs image guidance by providing the synthesized video to a doctor who performs robotic surgery through the display device 50. The display device 50 is a device for displaying visual information to report information to the user, such as a general monitor, an LCD (Liquid Crystal Display) screen, an LED (Light Emitting Diode) screen, a scale display device, etc. including.

一方、再び図3を参照すれば、位置マッチング部342で第1表面情報及び第2表面情報を利用して、内視鏡装置10(図1B)の位置と超音波装置20(図1B)の位置とがリアルタイムでマッチングされ続ける限り、相異なる位置の相異なる装置で獲得された、同じ臓器についての相異なる映像はマッピングされ続ける。したがって、合成映像生成部35は、内視鏡映像と超音波映像とを整合し続けて、合成映像を連続的に生成することで、表示装置50は、内視鏡装置10(図1B)及び超音波装置20(図1B)の移動に関係なく、リアルタイムで合成映像を表示できる。   On the other hand, referring to FIG. 3 again, the position matching unit 342 uses the first surface information and the second surface information to determine the position of the endoscope apparatus 10 (FIG. 1B) and the ultrasonic apparatus 20 (FIG. 1B). As long as the location continues to be matched in real time, different images of the same organ acquired with different devices at different locations will continue to be mapped. Accordingly, the composite video generation unit 35 continues to match the endoscopic video and the ultrasonic video, and continuously generates the composite video, so that the display device 50 can be used for the endoscope device 10 (FIG. 1B) and Regardless of the movement of the ultrasonic device 20 (FIG. 1B), the composite image can be displayed in real time.

一実施形態によれば、表示装置50は、生成された合成映像そのまま表示できるが、ロボット手術システム1,100の使用環境によって、合成映像に含まれた映像情報のうち一部の関心領域のみが表示されるように制御される。すなわち、内視鏡映像と非内視鏡映像とが合成された場合、表示装置50には、非内視鏡映像に含まれた一部の関心領域である前立腺801の位置、及び神経束802の位置のみが表示されるように制御される。さらに、前立腺801及び神経束802の位置についての情報が前処理された場合、表示装置50は、ロボット手術システム1,100の使用環境によって、合成映像に特定の部位が前立腺801及び神経束802に該当するという情報を共に表示できる。   According to one embodiment, the display device 50 can display the generated composite video as it is, but depending on the usage environment of the robotic surgery system 1, 100, only a part of the region of interest included in the video information included in the composite video. Controlled to be displayed. That is, when the endoscopic image and the non-endoscopic image are combined, the display device 50 displays the position of the prostate 801 that is a part of the region of interest included in the non-endoscopic image and the nerve bundle 802. Only the position of is controlled to be displayed. Further, when the information about the positions of the prostate 801 and the nerve bundle 802 is preprocessed, the display device 50 has a specific part in the composite image and the prostate 801 and the nerve bundle 802 depending on the use environment of the robotic surgical system 1100. You can display the corresponding information together.

図8は、本発明の一実施形態による合成映像を示す図面である。図8を参照すれば、合成映像は、膀胱及び周辺の内視鏡映像に、前立腺及び神経束のような膀胱の内外部の組織位置についての情報を有する超音波映像が合成されたことを示す図面である。   FIG. 8 is a view illustrating a composite image according to an exemplary embodiment of the present invention. Referring to FIG. 8, the synthesized image shows that an ultrasound image having information on the internal and external tissue positions of the bladder, such as the prostate and nerve bundles, is synthesized with the bladder and surrounding endoscopic images. It is a drawing.

図9は、本発明の一実施形態による医療映像を処理する方法のフローチャートである。図9を参照すれば、本実施形態による医療映像処理方法は、図1A、図1B及び図3に示すロボット手術システム1,100の医療映像処理装置30で時系列的に処理されるステップで構成される。したがって、以下省略された内容であるとしても、前記図面に関して記述された内容は、本実施形態による医療映像処理方法にも適用される。   FIG. 9 is a flowchart of a method for processing medical images according to an embodiment of the present invention. Referring to FIG. 9, the medical image processing method according to the present embodiment includes steps processed in time series by the medical image processing apparatus 30 of the robotic surgical system 1, 100 shown in FIGS. 1A, 1B, and 3. Is done. Therefore, even if the contents are omitted below, the contents described with respect to the drawings are also applied to the medical image processing method according to the present embodiment.

ステップ901で、映像獲得部32は、相異なる複数の医療映像撮影装置を利用して撮影された臓器についての医療映像を獲得する。ステップ902で、表面情報抽出部33は、獲得された医療映像それぞれから、獲得された医療映像それぞれに含まれた臓器の表面情報をそれぞれ抽出する。   In step 901, the video acquisition unit 32 acquires a medical video about an organ imaged using a plurality of different medical video imaging devices. In step 902, the surface information extraction unit 33 extracts the surface information of the organ included in each acquired medical image from each acquired medical image.

ステップ903で、映像マッピング部34は、抽出されたそれぞれの表面情報を利用して、医療映像をマッピングする。ステップ904で、合成映像生成部35は、マッピング結果に基づいて、医療映像が整合された合成映像を生成する。   In step 903, the video mapping unit 34 maps the medical video using each extracted surface information. In step 904, the composite video generation unit 35 generates a composite video in which the medical video is matched based on the mapping result.

図10は、図9の医療映像を処理する方法の詳細なフローチャートである。同様に、以下省略された内容であるとしても、図1A、図1B及び図3に関して記述された内容は、本実施形態による医療映像処理方法にも適用される。   FIG. 10 is a detailed flowchart of a method for processing the medical image of FIG. Similarly, the contents described with reference to FIGS. 1A, 1B, and 3 are also applied to the medical image processing method according to the present embodiment, even if the contents are omitted below.

ステップ1001で、内視鏡映像獲得部321は、内視鏡装置10(図1B)を利用して撮影された内視鏡映像を獲得する。ステップ1002で、第1抽出部331は、内視鏡装置10(図1B)により撮影された内視鏡映像から、臓器の表面の位置及び形態のうち少なくとも一つを表す第1表面情報を抽出する。   In step 1001, the endoscope video acquisition unit 321 acquires an endoscope video imaged using the endoscope device 10 (FIG. 1B). In step 1002, the first extraction unit 331 extracts first surface information representing at least one of the position and form of the surface of the organ from the endoscopic image captured by the endoscope apparatus 10 (FIG. 1B). To do.

ステップ1003で、非内視鏡映像獲得部322は、超音波装置20(図1B)のような非内視鏡装置を利用して撮影された非内視鏡映像を獲得する。ステップ1004で、第2抽出部332は、非内視鏡装置により撮影された映像から、臓器の表面の位置及び形態のうち少なくとも一つを表す第2表面情報を抽出する。   In step 1003, the non-endoscopic video acquisition unit 322 acquires a non-endoscopic video imaged using a non-endoscopic device such as the ultrasound device 20 (FIG. 1B). In step 1004, the second extraction unit 332 extracts second surface information representing at least one of the position and form of the surface of the organ from the video imaged by the non-endoscopic device.

ここで、ステップ1001及びステップ1003の開始は、同時に並列的に進められてもよく、いずれか一つのステップが先に開始されて進められてもよい。すなわち、ステップ1001及びステップ1002の進行と、ステップ1003及びステップ1004の進行とは、互いに影響なしに独立して進められる。   Here, the start of step 1001 and step 1003 may be advanced in parallel at the same time, or any one step may be started first and advanced. That is, the progress of step 1001 and step 1002 and the progress of step 1003 and step 1004 are independently performed without any influence.

ステップ1005で、映像マッピング部34は、抽出されたそれぞれの表面情報を利用して、医療映像をマッピングする。ステップ1006で、合成映像生成部35は、マッピング結果に基づいて、医療映像が整合された合成映像を生成する。   In step 1005, the video mapping unit 34 maps the medical video using the extracted surface information. In step 1006, the composite video generation unit 35 generates a composite video in which the medical video is matched based on the mapping result.

図11は、本発明の一実施形態による第1表面情報を抽出する過程のフローチャートである。ステップ1101で、第1抽出部331は、臓器及び周辺についての外部組織と内視鏡装置10(図1B)との距離情報を獲得する。   FIG. 11 is a flowchart of a process of extracting first surface information according to an embodiment of the present invention. In step 1101, the first extraction unit 331 acquires distance information between the external tissue and the endoscope apparatus 10 (FIG. 1B) about the organ and the periphery.

ステップ1102で、第1抽出部331は、獲得された距離情報を利用して、内視鏡映像に対応する三次元の第1表面モデルを生成する。ステップ1103で、第1抽出部331は、生成された第1表面モデルから第1表面情報を抽出する。   In step 1102, the first extraction unit 331 generates a three-dimensional first surface model corresponding to the endoscope image using the acquired distance information. In step 1103, the first extraction unit 331 extracts first surface information from the generated first surface model.

図12は、本発明の一実施形態による第2表面情報を抽出する過程のフローチャートである。ステップ1201で、第2抽出部332は、非内視鏡装置20(図1B)により撮影された映像から、臓器の表面を表す境界線についての情報を獲得する。   FIG. 12 is a flowchart of a process of extracting second surface information according to an embodiment of the present invention. In step 1201, the second extraction unit 332 acquires information about the boundary line representing the surface of the organ from the video imaged by the non-endoscopic device 20 (FIG. 1B).

ステップ1202で、第2抽出部332は、獲得された境界線情報を利用して、臓器の表面に対応する三次元の第2表面モデルを生成する。ステップ1203で、第2抽出部332は、生成された第2表面モデルから第2表面情報を抽出する。   In step 1202, the second extraction unit 332 generates a three-dimensional second surface model corresponding to the surface of the organ using the acquired boundary line information. In step 1203, the second extraction unit 332 extracts second surface information from the generated second surface model.

一方、前述した本発明の実施形態は、コンピュータで実行されるプログラムで作成可能であり、コンピュータで読み取り可能な記録媒体を利用して、前記プログラムを動作させる汎用のデジタルコンピュータで具現される。また、前述した本発明の実施形態で使われたデータの構造は、コンピュータで読み取り可能な記録媒体に複数の手段を通じて記録される。前記コンピュータで読み取り可能な記録媒体は、磁気記録媒体(例えば、ROM(Read Only Memory)、フロッピー(登録商標)ディスク、ハードディスクなど)、光学的な読み取り媒体(例えば、CD−ROM、DVDなど)のような記録媒体を含む。   On the other hand, the above-described embodiment of the present invention can be created by a program executed by a computer, and is embodied by a general-purpose digital computer that operates the program using a computer-readable recording medium. The data structure used in the above-described embodiment of the present invention is recorded on a computer-readable recording medium through a plurality of means. The computer-readable recording medium is a magnetic recording medium (for example, ROM (Read Only Memory), floppy (registered trademark) disk, hard disk, etc.), or an optical reading medium (for example, CD-ROM, DVD, etc.). Such a recording medium is included.

これまで、本発明について、その望ましい実施形態を中心に述べた。当業者は、本発明が、本発明の本質的な特性から逸脱しない範囲で、変形された形態に具現可能であるということを理解できるであろう。したがって、開示された実施形態は、限定的な観点ではなく、説明的な観点で考慮されねばならない。本発明の範囲は、前述した説明ではなく、特許請求の範囲に表れており、それと同等な範囲内にあるあらゆる相違点は、本発明に含まれていると解釈されねばならない。   So far, the present invention has been described with a focus on preferred embodiments thereof. Those skilled in the art will appreciate that the present invention can be embodied in modified forms without departing from the essential characteristics of the invention. Accordingly, the disclosed embodiments should be considered in an illustrative, not a limiting sense. The scope of the present invention is shown not in the above description but in the claims, and all differences within the equivalent scope should be construed as being included in the present invention.

本発明は、医療機器関連の技術分野に適用可能である。   The present invention is applicable to the technical field related to medical devices.

1 ロボット手術システム
10 内視鏡装置
11 第1医療映像撮影装置
20 超音波装置
21 第2医療映像撮影装置
30 医療映像処理装置
31 検出部
32 映像獲得部
33 表面情報抽出部
34 映像マッピング部
35 合成映像生成部
40 手術用ロボット
50 表示装置
321 内視鏡映像獲得部
322 非内視鏡映像獲得部
331 第1抽出部
332 第2抽出部
341 比較部
342 位置マッチング部
DESCRIPTION OF SYMBOLS 1 Robotic surgery system 10 Endoscope apparatus 11 1st medical imaging | video imaging device 20 Ultrasound apparatus 21 2nd medical imaging | photography apparatus 30 Medical imaging | video processing apparatus 31 Detection part 32 Image acquisition part 33 Surface information extraction part 34 Image mapping part 35 Synthesis Image generation unit 40 Surgical robot 50 Display device 321 Endoscope image acquisition unit 322 Non-endoscope image acquisition unit 331 First extraction unit 332 Second extraction unit 341 Comparison unit 342 Position matching unit

Claims (26)

相異なる複数の医療映像撮影装置を利用して撮影された所定の臓器についての医療映像を獲得するステップと、
前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出するステップと、
前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングするステップと、
前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成するステップと、を含むことを特徴とする医療映像処理方法。
Obtaining a medical image of a predetermined organ imaged using a plurality of different medical image capturing devices;
Extracting each surface information of the predetermined organ included in each of the acquired medical images from each of the acquired medical images;
Mapping the medical image using each of the extracted surface information;
Generating a composite image in which the medical images are matched based on the mapping result.
前記抽出するステップは、前記獲得された医療映像それぞれから、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す情報を前記表面情報として抽出することを特徴とする請求項1に記載の医療映像処理方法。   2. The extraction step according to claim 1, wherein information representing at least one of a position and a form of a surface of the predetermined organ is extracted as the surface information from each of the acquired medical images. Medical video processing method. 前記マッピングするステップは、前記抽出されたそれぞれの表面情報を利用して、前記医療映像撮影装置それぞれの位置をマッチングさせることで、前記医療映像をマッピングすることを特徴とする請求項1に記載の医療映像処理方法。   2. The mapping according to claim 1, wherein the mapping step maps the medical image by matching each position of the medical image capturing device using the extracted surface information. Medical video processing method. 前記医療映像撮影装置それぞれの位置を検出するステップをさらに含み、
前記マッピングするステップは、
前記抽出されたそれぞれの表面情報を比較するステップと、
前記比較結果に基づいて、前記検出された前記医療映像装置の位置をマッチングさせるステップと、を含み、
前記マッピングするステップは、前記マッチング結果に基づいて、前記医療映像をマッピングすることを特徴とする請求項1に記載の医療映像処理方法。
Further comprising the step of detecting the position of each of the medical imaging devices;
The mapping step includes:
Comparing each extracted surface information;
Matching the detected position of the medical imaging device based on the comparison result, and
The medical image processing method according to claim 1, wherein in the mapping step, the medical image is mapped based on the matching result.
前記比較するステップは、前記抽出されたそれぞれの表面情報が前記所定の臓器の同じ部位の表面に対してどのように対応するかを比較することを特徴とする請求項4に記載の医療映像処理方法。   The medical image processing according to claim 4, wherein the comparing step compares how the extracted surface information corresponds to the surface of the same part of the predetermined organ. Method. 前記複数の医療映像撮影装置は、内視鏡装置と、超音波装置、コンピュータ断層撮影(CT)装置、磁気共鳴映像(MRI)装置及び陽電子放射断層撮影(PET)装置のうち少なくとも一つを含む非内視鏡装置と、を含むことを特徴とする請求項1に記載の医療映像処理方法。   The plurality of medical imaging apparatuses include at least one of an endoscope apparatus, an ultrasound apparatus, a computed tomography (CT) apparatus, a magnetic resonance imaging (MRI) apparatus, and a positron emission tomography (PET) apparatus. The medical image processing method according to claim 1, further comprising a non-endoscopic device. 前記生成された合成映像は、前記内視鏡装置により撮影された映像に含まれた前記所定の臓器及び周辺についての外部組織の映像と、前記非内視鏡装置により撮影された映像に含まれた前記所定の臓器及び前記周辺についての内外部組織の映像とが三次元的に同時に表現された映像であることを特徴とする請求項6に記載の医療映像処理方法。   The generated composite image is included in the image of the external tissue about the predetermined organ and the periphery included in the image captured by the endoscope device and the image captured by the non-endoscopic device. The medical image processing method according to claim 6, wherein the predetermined organ and the image of the internal and external tissues about the periphery are images that are simultaneously expressed three-dimensionally. 前記抽出するステップは、
前記内視鏡装置により撮影された内視鏡映像から、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す第1表面情報を抽出するステップと、
前記非内視鏡装置により撮影された映像から、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す第2表面情報を抽出するステップと、を含むことを特徴とする請求項6に記載の医療映像処理方法。
The extracting step includes:
Extracting first surface information representing at least one of the position and form of the surface of the predetermined organ from an endoscopic image captured by the endoscopic device;
The method further comprises the step of: extracting second surface information representing at least one of the position and form of the surface of the predetermined organ from an image photographed by the non-endoscopic device. A medical image processing method according to claim 1.
前記第1表面情報を抽出するステップは、
前記所定の臓器及び周辺についての外部組織と前記内視鏡装置との距離情報を獲得するステップと、
前記獲得された距離情報を利用して、前記内視鏡映像に対応する三次元の第1表面モデルを生成するステップと、を含み、
前記生成された第1表面モデルから前記第1表面情報を抽出することを特徴とする請求項8に記載の医療映像処理方法。
Extracting the first surface information comprises:
Obtaining distance information between an external tissue and the endoscopic device for the predetermined organ and surroundings;
Using the obtained distance information to generate a three-dimensional first surface model corresponding to the endoscopic image,
The medical image processing method according to claim 8, wherein the first surface information is extracted from the generated first surface model.
前記第2表面情報を抽出するステップは、
前記非内視鏡装置により撮影された映像から、前記所定の臓器の表面を表す境界線についての情報を獲得するステップと、
前記獲得された境界線情報を利用して、前記所定の臓器の表面に対応する三次元の第2表面モデルを生成するステップと、を含み、
前記生成された第2表面モデルから前記第2表面情報を抽出することを特徴とする請求項8に記載の医療映像処理方法。
Extracting the second surface information comprises:
Obtaining information about a boundary line representing the surface of the predetermined organ from an image captured by the non-endoscopic device;
Using the acquired boundary information to generate a three-dimensional second surface model corresponding to the surface of the predetermined organ,
The medical image processing method according to claim 8, wherein the second surface information is extracted from the generated second surface model.
前記境界線情報を獲得するステップは、
前記非内視鏡装置により撮影された映像に対して、ライン検出及びエッジ検出のうち少なくとも一つを適用することで、前記境界線を獲得することを特徴とする請求項10に記載の医療映像処理方法。
The step of acquiring the boundary line information includes:
The medical image according to claim 10, wherein the boundary line is obtained by applying at least one of line detection and edge detection to an image captured by the non-endoscopic device. Processing method.
前記所定の臓器は、手術用ロボットにより治療される手術部位または前記手術部位の周辺の臓器であることを特徴とする請求項1に記載の医療映像処理方法。   The medical image processing method according to claim 1, wherein the predetermined organ is a surgical site to be treated by a surgical robot or an organ around the surgical site. 請求項1ないし12のうちいずれか一項に記載の方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。   A computer-readable recording medium recording a program for causing a computer to execute the method according to claim 1. 相異なる複数の医療映像撮影装置を利用して撮影された所定の臓器についての医療映像を獲得する映像獲得部と、
前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出する表面情報抽出部と、
前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングする映像マッピング部と、
前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成する合成映像生成部と、を備えることを特徴とする医療映像処理装置。
A video acquisition unit for acquiring a medical image of a predetermined organ imaged using a plurality of different medical video imaging devices;
A surface information extracting unit that extracts surface information of the predetermined organ included in each of the acquired medical images from each of the acquired medical images;
A video mapping unit that maps the medical video using each of the extracted surface information;
A medical video processing apparatus comprising: a composite video generation unit that generates a composite video in which the medical video is matched based on the mapping result.
前記表面情報抽出部は、前記獲得された医療映像それぞれから、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す情報を前記表面情報として抽出することを特徴とする請求項14に記載の医療映像処理装置。   The surface information extraction unit extracts information representing at least one of the position and form of the surface of the predetermined organ as the surface information from each of the acquired medical images. The medical image processing apparatus described. 前記映像マッピング部は、前記抽出されたそれぞれの表面情報を利用して、前記医療映像撮影装置それぞれの位置をマッチングさせることで、前記医療映像をマッピングすることを特徴とする請求項14に記載の医療映像処理装置。   The image mapping unit according to claim 14, wherein the image mapping unit maps the medical image by matching each position of the medical image capturing device using the extracted surface information. Medical video processing device. 前記医療映像撮影装置それぞれの位置を検出する検出部をさらに備え、
前記映像マッピング部は、
前記抽出されたそれぞれの表面情報を比較する比較部と、
前記比較結果に基づいて、前記検出された前記医療映像装置の位置をマッチングさせる位置マッチング部と、を備えることを特徴とする請求項14に記載の医療映像処理装置。
A detection unit for detecting the position of each of the medical imaging devices;
The video mapping unit
A comparison unit for comparing each of the extracted surface information;
The medical image processing apparatus according to claim 14, further comprising: a position matching unit configured to match the position of the detected medical image apparatus based on the comparison result.
前記複数の医療映像撮影装置は、内視鏡装置と、超音波装置、コンピュータ断層撮影(CT)装置、磁気共鳴映像(MRI)装置及び陽電子放射断層撮影(PET)装置のうち少なくとも一つを含む非内視鏡装置と、を含むことを特徴とする請求項14に記載の医療映像処理装置。   The plurality of medical imaging apparatuses include at least one of an endoscope apparatus, an ultrasound apparatus, a computed tomography (CT) apparatus, a magnetic resonance imaging (MRI) apparatus, and a positron emission tomography (PET) apparatus. The medical image processing apparatus according to claim 14, further comprising a non-endoscopic apparatus. 前記生成された合成映像は、前記内視鏡装置により撮影された映像に含まれた前記所定の臓器及び周辺についての外部組織の映像と、前記非内視鏡装置により撮影された映像に含まれた前記所定の臓器及び前記周辺についての内外部組織の映像とが三次元的に同時に表現された映像であることを特徴とする請求項18に記載の医療映像処理装置。   The generated composite image is included in the image of the external tissue about the predetermined organ and the periphery included in the image captured by the endoscope device and the image captured by the non-endoscopic device. 19. The medical image processing apparatus according to claim 18, wherein the predetermined organ and the image of the internal and external tissues about the periphery are images that are simultaneously expressed three-dimensionally. 前記表面情報抽出部は、
前記内視鏡装置により撮影された内視鏡映像から、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す第1表面情報を抽出する第1抽出部と、
前記非内視鏡装置により撮影された映像から、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す第2表面情報を抽出する第2抽出部と、を備えることを特徴とする請求項18に記載の医療映像処理装置。
The surface information extraction unit
A first extraction unit that extracts first surface information representing at least one of a position and a form of a surface of the predetermined organ from an endoscope image captured by the endoscope device;
A second extraction unit that extracts second surface information representing at least one of a position and a form of the surface of the predetermined organ from an image captured by the non-endoscopic device. The medical image processing apparatus according to claim 18.
前記内視鏡装置は、腹腔鏡装置であり、前記非内視鏡装置が前記超音波装置を含む場合、前記超音波装置は、経直腸的超音波(TRUS)装置であることを特徴とする請求項18に記載の医療映像処理装置。   The endoscopic device is a laparoscopic device, and when the non-endoscopic device includes the ultrasound device, the ultrasound device is a transrectal ultrasound (TRUS) device. The medical image processing apparatus according to claim 18. 前記所定の臓器は、手術用ロボットにより治療される手術部位または前記手術部位の周辺の臓器であることを特徴とする請求項14に記載の医療映像処理装置。   The medical image processing apparatus according to claim 14, wherein the predetermined organ is a surgical site to be treated by a surgical robot or an organ around the surgical site. 手術部位についての映像を誘導して、手術用ロボットによるロボット手術を行うロボット手術システムにおいて、
被検体内の所定の臓器に対して、医療映像を撮影する内視鏡装置と、
前記所定の臓器に対して、医療映像を撮影する、超音波装置、コンピュータ断層撮影(CT)装置、磁気共鳴映像(MRI)装置及び陽電子放射断層撮影(PET)装置のうち少なくとも一つを含む非内視鏡装置と、
前記複数の医療映像撮影装置を利用して撮影された前記医療映像を獲得し、前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出し、前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングし、前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成する医療映像処理装置と、
前記生成された合成映像を表示する表示装置と、
ユーザーの入力によってロボット手術を行う手術用ロボットと、を備えることを特徴とするシステム。
In a robotic surgery system that guides video about the surgical site and performs robotic surgery with a surgical robot,
An endoscopic device that captures medical images of a predetermined organ in a subject;
Non-inclusive of at least one of an ultrasound device, a computed tomography (CT) device, a magnetic resonance imaging (MRI) device, and a positron emission tomography (PET) device that images a medical image of the predetermined organ. An endoscopic device;
The medical images captured using the plurality of medical image capturing devices are acquired, and surface information of the predetermined organ included in each of the acquired medical images is obtained from each of the acquired medical images. A medical video processing device that extracts and maps the medical video using each of the extracted surface information, and generates a synthesized video in which the medical video is matched based on the mapping result;
A display device for displaying the generated composite video;
And a surgical robot for performing robotic surgery in response to user input.
前記医療映像処理装置は、前記獲得された医療映像それぞれから、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す情報を前記表面情報として抽出することを特徴とする請求項23に記載のシステム。   24. The medical image processing apparatus extracts information representing at least one of a position and a form of a surface of the predetermined organ as the surface information from each of the acquired medical images. The described system. 前記医療映像処理装置は、前記抽出されたそれぞれの表面情報を利用して、前記内視鏡装置及び非内視鏡装置それぞれの位置をマッチングさせることで、前記医療映像をマッピングすることを特徴とする請求項23に記載のシステム。   The medical image processing device maps the medical image by using the extracted surface information to match the positions of the endoscope device and the non-endoscopic device. 24. The system of claim 23. 前記所定の臓器は、前記手術用ロボットにより治療される手術部位または前記手術部位の周辺の臓器であることを特徴とする請求項23に記載のシステム。   The system according to claim 23, wherein the predetermined organ is a surgical site to be treated by the surgical robot or an organ around the surgical site.
JP2012167110A 2011-08-02 2012-07-27 Medical video processing method and apparatus Expired - Fee Related JP6395995B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0076993 2011-08-02
KR20110076993A KR20130015146A (en) 2011-08-02 2011-08-02 Method and apparatus for processing medical image, robotic surgery system using image guidance

Publications (2)

Publication Number Publication Date
JP2013031660A true JP2013031660A (en) 2013-02-14
JP6395995B2 JP6395995B2 (en) 2018-09-26

Family

ID=47002530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012167110A Expired - Fee Related JP6395995B2 (en) 2011-08-02 2012-07-27 Medical video processing method and apparatus

Country Status (5)

Country Link
US (1) US20130035583A1 (en)
EP (1) EP2554137A3 (en)
JP (1) JP6395995B2 (en)
KR (1) KR20130015146A (en)
CN (1) CN102908158B (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160064442A (en) * 2014-11-28 2016-06-08 삼성전자주식회사 Medical image processing apparatus and medical image registration method using the same
US9600138B2 (en) 2013-03-15 2017-03-21 Synaptive Medical (Barbados) Inc. Planning, navigation and simulation systems and methods for minimally invasive therapy
JP2017513662A (en) * 2014-03-28 2017-06-01 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Alignment of Q3D image with 3D image
KR101767005B1 (en) 2016-05-26 2017-08-09 성균관대학교산학협력단 Method and apparatus for matching images using contour-based registration
US10799316B2 (en) 2013-03-15 2020-10-13 Synaptive Medical (Barbados) Inc. System and method for dynamic validation, correction of registration for surgical navigation
JPWO2019088008A1 (en) * 2017-10-31 2020-11-12 富士フイルム株式会社 Image processing equipment, image processing methods, programs, and endoscopic systems
US11304771B2 (en) 2014-03-28 2022-04-19 Intuitive Surgical Operations, Inc. Surgical system with haptic feedback based upon quantitative three-dimensional imaging
WO2022239895A1 (en) * 2021-05-10 2022-11-17 주식회사 씨앤에이아이 Composite endoscopic image generation device and method using gan

Families Citing this family (133)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8219178B2 (en) 2007-02-16 2012-07-10 Catholic Healthcare West Method and system for performing invasive medical procedures using a surgical robot
US10357184B2 (en) 2012-06-21 2019-07-23 Globus Medical, Inc. Surgical tool systems and method
US10893912B2 (en) 2006-02-16 2021-01-19 Globus Medical Inc. Surgical tool systems and methods
US10653497B2 (en) 2006-02-16 2020-05-19 Globus Medical, Inc. Surgical tool systems and methods
WO2012131660A1 (en) 2011-04-01 2012-10-04 Ecole Polytechnique Federale De Lausanne (Epfl) Robotic system for spinal and other surgeries
US12004905B2 (en) 2012-06-21 2024-06-11 Globus Medical, Inc. Medical imaging systems using robotic actuators and related methods
US11253327B2 (en) 2012-06-21 2022-02-22 Globus Medical, Inc. Systems and methods for automatically changing an end-effector on a surgical robot
US11116576B2 (en) 2012-06-21 2021-09-14 Globus Medical Inc. Dynamic reference arrays and methods of use
US11395706B2 (en) 2012-06-21 2022-07-26 Globus Medical Inc. Surgical robot platform
US11857149B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. Surgical robotic systems with target trajectory deviation monitoring and related methods
US10624710B2 (en) 2012-06-21 2020-04-21 Globus Medical, Inc. System and method for measuring depth of instrumentation
WO2013192598A1 (en) 2012-06-21 2013-12-27 Excelsius Surgical, L.L.C. Surgical robot platform
US11317971B2 (en) 2012-06-21 2022-05-03 Globus Medical, Inc. Systems and methods related to robotic guidance in surgery
US11857266B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. System for a surveillance marker in robotic-assisted surgery
US11045267B2 (en) 2012-06-21 2021-06-29 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11974822B2 (en) 2012-06-21 2024-05-07 Globus Medical Inc. Method for a surveillance marker in robotic-assisted surgery
US10758315B2 (en) 2012-06-21 2020-09-01 Globus Medical Inc. Method and system for improving 2D-3D registration convergence
US11864745B2 (en) 2012-06-21 2024-01-09 Globus Medical, Inc. Surgical robotic system with retractor
US10350013B2 (en) 2012-06-21 2019-07-16 Globus Medical, Inc. Surgical tool systems and methods
US11298196B2 (en) 2012-06-21 2022-04-12 Globus Medical Inc. Surgical robotic automation with tracking markers and controlled tool advancement
US11793570B2 (en) 2012-06-21 2023-10-24 Globus Medical Inc. Surgical robotic automation with tracking markers
US11399900B2 (en) 2012-06-21 2022-08-02 Globus Medical, Inc. Robotic systems providing co-registration using natural fiducials and related methods
US10136954B2 (en) 2012-06-21 2018-11-27 Globus Medical, Inc. Surgical tool systems and method
US10231791B2 (en) 2012-06-21 2019-03-19 Globus Medical, Inc. Infrared signal based position recognition system for use with a robot-assisted surgery
US11607149B2 (en) 2012-06-21 2023-03-21 Globus Medical Inc. Surgical tool systems and method
US11864839B2 (en) 2012-06-21 2024-01-09 Globus Medical Inc. Methods of adjusting a virtual implant and related surgical navigation systems
KR102094502B1 (en) * 2013-02-21 2020-03-30 삼성전자주식회사 Method and Apparatus for performing registraton of medical images
KR102098958B1 (en) * 2013-06-24 2020-04-14 큐렉소 주식회사 Three Dimensions Image Dysplay System for The Organ
WO2015010189A1 (en) 2013-07-24 2015-01-29 Centre For Surgical Invention & Innovation Multi-function mounting interface for an image-guided robotic system and quick release interventional toolset
US9283048B2 (en) 2013-10-04 2016-03-15 KB Medical SA Apparatus and systems for precise guidance of surgical tools
KR20150074304A (en) * 2013-12-23 2015-07-02 삼성전자주식회사 Method for Providing Medical Image and Apparatus Thereof
US9241771B2 (en) 2014-01-15 2016-01-26 KB Medical SA Notched apparatus for guidance of an insertable instrument along an axis during spinal surgery
US9713649B2 (en) 2014-01-24 2017-07-25 The Cleveland Clinic Foundation PSMA-targeting imaging agents
US10039605B2 (en) 2014-02-11 2018-08-07 Globus Medical, Inc. Sterile handle for controlling a robotic surgical system from a sterile field
US10350009B2 (en) 2014-03-28 2019-07-16 Intuitive Surgical Operations, Inc. Quantitative three-dimensional imaging and printing of surgical implants
JP6609616B2 (en) 2014-03-28 2019-11-20 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Quantitative 3D imaging of surgical scenes from a multiport perspective
US11266465B2 (en) 2014-03-28 2022-03-08 Intuitive Surgical Operations, Inc. Quantitative three-dimensional visualization of instruments in a field of view
WO2015149040A1 (en) * 2014-03-28 2015-10-01 Dorin Panescu Quantitative three-dimensional imaging of surgical scenes
WO2015162256A1 (en) 2014-04-24 2015-10-29 KB Medical SA Surgical instrument holder for use with a robotic surgical system
CN107072673A (en) 2014-07-14 2017-08-18 Kb医疗公司 Anti-skidding operating theater instruments for preparing hole in bone tissue
US9582916B2 (en) 2014-11-10 2017-02-28 Siemens Healthcare Gmbh Method and system for unsupervised cross-modal medical image synthesis
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
EP3258872B1 (en) 2015-02-18 2023-04-26 KB Medical SA Systems for performing minimally invasive spinal surgery with a robotic surgical system using a percutaneous technique
US9595120B2 (en) 2015-04-27 2017-03-14 Siemens Healthcare Gmbh Method and system for medical image synthesis across image domain or modality using iterative sparse representation propagation
CN107924459B (en) * 2015-06-24 2021-08-27 埃达技术股份有限公司 Method and system for interactive 3D mirror placement and measurement for kidney stone removal procedures
US10058394B2 (en) 2015-07-31 2018-08-28 Globus Medical, Inc. Robot arm and methods of use
US10646298B2 (en) 2015-07-31 2020-05-12 Globus Medical, Inc. Robot arm and methods of use
US10080615B2 (en) 2015-08-12 2018-09-25 Globus Medical, Inc. Devices and methods for temporary mounting of parts to bone
EP3344179B1 (en) 2015-08-31 2021-06-30 KB Medical SA Robotic surgical systems
US10034716B2 (en) 2015-09-14 2018-07-31 Globus Medical, Inc. Surgical robotic systems and methods thereof
US9771092B2 (en) 2015-10-13 2017-09-26 Globus Medical, Inc. Stabilizer wheel assembly and methods of use
CN105306573B (en) * 2015-11-03 2019-07-23 浙江格林蓝德信息技术有限公司 Medical image initial data dispatching method and medical image Transmission system
US11058378B2 (en) 2016-02-03 2021-07-13 Globus Medical, Inc. Portable medical imaging system
US10842453B2 (en) 2016-02-03 2020-11-24 Globus Medical, Inc. Portable medical imaging system
US10448910B2 (en) 2016-02-03 2019-10-22 Globus Medical, Inc. Portable medical imaging system
US11883217B2 (en) 2016-02-03 2024-01-30 Globus Medical, Inc. Portable medical imaging system and method
US10117632B2 (en) 2016-02-03 2018-11-06 Globus Medical, Inc. Portable medical imaging system with beam scanning collimator
US10866119B2 (en) 2016-03-14 2020-12-15 Globus Medical, Inc. Metal detector for detecting insertion of a surgical device into a hollow tube
EP3241518B1 (en) 2016-04-11 2024-10-23 Globus Medical, Inc Surgical tool systems
US20180049808A1 (en) * 2016-08-17 2018-02-22 Covidien Lp Method of using soft point features to predict breathing cycles and improve end registration
EP3360502A3 (en) 2017-01-18 2018-10-31 KB Medical SA Robotic navigation of robotic surgical systems
US11071594B2 (en) 2017-03-16 2021-07-27 KB Medical SA Robotic navigation of robotic surgical systems
US11135015B2 (en) 2017-07-21 2021-10-05 Globus Medical, Inc. Robot surgical platform
US10898252B2 (en) 2017-11-09 2021-01-26 Globus Medical, Inc. Surgical robotic systems for bending surgical rods, and related methods and devices
US11794338B2 (en) 2017-11-09 2023-10-24 Globus Medical Inc. Robotic rod benders and related mechanical and motor housings
US11357548B2 (en) 2017-11-09 2022-06-14 Globus Medical, Inc. Robotic rod benders and related mechanical and motor housings
US11134862B2 (en) 2017-11-10 2021-10-05 Globus Medical, Inc. Methods of selecting surgical implants and related devices
KR102099563B1 (en) 2017-12-28 2020-04-09 서울대학교 산학협력단 Surgical robot system for minimal invasive surgery and method for preventing collision using the same
US10482600B2 (en) 2018-01-16 2019-11-19 Siemens Healthcare Gmbh Cross-domain image analysis and cross-domain image synthesis using deep image-to-image networks and adversarial networks
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
KR102018565B1 (en) * 2018-02-20 2019-09-05 (주)휴톰 Method, apparatus and program for constructing surgical simulation information
WO2019164271A1 (en) * 2018-02-20 2019-08-29 (주)휴톰 Virtual body model generation method and device
US10573023B2 (en) 2018-04-09 2020-02-25 Globus Medical, Inc. Predictive visualization of medical imaging scanner component movement
US20200015924A1 (en) * 2018-07-16 2020-01-16 Ethicon Llc Robotic light projection tools
CN108900815A (en) * 2018-08-04 2018-11-27 广州高通影像技术有限公司 A kind of intelligent endoscope image system based on AR application technology
US11337742B2 (en) 2018-11-05 2022-05-24 Globus Medical Inc Compliant orthopedic driver
US11278360B2 (en) 2018-11-16 2022-03-22 Globus Medical, Inc. End-effectors for surgical robotic systems having sealed optical components
US11602402B2 (en) 2018-12-04 2023-03-14 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11744655B2 (en) 2018-12-04 2023-09-05 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
WO2020113565A1 (en) * 2018-12-07 2020-06-11 深圳先进技术研究院 Multi-modal imaging system for pancreatic/biliary duct
KR102297517B1 (en) 2019-03-06 2021-09-02 서울대학교 산학협력단 Surgical robot system for minimal invasive surgery and drive method thereof
US11918313B2 (en) 2019-03-15 2024-03-05 Globus Medical Inc. Active end effectors for surgical robots
US11571265B2 (en) 2019-03-22 2023-02-07 Globus Medical Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11382549B2 (en) 2019-03-22 2022-07-12 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11317978B2 (en) 2019-03-22 2022-05-03 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US20200297357A1 (en) 2019-03-22 2020-09-24 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11419616B2 (en) 2019-03-22 2022-08-23 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11806084B2 (en) 2019-03-22 2023-11-07 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11045179B2 (en) 2019-05-20 2021-06-29 Global Medical Inc Robot-mounted retractor system
US11628023B2 (en) 2019-07-10 2023-04-18 Globus Medical, Inc. Robotic navigational system for interbody implants
US11571171B2 (en) 2019-09-24 2023-02-07 Globus Medical, Inc. Compound curve cable chain
US11426178B2 (en) 2019-09-27 2022-08-30 Globus Medical Inc. Systems and methods for navigating a pin guide driver
US11864857B2 (en) 2019-09-27 2024-01-09 Globus Medical, Inc. Surgical robot with passive end effector
US11890066B2 (en) 2019-09-30 2024-02-06 Globus Medical, Inc Surgical robot with passive end effector
US11510684B2 (en) 2019-10-14 2022-11-29 Globus Medical, Inc. Rotary motion passive end effector for surgical robots in orthopedic surgeries
KR102235681B1 (en) * 2019-12-03 2021-04-05 주식회사 딥노이드 Apparatus for navigating surgical location and method thereof
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US12064189B2 (en) 2019-12-13 2024-08-20 Globus Medical, Inc. Navigated instrument for use in robotic guided surgery
US11776144B2 (en) 2019-12-30 2023-10-03 Cilag Gmbh International System and method for determining, adjusting, and managing resection margin about a subject tissue
US11896442B2 (en) 2019-12-30 2024-02-13 Cilag Gmbh International Surgical systems for proposing and corroborating organ portion removals
US11759283B2 (en) 2019-12-30 2023-09-19 Cilag Gmbh International Surgical systems for generating three dimensional constructs of anatomical organs and coupling identified anatomical structures thereto
KR102373370B1 (en) * 2019-12-30 2022-03-11 서울대학교산학협력단 Synthetic ct image generating method for mr image guided radiotherapy and method for setting radiation therapy plan using the same
US11219501B2 (en) 2019-12-30 2022-01-11 Cilag Gmbh International Visualization systems using structured light
US11648060B2 (en) 2019-12-30 2023-05-16 Cilag Gmbh International Surgical system for overlaying surgical instrument data onto a virtual three dimensional construct of an organ
US12002571B2 (en) 2019-12-30 2024-06-04 Cilag Gmbh International Dynamic surgical visualization systems
US12053223B2 (en) 2019-12-30 2024-08-06 Cilag Gmbh International Adaptive surgical system control according to surgical smoke particulate characteristics
US11832996B2 (en) 2019-12-30 2023-12-05 Cilag Gmbh International Analyzing surgical trends by a surgical system
US11284963B2 (en) 2019-12-30 2022-03-29 Cilag Gmbh International Method of using imaging devices in surgery
US11744667B2 (en) 2019-12-30 2023-09-05 Cilag Gmbh International Adaptive visualization by a surgical system
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11253216B2 (en) 2020-04-28 2022-02-22 Globus Medical Inc. Fixtures for fluoroscopic imaging systems and related navigation systems and methods
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11317973B2 (en) 2020-06-09 2022-05-03 Globus Medical, Inc. Camera tracking bar for computer assisted navigation during surgery
US12070276B2 (en) 2020-06-09 2024-08-27 Globus Medical Inc. Surgical object tracking in visible light via fiducial seeding and synthetic image registration
US11382713B2 (en) 2020-06-16 2022-07-12 Globus Medical, Inc. Navigated surgical system with eye to XR headset display calibration
US11877807B2 (en) 2020-07-10 2024-01-23 Globus Medical, Inc Instruments for navigated orthopedic surgeries
US11793588B2 (en) 2020-07-23 2023-10-24 Globus Medical, Inc. Sterile draping of robotic arms
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
US11523785B2 (en) 2020-09-24 2022-12-13 Globus Medical, Inc. Increased cone beam computed tomography volume length without requiring stitching or longitudinal C-arm movement
US12076091B2 (en) 2020-10-27 2024-09-03 Globus Medical, Inc. Robotic navigational system
US11911112B2 (en) 2020-10-27 2024-02-27 Globus Medical, Inc. Robotic navigational system
US11941814B2 (en) 2020-11-04 2024-03-26 Globus Medical Inc. Auto segmentation using 2-D images taken during 3-D imaging spin
US11717350B2 (en) 2020-11-24 2023-08-08 Globus Medical Inc. Methods for robotic assistance and navigation in spinal surgery and related systems
US20220218431A1 (en) 2021-01-08 2022-07-14 Globus Medical, Inc. System and method for ligament balancing with robotic assistance
US11857273B2 (en) 2021-07-06 2024-01-02 Globus Medical, Inc. Ultrasonic robotic surgical navigation
US11439444B1 (en) 2021-07-22 2022-09-13 Globus Medical, Inc. Screw tower and rod reduction tool
US11918304B2 (en) 2021-12-20 2024-03-05 Globus Medical, Inc Flat panel registration fixture and method of using same
US12103480B2 (en) 2022-03-18 2024-10-01 Globus Medical Inc. Omni-wheel cable pusher
US12048493B2 (en) 2022-03-31 2024-07-30 Globus Medical, Inc. Camera tracking system identifying phantom markers during computer assisted surgery navigation
KR102549662B1 (en) * 2022-09-14 2023-06-30 주식회사 뉴로소나 Display method for treatment information for ultrasound brain irradiation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11309A (en) * 1997-06-12 1999-01-06 Hitachi Ltd Image processor
JPH11295618A (en) * 1998-04-10 1999-10-29 Olympus Optical Co Ltd Endoscopic image processor
JP2002017729A (en) * 2000-07-11 2002-01-22 Toshiba Corp Endoscope ultrasonograph
JP2004358096A (en) * 2003-06-06 2004-12-24 Olympus Corp Ultrasonic endoscope apparatus
JP2010088699A (en) * 2008-10-09 2010-04-22 National Center For Child Health & Development Medical image processing system

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69332042T2 (en) * 1992-12-18 2003-01-02 Koninklijke Philips Electronics N.V., Eindhoven Delayed positioning of relatively elastically deformed spatial images by matching surfaces
US8944070B2 (en) * 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US7117026B2 (en) * 2002-06-12 2006-10-03 Koninklijke Philips Electronics N.V. Physiological model based non-rigid image registration
FR2855292B1 (en) * 2003-05-22 2005-12-09 Inst Nat Rech Inf Automat DEVICE AND METHOD FOR REAL TIME REASONING OF PATTERNS ON IMAGES, IN PARTICULAR FOR LOCALIZATION GUIDANCE
DE10340544B4 (en) * 2003-09-01 2006-08-03 Siemens Ag Device for visual support of electrophysiology catheter application in the heart
US20050085717A1 (en) * 2003-10-21 2005-04-21 Ramin Shahidi Systems and methods for intraoperative targetting
CN101292255B (en) * 2005-09-22 2012-05-23 3M创新有限公司 Artifact mitigation in three-dimensional imaging
CN100498839C (en) * 2006-03-08 2009-06-10 杭州电子科技大学 Multi-modality medical data three-dimensional visualization method
JP4745131B2 (en) * 2006-05-29 2011-08-10 株式会社日立製作所 Communication card
WO2008063494A2 (en) * 2006-11-16 2008-05-29 Vanderbilt University Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same
US8672836B2 (en) * 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US8428690B2 (en) * 2007-05-16 2013-04-23 General Electric Company Intracardiac echocardiography image reconstruction in combination with position tracking system
US8052604B2 (en) * 2007-07-31 2011-11-08 Mirabilis Medica Inc. Methods and apparatus for engagement and coupling of an intracavitory imaging and high intensity focused ultrasound probe
US8320711B2 (en) * 2007-12-05 2012-11-27 Biosense Webster, Inc. Anatomical modeling from a 3-D image and a surface mapping
US8803955B2 (en) * 2008-04-26 2014-08-12 Intuitive Surgical Operations, Inc. Augmented stereoscopic visualization for a surgical robot using a camera unit with a modified prism
KR101591471B1 (en) * 2008-11-03 2016-02-04 삼성전자주식회사 apparatus and method for extracting feature information of object and apparatus and method for generating feature map
US8823775B2 (en) * 2009-04-30 2014-09-02 Board Of Regents, The University Of Texas System Body surface imaging
CN101567051B (en) * 2009-06-03 2012-08-22 复旦大学 Image matching method based on characteristic points
CA2781427A1 (en) * 2009-11-19 2011-05-26 The Johns Hopkins University Low-cost image-guided navigation and intervention systems using cooperative sets of local sensors
CN103118596B (en) * 2010-05-04 2015-11-25 开创治疗股份有限公司 For the system using pseudo-characteristic to carry out abdominal surface coupling
US20130170726A1 (en) * 2010-09-24 2013-07-04 The Research Foundation Of State University Of New York Registration of scanned objects obtained from different orientations
EP2680778B1 (en) * 2011-03-03 2019-07-31 Koninklijke Philips N.V. System and method for automated initialization and registration of navigation system
CN104160424B (en) * 2012-03-08 2017-09-19 皇家飞利浦有限公司 Smart Logo selection for improving the registration accuracy in multi-modality images fusion

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11309A (en) * 1997-06-12 1999-01-06 Hitachi Ltd Image processor
JPH11295618A (en) * 1998-04-10 1999-10-29 Olympus Optical Co Ltd Endoscopic image processor
JP2002017729A (en) * 2000-07-11 2002-01-22 Toshiba Corp Endoscope ultrasonograph
JP2004358096A (en) * 2003-06-06 2004-12-24 Olympus Corp Ultrasonic endoscope apparatus
JP2010088699A (en) * 2008-10-09 2010-04-22 National Center For Child Health & Development Medical image processing system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9600138B2 (en) 2013-03-15 2017-03-21 Synaptive Medical (Barbados) Inc. Planning, navigation and simulation systems and methods for minimally invasive therapy
US10799316B2 (en) 2013-03-15 2020-10-13 Synaptive Medical (Barbados) Inc. System and method for dynamic validation, correction of registration for surgical navigation
JP2017513662A (en) * 2014-03-28 2017-06-01 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Alignment of Q3D image with 3D image
US11304771B2 (en) 2014-03-28 2022-04-19 Intuitive Surgical Operations, Inc. Surgical system with haptic feedback based upon quantitative three-dimensional imaging
KR20160064442A (en) * 2014-11-28 2016-06-08 삼성전자주식회사 Medical image processing apparatus and medical image registration method using the same
KR102278893B1 (en) 2014-11-28 2021-07-19 삼성전자주식회사 Medical image processing apparatus and medical image registration method using the same
KR101767005B1 (en) 2016-05-26 2017-08-09 성균관대학교산학협력단 Method and apparatus for matching images using contour-based registration
JPWO2019088008A1 (en) * 2017-10-31 2020-11-12 富士フイルム株式会社 Image processing equipment, image processing methods, programs, and endoscopic systems
JP7148534B2 (en) 2017-10-31 2022-10-05 富士フイルム株式会社 Image processing device, program, and endoscope system
WO2022239895A1 (en) * 2021-05-10 2022-11-17 주식회사 씨앤에이아이 Composite endoscopic image generation device and method using gan

Also Published As

Publication number Publication date
EP2554137A2 (en) 2013-02-06
US20130035583A1 (en) 2013-02-07
JP6395995B2 (en) 2018-09-26
CN102908158A (en) 2013-02-06
KR20130015146A (en) 2013-02-13
CN102908158B (en) 2016-06-01
EP2554137A3 (en) 2015-04-29

Similar Documents

Publication Publication Date Title
JP6395995B2 (en) Medical video processing method and apparatus
US11103200B2 (en) Medical device approaches
US11883118B2 (en) Using augmented reality in surgical navigation
JP7505081B2 (en) Endoscopic imaging of invasive procedures in narrow passages
JP6404713B2 (en) System and method for guided injection in endoscopic surgery
JP7133474B2 (en) Image-based fusion of endoscopic and ultrasound images
EP2329786A2 (en) Guided surgery
WO2005092198A1 (en) System for guiding a medical instrument in a patient body
US11116579B2 (en) Intraoperative medical imaging method and system
US10951837B2 (en) Generating a stereoscopic representation
KR101993384B1 (en) Method, Apparatus and system for correcting medical image by patient's pose variation
Nagelhus Hernes et al. Computer‐assisted 3D ultrasound‐guided neurosurgery: technological contributions, including multimodal registration and advanced display, demonstrating future perspectives
US11941765B2 (en) Representation apparatus for displaying a graphical representation of an augmented reality
CN116528752A (en) Automatic segmentation and registration system and method
Zenbutsu et al. 3D ultrasound assisted laparoscopic liver surgery by visualization of blood vessels
JP2024131034A (en) Medical support device, operation method and operation program for medical support device
CN117355257A (en) Volume filter for fluoroscopic video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170411

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170419

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20170519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180829

R150 Certificate of patent or registration of utility model

Ref document number: 6395995

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees