JP2013031660A - Method and apparatus for processing medical image, and robotic surgery system using image guidance - Google Patents
Method and apparatus for processing medical image, and robotic surgery system using image guidance Download PDFInfo
- Publication number
- JP2013031660A JP2013031660A JP2012167110A JP2012167110A JP2013031660A JP 2013031660 A JP2013031660 A JP 2013031660A JP 2012167110 A JP2012167110 A JP 2012167110A JP 2012167110 A JP2012167110 A JP 2012167110A JP 2013031660 A JP2013031660 A JP 2013031660A
- Authority
- JP
- Japan
- Prior art keywords
- medical
- image
- video
- surface information
- medical image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000002432 robotic surgery Methods 0.000 title claims abstract description 43
- 210000000056 organ Anatomy 0.000 claims abstract description 82
- 238000013507 mapping Methods 0.000 claims abstract description 34
- 238000000605 extraction Methods 0.000 claims description 56
- 238000002604 ultrasonography Methods 0.000 claims description 43
- 239000002131 composite material Substances 0.000 claims description 40
- 239000000284 extract Substances 0.000 claims description 25
- 238000002591 computed tomography Methods 0.000 claims description 24
- 238000003672 processing method Methods 0.000 claims description 15
- 238000002059 diagnostic imaging Methods 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 claims description 11
- 238000002600 positron emission tomography Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 9
- 238000002595 magnetic resonance imaging Methods 0.000 claims description 9
- 238000003708 edge detection Methods 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 abstract description 2
- 238000003786 synthesis reaction Methods 0.000 abstract description 2
- 210000001519 tissue Anatomy 0.000 description 21
- 210000002307 prostate Anatomy 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 238000001356 surgical procedure Methods 0.000 description 14
- 210000005036 nerve Anatomy 0.000 description 6
- 239000003550 marker Substances 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 210000004204 blood vessel Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 210000004977 neurovascular bundle Anatomy 0.000 description 2
- 210000000578 peripheral nerve Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010005003 Bladder cancer Diseases 0.000 description 1
- 208000000461 Esophageal Neoplasms Diseases 0.000 description 1
- 206010030155 Oesophageal carcinoma Diseases 0.000 description 1
- 206010060862 Prostate cancer Diseases 0.000 description 1
- 208000000236 Prostatic Neoplasms Diseases 0.000 description 1
- 208000015634 Rectal Neoplasms Diseases 0.000 description 1
- 208000007097 Urinary Bladder Neoplasms Diseases 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000004101 esophageal cancer Diseases 0.000 description 1
- 238000002350 laparotomy Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000007769 metal material Substances 0.000 description 1
- 206010038038 rectal cancer Diseases 0.000 description 1
- 201000001275 rectum cancer Diseases 0.000 description 1
- 230000036299 sexual function Effects 0.000 description 1
- 210000003708 urethra Anatomy 0.000 description 1
- 201000005112 urinary bladder cancer Diseases 0.000 description 1
- 210000002700 urine Anatomy 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/506—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of nerves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5247—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/368—Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Robotics (AREA)
- Pulmonology (AREA)
- Dentistry (AREA)
- Neurology (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Endoscopes (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
本発明は、医療映像を処理する方法及び装置に関り、特に映像誘導を利用したロボット手術システムに関する。 The present invention relates to a method and apparatus for processing medical images, and more particularly, to a robotic surgery system using image guidance.
ロボット手術は、開腹手術と異なり、医師が患者の体内の手術部位を直接肉眼で見ることができず、モニターに表示された画面のみを通じて手術部位を把握することになる。ロボット手術を執刀する医師は、手術前にコンピュータ断層撮影(Computed Tomography:CT)、磁気共鳴映像(Magnetic Resonance Imaging:MRI)、超音波映像などを通じて手術部位を把握して手術するが、これは、医師の経験に多く依存するという限界がある。また、手術部位映像を獲得するために、腹腔鏡を患者の体内に挿入して、表示された体内の実際の映像を見つつ、ロボット手術を進める方法も試みられた。しかし、手術部位に対して、腹腔鏡のような内視鏡のみで獲得できる映像は、体内の臓器組織の外部表面についての映像だけであるので、手術部位が臓器により隠れて見えない場合や手術部位が臓器の内部である場合には、手術部位についての正確な位置及び形態などを正確に把握し難い。 In robotic surgery, unlike open surgery, a doctor cannot directly see the surgical site in the patient's body with the naked eye, but grasps the surgical site only through the screen displayed on the monitor. Doctors who perform robotic surgery perform surgery by grasping the surgical site through computed tomography (CT), magnetic resonance imaging (MRI), ultrasound images, etc. before surgery, There is a limit that depends heavily on the experience of the doctor. In addition, in order to acquire a surgical site image, a method has been tried in which a laparoscope is inserted into a patient's body and robot surgery is performed while viewing the displayed actual image in the body. However, the only images that can be acquired with an endoscope such as a laparoscope are only images of the external surface of the organ tissue in the body. When the site is inside an organ, it is difficult to accurately grasp the exact position and form of the surgical site.
本発明の目的は、医療映像を処理する方法及び装置を提供することである。また、前記方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供することである。さらに、処理された医療映像に基づいて、映像誘導を利用したロボット手術システムを提供することである。ただし、本発明の目的は、前記したような目的に限定されるものではない。 An object of the present invention is to provide a method and apparatus for processing medical images. It is another object of the present invention to provide a computer-readable recording medium that records a program for causing the computer to execute the method. Furthermore, it is to provide a robotic surgery system using image guidance based on the processed medical image. However, the object of the present invention is not limited to the object described above.
本発明の一側面によれば、医療映像処理方法は、相異なる複数の医療映像撮影装置を利用して撮影された所定の臓器についての医療映像を獲得するステップと、前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出するステップと、前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングするステップと、前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成するステップと、を含む。 According to an aspect of the present invention, a medical image processing method includes a step of acquiring a medical image of a predetermined organ imaged using a plurality of different medical image imaging devices, and each of the acquired medical images Respectively, extracting the surface information of the predetermined organ included in each of the acquired medical images, mapping the medical images using the extracted surface information, Generating a composite image in which the medical images are aligned based on a mapping result.
他の側面によれば、前記医療映像処理方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供する。 According to another aspect, a computer-readable recording medium recording a program for causing the medical image processing method to be executed by a computer is provided.
さらに他の側面によれば、医療映像処理装置は、相異なる複数の医療映像撮影装置を利用して撮影された所定の臓器についての医療映像を獲得する映像獲得部と、前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出する表面情報抽出部と、前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングする映像マッピング部と、前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成する合成映像生成部と、を備える。 According to still another aspect, the medical video processing device includes a video acquisition unit that acquires a medical video of a predetermined organ imaged using a plurality of different medical video imaging devices, and the acquired medical video The medical image is mapped by using a surface information extraction unit that extracts surface information of the predetermined organ included in each of the acquired medical images, and the extracted surface information. A video mapping unit; and a composite video generation unit configured to generate a composite video in which the medical video is matched based on the mapping result.
さらに他の側面によれば、手術部位についての映像を誘導して、手術用ロボットによるロボット手術を行うロボット手術システムにおいて、被検体内の所定の臓器に対して、医療映像を撮影する内視鏡装置と、前記所定の臓器に対して、医療映像を撮影する、超音波装置、コンピュータ断層撮影(CT)装置、磁気共鳴映像(MRI)装置及び陽電子放射断層撮影(Positron Emission Tomography: PET)装置のうち少なくとも一つを含む非内視鏡装置と、前記複数の医療映像撮影装置を利用して撮影された前記医療映像を獲得し、前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出し、前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングし、前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成する医療映像処理装置と、前記生成された合成映像を表示する表示装置と、ユーザーの入力によってロボット手術を行う手術用ロボットと、を備える。 According to still another aspect, in a robotic surgery system that guides an image of a surgical site and performs robotic surgery with a surgical robot, an endoscope that captures a medical image of a predetermined organ in a subject An ultrasonic device, a computed tomography (CT) device, a magnetic resonance imaging (MRI) device, and a positron emission tomography (PET) device for imaging medical images of the device and the predetermined organ A non-endoscopic device including at least one of the medical images, and the medical images captured using the plurality of medical image capturing devices, and each of the acquired medical images from the acquired medical images. And extracting the surface information of the predetermined organ contained in the map, mapping the medical image using each of the extracted surface information, A medical image processing device that generates a combined image in which the medical images are aligned, a display device that displays the generated combined image, a surgical robot that performs a robotic operation by a user input, Is provided.
本発明によれば、人工的なマーカーを使用せず、医療映像に含まれた情報のみに基づいて、リアルタイムで医療映像を整合することで、映像整合時にマーカーの使用による面倒さ、不便さなどを減らすことができる。特に、ロボット手術において、金属成分のマーカーと手術用ロボットとの干渉による映像整合の正確度の低下を減らすことができる。 According to the present invention, the use of a marker at the time of video alignment is troublesome and inconvenient by matching a medical video in real time based on only information included in the medical video without using an artificial marker. Can be reduced. In particular, in robotic surgery, it is possible to reduce a decrease in the accuracy of image matching due to interference between the marker of the metal component and the surgical robot.
そして、リアルタイムで内視鏡映像及び非内視鏡映像が整合された合成映像を生成することで、医師にさらに正確な患者の診断映像が提供され、ロボット手術システムでさらに正確な映像誘導を行ったりすることができる。また、ロボット手術の場合、このように手術部位についての正確な医療映像が提供されることで、手術すべき部位と保存すべき部位とを正確に把握できるので、手術性能が向上する。さらに、今後ロボット手術が自動化される場合、ロボットを正確に制御することができる情報が提供される。 Then, by generating a composite image in which the endoscopic image and the non-endoscopic image are aligned in real time, a more accurate patient diagnosis image is provided to the doctor, and the robot operation system performs more accurate image guidance. Can be. Further, in the case of robotic surgery, by providing an accurate medical image of the surgical site in this way, it is possible to accurately grasp the site to be operated and the site to be stored, so that the surgical performance is improved. Furthermore, when robot surgery is automated in the future, information that can accurately control the robot is provided.
以下、図面を参照して、本発明の実施形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1Aは、本発明の一実施形態によるロボット手術システム1の構成図である。図1Aを参照すれば、ロボット手術システム1は、第1医療映像撮影装置11、第2医療映像撮影装置21、医療映像処理装置30、手術用ロボット40及び表示装置50から構成される。図1Aでは、本実施形態の特徴が不明確になることを防止するために、本実施形態に関連したハードウェア構成要素のみを記述する。ただし、図1Aに示すハードウェア構成要素以外に、他の汎用的なハードウェア構成要素が含まれることを当業者ならば理解できるであろう。 FIG. 1A is a configuration diagram of a robotic surgery system 1 according to an embodiment of the present invention. Referring to FIG. 1A, the robot surgery system 1 includes a first medical image photographing device 11, a second medical image photographing device 21, a medical image processing device 30, a surgical robot 40, and a display device 50. In FIG. 1A, only hardware components related to the present embodiment are described in order to prevent the features of the present embodiment from becoming unclear. However, those skilled in the art will understand that other general-purpose hardware components are included in addition to the hardware components shown in FIG. 1A.
図1Aを参照すれば、ロボット手術システム1は、第1及び第2医療映像撮影装置11,21のみを備えるものと示されたが、これに限定されず、本実施形態は、その他にも少なくとも一つの更なる医療映像撮影装置を備えてもよい。 Referring to FIG. 1A, the robotic surgical system 1 is shown to include only the first and second medical image capturing apparatuses 11 and 21, but the present embodiment is not limited thereto. One additional medical imaging device may be provided.
医療映像撮影装置の種類には、内視鏡装置、超音波装置、コンピュータ断層撮影(Computed Tomography:CT)装置、磁気共鳴映像(Magnetic Resonance Imaging:MRI)装置、陽電子放射断層撮影(Positron Emission Tomography:PET)装置など多様な種類がある。以下、内視鏡映像を撮影する医療映像撮影装置以外の医療映像撮影装置は、非内視鏡装置という。すなわち、超音波装置、コンピュータ断層撮影装置、磁気共鳴映像装置及び陽電子放射断層撮影装置は、非内視鏡装置である。 Types of medical imaging equipment include endoscopic equipment, ultrasound equipment, computed tomography (CT) equipment, magnetic resonance imaging (MRI) equipment, positron emission tomography (Positron Emission Tomography: There are various types such as PET) devices. Hereinafter, medical video imaging apparatuses other than the medical video imaging apparatus that captures endoscopic video are referred to as non-endoscopic apparatuses. That is, the ultrasonic apparatus, the computer tomography apparatus, the magnetic resonance imaging apparatus, and the positron emission tomography apparatus are non-endoscopic apparatuses.
以下、説明の便宜のために、本実施形態によるロボット手術システム1の第1医療映像撮影装置11は、腹腔鏡装置のような内視鏡装置に該当し、第2医療映像撮影装置21は、経直腸的超音波(Trans-Rectal Ultrasound:TRUS)装置のような超音波装置に該当するものと説明するが、本実施形態は、これに限定されない。すなわち、第1及び第2医療映像撮影装置11,21それぞれは、前記内視鏡装置、超音波装置、コンピュータ断層撮影装置、磁気共鳴映像装置、陽電子放射断層撮影装置のような医療映像撮影装置のうちいずれか一つであってもよい。 Hereinafter, for convenience of explanation, the first medical image photographing apparatus 11 of the robotic surgery system 1 according to the present embodiment corresponds to an endoscope apparatus such as a laparoscopic apparatus, and the second medical image photographing apparatus 21 is Although described as corresponding to an ultrasound device such as a trans-rectal ultrasound (TRUS) device, the present embodiment is not limited to this. That is, each of the first and second medical imaging apparatuses 11 and 21 is a medical imaging apparatus such as the endoscope apparatus, ultrasonic apparatus, computed tomography apparatus, magnetic resonance imaging apparatus, or positron emission tomography apparatus. Any one of them may be used.
図1Bは、本発明の一実施形態によるロボット手術システム100の構成図である。図1Bを参照すれば、ロボット手術システム100は、前述したように、内視鏡装置10、超音波装置20、医療映像処理装置30、手術用ロボット40及び表示装置50から構成される。 FIG. 1B is a block diagram of a robotic surgery system 100 according to an embodiment of the present invention. Referring to FIG. 1B, as described above, the robot surgical system 100 includes the endoscope device 10, the ultrasonic device 20, the medical image processing device 30, the surgical robot 40, and the display device 50.
図1Bでも、図1Aと同様に、本実施形態の特徴が不明確になることを防止するために、本実施形態に関連したハードウェア構成要素のみを記述する。 In FIG. 1B, as in FIG. 1A, only hardware components related to the present embodiment are described in order to prevent the features of the present embodiment from becoming unclear.
ロボット手術システム100は、患者の体にあけられた小さい穴に手術用ロボット40のアームを挿入し、患者の体外で医師が手術用ロボット40の動きを制御して、患者を手術するシステムである。 The robotic surgery system 100 is a system in which an arm of a surgical robot 40 is inserted into a small hole formed in a patient's body, and a doctor operates the patient by controlling the movement of the surgical robot 40 outside the patient's body. .
最近、米国のインテュイティヴ・サージカル社製のda Vinci(登録商標)が、かかる手術用ロボット40として一般的に多く使われている。より詳細に説明すれば、da Vinci(登録商標)は、患者の体内に直接挿入されるロボットであって、医師の手のように動くことができるので、あたかも医師が直接手術部位に手術するように手術するロボットである。本実施形態では、単に説明の便宜のために、手術用ロボット40としてda Vinci(登録商標)を例として挙げただけであり、手術用ロボット40は、患者の体内でロボットの動きを通じて手術する他の装置でもよい。 Recently, da Vinci (registered trademark) manufactured by Intuitive Surgical, Inc. of the United States has been generally used as such a surgical robot 40. More specifically, da Vinci (registered trademark) is a robot that is directly inserted into a patient's body and can move like a doctor's hand, so that the doctor operates directly on the surgical site. It is a robot that operates on. In the present embodiment, for convenience of explanation, da Vinci (registered trademark) is merely given as an example of the surgical robot 40, and the surgical robot 40 can be operated through the movement of the robot in the patient's body. The apparatus may be used.
ロボット手術システム100で医師が手術用ロボット40を利用して手術しようとする時、医師は、表示装置50に表示された患者の体内の医療映像を参考にして手術を進める。すなわち、ロボット手術システム100において、医師は、患者の体内に特殊レンズを挿入して、肉眼で見られない神経、血管、臓器についての映像を通じて視野を確保した後で手術を進める。 When a doctor intends to perform an operation using the operation robot 40 in the robot operation system 100, the doctor proceeds with the operation with reference to a medical image in the patient's body displayed on the display device 50. That is, in the robotic surgery system 100, a doctor inserts a special lens into a patient's body, and proceeds with surgery after securing a visual field through images of nerves, blood vessels, and organs that cannot be seen with the naked eye.
ロボット手術システム100では、開腹手術と異なり、医師が患者の体内の手術部位を直接肉眼で見ることができず、表示装置50に表示された画面のみを通じて手術部位を把握できるため、手術部位についての正確な映像が要求される。 In the robotic surgery system 100, unlike the laparotomy, the doctor cannot directly see the surgical site in the patient's body with the naked eye and can grasp the surgical site only through the screen displayed on the display device 50. Accurate video is required.
特に、ロボット手術は、手術中に周辺神経及び血管に損傷を与えた時、激しい副作用と合併症とが生じる前立腺癌、直腸癌、食道癌、膀胱癌の手術などに一般的に多く使われるので、手術部位についての精巧かつ細密な映像が表示装置50に表示されることが重要である。 In particular, robotic surgery is commonly used for operations such as prostate cancer, rectal cancer, esophageal cancer, and bladder cancer that cause severe side effects and complications when peripheral nerves and blood vessels are damaged during surgery. It is important that an elaborate and detailed image of the surgical site is displayed on the display device 50.
従来は、手術前にCT、MRI、超音波、PET映像などを医師に見せることで、診断映像を記憶する医師の頭脳から現在手術すべき部位を思い起こして手術する方法を使用した。しかし、これは、医師の経験に多く依存するので、正確な手術が困難であった。 Conventionally, a method of performing an operation by recalling a site to be operated from the brain of a doctor who stores a diagnostic image by showing a CT, MRI, ultrasound, PET image or the like to the doctor before the operation has been used. However, this is highly dependent on the experience of the doctor, making accurate surgery difficult.
また、従来のロボット手術の場合、腹腔鏡を患者の体内に挿入して、表示された体内の実際の映像を見つつ、ロボット手術を進めた。しかし、手術部位に対して、腹腔鏡のみで獲得できる映像は、体内の臓器組織の外部表面についての映像だけである。したがって、手術部位が臓器に隠れて見えない場合や手術部位が臓器の内部である場合には、腹腔鏡で手術部位についての実際の映像を獲得しがたかった。特に、前立腺手術の場合がそうであった。 In the case of conventional robotic surgery, a laparoscope was inserted into the patient's body, and the robotic surgery was performed while viewing the displayed actual image of the body. However, the only images that can be acquired with a laparoscope for the surgical site are only images of the external surface of the organ tissue in the body. Therefore, when the surgical site is hidden behind the organ and cannot be seen, or when the surgical site is inside the organ, it is difficult to obtain an actual image of the surgical site with a laparoscope. This was especially the case for prostate surgery.
前立腺手術を説明すれば、前立腺は、手術部位が狭く、尿道と連結されている。そして、前立腺が除去される時、前立腺近辺の神経血管束は保存されねばならない。なぜならば、この神経血管束は、尿機能、性機能などに重要な役割を行うためである。しかし、腹腔鏡は、外部表面の組織についての映像のみを提供するので、腹腔鏡のみでは前立腺の位置及び形態などを精巧かつ細密に把握するのに多少困難さがある。 To describe prostate surgery, the prostate has a narrow surgical site and is connected to the urethra. And when the prostate is removed, the neurovascular bundle near the prostate must be preserved. This is because this neurovascular bundle plays an important role in urine function, sexual function and the like. However, since the laparoscope provides only an image of the tissue on the outer surface, it is somewhat difficult to precisely and precisely grasp the position and form of the prostate with only the laparoscope.
かかる既存の方法を改善するために、従来には、経直腸的超音波(TRUS)装置を利用したが、手術部位の実際の映像ではない超音波映像という限界があった。 In order to improve such an existing method, a transrectal ultrasound (TRUS) apparatus has been conventionally used. However, there is a limitation of an ultrasound image that is not an actual image of a surgical site.
また、従来には、光学方式あるいは磁場方式のマーカーを利用して、経直腸的超音波装置の位置と方向をリアルタイムで検出することで、三次元超音波映像を獲得し、それを手術に使用した。しかし、磁場方式を利用する場合、手術ロボットのような金属性物質と磁場との干渉により、マーカーの位置測定が不正確になった。そして、光学方式を利用する場合には、位置測定時に手術用ロボットの活動範囲と重なって、手術用ロボットの動きに制約を与えた。 Conventionally, the position and direction of a transrectal ultrasound device is detected in real time using an optical or magnetic field marker to acquire a 3D ultrasound image and use it for surgery. did. However, when the magnetic field method is used, the marker position measurement becomes inaccurate due to the interference between a metallic substance such as a surgical robot and the magnetic field. When using the optical method, the movement range of the surgical robot overlaps with the range of activity of the surgical robot at the time of position measurement, and the movement of the surgical robot is restricted.
さらに、従来には、手術ロボット以外のタンデムロボットを利用して、経直腸的超音波装置を回転させ、それから三次元前立腺映像を獲得する方法も使われた。しかし、この方法は、更なるロボットを使用せねばならないので、タンデムロボットによる干渉のために、手術ロボットの移動が制限された。そして、手術ロボットとタンデムロボットとの位置を補正せねばならないので、実際の手術時に超音波映像を全く利用できなかった。 Furthermore, conventionally, a method of rotating a transrectal ultrasound apparatus using a tandem robot other than a surgical robot and then acquiring a three-dimensional prostate image has been used. However, this method requires the use of additional robots, which limits the movement of the surgical robot due to interference by the tandem robot. In addition, since the positions of the surgical robot and the tandem robot have to be corrected, the ultrasonic image cannot be used at the time of actual surgery.
すなわち、前記したように、ロボット手術を行う時、特に前立腺に対するロボット手術のように、周辺神経及び血管に損傷を与えてはならないロボット手術を行う時、従来は、手術部位についての正確な映像を得がたく、患者の安全に問題があるという限界があった。 That is, as described above, when performing robotic surgery, particularly when performing robotic surgery that should not damage peripheral nerves and blood vessels, such as robotic surgery for the prostate, an accurate image of the surgical site has been conventionally used. It was difficult to obtain and there was a limit to patient safety.
しかし、本実施形態によるロボット手術システム100では、相異なる複数の医療映像撮影装置で撮影された相異なる医療映像がリアルタイムで整合された合成映像を利用することで、臓器に隠された手術部位または臓器の内部に位置した手術部位に対しても、正確な映像が提供される。したがって、本実施形態によれば、ロボット手術の性能や患者の安全を保証することができる。 However, in the robotic surgery system 100 according to the present embodiment, a surgical site hidden in an organ or the like can be obtained by using a composite image in which different medical images captured by a plurality of different medical image capturing apparatuses are aligned in real time. An accurate image is also provided for a surgical site located inside an organ. Therefore, according to the present embodiment, it is possible to guarantee the performance of the robot operation and the safety of the patient.
ただし、本実施形態では、ロボット手術システム100下でロボット手術を行う医師のための医療映像を提供すること、すなわち医療映像誘導について説明するが、本実施形態の医療映像処理装置30で生成された合成映像は、必ずしもロボット手術システム100のみで提供されるものに限定されない。すなわち、本実施形態で提供される医療映像は、ロボット手術ではない患者を単純に診察または診断するための他のシステムでも同様に提供される。 However, in the present embodiment, a medical image for a doctor who performs robotic surgery under the robotic surgery system 100, that is, medical image guidance will be described, but the medical image processing apparatus 30 according to the present embodiment generates the medical image. The composite image is not necessarily limited to that provided only by the robotic surgery system 100. That is, the medical image provided in the present embodiment is similarly provided in other systems for simply diagnosing or diagnosing a patient who is not robotic surgery.
以下では、本実施形態によるロボット手術システム100において、医療映像を処理する過程について詳細に説明する。 Hereinafter, a process of processing a medical image in the robotic surgery system 100 according to the present embodiment will be described in detail.
ここで、本実施形態による手術部位は、説明の便宜のために、前立腺である場合を例として挙げる。そして、前述したように、手術部位が前立腺である場合、本実施形態による医療映像処理過程は、前立腺の周辺に位置している特定の臓器である膀胱を利用するものと説明する。すなわち、かかる特定の臓器は、手術用ロボット40により治療される手術部位の臓器または手術部位の周辺の他の臓器であってもよい。 Here, for the convenience of explanation, the case where the surgical site according to the present embodiment is the prostate is taken as an example. As described above, when the surgical site is the prostate, the medical image processing process according to the present embodiment will be described as using a bladder that is a specific organ located around the prostate. That is, the specific organ may be an organ at a surgical site to be treated by the surgical robot 40 or another organ around the surgical site.
さらに、当業者ならば、本実施形態は、手術部位が患者の他の部位であるか、または他の臓器を利用して医療映像処理が行われることを理解できるであろう。 Further, those skilled in the art will understand that the present embodiment is that the surgical site is another part of the patient, or medical image processing is performed using other organs.
再び図1Bを参照すれば、ロボット手術システム100下で、内視鏡装置10は、患者の臓器、例えば、膀胱についての内視鏡映像を獲得する。したがって、内視鏡映像には、膀胱及びその周辺についての映像が含まれる。本実施形態において、内視鏡装置10は、腹腔鏡装置に該当するが、これに限定されない。 Referring to FIG. 1B again, under the robotic surgical system 100, the endoscope apparatus 10 acquires an endoscopic image of a patient's organ, for example, the bladder. Therefore, the endoscopic image includes an image of the bladder and its surroundings. In the present embodiment, the endoscope apparatus 10 corresponds to a laparoscopic apparatus, but is not limited thereto.
そして、超音波装置20は、患者の膀胱及びその周辺についての超音波映像を獲得する。したがって、超音波映像には、膀胱及びその内外部の周辺についての映像が含まれる。すなわち、超音波映像には、内視鏡映像と異なり、膀胱の内部の組織についての情報も含まれる。本実施形態において、超音波装置20は、経直腸的超音波装置に該当するが、これに限定されない。 Then, the ultrasonic device 20 acquires an ultrasonic image of the patient's bladder and its surroundings. Therefore, the ultrasound image includes images of the bladder and the periphery inside and outside thereof. That is, unlike the endoscopic image, the ultrasonic image includes information about the tissue inside the bladder. In the present embodiment, the ultrasound device 20 corresponds to a transrectal ultrasound device, but is not limited thereto.
図1Bにおいて、内視鏡装置10と超音波装置20とは、相異なる位置で医療映像を撮影する。すなわち、ロボット手術システム100では、内視鏡装置10と超音波装置20の動き及び位置がそれぞれ制御されることで、医療映像が撮影される。この時、ロボット手術システム100は、制御中である内視鏡装置10と超音波装置20それぞれの撮影位置、例えば、ロボット手術テーブル上での仮想的座標などをロボット手術システム100上の保存部(図示せず)に保存し続ける。 In FIG. 1B, the endoscope apparatus 10 and the ultrasonic apparatus 20 capture medical images at different positions. That is, in the robotic surgery system 100, medical images are taken by controlling the movement and position of the endoscope apparatus 10 and the ultrasonic apparatus 20 respectively. At this time, the robotic surgery system 100 stores the imaging positions of the endoscope device 10 and the ultrasonic device 20 under control, for example, virtual coordinates on the robotic surgery table, etc. Continue to save (not shown).
図2は、本発明の一実施形態による膀胱についての内視鏡装置10と超音波装置20との相対的な位置を示す図面である。図2を参照すれば、内視鏡装置10が腹腔鏡装置である場合、膀胱を基準として相対的に膀胱の上方から内視鏡映像を獲得する。そして、超音波装置20が経直腸的超音波装置である場合、膀胱を基準として相対的に膀胱の下方から超音波映像を獲得する。しかし、かかる内視鏡装置10及び超音波装置20それぞれの位置は、例示的なものであって、ロボット手術環境によって変更してもよい。 FIG. 2 is a view showing the relative positions of the endoscope apparatus 10 and the ultrasonic apparatus 20 with respect to the bladder according to an embodiment of the present invention. Referring to FIG. 2, when the endoscope apparatus 10 is a laparoscopic apparatus, an endoscope image is acquired from above the bladder relative to the bladder. When the ultrasound device 20 is a transrectal ultrasound device, an ultrasound image is acquired from below the bladder relative to the bladder. However, the positions of the endoscope apparatus 10 and the ultrasonic apparatus 20 are exemplary and may be changed depending on the robot operation environment.
再び図1Bを参照すれば、医療映像処理装置30は、内視鏡装置10及び超音波装置20から獲得された内視鏡映像及び超音波映像を整合することで、合成映像を生成する。本実施形態による医療映像処理装置30の動作及び機能についてさらに詳細に説明すれば、次の通りである。 Referring to FIG. 1B again, the medical image processing apparatus 30 generates a composite image by matching the endoscope image and the ultrasound image acquired from the endoscope apparatus 10 and the ultrasound apparatus 20. The operation and function of the medical image processing apparatus 30 according to the present embodiment will be described in more detail as follows.
図3は、本発明の一実施形態による医療映像処理装置30の構成図である。図3を参照すれば、医療映像処理装置30は、検出部31、映像獲得部32、表面情報抽出部33、映像マッピング部34及び合成映像生成部35を備える。そして、映像獲得部32は、内視鏡映像獲得部321及び非内視鏡映像獲得部322を備え、表面情報抽出部33は、第1抽出部331及び第2抽出部332を備え、映像マッピング部34は、比較部341及び位置マッチング部342を備える。 FIG. 3 is a block diagram of the medical image processing apparatus 30 according to an embodiment of the present invention. Referring to FIG. 3, the medical video processing apparatus 30 includes a detection unit 31, a video acquisition unit 32, a surface information extraction unit 33, a video mapping unit 34, and a composite video generation unit 35. The video acquisition unit 32 includes an endoscopic video acquisition unit 321 and a non-endoscopic video acquisition unit 322. The surface information extraction unit 33 includes a first extraction unit 331 and a second extraction unit 332, and video mapping. The unit 34 includes a comparison unit 341 and a position matching unit 342.
かかる医療映像処理装置30は、プロセッサに該当する。このプロセッサは、多数の論理ゲートのアレイにより具現されてもよく、汎用的なマイクロプロセッサと、このマイクロプロセッサで実行されるプログラムが保存されたメモリとの組み合わせにより具現されてもよい。また、他の形態のハードウェアにより具現されてもよいことを当業者ならば理解できるであろう。 The medical image processing apparatus 30 corresponds to a processor. The processor may be realized by an array of a large number of logic gates, or may be realized by a combination of a general-purpose microprocessor and a memory in which a program executed by the microprocessor is stored. Further, those skilled in the art will understand that the present invention may be realized by other forms of hardware.
検出部31は、合成映像を生成しようとする時、前述したロボット手術システム100上の保存部(図示せず)に保存された医療映像撮影装置それぞれの現在の位置を検出する。 The detection unit 31 detects the current position of each medical video imaging apparatus stored in the storage unit (not shown) on the robotic surgery system 100 described above when trying to generate a composite video.
映像獲得部32は、相異なる複数の医療映像撮影装置を利用して撮影された臓器についての医療映像、すなわち、内視鏡映像及び非内視鏡映像を獲得する。表面情報抽出部33は、獲得された医療映像それぞれから獲得された医療映像それぞれに含まれた臓器の表面情報をそれぞれ抽出する。特に、表面情報抽出部33は、獲得された医療映像それぞれから、所定の臓器の表面の位置及び形態のうち少なくとも一つを表す情報を表面情報として抽出する。 The image acquisition unit 32 acquires medical images of an organ imaged using a plurality of different medical image capturing devices, that is, an endoscopic image and a non-endoscopic image. The surface information extraction unit 33 extracts the surface information of the organs included in each acquired medical image from each acquired medical image. In particular, the surface information extraction unit 33 extracts, as surface information, information representing at least one of the position and form of the surface of a predetermined organ from each acquired medical image.
映像マッピング部34は、抽出されたそれぞれの表面情報を利用して、医療映像をマッピングする。特に、表面情報抽出部33は、抽出されたそれぞれの表面情報を利用して、医療映像撮影装置それぞれの位置をマッチングさせることで、医療映像をマッピングする。 The video mapping unit 34 maps the medical video using each extracted surface information. In particular, the surface information extraction unit 33 maps the medical image by using the extracted surface information to match the positions of the medical image capturing devices.
以下、まず、内視鏡映像を処理する過程についてさらに詳細に説明し、次に、超音波映像、CT映像、MR(Magnetic Resonance)映像のような非内視鏡映像を処理する過程についてさらに詳細に説明する。 Hereinafter, the process of processing an endoscopic image will be described in more detail first, and then the process of processing a non-endoscopic image such as an ultrasound image, a CT image, and an MR (Magnetic Resonance) image will be described in further detail. Explained.
内視鏡映像獲得部321は、内視鏡装置10(図1B)を利用して撮影された内視鏡映像を獲得する。 The endoscope video acquisition unit 321 acquires an endoscope video imaged using the endoscope apparatus 10 (FIG. 1B).
第1抽出部331は、内視鏡装置10(図1B)により撮影された内視鏡映像から、臓器の表面の位置及び形態のうち少なくとも一つを表す第1表面情報を抽出する。すなわち、本実施形態において、第1抽出部331は、内視鏡映像に表れた膀胱についての第1表面情報を抽出する。 The first extraction unit 331 extracts first surface information representing at least one of the position and form of the surface of the organ from the endoscopic image captured by the endoscope apparatus 10 (FIG. 1B). That is, in this embodiment, the 1st extraction part 331 extracts the 1st surface information about the bladder which appeared in the endoscopic image | video.
その方法として、第1抽出部331は、膀胱及び周辺の外部組織と内視鏡装置10(図1B)との距離情報を獲得することで、視差空間映像を生成する。一実施形態によれば、第1抽出部331は、二つのステレオカメラが備えられた内視鏡装置10(図1B)を利用して、視差空間映像を獲得する。この時、他の実施形態によれば、第1抽出部331は、構造光及びパターン光のうち少なくとも一つを照射するプロジェクタをさらに備えた内視鏡装置10(図1B)を利用することで、視差空間映像を生成する。この場合、内視鏡映像獲得部321は、膀胱及び周辺の外部組織から反射された構造光またはパターン光についての情報も共に獲得する。すなわち、第1抽出部331は、獲得された構造光またはパターン光についての情報を利用して、内視鏡装置10(図1B)から膀胱及び周辺の外部組織までの距離を計算する。この時、第1抽出部331は、計算された距離に基づいて、視差空間映像のような距離映像を生成する。 As the method, the first extraction unit 331 generates disparity space images by acquiring distance information between the bladder and surrounding external tissues and the endoscope apparatus 10 (FIG. 1B). According to one embodiment, the first extraction unit 331 acquires a parallax space image using the endoscope apparatus 10 (FIG. 1B) provided with two stereo cameras. At this time, according to another embodiment, the first extraction unit 331 uses the endoscope apparatus 10 (FIG. 1B) further including a projector that emits at least one of structured light and pattern light. Generate parallax space video. In this case, the endoscopic image acquisition unit 321 also acquires information about structured light or pattern light reflected from the bladder and surrounding external tissues. That is, the first extraction unit 331 calculates the distance from the endoscope apparatus 10 (FIG. 1B) to the bladder and surrounding external tissues using information about the acquired structured light or pattern light. At this time, the first extraction unit 331 generates a distance image such as a parallax space image based on the calculated distance.
次いで、第1抽出部331は、獲得された距離情報、すなわち、計算された距離または生成された距離映像を利用することで、内視鏡映像に対応する三次元の第1表面モデルを生成する。 Next, the first extraction unit 331 generates a three-dimensional first surface model corresponding to the endoscopic image by using the acquired distance information, that is, the calculated distance or the generated distance image. .
最後に、第1抽出部331は、このように生成された第1表面モデルから、膀胱の表面の位置及び形態のうち少なくとも一つを表す第1表面情報を抽出する。 Finally, the first extraction unit 331 extracts first surface information representing at least one of the position and shape of the bladder surface from the first surface model generated in this way.
図4は、本発明の一実施形態による第1抽出部331(図3)で第1表面モデルが生成された後、第1表面情報が抽出される過程を示す図面である。図4の映像401は、内視鏡装置10(図1B)で獲得された内視鏡映像であって、実際の膀胱及びその周辺に構造光またはパターン光を照射した映像である。 FIG. 4 is a diagram illustrating a process of extracting first surface information after the first surface model is generated by the first extraction unit 331 (FIG. 3) according to an embodiment of the present invention. 4 is an endoscopic image acquired by the endoscope apparatus 10 (FIG. 1B), and is an image in which structured light or pattern light is irradiated to the actual bladder and its periphery.
図4の映像402は、視差空間映像であって、構造光及びパターン光のうち少なくとも一つを利用して生成された一種の距離映像に該当する。しかし、前述したように、第1抽出部331(図3)は、構造光及びパターン光を利用せずに視差空間映像を生成することも可能である。 An image 402 in FIG. 4 is a parallax space image, and corresponds to a kind of distance image generated using at least one of structured light and pattern light. However, as described above, the first extraction unit 331 (FIG. 3) can also generate a parallax space image without using structured light and pattern light.
図4の映像403は、前記のような過程を通じて、第1抽出部331(図3)で生成された第1表面モデルである。第1抽出部331(図3)は、映像403の第1表面モデルから、膀胱の表面の形態及び位置についての第1表面情報404を抽出する。 A video 403 in FIG. 4 is a first surface model generated by the first extraction unit 331 (FIG. 3) through the above process. The first extraction unit 331 (FIG. 3) extracts first surface information 404 about the form and position of the bladder surface from the first surface model of the image 403.
再び図3を参照すれば、非内視鏡映像獲得部322は、超音波装置20(図1B)のような非内視鏡装置を利用して撮影された非内視鏡映像を獲得する。第2抽出部332は、非内視鏡装置により撮影された映像から、臓器の表面の位置及び形態のうち少なくとも一つを表す第2表面情報を抽出する。すなわち、本実施形態において、第2抽出部332は、非内視鏡映像に表れた膀胱についての第2表面情報を抽出する。 Referring to FIG. 3 again, the non-endoscopic image acquisition unit 322 acquires a non-endoscopic image captured using a non-endoscopic device such as the ultrasound device 20 (FIG. 1B). The second extraction unit 332 extracts second surface information representing at least one of the position and form of the surface of the organ from the video imaged by the non-endoscopic device. That is, in this embodiment, the 2nd extraction part 332 extracts the 2nd surface information about the bladder which appeared in the non-endoscopic image | video.
その方法として、まず、第2抽出部332は、非内視鏡装置により撮影された非内視鏡映像から、膀胱の表面を表す境界線についての情報を獲得する。この時、境界線についての情報は、非内視鏡映像に対して、ライン検出及びエッジ検出のうち少なくとも一つを適用することによって獲得する。 As the method, first, the second extraction unit 332 acquires information about the boundary line representing the surface of the bladder from the non-endoscopic video imaged by the non-endoscopic device. At this time, the information about the boundary line is acquired by applying at least one of line detection and edge detection to the non-endoscopic image.
非内視鏡映像が超音波映像である場合、超音波の特性上、超音波が臓器の表面組織に対して高いエコー輝度(high echogenicity)を有する性質を利用する。すなわち、第2抽出部332は、臓器の表面組織が超音波映像で相対的に明るい線で表れる性質を利用することで、境界線についての情報を獲得する。 When the non-endoscopic image is an ultrasonic image, the property that the ultrasonic wave has high echogenicity with respect to the surface tissue of the organ is used due to the characteristics of the ultrasonic wave. That is, the second extraction unit 332 acquires information about the boundary line by using the property that the surface tissue of the organ appears as a relatively bright line in the ultrasound image.
非内視鏡映像がMR映像である場合、第2抽出部332は、組織の分子構成比の差によるMR映像での映像明度差が発生する点に基づいて、ライン検出またはエッジ検出を利用することで、境界線についての情報を獲得する。 When the non-endoscopic image is an MR image, the second extraction unit 332 uses line detection or edge detection based on the point that a difference in image brightness occurs in the MR image due to the difference in the molecular composition ratio of the tissue. In this way, information about the boundary line is acquired.
同様に、非内視鏡映像がCT映像である場合、第2抽出部332は、組織の密度差によるCT映像での映像明度差が発生する点に基づいて、ライン検出またはエッジ検出を利用することで、境界線についての情報を獲得する。 Similarly, when the non-endoscopic video is a CT video, the second extraction unit 332 uses line detection or edge detection based on the point that a video brightness difference occurs in the CT video due to a tissue density difference. In this way, information about the boundary line is acquired.
次いで、第2抽出部332は、獲得された境界線情報を利用して、臓器(膀胱)の表面に対応する三次元の第2表面モデルを生成する。この時、第2抽出部332は、獲得された境界線情報に基づいて、境界線を三次元的にレンダリングすることで、三次元の第2表面モデルを生成する。 Next, the second extraction unit 332 generates a three-dimensional second surface model corresponding to the surface of the organ (bladder) using the acquired boundary line information. At this time, the second extraction unit 332 generates a three-dimensional second surface model by rendering the boundary line three-dimensionally based on the acquired boundary line information.
最後に、第2抽出部332は、このように生成された第2表面モデルから、膀胱の表面の位置及び形態のうち少なくとも一つを表す第2表面情報を抽出する。 Finally, the second extraction unit 332 extracts second surface information representing at least one of the position and shape of the surface of the bladder from the second surface model generated in this way.
図5は、本発明の一実施形態による第2抽出部332(図3)で第2表面モデルが生成された後、第2表面情報が抽出される過程を示す図面である。図5を参照すれば、超音波映像501から第2表面情報505が抽出される過程、MR映像502から第2表面情報505が抽出される過程、及びCT映像503から第2表面情報505が抽出される過程が示されている。ロボット手術システム100(図1B)の環境で、いかなる医療映像撮影装置を利用したかによって、第2抽出部332(図3)は、それぞれの過程のうちそれに対応する過程によって、第2表面情報505を抽出する。 FIG. 5 is a diagram illustrating a process of extracting second surface information after the second surface model is generated by the second extraction unit 332 (FIG. 3) according to an embodiment of the present invention. Referring to FIG. 5, the process of extracting the second surface information 505 from the ultrasound image 501, the process of extracting the second surface information 505 from the MR image 502, and the second surface information 505 from the CT image 503. The process is shown. Depending on what medical imaging device is used in the environment of the robotic surgical system 100 (FIG. 1B), the second extraction unit 332 (FIG. 3) performs the second surface information 505 according to the corresponding process among the respective processes. To extract.
超音波映像501である場合、第2抽出部332(図3)は、前述した超音波映像の特性を利用して、膀胱の表面に該当する境界線をそれぞれの映像から抽出する。そして、それぞれの境界線を三次元的にレンダリングすることで、第2表面モデル504を生成する。 In the case of the ultrasound image 501, the second extraction unit 332 (FIG. 3) extracts the boundary line corresponding to the surface of the bladder from each image using the characteristics of the ultrasound image described above. Then, the second surface model 504 is generated by rendering each boundary line three-dimensionally.
MR映像502である場合、第2抽出部332(図3)は、前述したMR映像の特性を利用して、直腸の表面に該当する境界線をそれぞれの映像から抽出する。そして、それぞれの境界線を三次元的にレンダリングすることで、第2表面モデル504を生成する。 In the case of the MR image 502, the second extraction unit 332 (FIG. 3) extracts the boundary line corresponding to the rectal surface from each image using the above-described MR image characteristics. Then, the second surface model 504 is generated by rendering each boundary line three-dimensionally.
CT映像503である場合、第2抽出部332(図3)は、前述したCT映像の特性を利用して、直腸の表面に該当する境界線をそれぞれの映像から抽出する。そして、それぞれの境界線を三次元的にレンダリングすることで、第2表面モデル504を生成する。 In the case of the CT image 503, the second extraction unit 332 (FIG. 3) extracts the boundary line corresponding to the rectal surface from each image using the characteristics of the CT image described above. Then, the second surface model 504 is generated by rendering each boundary line three-dimensionally.
第2抽出部332(図3)は、第2表面モデル504に表れた境界線情報に基づいて、臓器の表面の形態及び位置のうち少なくとも一つを表す第2表面情報505を抽出する。 The second extraction unit 332 (FIG. 3) extracts second surface information 505 representing at least one of the shape and position of the surface of the organ based on the boundary line information appearing in the second surface model 504.
すなわち、ロボット手術システム100(図1B)の環境で、いかなる医療映像撮影装置を利用したかによって、第2抽出部332(図3)は、超音波映像501、MR映像502及びCT映像503についてのそれぞれの過程のうち該当する過程によって、第2表面情報505を抽出する。 That is, the second extraction unit 332 (FIG. 3) determines the ultrasonic image 501, the MR image 502, and the CT image 503 depending on what medical image capturing device is used in the environment of the robotic surgery system 100 (FIG. 1B). The second surface information 505 is extracted by a corresponding process among the processes.
再び図3を参照すれば、映像マッピング部34は、抽出されたそれぞれの表面情報を利用して、医療映像をマッピングする。映像マッピング部34は、抽出された第1表面情報及び第2表面情報を利用して、医療映像撮影装置それぞれの位置をマッチングさせることで、医療映像をマッピングする。前述した図1Bのように、内視鏡装置10(図1B)及び超音波装置20(図1B)を利用する場合、表面情報を利用して、内視鏡装置10(図1B)の位置及び超音波装置20(図1B)の位置をマッチングさせることで、内視鏡映像及び超音波映像をマッピングする。 Referring to FIG. 3 again, the video mapping unit 34 maps the medical video using the extracted surface information. The video mapping unit 34 maps the medical video by matching the positions of the respective medical video imaging apparatuses using the extracted first surface information and second surface information. When the endoscope apparatus 10 (FIG. 1B) and the ultrasonic apparatus 20 (FIG. 1B) are used as shown in FIG. 1B, the position of the endoscope apparatus 10 (FIG. 1B) and the surface information are used. The endoscopic image and the ultrasonic image are mapped by matching the position of the ultrasonic device 20 (FIG. 1B).
マッピング過程についてさらに詳細に説明すれば、映像マッピング部34は、前述したように、比較部341及び位置マッチング部342を備える。 The mapping process will be described in more detail. The video mapping unit 34 includes the comparison unit 341 and the position matching unit 342 as described above.
比較部341は、抽出されたそれぞれの表面情報を比較する。すなわち、比較部341は、第1表面情報と第2表面情報とを比較する。その理由は、抽出された第1表面情報及び第2表面情報は、臓器(膀胱)の同じ部位の表面についての情報であるためである。したがって、比較部341は、抽出された第1表面情報及び第2表面情報が臓器の同じ部位の表面に対してどのように対応するかを比較する。この時、比較部341は、公知のアルゴリズムであるICP(Iterative Closest Point)アルゴリズムなどを利用して比較する。 The comparison unit 341 compares the extracted surface information. That is, the comparison unit 341 compares the first surface information and the second surface information. The reason is that the extracted first surface information and second surface information are information on the surface of the same part of the organ (bladder). Therefore, the comparison unit 341 compares how the extracted first surface information and second surface information correspond to the surface of the same part of the organ. At this time, the comparison unit 341 performs comparison using an ICP (Iterative Closest Point) algorithm, which is a known algorithm.
位置マッチング部342は、比較結果に基づいて、前記検出部31で検出された医療映像装置の位置をマッチングさせる。 The position matching unit 342 matches the position of the medical image apparatus detected by the detection unit 31 based on the comparison result.
結局、映像マッピング部34は、かかる過程によるマッチング結果に基づいて、医療映像をマッピングする。 Eventually, the video mapping unit 34 maps the medical video based on the matching result of the process.
図6は、本発明の一実施形態による図1Bのロボット手術システム100において、内視鏡装置10と超音波装置20との配置のみを別途に示す図面である。図6を参照すれば、内視鏡装置10は、腹腔鏡装置に該当し、超音波装置20は、経直腸的超音波装置に該当する。 FIG. 6 is a diagram separately showing only the arrangement of the endoscope apparatus 10 and the ultrasonic apparatus 20 in the robotic surgical system 100 of FIG. 1B according to an embodiment of the present invention. Referring to FIG. 6, the endoscope apparatus 10 corresponds to a laparoscopic apparatus, and the ultrasonic apparatus 20 corresponds to a transrectal ultrasonic apparatus.
ロボット手術システム100(図1B)上で、内視鏡装置10の仮想的位置は、Xcamera座標系による。そして、超音波装置20の仮想的位置は、XUS座標系による。すなわち、内視鏡装置10の位置と超音波装置20の位置とは、相異なる座標系を利用しているので、相互の位置は独立している。 On the robotic surgery system 100 (FIG. 1B), the virtual position of the endoscope apparatus 10 is based on the X camera coordinate system. The virtual position of the ultrasonic device 20 is based on the XUS coordinate system. That is, since the position of the endoscope apparatus 10 and the position of the ultrasonic apparatus 20 use different coordinate systems, the mutual positions are independent.
しかし、内視鏡装置10の位置と超音波装置20の位置とは、同じ基準によりマッチングされる。このために、本実施形態によれば、映像マッピング部34は、基準として、抽出された第1表面情報及び第2表面情報を利用する。さらに詳細に説明すれば、第1表面情報及び第2表面情報は、臓器(膀胱)の同じ部位の表面についての情報である。したがって、内視鏡映像から抽出された第1表面情報と、超音波映像から抽出された第2表面情報とを基準として、Xcamera座標系とXUS座標系とをマッチングさせる。その結果、内視鏡装置10の位置と超音波装置20の位置もマッチングされる。 However, the position of the endoscope apparatus 10 and the position of the ultrasonic apparatus 20 are matched according to the same reference. For this reason, according to the present embodiment, the video mapping unit 34 uses the extracted first surface information and second surface information as a reference. If it demonstrates in detail, 1st surface information and 2nd surface information are the information about the surface of the same site | part of an organ (bladder). Therefore, the X camera coordinate system and the X US coordinate system are matched based on the first surface information extracted from the endoscopic image and the second surface information extracted from the ultrasound image. As a result, the position of the endoscope apparatus 10 and the position of the ultrasonic apparatus 20 are also matched.
再び図3を参照すれば、合成映像生成部35は、マッピング結果に基づいて、医療映像が整合された合成映像を生成する。生成された合成映像は、臓器及びその周辺についての三次元医療映像であってもよい。さらに詳しくは、生成された合成映像は、内視鏡装置10(図1B)により撮影された映像に含まれた臓器及び周辺についての外部組織の映像と、非内視鏡装置20(図1B)により撮影された映像に含まれた臓器及び周辺についての内外部組織の映像とが三次元的に同時に表現された映像である。合成映像は、一種の増強映像に該当する。 Referring to FIG. 3 again, the composite video generation unit 35 generates a composite video in which the medical video is matched based on the mapping result. The generated composite image may be a three-dimensional medical image of the organ and its surroundings. More specifically, the generated composite image includes an image of an external tissue about the organ and the periphery included in the image captured by the endoscope apparatus 10 (FIG. 1B), and a non-endoscopic apparatus 20 (FIG. 1B). 3 is an image in which the organs and the images of the internal and external tissues in the periphery included in the image captured by the above are simultaneously expressed in three dimensions. The composite video corresponds to a kind of augmented video.
合成映像生成部35で生成された合成映像は、結局、内視鏡映像及び非内視鏡映像それぞれで表れた臓器の位置が同一であるように合成されて生成されるものである。 The composite video generated by the composite video generation unit 35 is generated by being synthesized so that the positions of the organs appearing in the endoscopic video and the non-endoscopic video are the same.
内視鏡映像は、それ自体で臓器及びその周辺の実際の三次元映像に該当する。しかし、内視鏡映像は、臓器の内外部の組織の形態及び位置などの情報を知りがたい。 An endoscopic image itself corresponds to an actual three-dimensional image of an organ and its surroundings. However, it is difficult for the endoscopic image to know information such as the form and position of the tissue inside and outside the organ.
一般的に、かかる非内視鏡映像は、臓器を断面で撮影した映像の集合に該当する。しかし、超音波映像、CT映像及びMR映像のような非内視鏡映像は、臓器及び周辺の内外部の組織の形態及び位置などについての一種の透視情報を含んでいる。したがって、獲得された非内視鏡映像には、臓器の外部組織だけでなく、内部組織の形態及び位置などについての情報も共に含まれている。したがって、内視鏡映像と非内視鏡映像とが合成される場合、実際の臓器及び周辺の内外部にある組織についての情報を正確に知ることができ、それが医師に提供されることで、医師はさらに精巧かつ細密な手術を進めることができる。 In general, such a non-endoscopic image corresponds to a set of images obtained by photographing an organ in a cross section. However, non-endoscopic images such as ultrasound images, CT images, and MR images include a kind of fluoroscopic information about the forms and positions of organs and surrounding internal and external tissues. Therefore, the acquired non-endoscopic image includes not only the external tissue of the organ but also information on the form and position of the internal tissue. Therefore, when an endoscopic image and a non-endoscopic image are combined, information about the actual organ and surrounding tissues inside and outside can be accurately known and provided to the doctor. Doctors can proceed with more elaborate and detailed surgery.
ここで、超音波映像、CT映像及びMR映像のような非内視鏡映像は、その映像を撮影する医療映像撮影装置11,21(図1A)の種類によって、二次元映像であってもよく、三次元映像であってもよい。獲得された非内視鏡映像が、図5のように複数の二次元的な非内視鏡映像である場合、合成映像生成部35は、ボリュームレンダリングなどの既知の方法を通じて、二次元の非内視鏡映像を三次元の非内視鏡映像に生成した後で合成に利用する。 Here, non-endoscopic images such as ultrasound images, CT images, and MR images may be two-dimensional images depending on the types of medical image capturing apparatuses 11 and 21 (FIG. 1A) that capture the images. 3D video may be used. When the acquired non-endoscopic image is a plurality of two-dimensional non-endoscopic images as shown in FIG. 5, the synthesized image generating unit 35 performs a two-dimensional non-endoscopic image through a known method such as volume rendering. An endoscopic video is generated into a three-dimensional non-endoscopic video and then used for composition.
図7は、本発明の一実施形態によって、合成映像生成部35で合成映像を生成する時に利用される三次元の超音波映像に含まれた情報の例を示す図面である。図7は、経直腸的超音波装置を使用した場合の例示についての図面である。図7を参照すれば、超音波映像は、前述したように、膀胱のような臓器の内外部の組織の形態及び位置などについての一種の透視情報を含んでいる。したがって、三次元の超音波映像には、膀胱の外部表面701の形態及び位置、膀胱の内部の前立腺702の位置、膀胱の周辺の神経束703の位置が三次元的に表現されている。ここで、膀胱の外部表面701の形態及び位置は、第2表面情報に含まれた情報である。たとえ図7が三次元の超音波映像ではないとしても、当業者ならば、三次元の超音波映像を通じて、かかる情報(701,702,703の情報)が含まれているということが分かるであろう。 FIG. 7 is a diagram illustrating an example of information included in a three-dimensional ultrasound image used when the composite image generation unit 35 generates a composite image according to an embodiment of the present invention. FIG. 7 is a diagram illustrating an example when a transrectal ultrasonic device is used. Referring to FIG. 7, as described above, the ultrasound image includes a kind of fluoroscopic information about the form and position of the tissue inside and outside the organ such as the bladder. Therefore, in the three-dimensional ultrasound image, the form and position of the outer surface 701 of the bladder, the position of the prostate 702 inside the bladder, and the position of the nerve bundle 703 around the bladder are three-dimensionally expressed. Here, the form and position of the outer surface 701 of the bladder are information included in the second surface information. Even if FIG. 7 is not a three-dimensional ultrasound image, those skilled in the art will understand that such information (information of 701, 702, and 703) is included through the three-dimensional ultrasound image. Let's go.
再び図3を参照すれば、合成映像生成部35は、かかる内視鏡映像及び非内視鏡映像を整合することで、合成映像を生成する。 Referring to FIG. 3 again, the composite video generation unit 35 generates a composite video by matching the endoscopic video and the non-endoscopic video.
再び図1A及び図1Bを参照すれば、表示装置50は、合成映像生成部35で生成された合成映像を表示する。ロボット手術システム1,100は、表示装置50を通じてロボット手術を進める医師に、かかる合成映像を提供することで、映像誘導(image guidance)を行う。表示装置50は、ユーザーに情報を報告するために、視覚情報を表示するための装置、例えば、一般的なモニタ、LCD(Liquid Crystal Display)画面、LED(Light Emitting Diode)画面、目盛り表示装置などを含む。 Referring to FIGS. 1A and 1B again, the display device 50 displays the composite video generated by the composite video generation unit 35. The robotic surgery system 1, 100 performs image guidance by providing the synthesized video to a doctor who performs robotic surgery through the display device 50. The display device 50 is a device for displaying visual information to report information to the user, such as a general monitor, an LCD (Liquid Crystal Display) screen, an LED (Light Emitting Diode) screen, a scale display device, etc. including.
一方、再び図3を参照すれば、位置マッチング部342で第1表面情報及び第2表面情報を利用して、内視鏡装置10(図1B)の位置と超音波装置20(図1B)の位置とがリアルタイムでマッチングされ続ける限り、相異なる位置の相異なる装置で獲得された、同じ臓器についての相異なる映像はマッピングされ続ける。したがって、合成映像生成部35は、内視鏡映像と超音波映像とを整合し続けて、合成映像を連続的に生成することで、表示装置50は、内視鏡装置10(図1B)及び超音波装置20(図1B)の移動に関係なく、リアルタイムで合成映像を表示できる。 On the other hand, referring to FIG. 3 again, the position matching unit 342 uses the first surface information and the second surface information to determine the position of the endoscope apparatus 10 (FIG. 1B) and the ultrasonic apparatus 20 (FIG. 1B). As long as the location continues to be matched in real time, different images of the same organ acquired with different devices at different locations will continue to be mapped. Accordingly, the composite video generation unit 35 continues to match the endoscopic video and the ultrasonic video, and continuously generates the composite video, so that the display device 50 can be used for the endoscope device 10 (FIG. 1B) and Regardless of the movement of the ultrasonic device 20 (FIG. 1B), the composite image can be displayed in real time.
一実施形態によれば、表示装置50は、生成された合成映像そのまま表示できるが、ロボット手術システム1,100の使用環境によって、合成映像に含まれた映像情報のうち一部の関心領域のみが表示されるように制御される。すなわち、内視鏡映像と非内視鏡映像とが合成された場合、表示装置50には、非内視鏡映像に含まれた一部の関心領域である前立腺801の位置、及び神経束802の位置のみが表示されるように制御される。さらに、前立腺801及び神経束802の位置についての情報が前処理された場合、表示装置50は、ロボット手術システム1,100の使用環境によって、合成映像に特定の部位が前立腺801及び神経束802に該当するという情報を共に表示できる。 According to one embodiment, the display device 50 can display the generated composite video as it is, but depending on the usage environment of the robotic surgery system 1, 100, only a part of the region of interest included in the video information included in the composite video. Controlled to be displayed. That is, when the endoscopic image and the non-endoscopic image are combined, the display device 50 displays the position of the prostate 801 that is a part of the region of interest included in the non-endoscopic image and the nerve bundle 802. Only the position of is controlled to be displayed. Further, when the information about the positions of the prostate 801 and the nerve bundle 802 is preprocessed, the display device 50 has a specific part in the composite image and the prostate 801 and the nerve bundle 802 depending on the use environment of the robotic surgical system 1100. You can display the corresponding information together.
図8は、本発明の一実施形態による合成映像を示す図面である。図8を参照すれば、合成映像は、膀胱及び周辺の内視鏡映像に、前立腺及び神経束のような膀胱の内外部の組織位置についての情報を有する超音波映像が合成されたことを示す図面である。 FIG. 8 is a view illustrating a composite image according to an exemplary embodiment of the present invention. Referring to FIG. 8, the synthesized image shows that an ultrasound image having information on the internal and external tissue positions of the bladder, such as the prostate and nerve bundles, is synthesized with the bladder and surrounding endoscopic images. It is a drawing.
図9は、本発明の一実施形態による医療映像を処理する方法のフローチャートである。図9を参照すれば、本実施形態による医療映像処理方法は、図1A、図1B及び図3に示すロボット手術システム1,100の医療映像処理装置30で時系列的に処理されるステップで構成される。したがって、以下省略された内容であるとしても、前記図面に関して記述された内容は、本実施形態による医療映像処理方法にも適用される。 FIG. 9 is a flowchart of a method for processing medical images according to an embodiment of the present invention. Referring to FIG. 9, the medical image processing method according to the present embodiment includes steps processed in time series by the medical image processing apparatus 30 of the robotic surgical system 1, 100 shown in FIGS. 1A, 1B, and 3. Is done. Therefore, even if the contents are omitted below, the contents described with respect to the drawings are also applied to the medical image processing method according to the present embodiment.
ステップ901で、映像獲得部32は、相異なる複数の医療映像撮影装置を利用して撮影された臓器についての医療映像を獲得する。ステップ902で、表面情報抽出部33は、獲得された医療映像それぞれから、獲得された医療映像それぞれに含まれた臓器の表面情報をそれぞれ抽出する。 In step 901, the video acquisition unit 32 acquires a medical video about an organ imaged using a plurality of different medical video imaging devices. In step 902, the surface information extraction unit 33 extracts the surface information of the organ included in each acquired medical image from each acquired medical image.
ステップ903で、映像マッピング部34は、抽出されたそれぞれの表面情報を利用して、医療映像をマッピングする。ステップ904で、合成映像生成部35は、マッピング結果に基づいて、医療映像が整合された合成映像を生成する。 In step 903, the video mapping unit 34 maps the medical video using each extracted surface information. In step 904, the composite video generation unit 35 generates a composite video in which the medical video is matched based on the mapping result.
図10は、図9の医療映像を処理する方法の詳細なフローチャートである。同様に、以下省略された内容であるとしても、図1A、図1B及び図3に関して記述された内容は、本実施形態による医療映像処理方法にも適用される。 FIG. 10 is a detailed flowchart of a method for processing the medical image of FIG. Similarly, the contents described with reference to FIGS. 1A, 1B, and 3 are also applied to the medical image processing method according to the present embodiment, even if the contents are omitted below.
ステップ1001で、内視鏡映像獲得部321は、内視鏡装置10(図1B)を利用して撮影された内視鏡映像を獲得する。ステップ1002で、第1抽出部331は、内視鏡装置10(図1B)により撮影された内視鏡映像から、臓器の表面の位置及び形態のうち少なくとも一つを表す第1表面情報を抽出する。 In step 1001, the endoscope video acquisition unit 321 acquires an endoscope video imaged using the endoscope device 10 (FIG. 1B). In step 1002, the first extraction unit 331 extracts first surface information representing at least one of the position and form of the surface of the organ from the endoscopic image captured by the endoscope apparatus 10 (FIG. 1B). To do.
ステップ1003で、非内視鏡映像獲得部322は、超音波装置20(図1B)のような非内視鏡装置を利用して撮影された非内視鏡映像を獲得する。ステップ1004で、第2抽出部332は、非内視鏡装置により撮影された映像から、臓器の表面の位置及び形態のうち少なくとも一つを表す第2表面情報を抽出する。 In step 1003, the non-endoscopic video acquisition unit 322 acquires a non-endoscopic video imaged using a non-endoscopic device such as the ultrasound device 20 (FIG. 1B). In step 1004, the second extraction unit 332 extracts second surface information representing at least one of the position and form of the surface of the organ from the video imaged by the non-endoscopic device.
ここで、ステップ1001及びステップ1003の開始は、同時に並列的に進められてもよく、いずれか一つのステップが先に開始されて進められてもよい。すなわち、ステップ1001及びステップ1002の進行と、ステップ1003及びステップ1004の進行とは、互いに影響なしに独立して進められる。 Here, the start of step 1001 and step 1003 may be advanced in parallel at the same time, or any one step may be started first and advanced. That is, the progress of step 1001 and step 1002 and the progress of step 1003 and step 1004 are independently performed without any influence.
ステップ1005で、映像マッピング部34は、抽出されたそれぞれの表面情報を利用して、医療映像をマッピングする。ステップ1006で、合成映像生成部35は、マッピング結果に基づいて、医療映像が整合された合成映像を生成する。 In step 1005, the video mapping unit 34 maps the medical video using the extracted surface information. In step 1006, the composite video generation unit 35 generates a composite video in which the medical video is matched based on the mapping result.
図11は、本発明の一実施形態による第1表面情報を抽出する過程のフローチャートである。ステップ1101で、第1抽出部331は、臓器及び周辺についての外部組織と内視鏡装置10(図1B)との距離情報を獲得する。 FIG. 11 is a flowchart of a process of extracting first surface information according to an embodiment of the present invention. In step 1101, the first extraction unit 331 acquires distance information between the external tissue and the endoscope apparatus 10 (FIG. 1B) about the organ and the periphery.
ステップ1102で、第1抽出部331は、獲得された距離情報を利用して、内視鏡映像に対応する三次元の第1表面モデルを生成する。ステップ1103で、第1抽出部331は、生成された第1表面モデルから第1表面情報を抽出する。 In step 1102, the first extraction unit 331 generates a three-dimensional first surface model corresponding to the endoscope image using the acquired distance information. In step 1103, the first extraction unit 331 extracts first surface information from the generated first surface model.
図12は、本発明の一実施形態による第2表面情報を抽出する過程のフローチャートである。ステップ1201で、第2抽出部332は、非内視鏡装置20(図1B)により撮影された映像から、臓器の表面を表す境界線についての情報を獲得する。 FIG. 12 is a flowchart of a process of extracting second surface information according to an embodiment of the present invention. In step 1201, the second extraction unit 332 acquires information about the boundary line representing the surface of the organ from the video imaged by the non-endoscopic device 20 (FIG. 1B).
ステップ1202で、第2抽出部332は、獲得された境界線情報を利用して、臓器の表面に対応する三次元の第2表面モデルを生成する。ステップ1203で、第2抽出部332は、生成された第2表面モデルから第2表面情報を抽出する。 In step 1202, the second extraction unit 332 generates a three-dimensional second surface model corresponding to the surface of the organ using the acquired boundary line information. In step 1203, the second extraction unit 332 extracts second surface information from the generated second surface model.
一方、前述した本発明の実施形態は、コンピュータで実行されるプログラムで作成可能であり、コンピュータで読み取り可能な記録媒体を利用して、前記プログラムを動作させる汎用のデジタルコンピュータで具現される。また、前述した本発明の実施形態で使われたデータの構造は、コンピュータで読み取り可能な記録媒体に複数の手段を通じて記録される。前記コンピュータで読み取り可能な記録媒体は、磁気記録媒体(例えば、ROM(Read Only Memory)、フロッピー(登録商標)ディスク、ハードディスクなど)、光学的な読み取り媒体(例えば、CD−ROM、DVDなど)のような記録媒体を含む。 On the other hand, the above-described embodiment of the present invention can be created by a program executed by a computer, and is embodied by a general-purpose digital computer that operates the program using a computer-readable recording medium. The data structure used in the above-described embodiment of the present invention is recorded on a computer-readable recording medium through a plurality of means. The computer-readable recording medium is a magnetic recording medium (for example, ROM (Read Only Memory), floppy (registered trademark) disk, hard disk, etc.), or an optical reading medium (for example, CD-ROM, DVD, etc.). Such a recording medium is included.
これまで、本発明について、その望ましい実施形態を中心に述べた。当業者は、本発明が、本発明の本質的な特性から逸脱しない範囲で、変形された形態に具現可能であるということを理解できるであろう。したがって、開示された実施形態は、限定的な観点ではなく、説明的な観点で考慮されねばならない。本発明の範囲は、前述した説明ではなく、特許請求の範囲に表れており、それと同等な範囲内にあるあらゆる相違点は、本発明に含まれていると解釈されねばならない。 So far, the present invention has been described with a focus on preferred embodiments thereof. Those skilled in the art will appreciate that the present invention can be embodied in modified forms without departing from the essential characteristics of the invention. Accordingly, the disclosed embodiments should be considered in an illustrative, not a limiting sense. The scope of the present invention is shown not in the above description but in the claims, and all differences within the equivalent scope should be construed as being included in the present invention.
本発明は、医療機器関連の技術分野に適用可能である。 The present invention is applicable to the technical field related to medical devices.
1 ロボット手術システム
10 内視鏡装置
11 第1医療映像撮影装置
20 超音波装置
21 第2医療映像撮影装置
30 医療映像処理装置
31 検出部
32 映像獲得部
33 表面情報抽出部
34 映像マッピング部
35 合成映像生成部
40 手術用ロボット
50 表示装置
321 内視鏡映像獲得部
322 非内視鏡映像獲得部
331 第1抽出部
332 第2抽出部
341 比較部
342 位置マッチング部
DESCRIPTION OF SYMBOLS 1 Robotic surgery system 10 Endoscope apparatus 11 1st medical imaging | video imaging device 20 Ultrasound apparatus 21 2nd medical imaging | photography apparatus 30 Medical imaging | video processing apparatus 31 Detection part 32 Image acquisition part 33 Surface information extraction part 34 Image mapping part 35 Synthesis Image generation unit 40 Surgical robot 50 Display device 321 Endoscope image acquisition unit 322 Non-endoscope image acquisition unit 331 First extraction unit 332 Second extraction unit 341 Comparison unit 342 Position matching unit
Claims (26)
前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出するステップと、
前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングするステップと、
前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成するステップと、を含むことを特徴とする医療映像処理方法。 Obtaining a medical image of a predetermined organ imaged using a plurality of different medical image capturing devices;
Extracting each surface information of the predetermined organ included in each of the acquired medical images from each of the acquired medical images;
Mapping the medical image using each of the extracted surface information;
Generating a composite image in which the medical images are matched based on the mapping result.
前記マッピングするステップは、
前記抽出されたそれぞれの表面情報を比較するステップと、
前記比較結果に基づいて、前記検出された前記医療映像装置の位置をマッチングさせるステップと、を含み、
前記マッピングするステップは、前記マッチング結果に基づいて、前記医療映像をマッピングすることを特徴とする請求項1に記載の医療映像処理方法。 Further comprising the step of detecting the position of each of the medical imaging devices;
The mapping step includes:
Comparing each extracted surface information;
Matching the detected position of the medical imaging device based on the comparison result, and
The medical image processing method according to claim 1, wherein in the mapping step, the medical image is mapped based on the matching result.
前記内視鏡装置により撮影された内視鏡映像から、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す第1表面情報を抽出するステップと、
前記非内視鏡装置により撮影された映像から、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す第2表面情報を抽出するステップと、を含むことを特徴とする請求項6に記載の医療映像処理方法。 The extracting step includes:
Extracting first surface information representing at least one of the position and form of the surface of the predetermined organ from an endoscopic image captured by the endoscopic device;
The method further comprises the step of: extracting second surface information representing at least one of the position and form of the surface of the predetermined organ from an image photographed by the non-endoscopic device. A medical image processing method according to claim 1.
前記所定の臓器及び周辺についての外部組織と前記内視鏡装置との距離情報を獲得するステップと、
前記獲得された距離情報を利用して、前記内視鏡映像に対応する三次元の第1表面モデルを生成するステップと、を含み、
前記生成された第1表面モデルから前記第1表面情報を抽出することを特徴とする請求項8に記載の医療映像処理方法。 Extracting the first surface information comprises:
Obtaining distance information between an external tissue and the endoscopic device for the predetermined organ and surroundings;
Using the obtained distance information to generate a three-dimensional first surface model corresponding to the endoscopic image,
The medical image processing method according to claim 8, wherein the first surface information is extracted from the generated first surface model.
前記非内視鏡装置により撮影された映像から、前記所定の臓器の表面を表す境界線についての情報を獲得するステップと、
前記獲得された境界線情報を利用して、前記所定の臓器の表面に対応する三次元の第2表面モデルを生成するステップと、を含み、
前記生成された第2表面モデルから前記第2表面情報を抽出することを特徴とする請求項8に記載の医療映像処理方法。 Extracting the second surface information comprises:
Obtaining information about a boundary line representing the surface of the predetermined organ from an image captured by the non-endoscopic device;
Using the acquired boundary information to generate a three-dimensional second surface model corresponding to the surface of the predetermined organ,
The medical image processing method according to claim 8, wherein the second surface information is extracted from the generated second surface model.
前記非内視鏡装置により撮影された映像に対して、ライン検出及びエッジ検出のうち少なくとも一つを適用することで、前記境界線を獲得することを特徴とする請求項10に記載の医療映像処理方法。 The step of acquiring the boundary line information includes:
The medical image according to claim 10, wherein the boundary line is obtained by applying at least one of line detection and edge detection to an image captured by the non-endoscopic device. Processing method.
前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出する表面情報抽出部と、
前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングする映像マッピング部と、
前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成する合成映像生成部と、を備えることを特徴とする医療映像処理装置。 A video acquisition unit for acquiring a medical image of a predetermined organ imaged using a plurality of different medical video imaging devices;
A surface information extracting unit that extracts surface information of the predetermined organ included in each of the acquired medical images from each of the acquired medical images;
A video mapping unit that maps the medical video using each of the extracted surface information;
A medical video processing apparatus comprising: a composite video generation unit that generates a composite video in which the medical video is matched based on the mapping result.
前記映像マッピング部は、
前記抽出されたそれぞれの表面情報を比較する比較部と、
前記比較結果に基づいて、前記検出された前記医療映像装置の位置をマッチングさせる位置マッチング部と、を備えることを特徴とする請求項14に記載の医療映像処理装置。 A detection unit for detecting the position of each of the medical imaging devices;
The video mapping unit
A comparison unit for comparing each of the extracted surface information;
The medical image processing apparatus according to claim 14, further comprising: a position matching unit configured to match the position of the detected medical image apparatus based on the comparison result.
前記内視鏡装置により撮影された内視鏡映像から、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す第1表面情報を抽出する第1抽出部と、
前記非内視鏡装置により撮影された映像から、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す第2表面情報を抽出する第2抽出部と、を備えることを特徴とする請求項18に記載の医療映像処理装置。 The surface information extraction unit
A first extraction unit that extracts first surface information representing at least one of a position and a form of a surface of the predetermined organ from an endoscope image captured by the endoscope device;
A second extraction unit that extracts second surface information representing at least one of a position and a form of the surface of the predetermined organ from an image captured by the non-endoscopic device. The medical image processing apparatus according to claim 18.
被検体内の所定の臓器に対して、医療映像を撮影する内視鏡装置と、
前記所定の臓器に対して、医療映像を撮影する、超音波装置、コンピュータ断層撮影(CT)装置、磁気共鳴映像(MRI)装置及び陽電子放射断層撮影(PET)装置のうち少なくとも一つを含む非内視鏡装置と、
前記複数の医療映像撮影装置を利用して撮影された前記医療映像を獲得し、前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出し、前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングし、前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成する医療映像処理装置と、
前記生成された合成映像を表示する表示装置と、
ユーザーの入力によってロボット手術を行う手術用ロボットと、を備えることを特徴とするシステム。 In a robotic surgery system that guides video about the surgical site and performs robotic surgery with a surgical robot,
An endoscopic device that captures medical images of a predetermined organ in a subject;
Non-inclusive of at least one of an ultrasound device, a computed tomography (CT) device, a magnetic resonance imaging (MRI) device, and a positron emission tomography (PET) device that images a medical image of the predetermined organ. An endoscopic device;
The medical images captured using the plurality of medical image capturing devices are acquired, and surface information of the predetermined organ included in each of the acquired medical images is obtained from each of the acquired medical images. A medical video processing device that extracts and maps the medical video using each of the extracted surface information, and generates a synthesized video in which the medical video is matched based on the mapping result;
A display device for displaying the generated composite video;
And a surgical robot for performing robotic surgery in response to user input.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2011-0076993 | 2011-08-02 | ||
KR20110076993A KR20130015146A (en) | 2011-08-02 | 2011-08-02 | Method and apparatus for processing medical image, robotic surgery system using image guidance |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013031660A true JP2013031660A (en) | 2013-02-14 |
JP6395995B2 JP6395995B2 (en) | 2018-09-26 |
Family
ID=47002530
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012167110A Expired - Fee Related JP6395995B2 (en) | 2011-08-02 | 2012-07-27 | Medical video processing method and apparatus |
Country Status (5)
Country | Link |
---|---|
US (1) | US20130035583A1 (en) |
EP (1) | EP2554137A3 (en) |
JP (1) | JP6395995B2 (en) |
KR (1) | KR20130015146A (en) |
CN (1) | CN102908158B (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160064442A (en) * | 2014-11-28 | 2016-06-08 | 삼성전자주식회사 | Medical image processing apparatus and medical image registration method using the same |
US9600138B2 (en) | 2013-03-15 | 2017-03-21 | Synaptive Medical (Barbados) Inc. | Planning, navigation and simulation systems and methods for minimally invasive therapy |
JP2017513662A (en) * | 2014-03-28 | 2017-06-01 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Alignment of Q3D image with 3D image |
KR101767005B1 (en) | 2016-05-26 | 2017-08-09 | 성균관대학교산학협력단 | Method and apparatus for matching images using contour-based registration |
US10799316B2 (en) | 2013-03-15 | 2020-10-13 | Synaptive Medical (Barbados) Inc. | System and method for dynamic validation, correction of registration for surgical navigation |
JPWO2019088008A1 (en) * | 2017-10-31 | 2020-11-12 | 富士フイルム株式会社 | Image processing equipment, image processing methods, programs, and endoscopic systems |
US11304771B2 (en) | 2014-03-28 | 2022-04-19 | Intuitive Surgical Operations, Inc. | Surgical system with haptic feedback based upon quantitative three-dimensional imaging |
WO2022239895A1 (en) * | 2021-05-10 | 2022-11-17 | 주식회사 씨앤에이아이 | Composite endoscopic image generation device and method using gan |
Families Citing this family (133)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8219178B2 (en) | 2007-02-16 | 2012-07-10 | Catholic Healthcare West | Method and system for performing invasive medical procedures using a surgical robot |
US10357184B2 (en) | 2012-06-21 | 2019-07-23 | Globus Medical, Inc. | Surgical tool systems and method |
US10893912B2 (en) | 2006-02-16 | 2021-01-19 | Globus Medical Inc. | Surgical tool systems and methods |
US10653497B2 (en) | 2006-02-16 | 2020-05-19 | Globus Medical, Inc. | Surgical tool systems and methods |
WO2012131660A1 (en) | 2011-04-01 | 2012-10-04 | Ecole Polytechnique Federale De Lausanne (Epfl) | Robotic system for spinal and other surgeries |
US12004905B2 (en) | 2012-06-21 | 2024-06-11 | Globus Medical, Inc. | Medical imaging systems using robotic actuators and related methods |
US11253327B2 (en) | 2012-06-21 | 2022-02-22 | Globus Medical, Inc. | Systems and methods for automatically changing an end-effector on a surgical robot |
US11116576B2 (en) | 2012-06-21 | 2021-09-14 | Globus Medical Inc. | Dynamic reference arrays and methods of use |
US11395706B2 (en) | 2012-06-21 | 2022-07-26 | Globus Medical Inc. | Surgical robot platform |
US11857149B2 (en) | 2012-06-21 | 2024-01-02 | Globus Medical, Inc. | Surgical robotic systems with target trajectory deviation monitoring and related methods |
US10624710B2 (en) | 2012-06-21 | 2020-04-21 | Globus Medical, Inc. | System and method for measuring depth of instrumentation |
WO2013192598A1 (en) | 2012-06-21 | 2013-12-27 | Excelsius Surgical, L.L.C. | Surgical robot platform |
US11317971B2 (en) | 2012-06-21 | 2022-05-03 | Globus Medical, Inc. | Systems and methods related to robotic guidance in surgery |
US11857266B2 (en) | 2012-06-21 | 2024-01-02 | Globus Medical, Inc. | System for a surveillance marker in robotic-assisted surgery |
US11045267B2 (en) | 2012-06-21 | 2021-06-29 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
US11974822B2 (en) | 2012-06-21 | 2024-05-07 | Globus Medical Inc. | Method for a surveillance marker in robotic-assisted surgery |
US10758315B2 (en) | 2012-06-21 | 2020-09-01 | Globus Medical Inc. | Method and system for improving 2D-3D registration convergence |
US11864745B2 (en) | 2012-06-21 | 2024-01-09 | Globus Medical, Inc. | Surgical robotic system with retractor |
US10350013B2 (en) | 2012-06-21 | 2019-07-16 | Globus Medical, Inc. | Surgical tool systems and methods |
US11298196B2 (en) | 2012-06-21 | 2022-04-12 | Globus Medical Inc. | Surgical robotic automation with tracking markers and controlled tool advancement |
US11793570B2 (en) | 2012-06-21 | 2023-10-24 | Globus Medical Inc. | Surgical robotic automation with tracking markers |
US11399900B2 (en) | 2012-06-21 | 2022-08-02 | Globus Medical, Inc. | Robotic systems providing co-registration using natural fiducials and related methods |
US10136954B2 (en) | 2012-06-21 | 2018-11-27 | Globus Medical, Inc. | Surgical tool systems and method |
US10231791B2 (en) | 2012-06-21 | 2019-03-19 | Globus Medical, Inc. | Infrared signal based position recognition system for use with a robot-assisted surgery |
US11607149B2 (en) | 2012-06-21 | 2023-03-21 | Globus Medical Inc. | Surgical tool systems and method |
US11864839B2 (en) | 2012-06-21 | 2024-01-09 | Globus Medical Inc. | Methods of adjusting a virtual implant and related surgical navigation systems |
KR102094502B1 (en) * | 2013-02-21 | 2020-03-30 | 삼성전자주식회사 | Method and Apparatus for performing registraton of medical images |
KR102098958B1 (en) * | 2013-06-24 | 2020-04-14 | 큐렉소 주식회사 | Three Dimensions Image Dysplay System for The Organ |
WO2015010189A1 (en) | 2013-07-24 | 2015-01-29 | Centre For Surgical Invention & Innovation | Multi-function mounting interface for an image-guided robotic system and quick release interventional toolset |
US9283048B2 (en) | 2013-10-04 | 2016-03-15 | KB Medical SA | Apparatus and systems for precise guidance of surgical tools |
KR20150074304A (en) * | 2013-12-23 | 2015-07-02 | 삼성전자주식회사 | Method for Providing Medical Image and Apparatus Thereof |
US9241771B2 (en) | 2014-01-15 | 2016-01-26 | KB Medical SA | Notched apparatus for guidance of an insertable instrument along an axis during spinal surgery |
US9713649B2 (en) | 2014-01-24 | 2017-07-25 | The Cleveland Clinic Foundation | PSMA-targeting imaging agents |
US10039605B2 (en) | 2014-02-11 | 2018-08-07 | Globus Medical, Inc. | Sterile handle for controlling a robotic surgical system from a sterile field |
US10350009B2 (en) | 2014-03-28 | 2019-07-16 | Intuitive Surgical Operations, Inc. | Quantitative three-dimensional imaging and printing of surgical implants |
JP6609616B2 (en) | 2014-03-28 | 2019-11-20 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Quantitative 3D imaging of surgical scenes from a multiport perspective |
US11266465B2 (en) | 2014-03-28 | 2022-03-08 | Intuitive Surgical Operations, Inc. | Quantitative three-dimensional visualization of instruments in a field of view |
WO2015149040A1 (en) * | 2014-03-28 | 2015-10-01 | Dorin Panescu | Quantitative three-dimensional imaging of surgical scenes |
WO2015162256A1 (en) | 2014-04-24 | 2015-10-29 | KB Medical SA | Surgical instrument holder for use with a robotic surgical system |
CN107072673A (en) | 2014-07-14 | 2017-08-18 | Kb医疗公司 | Anti-skidding operating theater instruments for preparing hole in bone tissue |
US9582916B2 (en) | 2014-11-10 | 2017-02-28 | Siemens Healthcare Gmbh | Method and system for unsupervised cross-modal medical image synthesis |
US10013808B2 (en) | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
EP3258872B1 (en) | 2015-02-18 | 2023-04-26 | KB Medical SA | Systems for performing minimally invasive spinal surgery with a robotic surgical system using a percutaneous technique |
US9595120B2 (en) | 2015-04-27 | 2017-03-14 | Siemens Healthcare Gmbh | Method and system for medical image synthesis across image domain or modality using iterative sparse representation propagation |
CN107924459B (en) * | 2015-06-24 | 2021-08-27 | 埃达技术股份有限公司 | Method and system for interactive 3D mirror placement and measurement for kidney stone removal procedures |
US10058394B2 (en) | 2015-07-31 | 2018-08-28 | Globus Medical, Inc. | Robot arm and methods of use |
US10646298B2 (en) | 2015-07-31 | 2020-05-12 | Globus Medical, Inc. | Robot arm and methods of use |
US10080615B2 (en) | 2015-08-12 | 2018-09-25 | Globus Medical, Inc. | Devices and methods for temporary mounting of parts to bone |
EP3344179B1 (en) | 2015-08-31 | 2021-06-30 | KB Medical SA | Robotic surgical systems |
US10034716B2 (en) | 2015-09-14 | 2018-07-31 | Globus Medical, Inc. | Surgical robotic systems and methods thereof |
US9771092B2 (en) | 2015-10-13 | 2017-09-26 | Globus Medical, Inc. | Stabilizer wheel assembly and methods of use |
CN105306573B (en) * | 2015-11-03 | 2019-07-23 | 浙江格林蓝德信息技术有限公司 | Medical image initial data dispatching method and medical image Transmission system |
US11058378B2 (en) | 2016-02-03 | 2021-07-13 | Globus Medical, Inc. | Portable medical imaging system |
US10842453B2 (en) | 2016-02-03 | 2020-11-24 | Globus Medical, Inc. | Portable medical imaging system |
US10448910B2 (en) | 2016-02-03 | 2019-10-22 | Globus Medical, Inc. | Portable medical imaging system |
US11883217B2 (en) | 2016-02-03 | 2024-01-30 | Globus Medical, Inc. | Portable medical imaging system and method |
US10117632B2 (en) | 2016-02-03 | 2018-11-06 | Globus Medical, Inc. | Portable medical imaging system with beam scanning collimator |
US10866119B2 (en) | 2016-03-14 | 2020-12-15 | Globus Medical, Inc. | Metal detector for detecting insertion of a surgical device into a hollow tube |
EP3241518B1 (en) | 2016-04-11 | 2024-10-23 | Globus Medical, Inc | Surgical tool systems |
US20180049808A1 (en) * | 2016-08-17 | 2018-02-22 | Covidien Lp | Method of using soft point features to predict breathing cycles and improve end registration |
EP3360502A3 (en) | 2017-01-18 | 2018-10-31 | KB Medical SA | Robotic navigation of robotic surgical systems |
US11071594B2 (en) | 2017-03-16 | 2021-07-27 | KB Medical SA | Robotic navigation of robotic surgical systems |
US11135015B2 (en) | 2017-07-21 | 2021-10-05 | Globus Medical, Inc. | Robot surgical platform |
US10898252B2 (en) | 2017-11-09 | 2021-01-26 | Globus Medical, Inc. | Surgical robotic systems for bending surgical rods, and related methods and devices |
US11794338B2 (en) | 2017-11-09 | 2023-10-24 | Globus Medical Inc. | Robotic rod benders and related mechanical and motor housings |
US11357548B2 (en) | 2017-11-09 | 2022-06-14 | Globus Medical, Inc. | Robotic rod benders and related mechanical and motor housings |
US11134862B2 (en) | 2017-11-10 | 2021-10-05 | Globus Medical, Inc. | Methods of selecting surgical implants and related devices |
KR102099563B1 (en) | 2017-12-28 | 2020-04-09 | 서울대학교 산학협력단 | Surgical robot system for minimal invasive surgery and method for preventing collision using the same |
US10482600B2 (en) | 2018-01-16 | 2019-11-19 | Siemens Healthcare Gmbh | Cross-domain image analysis and cross-domain image synthesis using deep image-to-image networks and adversarial networks |
US20190254753A1 (en) | 2018-02-19 | 2019-08-22 | Globus Medical, Inc. | Augmented reality navigation systems for use with robotic surgical systems and methods of their use |
KR102018565B1 (en) * | 2018-02-20 | 2019-09-05 | (주)휴톰 | Method, apparatus and program for constructing surgical simulation information |
WO2019164271A1 (en) * | 2018-02-20 | 2019-08-29 | (주)휴톰 | Virtual body model generation method and device |
US10573023B2 (en) | 2018-04-09 | 2020-02-25 | Globus Medical, Inc. | Predictive visualization of medical imaging scanner component movement |
US20200015924A1 (en) * | 2018-07-16 | 2020-01-16 | Ethicon Llc | Robotic light projection tools |
CN108900815A (en) * | 2018-08-04 | 2018-11-27 | 广州高通影像技术有限公司 | A kind of intelligent endoscope image system based on AR application technology |
US11337742B2 (en) | 2018-11-05 | 2022-05-24 | Globus Medical Inc | Compliant orthopedic driver |
US11278360B2 (en) | 2018-11-16 | 2022-03-22 | Globus Medical, Inc. | End-effectors for surgical robotic systems having sealed optical components |
US11602402B2 (en) | 2018-12-04 | 2023-03-14 | Globus Medical, Inc. | Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems |
US11744655B2 (en) | 2018-12-04 | 2023-09-05 | Globus Medical, Inc. | Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems |
WO2020113565A1 (en) * | 2018-12-07 | 2020-06-11 | 深圳先进技术研究院 | Multi-modal imaging system for pancreatic/biliary duct |
KR102297517B1 (en) | 2019-03-06 | 2021-09-02 | 서울대학교 산학협력단 | Surgical robot system for minimal invasive surgery and drive method thereof |
US11918313B2 (en) | 2019-03-15 | 2024-03-05 | Globus Medical Inc. | Active end effectors for surgical robots |
US11571265B2 (en) | 2019-03-22 | 2023-02-07 | Globus Medical Inc. | System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices |
US11382549B2 (en) | 2019-03-22 | 2022-07-12 | Globus Medical, Inc. | System for neuronavigation registration and robotic trajectory guidance, and related methods and devices |
US11317978B2 (en) | 2019-03-22 | 2022-05-03 | Globus Medical, Inc. | System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices |
US20200297357A1 (en) | 2019-03-22 | 2020-09-24 | Globus Medical, Inc. | System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices |
US11419616B2 (en) | 2019-03-22 | 2022-08-23 | Globus Medical, Inc. | System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices |
US11806084B2 (en) | 2019-03-22 | 2023-11-07 | Globus Medical, Inc. | System for neuronavigation registration and robotic trajectory guidance, and related methods and devices |
US11045179B2 (en) | 2019-05-20 | 2021-06-29 | Global Medical Inc | Robot-mounted retractor system |
US11628023B2 (en) | 2019-07-10 | 2023-04-18 | Globus Medical, Inc. | Robotic navigational system for interbody implants |
US11571171B2 (en) | 2019-09-24 | 2023-02-07 | Globus Medical, Inc. | Compound curve cable chain |
US11426178B2 (en) | 2019-09-27 | 2022-08-30 | Globus Medical Inc. | Systems and methods for navigating a pin guide driver |
US11864857B2 (en) | 2019-09-27 | 2024-01-09 | Globus Medical, Inc. | Surgical robot with passive end effector |
US11890066B2 (en) | 2019-09-30 | 2024-02-06 | Globus Medical, Inc | Surgical robot with passive end effector |
US11510684B2 (en) | 2019-10-14 | 2022-11-29 | Globus Medical, Inc. | Rotary motion passive end effector for surgical robots in orthopedic surgeries |
KR102235681B1 (en) * | 2019-12-03 | 2021-04-05 | 주식회사 딥노이드 | Apparatus for navigating surgical location and method thereof |
US11992373B2 (en) | 2019-12-10 | 2024-05-28 | Globus Medical, Inc | Augmented reality headset with varied opacity for navigated robotic surgery |
US12064189B2 (en) | 2019-12-13 | 2024-08-20 | Globus Medical, Inc. | Navigated instrument for use in robotic guided surgery |
US11776144B2 (en) | 2019-12-30 | 2023-10-03 | Cilag Gmbh International | System and method for determining, adjusting, and managing resection margin about a subject tissue |
US11896442B2 (en) | 2019-12-30 | 2024-02-13 | Cilag Gmbh International | Surgical systems for proposing and corroborating organ portion removals |
US11759283B2 (en) | 2019-12-30 | 2023-09-19 | Cilag Gmbh International | Surgical systems for generating three dimensional constructs of anatomical organs and coupling identified anatomical structures thereto |
KR102373370B1 (en) * | 2019-12-30 | 2022-03-11 | 서울대학교산학협력단 | Synthetic ct image generating method for mr image guided radiotherapy and method for setting radiation therapy plan using the same |
US11219501B2 (en) | 2019-12-30 | 2022-01-11 | Cilag Gmbh International | Visualization systems using structured light |
US11648060B2 (en) | 2019-12-30 | 2023-05-16 | Cilag Gmbh International | Surgical system for overlaying surgical instrument data onto a virtual three dimensional construct of an organ |
US12002571B2 (en) | 2019-12-30 | 2024-06-04 | Cilag Gmbh International | Dynamic surgical visualization systems |
US12053223B2 (en) | 2019-12-30 | 2024-08-06 | Cilag Gmbh International | Adaptive surgical system control according to surgical smoke particulate characteristics |
US11832996B2 (en) | 2019-12-30 | 2023-12-05 | Cilag Gmbh International | Analyzing surgical trends by a surgical system |
US11284963B2 (en) | 2019-12-30 | 2022-03-29 | Cilag Gmbh International | Method of using imaging devices in surgery |
US11744667B2 (en) | 2019-12-30 | 2023-09-05 | Cilag Gmbh International | Adaptive visualization by a surgical system |
US11382699B2 (en) | 2020-02-10 | 2022-07-12 | Globus Medical Inc. | Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery |
US11207150B2 (en) | 2020-02-19 | 2021-12-28 | Globus Medical, Inc. | Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment |
US11253216B2 (en) | 2020-04-28 | 2022-02-22 | Globus Medical Inc. | Fixtures for fluoroscopic imaging systems and related navigation systems and methods |
US11153555B1 (en) | 2020-05-08 | 2021-10-19 | Globus Medical Inc. | Extended reality headset camera system for computer assisted navigation in surgery |
US11382700B2 (en) | 2020-05-08 | 2022-07-12 | Globus Medical Inc. | Extended reality headset tool tracking and control |
US11510750B2 (en) | 2020-05-08 | 2022-11-29 | Globus Medical, Inc. | Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications |
US11317973B2 (en) | 2020-06-09 | 2022-05-03 | Globus Medical, Inc. | Camera tracking bar for computer assisted navigation during surgery |
US12070276B2 (en) | 2020-06-09 | 2024-08-27 | Globus Medical Inc. | Surgical object tracking in visible light via fiducial seeding and synthetic image registration |
US11382713B2 (en) | 2020-06-16 | 2022-07-12 | Globus Medical, Inc. | Navigated surgical system with eye to XR headset display calibration |
US11877807B2 (en) | 2020-07-10 | 2024-01-23 | Globus Medical, Inc | Instruments for navigated orthopedic surgeries |
US11793588B2 (en) | 2020-07-23 | 2023-10-24 | Globus Medical, Inc. | Sterile draping of robotic arms |
US11737831B2 (en) | 2020-09-02 | 2023-08-29 | Globus Medical Inc. | Surgical object tracking template generation for computer assisted navigation during surgical procedure |
US11523785B2 (en) | 2020-09-24 | 2022-12-13 | Globus Medical, Inc. | Increased cone beam computed tomography volume length without requiring stitching or longitudinal C-arm movement |
US12076091B2 (en) | 2020-10-27 | 2024-09-03 | Globus Medical, Inc. | Robotic navigational system |
US11911112B2 (en) | 2020-10-27 | 2024-02-27 | Globus Medical, Inc. | Robotic navigational system |
US11941814B2 (en) | 2020-11-04 | 2024-03-26 | Globus Medical Inc. | Auto segmentation using 2-D images taken during 3-D imaging spin |
US11717350B2 (en) | 2020-11-24 | 2023-08-08 | Globus Medical Inc. | Methods for robotic assistance and navigation in spinal surgery and related systems |
US20220218431A1 (en) | 2021-01-08 | 2022-07-14 | Globus Medical, Inc. | System and method for ligament balancing with robotic assistance |
US11857273B2 (en) | 2021-07-06 | 2024-01-02 | Globus Medical, Inc. | Ultrasonic robotic surgical navigation |
US11439444B1 (en) | 2021-07-22 | 2022-09-13 | Globus Medical, Inc. | Screw tower and rod reduction tool |
US11918304B2 (en) | 2021-12-20 | 2024-03-05 | Globus Medical, Inc | Flat panel registration fixture and method of using same |
US12103480B2 (en) | 2022-03-18 | 2024-10-01 | Globus Medical Inc. | Omni-wheel cable pusher |
US12048493B2 (en) | 2022-03-31 | 2024-07-30 | Globus Medical, Inc. | Camera tracking system identifying phantom markers during computer assisted surgery navigation |
KR102549662B1 (en) * | 2022-09-14 | 2023-06-30 | 주식회사 뉴로소나 | Display method for treatment information for ultrasound brain irradiation |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11309A (en) * | 1997-06-12 | 1999-01-06 | Hitachi Ltd | Image processor |
JPH11295618A (en) * | 1998-04-10 | 1999-10-29 | Olympus Optical Co Ltd | Endoscopic image processor |
JP2002017729A (en) * | 2000-07-11 | 2002-01-22 | Toshiba Corp | Endoscope ultrasonograph |
JP2004358096A (en) * | 2003-06-06 | 2004-12-24 | Olympus Corp | Ultrasonic endoscope apparatus |
JP2010088699A (en) * | 2008-10-09 | 2010-04-22 | National Center For Child Health & Development | Medical image processing system |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69332042T2 (en) * | 1992-12-18 | 2003-01-02 | Koninklijke Philips Electronics N.V., Eindhoven | Delayed positioning of relatively elastically deformed spatial images by matching surfaces |
US8944070B2 (en) * | 1999-04-07 | 2015-02-03 | Intuitive Surgical Operations, Inc. | Non-force reflecting method for providing tool force information to a user of a telesurgical system |
US7117026B2 (en) * | 2002-06-12 | 2006-10-03 | Koninklijke Philips Electronics N.V. | Physiological model based non-rigid image registration |
FR2855292B1 (en) * | 2003-05-22 | 2005-12-09 | Inst Nat Rech Inf Automat | DEVICE AND METHOD FOR REAL TIME REASONING OF PATTERNS ON IMAGES, IN PARTICULAR FOR LOCALIZATION GUIDANCE |
DE10340544B4 (en) * | 2003-09-01 | 2006-08-03 | Siemens Ag | Device for visual support of electrophysiology catheter application in the heart |
US20050085717A1 (en) * | 2003-10-21 | 2005-04-21 | Ramin Shahidi | Systems and methods for intraoperative targetting |
CN101292255B (en) * | 2005-09-22 | 2012-05-23 | 3M创新有限公司 | Artifact mitigation in three-dimensional imaging |
CN100498839C (en) * | 2006-03-08 | 2009-06-10 | 杭州电子科技大学 | Multi-modality medical data three-dimensional visualization method |
JP4745131B2 (en) * | 2006-05-29 | 2011-08-10 | 株式会社日立製作所 | Communication card |
WO2008063494A2 (en) * | 2006-11-16 | 2008-05-29 | Vanderbilt University | Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same |
US8672836B2 (en) * | 2007-01-31 | 2014-03-18 | The Penn State Research Foundation | Method and apparatus for continuous guidance of endoscopy |
US8428690B2 (en) * | 2007-05-16 | 2013-04-23 | General Electric Company | Intracardiac echocardiography image reconstruction in combination with position tracking system |
US8052604B2 (en) * | 2007-07-31 | 2011-11-08 | Mirabilis Medica Inc. | Methods and apparatus for engagement and coupling of an intracavitory imaging and high intensity focused ultrasound probe |
US8320711B2 (en) * | 2007-12-05 | 2012-11-27 | Biosense Webster, Inc. | Anatomical modeling from a 3-D image and a surface mapping |
US8803955B2 (en) * | 2008-04-26 | 2014-08-12 | Intuitive Surgical Operations, Inc. | Augmented stereoscopic visualization for a surgical robot using a camera unit with a modified prism |
KR101591471B1 (en) * | 2008-11-03 | 2016-02-04 | 삼성전자주식회사 | apparatus and method for extracting feature information of object and apparatus and method for generating feature map |
US8823775B2 (en) * | 2009-04-30 | 2014-09-02 | Board Of Regents, The University Of Texas System | Body surface imaging |
CN101567051B (en) * | 2009-06-03 | 2012-08-22 | 复旦大学 | Image matching method based on characteristic points |
CA2781427A1 (en) * | 2009-11-19 | 2011-05-26 | The Johns Hopkins University | Low-cost image-guided navigation and intervention systems using cooperative sets of local sensors |
CN103118596B (en) * | 2010-05-04 | 2015-11-25 | 开创治疗股份有限公司 | For the system using pseudo-characteristic to carry out abdominal surface coupling |
US20130170726A1 (en) * | 2010-09-24 | 2013-07-04 | The Research Foundation Of State University Of New York | Registration of scanned objects obtained from different orientations |
EP2680778B1 (en) * | 2011-03-03 | 2019-07-31 | Koninklijke Philips N.V. | System and method for automated initialization and registration of navigation system |
CN104160424B (en) * | 2012-03-08 | 2017-09-19 | 皇家飞利浦有限公司 | Smart Logo selection for improving the registration accuracy in multi-modality images fusion |
-
2011
- 2011-08-02 KR KR20110076993A patent/KR20130015146A/en active IP Right Grant
-
2012
- 2012-07-27 JP JP2012167110A patent/JP6395995B2/en not_active Expired - Fee Related
- 2012-07-31 EP EP20120178673 patent/EP2554137A3/en not_active Ceased
- 2012-08-01 US US13/564,051 patent/US20130035583A1/en not_active Abandoned
- 2012-08-02 CN CN201210272789.7A patent/CN102908158B/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11309A (en) * | 1997-06-12 | 1999-01-06 | Hitachi Ltd | Image processor |
JPH11295618A (en) * | 1998-04-10 | 1999-10-29 | Olympus Optical Co Ltd | Endoscopic image processor |
JP2002017729A (en) * | 2000-07-11 | 2002-01-22 | Toshiba Corp | Endoscope ultrasonograph |
JP2004358096A (en) * | 2003-06-06 | 2004-12-24 | Olympus Corp | Ultrasonic endoscope apparatus |
JP2010088699A (en) * | 2008-10-09 | 2010-04-22 | National Center For Child Health & Development | Medical image processing system |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9600138B2 (en) | 2013-03-15 | 2017-03-21 | Synaptive Medical (Barbados) Inc. | Planning, navigation and simulation systems and methods for minimally invasive therapy |
US10799316B2 (en) | 2013-03-15 | 2020-10-13 | Synaptive Medical (Barbados) Inc. | System and method for dynamic validation, correction of registration for surgical navigation |
JP2017513662A (en) * | 2014-03-28 | 2017-06-01 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Alignment of Q3D image with 3D image |
US11304771B2 (en) | 2014-03-28 | 2022-04-19 | Intuitive Surgical Operations, Inc. | Surgical system with haptic feedback based upon quantitative three-dimensional imaging |
KR20160064442A (en) * | 2014-11-28 | 2016-06-08 | 삼성전자주식회사 | Medical image processing apparatus and medical image registration method using the same |
KR102278893B1 (en) | 2014-11-28 | 2021-07-19 | 삼성전자주식회사 | Medical image processing apparatus and medical image registration method using the same |
KR101767005B1 (en) | 2016-05-26 | 2017-08-09 | 성균관대학교산학협력단 | Method and apparatus for matching images using contour-based registration |
JPWO2019088008A1 (en) * | 2017-10-31 | 2020-11-12 | 富士フイルム株式会社 | Image processing equipment, image processing methods, programs, and endoscopic systems |
JP7148534B2 (en) | 2017-10-31 | 2022-10-05 | 富士フイルム株式会社 | Image processing device, program, and endoscope system |
WO2022239895A1 (en) * | 2021-05-10 | 2022-11-17 | 주식회사 씨앤에이아이 | Composite endoscopic image generation device and method using gan |
Also Published As
Publication number | Publication date |
---|---|
EP2554137A2 (en) | 2013-02-06 |
US20130035583A1 (en) | 2013-02-07 |
JP6395995B2 (en) | 2018-09-26 |
CN102908158A (en) | 2013-02-06 |
KR20130015146A (en) | 2013-02-13 |
CN102908158B (en) | 2016-06-01 |
EP2554137A3 (en) | 2015-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6395995B2 (en) | Medical video processing method and apparatus | |
US11103200B2 (en) | Medical device approaches | |
US11883118B2 (en) | Using augmented reality in surgical navigation | |
JP7505081B2 (en) | Endoscopic imaging of invasive procedures in narrow passages | |
JP6404713B2 (en) | System and method for guided injection in endoscopic surgery | |
JP7133474B2 (en) | Image-based fusion of endoscopic and ultrasound images | |
EP2329786A2 (en) | Guided surgery | |
WO2005092198A1 (en) | System for guiding a medical instrument in a patient body | |
US11116579B2 (en) | Intraoperative medical imaging method and system | |
US10951837B2 (en) | Generating a stereoscopic representation | |
KR101993384B1 (en) | Method, Apparatus and system for correcting medical image by patient's pose variation | |
Nagelhus Hernes et al. | Computer‐assisted 3D ultrasound‐guided neurosurgery: technological contributions, including multimodal registration and advanced display, demonstrating future perspectives | |
US11941765B2 (en) | Representation apparatus for displaying a graphical representation of an augmented reality | |
CN116528752A (en) | Automatic segmentation and registration system and method | |
Zenbutsu et al. | 3D ultrasound assisted laparoscopic liver surgery by visualization of blood vessels | |
JP2024131034A (en) | Medical support device, operation method and operation program for medical support device | |
CN117355257A (en) | Volume filter for fluoroscopic video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150414 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161004 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170411 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20170419 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20170519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180829 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6395995 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |