KR20100098055A - Image guided surgery system and the control method of the same - Google Patents
Image guided surgery system and the control method of the same Download PDFInfo
- Publication number
- KR20100098055A KR20100098055A KR1020090017039A KR20090017039A KR20100098055A KR 20100098055 A KR20100098055 A KR 20100098055A KR 1020090017039 A KR1020090017039 A KR 1020090017039A KR 20090017039 A KR20090017039 A KR 20090017039A KR 20100098055 A KR20100098055 A KR 20100098055A
- Authority
- KR
- South Korea
- Prior art keywords
- surgical
- image
- map
- surgical instrument
- dimensional
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/0002—Operational features of endoscopes provided with data storages
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
Abstract
Description
본 발명은 수술장에서 수술도구의 위치를 실시간으로 추적하여 수술의 정확도를 향상시키는 영상유도수술시스템 및 그 제어방법에 관한 것이다.The present invention relates to an image guided surgical system and a control method for improving the accuracy of surgery by tracking the position of the surgical tool in the operating room in real time.
영상유도수술시스템(수술용 네비게이션 시스템)은 컴퓨터단층촬영장치(Computed Tomography, CT), 자기공명영상장치(magnetic resonance imaging, MRI) 등에 의해 취합된 정보를 통하여 환자의 인체 내부를 모니터 상에 재현하는 시스템을 말한다. An image guided surgical system (surgical navigation system) reproduces the inside of a patient's body on a monitor through information collected by computed tomography (CT), magnetic resonance imaging (MRI), etc. Say the system.
영상유도수술시스템은 환자의 인체 내부를 3차원으로 모델링하여 진료계획, 수술계획 및 시술을 위한 정보를 제공하며, 신경이나 척추 등 인체 중요 부위와 환부의 위치, 모양, 임플란트 삽입 위치 등을 상세하게 확인할 수 있게 해준다.The image guided surgery system provides information for treatment planning, surgery planning and procedure by modeling the inside of the patient's body in three dimensions, detailing the location, shape, implant insertion location, etc. It allows you to check.
컴퓨터단층촬영은 CT 스캐너를 이용한 컴퓨터단층촬영(斷層撮影)법으로, X선이나 초음파를 여러 각도에서 인체에 투영하고 이를 컴퓨터로 재구성하여 인체 내부 단면의 모습을 화상으로 처리하는데, 종양 등의 진단법으로 널리 이용되고 있다. Computed tomography (CT) is a computed tomography (CT) scanner that projects X-rays or ultrasounds at various angles to the human body and reconstructs them into a computer to process the internal sections of the body into images. It is widely used.
컴퓨터단층촬영은 X선을 이용하고 있지만 직접 필름에 감광시켜 얻는 일반적인 방사선 사진과는 다르다. 컴퓨터단층촬영은 인체의 한 단면 주위를 돌면서 가느다란 X선을 투사하고 X선이 인체를 통과하면서 감소되는 양을 측정한다. 인체의 내부 간이나 신장 같은 장기들의 밀도는 약간씩 차이가 나기 때문에 X선이 투사된 방향에 따라 흡수하는 정도가 서로 다르게 나타난다. Computed tomography uses X-rays, but is different from the usual radiographs obtained by direct exposure to film. Computed tomography scans thin X-rays around a section of the human body and measures the amount of X-rays that decrease as they pass through the human body. Since the density of organs such as the internal liver and kidneys of the human body is slightly different, the degree of absorption is different depending on the direction the X-ray is projected.
컴퓨터단층촬영은 X선이 투과된 정도를 컴퓨터로 분석하여 내부 장기의 밀도를 결정하고, 이를 통하여 내부의 자세한 단면을 재구성해서 영상으로 나타나게 한다. 즉, 신체의 여러 각도에서 투과시킨 X선을 컴퓨터로 측정하고 단면에 대한 흡수치를 재구성하여 영상으로 나타내는 장치이다.Computed tomography determines the density of internal organs by analyzing the degree of transmission of X-rays through a computer, and reconstructs the detailed cross-section of the internal image. In other words, X-rays transmitted from various angles of the body are measured by a computer, and reconstructed absorption values for the cross-sections are displayed as images.
자기공명영상장치는 자력에 의하여 발생하는 자기장을 이용하여 생체의 임의의 단층상을 얻을 수 있는 첨단의학시스템이다. 자기공명영상법의 원리는 다음과 같다. 원자핵은 평소에는 회전운동을 하고 있으나 일단 강한 자기장에 놓이면 세차운동이 일어난다. 이 세차운동의 속도는 자기장의 세기와 밀접한 관계가 있어 자기장이 셀수록 빨라진다. 이렇게 자화되어 있는 원자핵에 고주파를 가하면 고에너지 상태가 되었다가, 다시 고주파를 끊으면 원래의 상태로 돌아간다. 이때 방출되는 에너지는 가했던 고주파와 똑같은 형태의 고주파를 방출한다. 이렇게 원자핵이 고유하게 방출되는 고주파를 예민한 안테나로 모아서 컴퓨터로 영상화한 것이 자기공명영상법이다. 즉, 자기공명영상법은 인체를 구성하는 물질의 자기적 성질을 측정하여 컴퓨터를 통하여 다시 재구성, 영상화하는 기술이다. Magnetic resonance imaging apparatus is a high-tech medical system that can obtain an arbitrary tomographic image of a living body using a magnetic field generated by magnetic force. The principle of magnetic resonance imaging is as follows. The atomic nucleus is usually in rotational motion, but once it is placed in a strong magnetic field, precession occurs. The speed of this precession is closely related to the strength of the magnetic field, so the higher the magnetic field, the faster it is. When a high frequency is applied to the magnetized nuclear nucleus, it becomes a high energy state, and when the high frequency is cut off again, it returns to its original state. At this time, the emitted energy emits the same high frequency wave. In this way, magnetic resonance imaging is a method in which high-frequency radiated nuclei are collected by a sensitive antenna and computerized. In other words, magnetic resonance imaging is a technique of measuring a magnetic property of a material constituting the human body and reconstructing and imaging it through a computer.
자기공명영상법은 X-ray처럼 이온화 방사선이 아니므로 인체에 무해하고, 3D 영사화가 가능하며 컴퓨터단층촬영(CT)에 비해 대조도와 해상도가 더 뛰어나다. 그리고 횡단면 촬영만이 가능한 CT와는 달리 관상면과 시상면도 촬영할 수 있고, 필요한 각도의 영상을 검사자가 선택하여 촬영할 수 있다. 이러한 장점으로 인해 널리 쓰이고 있지만, 검사료가 비싸며 촬영시간이 오래 걸린다. 또한 검사공간이 협소하여 혼자 들어가야 하므로 중환자나 폐소공포증이 심한 환자는 찍을 수 없는 단점이 있다. 자기공명영상법은 주로 중추신경계, 두경부, 척추와 척수 등 신경계통의 환자에게 이용되나 이용 범위는 넓다. Magnetic resonance imaging is not ionized radiation like X-rays, so it is harmless to the human body, capable of 3D projection, and has better contrast and resolution than computed tomography (CT). Unlike CT, which can only take a cross-section, the coronal and sagittal planes can be taken, and the examiner can select an image of a necessary angle. Due to these advantages, it is widely used, but the inspection fee is expensive and the shooting time is long. In addition, since the test space is narrow and enters alone, there is a disadvantage that can not take severe patients or patients with severe phobia. Magnetic resonance imaging is mainly used in patients with the nervous system such as the central nervous system, head and neck, spine and spinal cord, but its scope of use is wide.
이와 같이, 영상유도수술시스템은 컴퓨터단층촬영 및 자기공명영상법 등에 의해 취합된 의료 영상을 중첩하여 시각화 함으로써 3차원 영상정보를 구현하는데 이와 같은 영상정보는 수술을 하기 며칠 전에 만들어 지기 때문에 환자의 상태 변화와 수술 진행에 따른 물리적인 변화를 영상 정보에 반영할 수 없다는 문제점이 있었다. As described above, the image guided surgery system realizes three-dimensional image information by superimposing and visualizing medical images collected by computed tomography and magnetic resonance imaging. Since the image information is made a few days before the operation, the patient's state There was a problem that the physical changes according to the changes and the progress of the surgery cannot be reflected in the image information.
즉, 시간 경과에 따라 환자의 상태가 악화 또는 호전되거나, 환자의 호흡 상태 또는 움직임에 따라 신체 장기에 변화가 일어나는데 기 취합된 영상정보는 환자의 상태가 변하기 전에 제공된 것이므로 수술시에 오차가 발생하여 정밀한 수술이 불가능하다. That is, the patient's condition deteriorates or improves over time, or changes in body organs occur according to the patient's breathing state or movement. The collected image information is provided before the patient's condition changes. Precise surgery is impossible.
본 발명의 목적은 실체모델의 3차원 영상정보를 실시간으로 제공하는 영상유도수술시스템 및 그 제어방법을 제공하는 것이다. An object of the present invention is to provide an image guided surgical system and a control method for providing 3D image information of an actual model in real time.
본 발명의 다른 목적은 실시간으로 제공된 실체모델의 정보를 기 제공된 3차원 영상정보와 비교하여 수술경로의 오차를 보정하는 영상유도수술시스템 및 그 제어방법을 제공하는 것이다. Another object of the present invention is to provide an image guided surgery system and a control method for correcting an error in a surgical path by comparing information of an actual model provided in real time with previously provided 3D image information.
본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. Technical problems to be achieved by the present invention are not limited to the above-mentioned technical problems, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the following description. Could be.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명은 영상장비로부터 취합된 환자의 2차원 의료영상을 제공받아 3차원 장기모델로 변환하는 3차원영상출력시스템과; 내시경과 위치정보를 제공하는 마커가 구비된 수술기구와; 상기 3차원 장기모델을 기초로 수술지도를 구성하고, 상기 마커의 위치정보를 제공받아 상기 수술지도를 보정하며, 상기 수술기구가 보정된 수술지도를 따라 진행하도록 안내하는 가이드로봇을 포함하여 구성된다.According to a feature of the present invention for achieving the above object, the present invention comprises a three-dimensional image output system for receiving a two-dimensional medical image of the patient collected from the imaging equipment and converts it into a three-dimensional organ model; A surgical instrument having a marker for providing endoscope and position information; Comprising a surgical map based on the three-dimensional organ model, and receives the position information of the marker to correct the surgical map, and comprises a guide robot for guiding the surgical instrument to proceed along the corrected surgical map .
상기한 바와 같은 목적을 달성하기 위한 본 발명의 다른 특징에 따르면, 본 발명은 환자로부터 의료영상을 취합하는 영상장비와; 상기 의료영상을 제공받아 3 차원 장기모델로 변환하는 3차원영상출력시스템과; 상기 3차원 장기모델을 제공받아 환부에 대한 수술지도를 만드는 수술계획시스템과; 내시경과 위치정보를 제공하는 마커가 구비된 수술기구와; 상기 마커의 위치를 추적하여 상기 수술기구의 이동경로를 추적하는 추적장치와; 상기 수술기구의 이동경로에 따라 상기 수술지도를 보정하여 상기 수술기구의 동작을 안내하는 가이드로봇을 포함하여 구성된다.According to another aspect of the present invention for achieving the above object, the present invention comprises an imaging device for collecting a medical image from a patient; A 3D image output system for receiving the medical image and converting the medical image into a 3D organ model; A surgery planning system provided with the three-dimensional organ model to create a surgical map for the affected part; A surgical instrument having a marker for providing endoscope and position information; A tracking device that tracks the position of the marker to track the movement path of the surgical instrument; It comprises a guide robot for guiding the operation of the surgical instrument by correcting the surgical map according to the movement path of the surgical instrument.
상기 추적장치에는 자기장을 이용하여 상기 마커의 위치정보를 파악하는 센서가 구비된다.The tracking device is provided with a sensor for identifying the position information of the marker using a magnetic field.
상기 가이드로봇은 상기 수술지도와 상기 마커의 공간 좌표를 비교하여 오차가 발생할 경우, 상기 오차에 대응되도록 상기 수술기구의 진행방향을 보정한다.The guide robot compares the surgical map and the spatial coordinates of the marker and corrects the moving direction of the surgical instrument to correspond to the error when an error occurs.
상기 3차원영상출력시스템은, 상기 영상장비의 의료영상을 저장하는 데이터베이스와; 상기 데이터베이스로부터 의료영상을 제공받아 표준화 작업을 수행한 후 3차원 장기모델로 전환시키는 3D재생부를 포함하여 구성된다.The three-dimensional image output system, and a database for storing a medical image of the imaging device; It is configured to include a 3D playback unit for receiving a medical image from the database and performing a standardization work and converting into a 3D organ model.
상기 영상장비는 컴퓨터단층촬영장치, 자기공명영상장치 또는 엑스선장치 중 어느 하나이다.The imaging equipment is any one of a computed tomography apparatus, a magnetic resonance imaging apparatus, or an X-ray apparatus.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 다른 특징에 따르면, 본 발명은 영상장비로부터 취합된 환자의 2차원 의료영상을 제공받아 3차원 장기모델 및 수술지도를 구성하는 3차원영상출력시스템과; 내시경이 구비된 수술기구와; 환자의 장기의 위치정보를 실시간으로 탐색하는 다이렉트네비게이션과; 상기 3차원 장기모델과 상기 장기의 상태정보를 비교하여 수술지도를 보정하고 보정된 수술지도에 기초하여 상기 수술기구의 진행방향을 안내하는 가이드로봇을 포함하여 구성 된다.According to another aspect of the present invention for achieving the object as described above, the present invention is provided with a two-dimensional medical image of the patient collected from the imaging equipment and comprises a three-dimensional image output system constituting a three-dimensional organ model and surgical map and; ; An surgical instrument equipped with an endoscope; Direct navigation for searching the position information of the organ of the patient in real time; Comprising the three-dimensional organ model and the state information of the organ is configured to include a guide robot for correcting the surgical map and to guide the progress of the surgical instrument based on the corrected surgical map.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 다른 특징에 따르면, 본 발명은 영상장비에서 촬영된 영상을 처리하여 3차원 장기모델로 변환하는 3차원영상출력시스템과; 상기 3차원 장기모델을 제공받아 환부에 대한 수술지도를 만드는 수술계획시스템과; 수술 시 환자의 양방향 영상을 찍어서 3차원의 장기 위치정보를 탐색하는 다이렉트네비게이션과; 상기 다이렉트네비게이션으로부터 제공된 장기 위치정보를 상기 수술지도에 대응시켜 수술지도를 보정하고, 보정된 수술지도에 기초하여 수술기구를 안내하는 가이드로봇을 포함하여 구성된다.According to another aspect of the present invention for achieving the above object, the present invention is a three-dimensional image output system for processing the image taken by the imaging equipment to convert to a three-dimensional long-term model; A surgery planning system provided with the three-dimensional organ model to create a surgical map for the affected part; Direct navigation to search for three-dimensional long-term location information by taking a bi-directional image of the patient during surgery; And a guide robot for correcting the surgical map by mapping the long-term location information provided from the direct navigation to the surgical map, and guiding the surgical instrument based on the corrected surgical map.
상기 다이렉트네비게이션은 적어도 2개의 다른 축을 중심으로 궤도회전 가능한 C-아암이 구비된다.The direct navigation is provided with a C-arm that can orbitally rotate about at least two different axes.
상기 3차원영상출력시스템은, 상기 영상장비의 의료영상을 저장하는 데이터베이스와; 상기 데이터베이스로부터 의료영상을 제공받아 표준화 작업을 수행한 후 3차원 장기모델로 전환시키는 3D재생부를 포함하여 구성된다.The three-dimensional image output system, and a database for storing a medical image of the imaging device; It is configured to include a 3D playback unit for receiving a medical image from the database and performing a standardization work and converting into a 3D organ model.
상기 영상장비는 컴퓨터단층촬영장치, 자기공명영상장치 또는 엑스선장치 중 어느 하나이다.The imaging equipment is any one of a computed tomography apparatus, a magnetic resonance imaging apparatus, or an X-ray apparatus.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 다른 특징에 따르면, 본 발명은 장기 모델로부터 수술 지도를 형성하는 단계와; 수술 기구의 이동 경로를 추적하여 상기 수술 기구의 진행방향을 예측하는 단계와; 상기 수술 기구의 이동경로를 수술 지도와 비교하여 오차를 계산하는 단계와; 상기 오차를 반영하여 수술 기구의 진행방향을 보정하는 단계를 포함한다.According to another aspect of the present invention for achieving the above object, the present invention comprises the steps of forming a surgical map from the organ model; Predicting a moving direction of the surgical instrument by tracking a movement path of the surgical instrument; Calculating an error by comparing a movement path of the surgical instrument with a surgical map; Compensating the direction of operation of the surgical instrument by reflecting the error.
자기장을 이용한 추적장치가 상기 수술 기구에 장착된 마커의 위치정보를 파악하는 단계를 더 포함한다.The tracking device using a magnetic field further comprises the step of identifying the position information of the marker mounted on the surgical instrument.
상기 수술 지도를 형성하는 단계는, 장기의 2차원 의료 영상을 취합하는 단계와; 상기 2차원 의료 영상을 3차원 장기모델로 변환하는 단계를 포함한다.The forming of the surgical map may include: collecting a two-dimensional medical image of an organ; And converting the 2D medical image into a 3D organ model.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 다른 특징에 따르면, 본 발명은 2차원 의료영상을 통해 3차원 장기모델을 구성하는 단계와; 상기 3차원 장기모델에 기초하여 수술지도를 형성하는 단계와; 수술 도구의 이동 경로 및 수술 위치를 탐색하는 단계와; 다이렉트네비게이션과 내시경을 통해 들어온 장기 내부의 정보를 통해 수술지도를 보정하는 단계를 포함한다.According to another aspect of the present invention for achieving the above object, the present invention comprises the steps of constructing a three-dimensional organ model through a two-dimensional medical image; Forming a surgical map based on the three-dimensional organ model; Exploring the movement path and the surgical position of the surgical instrument; And correcting the surgical map through information of the internal organs received through direct navigation and endoscope.
상기 수술 도구의 진행방향은 보정된 수술지도에 의해 안내되는 단계를 더 포함한다.The direction of progress of the surgical tool further includes the step of being guided by the corrected surgical map.
본 발명은 자력 기반의 추적장치를 사용하여 장기의 상태를 실시간으로 파악할 수 있고, 수술 전에 만들어진 수술 지도와의 오차를 계산하여 수술 도구의 진행방향을 보정할 수 있으므로 정밀한 수술이 가능하다는 효과가 있다. The present invention has the effect that it is possible to grasp the state of the organ in real time using a magnetic-based tracking device in real time, and to correct the direction of operation of the surgical tool by calculating the error with the surgical map made before the operation, it is possible to perform precise surgery .
또한, 본 발명은 다이렉트네비게이션을 사용하여 실시간으로 수술 지도를 보정할 수 있으므로 환자의 장기 상태 및 수술 경과를 명확히 알 수 있어 수술의 안정성이 확보되는 효과가 있다. In addition, since the present invention can correct the surgical map in real time using direct navigation, it is possible to clearly know the long-term state of the patient and the progress of the surgery, thereby ensuring the stability of the surgery.
이하 상기한 바와 같은 구성을 가지는 본 발명에 의한 영상유도수술시스템의 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, a preferred embodiment of an image guided surgery system according to the present invention having the configuration as described above will be described in detail with reference to the accompanying drawings.
도 1에는 본 발명에 의한 영상유도수술시스템의 바람직한 실시예를 구성하는 영상장비를 보인 측면도가 도시되어 있다. Figure 1 is a side view showing the imaging equipment constituting a preferred embodiment of the image guided surgery system according to the present invention.
도 1에 도시된 바에 따르면, 영상유도수술시스템은 영상장비(1)와 추적장치(100)와 수술도구(200)를 포함하여 구성된다. As shown in FIG. 1, an image guided surgical system includes an
상기 영상장비(1)는 환자의 장기를 촬영한 데이터를 컴퓨터로 송신하는 역할을 한다. 상기 영상장비(1)는 환자의 장기(臟器)를 촬영하기 위한 엑스선장치, 컴퓨터단층촬영장치(CT) 및 자기공명영상장치(MRI) 등을 말한다. The
컴퓨터단층촬영장치은 CT 스캐너를 이용하여 X선이나 초음파를 여러 각도에서 인체에 투영하고 이를 컴퓨터로 재구성하여 인체 내부 단면의 모습을 화상으로 처리하는 장치이다. 그리고, 자기공명영상장치는 자력에 의하여 발생하는 자기장을 이용하여 생체의 임의의 단층상을 얻을 수 있는 첨단의학시스템이다. 이와 같은 영상장비는 환자의 수술 부위에 대한 단면을 보여주는 시스템이다. Computed tomography is a device that uses a CT scanner to project X-rays or ultrasounds at various angles to the human body and reconstructs them into a computer to process the inside of the human body as an image. In addition, the magnetic resonance imaging apparatus is an advanced medical system capable of obtaining an arbitrary tomographic image of a living body using a magnetic field generated by magnetic force. Such imaging equipment is a system showing a cross section of a surgical site of a patient.
도 2에는 본 발명 실시예를 구성하는 3차원영상출력시스템을 보인 구성도가 도시되어 있다. 2 is a block diagram showing a three-dimensional image output system constituting an embodiment of the present invention.
도 2에 도시된 바에 따르면, 3차원영상출력시스템(10)은 컴퓨터단층촬영장치(CT) 및 자기공명영상장치(MRI)에 의해 제공된 2차원의 의료 영상에 대해 표준화 작업을 수행하여 3차원영상정보를 출력하는 시스템이다. 즉 상기 3차원영상출력시스템(10)은 영상장비(1)로부터 취합된 환자의 2차원 의료영상을 제공받아 3차원 장기모델로 변환한다. 상기 3차원영상출력시스템(10)은 3차원 장기모델을 수술계획시 스템(도시되지 않음)에 제공한다. 상기 수술계획시스템은 상기 3차원 장기모델을 기초로 환자의 환부에 대한 수술지도를 만드는 역할을 한다. As shown in FIG. 2, the 3D
상기 3차원영상출력시스템(10)은 데이터베이스(11), 3D재생부(12), 이미지제너레이터(13), 그래픽재생부(14) 및 제어부(15)를 포함하여 구성된다. The 3D
상기 데이터베이스(11)는 상기 영상장비(1)에서 제공된 영상과 시뮬레이션 데이터를 저장하는 역할을 한다. 상기 데이터베이스(11)에서 시뮬레이션 데이터는 매트릭스 형태의 행렬 조합으로 구성될 수 있다.The
상기 3D재생부(12)는 상기 데이터베이스(11)로부터 다수의 2차원 의료영상을 입력받아 표준화 작업을 수행한 후 3차원 의료영상으로 전환시켜 상기 이미지제너레이터(13)로 출력하는 역할을 한다.The
상기 이미지제너레이터(13)는 상기 3D재생부(12)로부터 3차원 의료영상을 입력받음과 동시에 상기 데이터베이스(11)로부터 시뮬레이션 데이터를 입력받아 시뮬레이션되는 3차원 의료영상을 상기 그래픽가속부(14)로 출력하는 역할을 한다. 이때, 상기 이미지제너레이터(13)는 데이터베이스(11)에 저장된 2차원 의료영상과 시뮬레이션 데이터를 리딩한 후 폴리건으로 조합한 값으로 음영을 가진 3차원의 의료영상으로 전환시키는 역할을 한다. The
그리고, 상기 그래픽가속부(14)는 상기 이미지제너레이터(13)로부터 시뮬레이션되는 3차원 의료영상을 입력받은 후 가속화하여 모니터를 통해 출력하는 역할을 한다. In addition, the
상기 제어부(15)는 상기 이미지제너레이터(13)로부터 변경된 데이터가 입력 되면 이를 상기 데이터베이스(11)에 저장하는 역할을 한다. When the changed data is input from the
상기 3차원영상출력시스템(10)의 영상출력방법에 대해서 설명하면, 상기 데이터베이스(11)에는 상기 영상장비(10)로부터 제공된 의료 영상이 2차원 이미지로 저장된다. 그리고, 상기 3D재생부(12)는 상기 데이터베이스(11)로부터 제공받은 2차원 이미지를 표준화된 형식의 이미지로 변환시킨다. Referring to the image output method of the three-dimensional
이와 같은 상태에서, 상기 이미지제너레이터(13)는 상기 데이터베이스(11)로부터 입력된 시뮬레이션 데이터와 표준화된 형식의 이미지를 하이브리드 CGI 기술을 사용하는 폴리곤 기법을 이용하여 2차원 이미지를 3차원 의료영상으로 변환시킨다. In this state, the
이때, 상기 이미지제너레이터(13)는 환자의 특정 부위를 일정한 두께로 찍은 각각의 2차원 조각들을 모아서 2차원 영상들을 적층시킨다. 그리고, 상기 그래픽가속부(14)는 모니터를 통해 3차원 의료영상을 사용자에게 제공한다. At this time, the
도 3에는 본 발명 실시예를 구성하는 추적장치를 보인 사시도가 도시되어 있다 .3 is a perspective view showing a tracking device constituting an embodiment of the present invention.
도 3에 도시된 바에 따르면, 추적장치(100)는 외과수술을 수행함에 있어서 의사를 보조하도록 개발된 것이다. 상기 추적장치(100)는 수술 네비게이션용 소프트웨어가 내장된 컴퓨터(108)와, 메모리(110), 프로세서(112), 마커(marker)들을 탐지할 수 있는 센서(또는 카메라)(114), 발페달(118), 키보드(120) 및 수술 네비게이션 정보를 디스플레이하는 디스플레이 스크린(123)을 구비한 모니터(122)를 포함하여 구성된다. 상기 센서(114)는 자기장을 이용하여 아래에서 설명될 마커(220) 의 위치정보를 파악하여 수술기구(200)의 이동경로를 추적하게 된다. As shown in FIG. 3, the
상기 추적장치(100)에서 상기 센서(114)는 데이터 처리장치에 접속되며, 상기 데이터처리장치는 마커들의 공간 포인트들을 기록하고 마커가 부착된 부분에 대한 기준좌표를 설정한다. 참고로 부가적인 마커들이 수술 기구들과 마커에 대한 수술기구들의 작용 부분들의 포인트가 프로그램된 추적장치에 부착될 수 있다. In the
상기 수술 기구들은 장기들의 특정 목표 지점을 지나게 되고, 추적장치(100)는 장기들의 기준 좌표계에서의 목표 포인트를 확인하기 위하여 목표 지점들의 포인트를 기록한다. The surgical instruments pass a specific target point of the organs, and the
상기 모니터(122)는 기준좌표계에서 특정 포인트에 대하여 다른 수술 기구들의 포인트를 탐사하는 것과 같이, 수술중에 의사를 가이드하는데 사용되도록 기준좌표계와 목표 지점에 대한 정보를 디스플레이한다. The
도 4 및 도 5에는 본 발명 실시예를 구성하는 수술도구를 보인 설명도가 도시되어 있다. 4 and 5 are explanatory views showing a surgical tool constituting an embodiment of the present invention.
도 4에 도시된 바와 같이, 환자의 수술을 위한 수술기구(200)에는 내시경(210)과 마커(220)가 구비된다. As shown in Figure 4, the
상기 내시경(210)은 내장장기(內臟臟器) 또는 체강(體腔) 내부를 직접 볼 수 있게 만든 의료기구이고, 마커(220)는 상기 추적장치(100)에 상기 수술기구(200)의 위치정보를 제공하기 위한 구성이다. The
의사는 상기 내시경(210)을 통해 수술 중 장기의 내부를 볼 수 있고, 상기 마커(220)는 상기 수술기구(200)의 이동경로를 컴퓨터에 제공한다. 이와 같이 상기 수술기구(200)의 이동경로가 제공되면 수술지도와 비교하여 상기 수술기구(200)의 이동경로 및 진행방향을 예측할 수 있다. The doctor may view the inside of the organ during surgery through the
즉, 이미 만들어진 수술지도와 환자의 장기의 변화상태에 따라 수술기구(200)의 위치가 바뀌면 상기 수술 기구(200)의 이동을 안내하는 가이드로봇(도시되지 않음)이 상기 마커(220)와 수술지도의 공간 좌표를 비교하여 오차를 계산하고, 그 오차에 기초하여 수술 지도를 보정하게 된다. 이와 같이 수술 지도가 보정되면 가이드로봇은 보정된 수술 지도를 반영하여 상기 수술 기구(200)의 진행방향을 보정한다. That is, when the position of the
도 5에 도시된 바에 따르면, 상기 수술기구(200)는 이미 만들어진 수술지도에 따라 이동을 하게 된다. 상기 마커(220)는 실시간으로 상기 수술기구(200)의 위치 및 이동경로를 컴퓨터에 제공하게 되고, 컴퓨터는 상기 수술기구(200)의 위치를 수술지도와 비교하여 오차를 계산한다. 그리고 상기 오차를 보정하여 새로운 수술지도를 만들게 된다. 상기 가이드로봇은 보정된 수술지도에 따라 상기 수술기구(200)의 진행방향을 안내하게 된다.As shown in Figure 5, the
즉, 상기 영상장비(10)에 의해 수술 전에 만들어진 수술지도의 계획경로(p)는 수술 시에 변경될 수 있다. 환자의 호흡 및 상태 변화에 따라 장기의 위치가 변화하게 되면, 상기 추적장치(100)가 실시간으로 장기의 상태를 탐색하여 수술지도를 보정하게 된다. 상기 가이드로봇은 상기 수술기구(200)를 보정된 수술지도의 보정경로(a)로 안내하여 장기의 손상을 방지한다. That is, the planned path p of the surgical map made before the operation by the
도 9에는 본 발명의 실시예에서 수술 도구의 진행방향을 보정하는 과정을 보 인 흐름도가 도시되어 있다. 9 is a flow chart showing a process of correcting the progress direction of the surgical instrument in an embodiment of the present invention.
영상유도수술시스템은 영상장비로부터 2차원 의료 영상을 제공받아 3차원 장기모델로 변화하고 이를 이용하여 수술지도를 형성한다.(S100) 그리고, 자기장을 이용한 추적장치(100)는 자기장을 이용하여 수술 기구(200)에 장착된 마커(220)의 위치정보를 파악한다.(S110) 상기 마커(220)의 위치가 실시간으로 파악되면 수술기구(200)의 이동경로를 추적하여 상기 수술기구(200)의 진행방향을 예측하게 된다.(S120)The image guided surgical system receives a 2D medical image from an imaging device, changes it into a 3D organ model, and forms a surgical map using the same (S100). The position information of the
이때 상기 수술기구(200)의 이동경로와 수술 지도를 비교하여 오차를 계산하게 되는데(S130), 이와 같은 오차를 반영하여 수술 지도를 보정하고 가이드로봇은 보정된 수술 지도에 의해 상기 수술기구(200)의 진행방향을 보정하게 된다.(S140)At this time, by comparing the movement path and the surgical map of the
다음으로 본 발명에 의한 영상유도수술시스템의 다른 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Next, another embodiment of an image guided surgical system according to the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 다른 실시예는 상기 추적장치(100) 대신에 다이렉트네비게이션(300)이 채용된 것으로 도 1 내지 도 5에 도시되어 있는 실시예와 동일한 구성요소에 대해서는 그 설명을 생략하겠다. In another embodiment of the present invention, a
도 6에는 본 발명의 다른 실시예를 구성하는 다이렉트네비게이션을 보인 사시도가 도시되어 있다. 6 is a perspective view showing a direct navigation constituting another embodiment of the present invention.
도 6에 도시된 바에 따르면, 다이렉트네비게이션(300)는 이동식 지지구조체(314), 캐리어(318) 및 만곡형 위치 설정 아암(322)(이하 'C-아암')을 포함하여 구성된다. 상기 이동식 지지구조체(314)는 휠(316)을 구비하며, 이것은 상기 다이 렉트네비게이션(300)의 이동을 가능하게 한다. 상기 다이렉트네비게이션(300)은 대상물의 3차원 영상을 실시간으로 탐색하는 장치이다. 즉, 상기 다이렉트네비게이션(300)은 환자의 3차원 장기 모형을 실시간으로 모델링하여 사용자에게 제공한다. As shown in FIG. 6, the
상기 C-아암(322)은 반원형상이고, 제1말단부(325)에 이미징 리시버(326)을 구비하고 제2말단부(327)에 이미징소스(330)를 구비한다. 상기 이미징소스(330)는 엑스레이 소스일 수 있다. 구동트레인(334)은 상기 캐리어(318)에 장착된다. 웨지형 클러치핸들(335)은 커버된 구동 트레인(334)으로부터 연장되고 결합된 위치에 유지되도록 장전된 스프링이다. 상기 C-아암(322)은 상기 캐리어(318)에 이동가능하게 장착된다. The C-
조작자는 상기 다이렉트네비게이션(300)를 굴려 환자가 이미징소스(330)과 이미징리시버(326) 사이에 위치되도록 상기 C-아암(322)을 위치시킨 후 환자의 이미지를 촬영할 수 있다. 상기 C-아암(322)은 궤도 회전을 하는데 적어도 2개의 다른 축을 중심으로 회전 가능하기 때문에 환자를 중심으로 여러 상이한 방향에 위치되어 원하는 방향의 이미지를 촬영할 수 있다. The operator may roll the
도 7 및 도 8에는 본 발명 다른 실시예를 구성하는 수술도구를 보인 설명도가 도시되어 있다. 7 and 8 are explanatory views showing a surgical tool constituting another embodiment of the present invention.
도 7에 도시된 바와 같이, 상기 다이렉트네비게이션(300)은 환자의 장기와 수술기구(200)의 위치정보를 실시간으로 탐색하게 된다. 그리고, 가이드로봇은 상기 다이렉트네비게이션(300)으로부터 장기의 상태정보를 제공받아 오차가 발생할 경우 수술지도를 보정하고, 보정된 수술지도에 기초하여 상기 수술기구(200)의 진 행방향을 안내하게 된다. As shown in FIG. 7, the
도 8에 도시된 바와 같이, 상기 영상장비(10)에 의해 수술 전에 만들어진 수술지도의 계획경로(p)는 수술 시에 변경될 수 있다. 즉, 환자의 호흡 및 상태 변화에 따라 장기의 위치가 변화하게 되면, 상기 다이렉트네비게이션(300)이 실시간으로 장기의 상태를 탐색하여 수술지도를 보정하게 된다. 상기 가이드로봇은 상기 수술기구(200)를 보정된 수술지도의 보정경로(a)로 안내하여 장기의 손상을 방지한다. As shown in FIG. 8, the planned path p of the surgical map made before the surgery by the
도 10에는 본 발명의 실시예 및 다른 실시예에서 수술 도구의 진행방향을 보정하는 과정을 보인 흐름도가 도시되어 있다. 10 is a flow chart showing a process of correcting the progress direction of the surgical instrument in the embodiment of the present invention and another embodiment.
상기 3차원영상출력시스템(10)은 수술 전에 상기 영상장비(1)에서 취합된 2차원 의료영상을 3차원 장기모델로 구성한다.(S200) 그리고 수술계획시스템은 상기 3차원 장기모델을 이용하여 수술지도를 형성한다.(S210) 수술 시에 다이렉트네비게이션(300)은 수술 도구(200)의 이동 경로 및 수술위치를 탐색하게 되고(S220), 가이드로봇은 상기 다이렉트네비게이션(300)과 내시경(210)을 통해 들어온 장기 내부의정보를 통해 수술 지도를 보정하게 된다.(S230) 상기 수술도구(200)는 그 진행방향이 보정된 수술지도에 의해 안내되게 된다.(S240)The three-dimensional
이와 같이 영상유도수술시스템은 수술전 획득한 환자의 3차원 영상정보(CT 또는 MRI)를 이용하여, 수술장 내에서 수술 부위 및 수술 도구의 3차원 위치를 실시간으로 추적하여 컴퓨터 영상에 수술 도구 및 인공 관절의 위치를 정합, 재구성함으로써 보이지 않는 인체 내부의 병소의 위치와 수술 도구의 상대적 위치를 화면 으로 확인하면서 수술할 수 있도록 한다.As described above, the image guided surgical system uses the 3D image information (CT or MRI) of the patient obtained before surgery to track the 3D position of the surgical site and the surgical tool in the operating room in real time, and then displays the surgical tools and the computer image. By aligning and reconstructing the position of artificial joints, it is possible to perform surgery while checking the position of invisible lesions and the relative position of surgical instruments on the screen.
하지만, 여러 가지 예기치 못한 원인으로 인하여 장기나 수술 도구의 규격이 변형되었을 경우에는 그 규격 정보를 보정해주기 위한 방법이 필요하다. 특히, 항법 시스템이 가지고 있지 못한 새로운 규격의 수술 도구를 사용할 경우에 이러한 보정 과정은 필수적이다. 이와 같이, 수술 도구의 보정(Calibration) 과정은 항법 시스템에 사용되는 수술 도구의 규격 정보를 획득, 혹은 기획득한 규격 정보를 수정하는 절차와 방식을 의미한다.However, when a standard or a surgical instrument is modified due to various unexpected causes, a method for correcting the standard information is needed. In particular, this calibration process is essential when using a new type of surgical instrument that the navigation system does not have. As described above, the calibration procedure of the surgical tool refers to a procedure and a method of acquiring the standard information of the surgical tool used in the navigation system or correcting the acquired standard information.
본 발명의 권리범위는 위에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.The scope of the present invention is not limited to the embodiments described above, but is defined by the claims, and various changes and modifications can be made by those skilled in the art within the scope of the claims. It is self-evident.
도 1은 본 발명에 의한 영상유도수술시스템의 바람직한 실시예를 구성하는 영상장비를 보인 측면도.1 is a side view showing the imaging equipment constituting a preferred embodiment of an image guided surgery system according to the present invention.
도 2는 본 발명 실시예를 구성하는 3차원영상출력시스템을 보인 구성도.Figure 2 is a block diagram showing a three-dimensional image output system constituting an embodiment of the present invention.
도 3은 본 발명 실시예를 구성하는 추적장치를 보인 사시도.3 is a perspective view showing a tracking device constituting an embodiment of the present invention.
도 4 및 도 5는 본 발명 실시예를 구성하는 수술도구를 보인 설명도.4 and 5 is an explanatory view showing a surgical tool constituting an embodiment of the present invention.
도 6은 본 발명의 다른 실시예를 구성하는 다이렉트네비게이션을 보인 사시도. 6 is a perspective view showing a direct navigation constituting another embodiment of the present invention.
도 7 및 도 8은 본 발명 다른 실시예를 구성하는 수술도구를 보인 설명도.Figure 7 and Figure 8 is an explanatory view showing a surgical tool constituting another embodiment of the present invention.
도 9 및 도 10은 본 발명의 실시예 및 다른 실시예에서 수술 도구의 진행방향을 보정하는 과정을 각각 보인 흐름도.9 and 10 are flow charts showing the process of correcting the progress direction of the surgical instrument in the embodiment of the present invention and another embodiment, respectively.
* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings
1: 영상장비 10: 3차원영상출력시스템1: Imager 10: 3D image output system
100: 추적장치 200: 수술도구100: tracking device 200: surgical instruments
210: 내시경 220: 마커210: endoscope 220: marker
300: 다이렉트네비게이션300: direct navigation
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090017039A KR101049507B1 (en) | 2009-02-27 | 2009-02-27 | Image-guided Surgery System and Its Control Method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090017039A KR101049507B1 (en) | 2009-02-27 | 2009-02-27 | Image-guided Surgery System and Its Control Method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100098055A true KR20100098055A (en) | 2010-09-06 |
KR101049507B1 KR101049507B1 (en) | 2011-07-15 |
Family
ID=43005079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090017039A KR101049507B1 (en) | 2009-02-27 | 2009-02-27 | Image-guided Surgery System and Its Control Method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101049507B1 (en) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012115360A3 (en) * | 2011-02-21 | 2012-12-13 | Yoon Sang Jin | Surgical robot system for performing surgery based on displacement information determined by the specification of the user, and method for controlling same |
WO2013100319A1 (en) * | 2011-12-26 | 2013-07-04 | 주식회사 인피니트헬스케어 | Device and method for managing medical image data by using reference coordinates |
KR101302595B1 (en) * | 2012-07-03 | 2013-08-30 | 한국과학기술연구원 | System and method for predict to surgery progress step |
WO2013162227A1 (en) * | 2012-04-25 | 2013-10-31 | 주식회사 고영테크놀러지 | Navigation system for surgery |
WO2013162221A1 (en) * | 2012-04-27 | 2013-10-31 | 주식회사 고영테크놀러지 | Method for tracking affected area and surgical instrument |
US8682062B2 (en) | 2010-10-04 | 2014-03-25 | Korea Institute Of Science And Technology | 3 dimension tracking system for surgery simulation and localization sensing method using the same |
KR101408064B1 (en) * | 2012-04-25 | 2014-06-18 | 한양대학교 에리카산학협력단 | Surgery instrument |
WO2014178610A1 (en) * | 2013-04-30 | 2014-11-06 | 주식회사 고영테크놀러지 | Optical tracking system and tracking method using same |
KR101487248B1 (en) * | 2013-05-28 | 2015-01-29 | 주식회사 고영테크놀러지 | Optical tracking system |
WO2016018646A1 (en) * | 2014-07-28 | 2016-02-04 | Intuitive Surgical Operations, Inc. | Systems and methods for intraoperative segmentation |
KR101655309B1 (en) * | 2015-03-09 | 2016-09-08 | 한국과학기술연구원 | Computer Navigation Method for Anterior Cruciate Ligament Reconstruction |
WO2016195265A1 (en) * | 2015-06-04 | 2016-12-08 | 현대중공업 주식회사 | Surgical path setting device, surgical robot system comprising same and surgical path setting method for surgical robot |
KR101687919B1 (en) * | 2015-10-05 | 2016-12-19 | (주)메가메디칼 | Balloon dilation catheter navigation system for treatment of the sinuses |
WO2019132166A1 (en) * | 2017-12-28 | 2019-07-04 | (주)휴톰 | Method and program for displaying surgical assistant image |
WO2019132168A1 (en) * | 2017-12-28 | 2019-07-04 | (주)휴톰 | System for learning surgical image data |
KR20190096575A (en) * | 2018-02-09 | 2019-08-20 | 고려대학교 산학협력단 | Medical imaging system |
US10395775B2 (en) | 2015-04-10 | 2019-08-27 | Electronics And Telecommunications Research Institute | Apparatus and method for recommending operation path |
US10512509B2 (en) | 2013-03-13 | 2019-12-24 | Stryker Corporation | Systems and methods for establishing virtual constraint boundaries |
US11103315B2 (en) | 2015-12-31 | 2021-08-31 | Stryker Corporation | Systems and methods of merging localization and vision data for object avoidance |
CN114067646A (en) * | 2021-10-16 | 2022-02-18 | 复旦大学 | Visual simulation teaching system of puncture surgical robot |
EP3302333B1 (en) * | 2015-06-08 | 2022-04-06 | University of Strathclyde | Remote operations system, such as a robotic surgical system |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101638477B1 (en) * | 2014-09-19 | 2016-07-11 | 주식회사 고영테크놀러지 | Optical tracking system and registration method for coordinate system in optical tracking system |
KR101650821B1 (en) | 2014-12-19 | 2016-08-24 | 주식회사 고영테크놀러지 | Optical tracking system and tracking method in optical tracking system |
KR102014359B1 (en) * | 2018-02-20 | 2019-08-26 | (주)휴톰 | Method and apparatus for providing camera location using surgical video |
WO2019164274A1 (en) * | 2018-02-20 | 2019-08-29 | (주)휴톰 | Training data generation method and device |
US11399965B2 (en) * | 2019-09-09 | 2022-08-02 | Warsaw Orthopedic, Inc. | Spinal implant system and methods of use |
KR20210047057A (en) | 2019-10-21 | 2021-04-29 | 한국전기연구원 | System and method for upper gastrointestinal endoscopy, and a recording medium having computer readable program for executing the method |
KR20210047630A (en) | 2019-10-22 | 2021-04-30 | 한국전기연구원 | System and method for analyzing upper gastrointestinal endoscopy image, and a recording medium having computer readable program for executing the method |
KR20230112423A (en) | 2022-01-20 | 2023-07-27 | 가톨릭관동대학교산학협력단 | Medical gender for registration of noninvasive brain stimulation apparatus |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100346363B1 (en) * | 2000-06-02 | 2002-08-01 | 주식회사 엔지티 | Method and apparatus for 3d image data reconstruction by automatic medical image segmentation and image guided surgery system using the same |
KR100726022B1 (en) * | 2005-10-26 | 2007-06-12 | 한양대학교 산학협력단 | System for 3D Localization and Non-Invasive Surgical Planning Using Bi-plane Fluoroscopic Images And Method therefor |
-
2009
- 2009-02-27 KR KR1020090017039A patent/KR101049507B1/en not_active IP Right Cessation
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8682062B2 (en) | 2010-10-04 | 2014-03-25 | Korea Institute Of Science And Technology | 3 dimension tracking system for surgery simulation and localization sensing method using the same |
US9179980B2 (en) | 2011-02-21 | 2015-11-10 | Rimscience Co., Ltd. | Surgical robot system for performing surgery based on displacement information determined by the specification of the user, and method for controlling same |
WO2012115360A3 (en) * | 2011-02-21 | 2012-12-13 | Yoon Sang Jin | Surgical robot system for performing surgery based on displacement information determined by the specification of the user, and method for controlling same |
WO2013100319A1 (en) * | 2011-12-26 | 2013-07-04 | 주식회사 인피니트헬스케어 | Device and method for managing medical image data by using reference coordinates |
WO2013162227A1 (en) * | 2012-04-25 | 2013-10-31 | 주식회사 고영테크놀러지 | Navigation system for surgery |
KR101408064B1 (en) * | 2012-04-25 | 2014-06-18 | 한양대학교 에리카산학협력단 | Surgery instrument |
WO2013162221A1 (en) * | 2012-04-27 | 2013-10-31 | 주식회사 고영테크놀러지 | Method for tracking affected area and surgical instrument |
KR101302595B1 (en) * | 2012-07-03 | 2013-08-30 | 한국과학기술연구원 | System and method for predict to surgery progress step |
US11918305B2 (en) | 2013-03-13 | 2024-03-05 | Stryker Corporation | Systems and methods for establishing virtual constraint boundaries |
US11464579B2 (en) | 2013-03-13 | 2022-10-11 | Stryker Corporation | Systems and methods for establishing virtual constraint boundaries |
US10512509B2 (en) | 2013-03-13 | 2019-12-24 | Stryker Corporation | Systems and methods for establishing virtual constraint boundaries |
WO2014178610A1 (en) * | 2013-04-30 | 2014-11-06 | 주식회사 고영테크놀러지 | Optical tracking system and tracking method using same |
US10307210B2 (en) | 2013-04-30 | 2019-06-04 | Koh Young Technology Inc. | Optical tracking system and tracking method using the same |
CN105142561A (en) * | 2013-04-30 | 2015-12-09 | 株式会社高永科技 | Optical tracking system and tracking method using same |
KR101487248B1 (en) * | 2013-05-28 | 2015-01-29 | 주식회사 고영테크놀러지 | Optical tracking system |
WO2016018646A1 (en) * | 2014-07-28 | 2016-02-04 | Intuitive Surgical Operations, Inc. | Systems and methods for intraoperative segmentation |
US11445934B2 (en) | 2014-07-28 | 2022-09-20 | Intuitive Surgical Operations, Inc. | Systems and methods for intraoperative segmentation |
KR101655309B1 (en) * | 2015-03-09 | 2016-09-08 | 한국과학기술연구원 | Computer Navigation Method for Anterior Cruciate Ligament Reconstruction |
US10395775B2 (en) | 2015-04-10 | 2019-08-27 | Electronics And Telecommunications Research Institute | Apparatus and method for recommending operation path |
CN107690317B (en) * | 2015-06-04 | 2020-07-10 | 克瑞肖株式会社 | Surgical path setting device, surgical robot system including the same |
WO2016195265A1 (en) * | 2015-06-04 | 2016-12-08 | 현대중공업 주식회사 | Surgical path setting device, surgical robot system comprising same and surgical path setting method for surgical robot |
US10631940B2 (en) | 2015-06-04 | 2020-04-28 | Curexo, Inc. | Surgical path setting device, surgical robot system comprising same and surgical path setting method for surgical robot |
CN107690317A (en) * | 2015-06-04 | 2018-02-13 | 克瑞肖株式会社 | The surgical robot system of operation pathway setting device including the operation pathway setting device and the operation pathway establishing method for operating robot |
EP3302333B1 (en) * | 2015-06-08 | 2022-04-06 | University of Strathclyde | Remote operations system, such as a robotic surgical system |
US11806082B2 (en) | 2015-06-08 | 2023-11-07 | University Of Strathclyde | Remote operations system |
KR101687919B1 (en) * | 2015-10-05 | 2016-12-19 | (주)메가메디칼 | Balloon dilation catheter navigation system for treatment of the sinuses |
US11103315B2 (en) | 2015-12-31 | 2021-08-31 | Stryker Corporation | Systems and methods of merging localization and vision data for object avoidance |
US11806089B2 (en) | 2015-12-31 | 2023-11-07 | Stryker Corporation | Merging localization and vision data for robotic control |
WO2019132168A1 (en) * | 2017-12-28 | 2019-07-04 | (주)휴톰 | System for learning surgical image data |
WO2019132166A1 (en) * | 2017-12-28 | 2019-07-04 | (주)휴톰 | Method and program for displaying surgical assistant image |
KR20190096575A (en) * | 2018-02-09 | 2019-08-20 | 고려대학교 산학협력단 | Medical imaging system |
CN114067646A (en) * | 2021-10-16 | 2022-02-18 | 复旦大学 | Visual simulation teaching system of puncture surgical robot |
Also Published As
Publication number | Publication date |
---|---|
KR101049507B1 (en) | 2011-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101049507B1 (en) | Image-guided Surgery System and Its Control Method | |
JP2966089B2 (en) | Interactive device for local surgery inside heterogeneous tissue | |
JP5328137B2 (en) | User interface system that displays the representation of tools or buried plants | |
JP4488678B2 (en) | Establishing a three-dimensional display of bone X-ray images | |
EP0501993B1 (en) | Probe-correlated viewing of anatomical image data | |
US7203277B2 (en) | Visualization device and method for combined patient and object image data | |
JP5121401B2 (en) | System for distance measurement of buried plant | |
JP5976627B2 (en) | Image generating apparatus and method for radioactive imaging | |
US7885441B2 (en) | Systems and methods for implant virtual review | |
AU2013296825B2 (en) | Radiographic imaging device | |
CN107106241B (en) | System for navigating to surgical instruments | |
CN103619278B (en) | The system guiding injection during endoscopic surgery | |
US8131031B2 (en) | Systems and methods for inferred patient annotation | |
US8886286B2 (en) | Determining and verifying the coordinate transformation between an X-ray system and a surgery navigation system | |
KR101156306B1 (en) | Method and apparatus for instrument tracking on a scrolling series of 2d fluoroscopic images | |
US20080119725A1 (en) | Systems and Methods for Visual Verification of CT Registration and Feedback | |
US20080154120A1 (en) | Systems and methods for intraoperative measurements on navigated placements of implants | |
US20080119712A1 (en) | Systems and Methods for Automated Image Registration | |
CN110120095A (en) | System and method for using the partial 3 d volumetric reconstruction of standard fluorescence mirror | |
KR20190078853A (en) | Laser projection apparatus and control method thereof, laser guidance system including the apparatus | |
US11918297B2 (en) | System and method for registration between coordinate systems and navigation | |
CN105813563A (en) | Method and system for electromagnetic tracking with magnetic trackers for respiratory monitoring | |
JP6806655B2 (en) | Radiation imaging device, image data processing device and image processing program | |
US20080119724A1 (en) | Systems and methods for intraoperative implant placement analysis | |
Otake et al. | An image-guided femoroplasty system: development and initial cadaver studies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140630 Year of fee payment: 4 |
|
LAPS | Lapse due to unpaid annual fee |