KR20100098055A - Image guided surgery system and the control method of the same - Google Patents

Image guided surgery system and the control method of the same Download PDF

Info

Publication number
KR20100098055A
KR20100098055A KR1020090017039A KR20090017039A KR20100098055A KR 20100098055 A KR20100098055 A KR 20100098055A KR 1020090017039 A KR1020090017039 A KR 1020090017039A KR 20090017039 A KR20090017039 A KR 20090017039A KR 20100098055 A KR20100098055 A KR 20100098055A
Authority
KR
South Korea
Prior art keywords
surgical
image
map
surgical instrument
dimensional
Prior art date
Application number
KR1020090017039A
Other languages
Korean (ko)
Other versions
KR101049507B1 (en
Inventor
김정
김영진
안범모
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020090017039A priority Critical patent/KR101049507B1/en
Publication of KR20100098055A publication Critical patent/KR20100098055A/en
Application granted granted Critical
Publication of KR101049507B1 publication Critical patent/KR101049507B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information

Abstract

PURPOSE: An image guided surgery system and a controlling method thereof are provided to secure the stability of a surgery by correcting a surgery map in real time through direct navigation. CONSTITUTION: An image guided surgery system includes a 3D image output system, a surgery tool(200), and a guide robot. The 3D image output system changes a 2D medical image of a patient, collected from an image device, into a 3D organ model. A surgical instrument comprises an endoscope(210) and a marker(220). A guide robot comprises a surgery map based on the 3D organ model. The guide robot corrects the surgery map based on the position information provided from the marker.

Description

영상유도수술시스템 및 그 제어방법{IMAGE GUIDED SURGERY SYSTEM AND THE CONTROL METHOD OF THE SAME}Image Guided Surgery System and Control Method thereof {IMAGE GUIDED SURGERY SYSTEM AND THE CONTROL METHOD OF THE SAME}

본 발명은 수술장에서 수술도구의 위치를 실시간으로 추적하여 수술의 정확도를 향상시키는 영상유도수술시스템 및 그 제어방법에 관한 것이다.The present invention relates to an image guided surgical system and a control method for improving the accuracy of surgery by tracking the position of the surgical tool in the operating room in real time.

영상유도수술시스템(수술용 네비게이션 시스템)은 컴퓨터단층촬영장치(Computed Tomography, CT), 자기공명영상장치(magnetic resonance imaging, MRI) 등에 의해 취합된 정보를 통하여 환자의 인체 내부를 모니터 상에 재현하는 시스템을 말한다. An image guided surgical system (surgical navigation system) reproduces the inside of a patient's body on a monitor through information collected by computed tomography (CT), magnetic resonance imaging (MRI), etc. Say the system.

영상유도수술시스템은 환자의 인체 내부를 3차원으로 모델링하여 진료계획, 수술계획 및 시술을 위한 정보를 제공하며, 신경이나 척추 등 인체 중요 부위와 환부의 위치, 모양, 임플란트 삽입 위치 등을 상세하게 확인할 수 있게 해준다.The image guided surgery system provides information for treatment planning, surgery planning and procedure by modeling the inside of the patient's body in three dimensions, detailing the location, shape, implant insertion location, etc. It allows you to check.

컴퓨터단층촬영은 CT 스캐너를 이용한 컴퓨터단층촬영(斷層撮影)법으로, X선이나 초음파를 여러 각도에서 인체에 투영하고 이를 컴퓨터로 재구성하여 인체 내부 단면의 모습을 화상으로 처리하는데, 종양 등의 진단법으로 널리 이용되고 있다. Computed tomography (CT) is a computed tomography (CT) scanner that projects X-rays or ultrasounds at various angles to the human body and reconstructs them into a computer to process the internal sections of the body into images. It is widely used.

컴퓨터단층촬영은 X선을 이용하고 있지만 직접 필름에 감광시켜 얻는 일반적인 방사선 사진과는 다르다. 컴퓨터단층촬영은 인체의 한 단면 주위를 돌면서 가느다란 X선을 투사하고 X선이 인체를 통과하면서 감소되는 양을 측정한다. 인체의 내부 간이나 신장 같은 장기들의 밀도는 약간씩 차이가 나기 때문에 X선이 투사된 방향에 따라 흡수하는 정도가 서로 다르게 나타난다. Computed tomography uses X-rays, but is different from the usual radiographs obtained by direct exposure to film. Computed tomography scans thin X-rays around a section of the human body and measures the amount of X-rays that decrease as they pass through the human body. Since the density of organs such as the internal liver and kidneys of the human body is slightly different, the degree of absorption is different depending on the direction the X-ray is projected.

컴퓨터단층촬영은 X선이 투과된 정도를 컴퓨터로 분석하여 내부 장기의 밀도를 결정하고, 이를 통하여 내부의 자세한 단면을 재구성해서 영상으로 나타나게 한다. 즉, 신체의 여러 각도에서 투과시킨 X선을 컴퓨터로 측정하고 단면에 대한 흡수치를 재구성하여 영상으로 나타내는 장치이다.Computed tomography determines the density of internal organs by analyzing the degree of transmission of X-rays through a computer, and reconstructs the detailed cross-section of the internal image. In other words, X-rays transmitted from various angles of the body are measured by a computer, and reconstructed absorption values for the cross-sections are displayed as images.

자기공명영상장치는 자력에 의하여 발생하는 자기장을 이용하여 생체의 임의의 단층상을 얻을 수 있는 첨단의학시스템이다. 자기공명영상법의 원리는 다음과 같다. 원자핵은 평소에는 회전운동을 하고 있으나 일단 강한 자기장에 놓이면 세차운동이 일어난다. 이 세차운동의 속도는 자기장의 세기와 밀접한 관계가 있어 자기장이 셀수록 빨라진다. 이렇게 자화되어 있는 원자핵에 고주파를 가하면 고에너지 상태가 되었다가, 다시 고주파를 끊으면 원래의 상태로 돌아간다. 이때 방출되는 에너지는 가했던 고주파와 똑같은 형태의 고주파를 방출한다. 이렇게 원자핵이 고유하게 방출되는 고주파를 예민한 안테나로 모아서 컴퓨터로 영상화한 것이 자기공명영상법이다. 즉, 자기공명영상법은 인체를 구성하는 물질의 자기적 성질을 측정하여 컴퓨터를 통하여 다시 재구성, 영상화하는 기술이다. Magnetic resonance imaging apparatus is a high-tech medical system that can obtain an arbitrary tomographic image of a living body using a magnetic field generated by magnetic force. The principle of magnetic resonance imaging is as follows. The atomic nucleus is usually in rotational motion, but once it is placed in a strong magnetic field, precession occurs. The speed of this precession is closely related to the strength of the magnetic field, so the higher the magnetic field, the faster it is. When a high frequency is applied to the magnetized nuclear nucleus, it becomes a high energy state, and when the high frequency is cut off again, it returns to its original state. At this time, the emitted energy emits the same high frequency wave. In this way, magnetic resonance imaging is a method in which high-frequency radiated nuclei are collected by a sensitive antenna and computerized. In other words, magnetic resonance imaging is a technique of measuring a magnetic property of a material constituting the human body and reconstructing and imaging it through a computer.

자기공명영상법은 X-ray처럼 이온화 방사선이 아니므로 인체에 무해하고, 3D 영사화가 가능하며 컴퓨터단층촬영(CT)에 비해 대조도와 해상도가 더 뛰어나다. 그리고 횡단면 촬영만이 가능한 CT와는 달리 관상면과 시상면도 촬영할 수 있고, 필요한 각도의 영상을 검사자가 선택하여 촬영할 수 있다. 이러한 장점으로 인해 널리 쓰이고 있지만, 검사료가 비싸며 촬영시간이 오래 걸린다. 또한 검사공간이 협소하여 혼자 들어가야 하므로 중환자나 폐소공포증이 심한 환자는 찍을 수 없는 단점이 있다. 자기공명영상법은 주로 중추신경계, 두경부, 척추와 척수 등 신경계통의 환자에게 이용되나 이용 범위는 넓다. Magnetic resonance imaging is not ionized radiation like X-rays, so it is harmless to the human body, capable of 3D projection, and has better contrast and resolution than computed tomography (CT). Unlike CT, which can only take a cross-section, the coronal and sagittal planes can be taken, and the examiner can select an image of a necessary angle. Due to these advantages, it is widely used, but the inspection fee is expensive and the shooting time is long. In addition, since the test space is narrow and enters alone, there is a disadvantage that can not take severe patients or patients with severe phobia. Magnetic resonance imaging is mainly used in patients with the nervous system such as the central nervous system, head and neck, spine and spinal cord, but its scope of use is wide.

이와 같이, 영상유도수술시스템은 컴퓨터단층촬영 및 자기공명영상법 등에 의해 취합된 의료 영상을 중첩하여 시각화 함으로써 3차원 영상정보를 구현하는데 이와 같은 영상정보는 수술을 하기 며칠 전에 만들어 지기 때문에 환자의 상태 변화와 수술 진행에 따른 물리적인 변화를 영상 정보에 반영할 수 없다는 문제점이 있었다. As described above, the image guided surgery system realizes three-dimensional image information by superimposing and visualizing medical images collected by computed tomography and magnetic resonance imaging. Since the image information is made a few days before the operation, the patient's state There was a problem that the physical changes according to the changes and the progress of the surgery cannot be reflected in the image information.

즉, 시간 경과에 따라 환자의 상태가 악화 또는 호전되거나, 환자의 호흡 상태 또는 움직임에 따라 신체 장기에 변화가 일어나는데 기 취합된 영상정보는 환자의 상태가 변하기 전에 제공된 것이므로 수술시에 오차가 발생하여 정밀한 수술이 불가능하다. That is, the patient's condition deteriorates or improves over time, or changes in body organs occur according to the patient's breathing state or movement. The collected image information is provided before the patient's condition changes. Precise surgery is impossible.

본 발명의 목적은 실체모델의 3차원 영상정보를 실시간으로 제공하는 영상유도수술시스템 및 그 제어방법을 제공하는 것이다. An object of the present invention is to provide an image guided surgical system and a control method for providing 3D image information of an actual model in real time.

본 발명의 다른 목적은 실시간으로 제공된 실체모델의 정보를 기 제공된 3차원 영상정보와 비교하여 수술경로의 오차를 보정하는 영상유도수술시스템 및 그 제어방법을 제공하는 것이다. Another object of the present invention is to provide an image guided surgery system and a control method for correcting an error in a surgical path by comparing information of an actual model provided in real time with previously provided 3D image information.

본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. Technical problems to be achieved by the present invention are not limited to the above-mentioned technical problems, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the following description. Could be.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명은 영상장비로부터 취합된 환자의 2차원 의료영상을 제공받아 3차원 장기모델로 변환하는 3차원영상출력시스템과; 내시경과 위치정보를 제공하는 마커가 구비된 수술기구와; 상기 3차원 장기모델을 기초로 수술지도를 구성하고, 상기 마커의 위치정보를 제공받아 상기 수술지도를 보정하며, 상기 수술기구가 보정된 수술지도를 따라 진행하도록 안내하는 가이드로봇을 포함하여 구성된다.According to a feature of the present invention for achieving the above object, the present invention comprises a three-dimensional image output system for receiving a two-dimensional medical image of the patient collected from the imaging equipment and converts it into a three-dimensional organ model; A surgical instrument having a marker for providing endoscope and position information; Comprising a surgical map based on the three-dimensional organ model, and receives the position information of the marker to correct the surgical map, and comprises a guide robot for guiding the surgical instrument to proceed along the corrected surgical map .

상기한 바와 같은 목적을 달성하기 위한 본 발명의 다른 특징에 따르면, 본 발명은 환자로부터 의료영상을 취합하는 영상장비와; 상기 의료영상을 제공받아 3 차원 장기모델로 변환하는 3차원영상출력시스템과; 상기 3차원 장기모델을 제공받아 환부에 대한 수술지도를 만드는 수술계획시스템과; 내시경과 위치정보를 제공하는 마커가 구비된 수술기구와; 상기 마커의 위치를 추적하여 상기 수술기구의 이동경로를 추적하는 추적장치와; 상기 수술기구의 이동경로에 따라 상기 수술지도를 보정하여 상기 수술기구의 동작을 안내하는 가이드로봇을 포함하여 구성된다.According to another aspect of the present invention for achieving the above object, the present invention comprises an imaging device for collecting a medical image from a patient; A 3D image output system for receiving the medical image and converting the medical image into a 3D organ model; A surgery planning system provided with the three-dimensional organ model to create a surgical map for the affected part; A surgical instrument having a marker for providing endoscope and position information; A tracking device that tracks the position of the marker to track the movement path of the surgical instrument; It comprises a guide robot for guiding the operation of the surgical instrument by correcting the surgical map according to the movement path of the surgical instrument.

상기 추적장치에는 자기장을 이용하여 상기 마커의 위치정보를 파악하는 센서가 구비된다.The tracking device is provided with a sensor for identifying the position information of the marker using a magnetic field.

상기 가이드로봇은 상기 수술지도와 상기 마커의 공간 좌표를 비교하여 오차가 발생할 경우, 상기 오차에 대응되도록 상기 수술기구의 진행방향을 보정한다.The guide robot compares the surgical map and the spatial coordinates of the marker and corrects the moving direction of the surgical instrument to correspond to the error when an error occurs.

상기 3차원영상출력시스템은, 상기 영상장비의 의료영상을 저장하는 데이터베이스와; 상기 데이터베이스로부터 의료영상을 제공받아 표준화 작업을 수행한 후 3차원 장기모델로 전환시키는 3D재생부를 포함하여 구성된다.The three-dimensional image output system, and a database for storing a medical image of the imaging device; It is configured to include a 3D playback unit for receiving a medical image from the database and performing a standardization work and converting into a 3D organ model.

상기 영상장비는 컴퓨터단층촬영장치, 자기공명영상장치 또는 엑스선장치 중 어느 하나이다.The imaging equipment is any one of a computed tomography apparatus, a magnetic resonance imaging apparatus, or an X-ray apparatus.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 다른 특징에 따르면, 본 발명은 영상장비로부터 취합된 환자의 2차원 의료영상을 제공받아 3차원 장기모델 및 수술지도를 구성하는 3차원영상출력시스템과; 내시경이 구비된 수술기구와; 환자의 장기의 위치정보를 실시간으로 탐색하는 다이렉트네비게이션과; 상기 3차원 장기모델과 상기 장기의 상태정보를 비교하여 수술지도를 보정하고 보정된 수술지도에 기초하여 상기 수술기구의 진행방향을 안내하는 가이드로봇을 포함하여 구성 된다.According to another aspect of the present invention for achieving the object as described above, the present invention is provided with a two-dimensional medical image of the patient collected from the imaging equipment and comprises a three-dimensional image output system constituting a three-dimensional organ model and surgical map and; ; An surgical instrument equipped with an endoscope; Direct navigation for searching the position information of the organ of the patient in real time; Comprising the three-dimensional organ model and the state information of the organ is configured to include a guide robot for correcting the surgical map and to guide the progress of the surgical instrument based on the corrected surgical map.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 다른 특징에 따르면, 본 발명은 영상장비에서 촬영된 영상을 처리하여 3차원 장기모델로 변환하는 3차원영상출력시스템과; 상기 3차원 장기모델을 제공받아 환부에 대한 수술지도를 만드는 수술계획시스템과; 수술 시 환자의 양방향 영상을 찍어서 3차원의 장기 위치정보를 탐색하는 다이렉트네비게이션과; 상기 다이렉트네비게이션으로부터 제공된 장기 위치정보를 상기 수술지도에 대응시켜 수술지도를 보정하고, 보정된 수술지도에 기초하여 수술기구를 안내하는 가이드로봇을 포함하여 구성된다.According to another aspect of the present invention for achieving the above object, the present invention is a three-dimensional image output system for processing the image taken by the imaging equipment to convert to a three-dimensional long-term model; A surgery planning system provided with the three-dimensional organ model to create a surgical map for the affected part; Direct navigation to search for three-dimensional long-term location information by taking a bi-directional image of the patient during surgery; And a guide robot for correcting the surgical map by mapping the long-term location information provided from the direct navigation to the surgical map, and guiding the surgical instrument based on the corrected surgical map.

상기 다이렉트네비게이션은 적어도 2개의 다른 축을 중심으로 궤도회전 가능한 C-아암이 구비된다.The direct navigation is provided with a C-arm that can orbitally rotate about at least two different axes.

상기 3차원영상출력시스템은, 상기 영상장비의 의료영상을 저장하는 데이터베이스와; 상기 데이터베이스로부터 의료영상을 제공받아 표준화 작업을 수행한 후 3차원 장기모델로 전환시키는 3D재생부를 포함하여 구성된다.The three-dimensional image output system, and a database for storing a medical image of the imaging device; It is configured to include a 3D playback unit for receiving a medical image from the database and performing a standardization work and converting into a 3D organ model.

상기 영상장비는 컴퓨터단층촬영장치, 자기공명영상장치 또는 엑스선장치 중 어느 하나이다.The imaging equipment is any one of a computed tomography apparatus, a magnetic resonance imaging apparatus, or an X-ray apparatus.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 다른 특징에 따르면, 본 발명은 장기 모델로부터 수술 지도를 형성하는 단계와; 수술 기구의 이동 경로를 추적하여 상기 수술 기구의 진행방향을 예측하는 단계와; 상기 수술 기구의 이동경로를 수술 지도와 비교하여 오차를 계산하는 단계와; 상기 오차를 반영하여 수술 기구의 진행방향을 보정하는 단계를 포함한다.According to another aspect of the present invention for achieving the above object, the present invention comprises the steps of forming a surgical map from the organ model; Predicting a moving direction of the surgical instrument by tracking a movement path of the surgical instrument; Calculating an error by comparing a movement path of the surgical instrument with a surgical map; Compensating the direction of operation of the surgical instrument by reflecting the error.

자기장을 이용한 추적장치가 상기 수술 기구에 장착된 마커의 위치정보를 파악하는 단계를 더 포함한다.The tracking device using a magnetic field further comprises the step of identifying the position information of the marker mounted on the surgical instrument.

상기 수술 지도를 형성하는 단계는, 장기의 2차원 의료 영상을 취합하는 단계와; 상기 2차원 의료 영상을 3차원 장기모델로 변환하는 단계를 포함한다.The forming of the surgical map may include: collecting a two-dimensional medical image of an organ; And converting the 2D medical image into a 3D organ model.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 다른 특징에 따르면, 본 발명은 2차원 의료영상을 통해 3차원 장기모델을 구성하는 단계와; 상기 3차원 장기모델에 기초하여 수술지도를 형성하는 단계와; 수술 도구의 이동 경로 및 수술 위치를 탐색하는 단계와; 다이렉트네비게이션과 내시경을 통해 들어온 장기 내부의 정보를 통해 수술지도를 보정하는 단계를 포함한다.According to another aspect of the present invention for achieving the above object, the present invention comprises the steps of constructing a three-dimensional organ model through a two-dimensional medical image; Forming a surgical map based on the three-dimensional organ model; Exploring the movement path and the surgical position of the surgical instrument; And correcting the surgical map through information of the internal organs received through direct navigation and endoscope.

상기 수술 도구의 진행방향은 보정된 수술지도에 의해 안내되는 단계를 더 포함한다.The direction of progress of the surgical tool further includes the step of being guided by the corrected surgical map.

본 발명은 자력 기반의 추적장치를 사용하여 장기의 상태를 실시간으로 파악할 수 있고, 수술 전에 만들어진 수술 지도와의 오차를 계산하여 수술 도구의 진행방향을 보정할 수 있으므로 정밀한 수술이 가능하다는 효과가 있다. The present invention has the effect that it is possible to grasp the state of the organ in real time using a magnetic-based tracking device in real time, and to correct the direction of operation of the surgical tool by calculating the error with the surgical map made before the operation, it is possible to perform precise surgery .

또한, 본 발명은 다이렉트네비게이션을 사용하여 실시간으로 수술 지도를 보정할 수 있으므로 환자의 장기 상태 및 수술 경과를 명확히 알 수 있어 수술의 안정성이 확보되는 효과가 있다. In addition, since the present invention can correct the surgical map in real time using direct navigation, it is possible to clearly know the long-term state of the patient and the progress of the surgery, thereby ensuring the stability of the surgery.

이하 상기한 바와 같은 구성을 가지는 본 발명에 의한 영상유도수술시스템의 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, a preferred embodiment of an image guided surgery system according to the present invention having the configuration as described above will be described in detail with reference to the accompanying drawings.

도 1에는 본 발명에 의한 영상유도수술시스템의 바람직한 실시예를 구성하는 영상장비를 보인 측면도가 도시되어 있다. Figure 1 is a side view showing the imaging equipment constituting a preferred embodiment of the image guided surgery system according to the present invention.

도 1에 도시된 바에 따르면, 영상유도수술시스템은 영상장비(1)와 추적장치(100)와 수술도구(200)를 포함하여 구성된다. As shown in FIG. 1, an image guided surgical system includes an imaging device 1, a tracking device 100, and a surgical tool 200.

상기 영상장비(1)는 환자의 장기를 촬영한 데이터를 컴퓨터로 송신하는 역할을 한다. 상기 영상장비(1)는 환자의 장기(臟器)를 촬영하기 위한 엑스선장치, 컴퓨터단층촬영장치(CT) 및 자기공명영상장치(MRI) 등을 말한다. The imaging device 1 transmits data of the organ of the patient to a computer. The imaging apparatus 1 refers to an X-ray apparatus, a computed tomography apparatus (CT), a magnetic resonance imaging apparatus (MRI), etc., for photographing an organ of a patient.

컴퓨터단층촬영장치은 CT 스캐너를 이용하여 X선이나 초음파를 여러 각도에서 인체에 투영하고 이를 컴퓨터로 재구성하여 인체 내부 단면의 모습을 화상으로 처리하는 장치이다. 그리고, 자기공명영상장치는 자력에 의하여 발생하는 자기장을 이용하여 생체의 임의의 단층상을 얻을 수 있는 첨단의학시스템이다. 이와 같은 영상장비는 환자의 수술 부위에 대한 단면을 보여주는 시스템이다. Computed tomography is a device that uses a CT scanner to project X-rays or ultrasounds at various angles to the human body and reconstructs them into a computer to process the inside of the human body as an image. In addition, the magnetic resonance imaging apparatus is an advanced medical system capable of obtaining an arbitrary tomographic image of a living body using a magnetic field generated by magnetic force. Such imaging equipment is a system showing a cross section of a surgical site of a patient.

도 2에는 본 발명 실시예를 구성하는 3차원영상출력시스템을 보인 구성도가 도시되어 있다. 2 is a block diagram showing a three-dimensional image output system constituting an embodiment of the present invention.

도 2에 도시된 바에 따르면, 3차원영상출력시스템(10)은 컴퓨터단층촬영장치(CT) 및 자기공명영상장치(MRI)에 의해 제공된 2차원의 의료 영상에 대해 표준화 작업을 수행하여 3차원영상정보를 출력하는 시스템이다. 즉 상기 3차원영상출력시스템(10)은 영상장비(1)로부터 취합된 환자의 2차원 의료영상을 제공받아 3차원 장기모델로 변환한다. 상기 3차원영상출력시스템(10)은 3차원 장기모델을 수술계획시 스템(도시되지 않음)에 제공한다. 상기 수술계획시스템은 상기 3차원 장기모델을 기초로 환자의 환부에 대한 수술지도를 만드는 역할을 한다. As shown in FIG. 2, the 3D image output system 10 performs a standardized operation on a 2D medical image provided by a CT and a magnetic resonance imaging apparatus (MRI) to perform a 3D image. It is a system that outputs information. That is, the 3D image output system 10 receives a 2D medical image of a patient collected from the imaging device 1 and converts the 3D organ model into a 3D organ model. The 3D image output system 10 provides a 3D organ model to a surgery planning system (not shown). The surgery planning system serves to create a surgical map for the affected part of the patient based on the three-dimensional organ model.

상기 3차원영상출력시스템(10)은 데이터베이스(11), 3D재생부(12), 이미지제너레이터(13), 그래픽재생부(14) 및 제어부(15)를 포함하여 구성된다. The 3D image output system 10 includes a database 11, a 3D playback unit 12, an image generator 13, a graphic playback unit 14, and a controller 15.

상기 데이터베이스(11)는 상기 영상장비(1)에서 제공된 영상과 시뮬레이션 데이터를 저장하는 역할을 한다. 상기 데이터베이스(11)에서 시뮬레이션 데이터는 매트릭스 형태의 행렬 조합으로 구성될 수 있다.The database 11 serves to store the image and simulation data provided from the imaging device (1). The simulation data in the database 11 may be composed of matrix combinations in matrix form.

상기 3D재생부(12)는 상기 데이터베이스(11)로부터 다수의 2차원 의료영상을 입력받아 표준화 작업을 수행한 후 3차원 의료영상으로 전환시켜 상기 이미지제너레이터(13)로 출력하는 역할을 한다.The 3D playback unit 12 receives a plurality of 2D medical images from the database 11 and performs standardization, and then converts the 3D medical images into 3D medical images and outputs them to the image generator 13.

상기 이미지제너레이터(13)는 상기 3D재생부(12)로부터 3차원 의료영상을 입력받음과 동시에 상기 데이터베이스(11)로부터 시뮬레이션 데이터를 입력받아 시뮬레이션되는 3차원 의료영상을 상기 그래픽가속부(14)로 출력하는 역할을 한다. 이때, 상기 이미지제너레이터(13)는 데이터베이스(11)에 저장된 2차원 의료영상과 시뮬레이션 데이터를 리딩한 후 폴리건으로 조합한 값으로 음영을 가진 3차원의 의료영상으로 전환시키는 역할을 한다. The image generator 13 receives the 3D medical image from the 3D playback unit 12 and simultaneously receives the simulation data from the database 11 and sends the simulated 3D medical image to the graphic accelerator 14. It plays a role in printing. In this case, the image generator 13 reads the 2D medical image and the simulation data stored in the database 11 and converts the 3D medical image with the shaded value into a combination of polygons.

그리고, 상기 그래픽가속부(14)는 상기 이미지제너레이터(13)로부터 시뮬레이션되는 3차원 의료영상을 입력받은 후 가속화하여 모니터를 통해 출력하는 역할을 한다. In addition, the graphic accelerator 14 receives a 3D medical image simulated from the image generator 13 and accelerates and outputs the same through a monitor.

상기 제어부(15)는 상기 이미지제너레이터(13)로부터 변경된 데이터가 입력 되면 이를 상기 데이터베이스(11)에 저장하는 역할을 한다. When the changed data is input from the image generator 13, the controller 15 stores the data in the database 11.

상기 3차원영상출력시스템(10)의 영상출력방법에 대해서 설명하면, 상기 데이터베이스(11)에는 상기 영상장비(10)로부터 제공된 의료 영상이 2차원 이미지로 저장된다. 그리고, 상기 3D재생부(12)는 상기 데이터베이스(11)로부터 제공받은 2차원 이미지를 표준화된 형식의 이미지로 변환시킨다. Referring to the image output method of the three-dimensional image output system 10, the medical image provided from the imaging device 10 is stored in the database 11 as a two-dimensional image. The 3D playback unit 12 converts the two-dimensional image provided from the database 11 into an image of a standardized format.

이와 같은 상태에서, 상기 이미지제너레이터(13)는 상기 데이터베이스(11)로부터 입력된 시뮬레이션 데이터와 표준화된 형식의 이미지를 하이브리드 CGI 기술을 사용하는 폴리곤 기법을 이용하여 2차원 이미지를 3차원 의료영상으로 변환시킨다. In this state, the image generator 13 converts the two-dimensional image into a three-dimensional medical image by using a polygon technique using hybrid CGI technology to convert the simulation data and the standardized image input from the database 11. Let's do it.

이때, 상기 이미지제너레이터(13)는 환자의 특정 부위를 일정한 두께로 찍은 각각의 2차원 조각들을 모아서 2차원 영상들을 적층시킨다. 그리고, 상기 그래픽가속부(14)는 모니터를 통해 3차원 의료영상을 사용자에게 제공한다. At this time, the image generator 13 collects each of the two-dimensional pieces of a certain thickness of a specific part of the patient and stacks the two-dimensional images. The graphic accelerator 14 provides a 3D medical image to a user through a monitor.

도 3에는 본 발명 실시예를 구성하는 추적장치를 보인 사시도가 도시되어 있다 .3 is a perspective view showing a tracking device constituting an embodiment of the present invention.

도 3에 도시된 바에 따르면, 추적장치(100)는 외과수술을 수행함에 있어서 의사를 보조하도록 개발된 것이다. 상기 추적장치(100)는 수술 네비게이션용 소프트웨어가 내장된 컴퓨터(108)와, 메모리(110), 프로세서(112), 마커(marker)들을 탐지할 수 있는 센서(또는 카메라)(114), 발페달(118), 키보드(120) 및 수술 네비게이션 정보를 디스플레이하는 디스플레이 스크린(123)을 구비한 모니터(122)를 포함하여 구성된다. 상기 센서(114)는 자기장을 이용하여 아래에서 설명될 마커(220) 의 위치정보를 파악하여 수술기구(200)의 이동경로를 추적하게 된다. As shown in FIG. 3, the tracking device 100 has been developed to assist a physician in performing a surgical operation. The tracking device 100 includes a computer 108 in which software for navigation navigation is embedded, a memory 110, a processor 112, a sensor (or camera) 114 capable of detecting markers, and a foot pedal. 118, a keyboard 122, and a monitor 122 having a display screen 123 for displaying surgical navigation information. The sensor 114 detects the position information of the marker 220 to be described below by using a magnetic field to track the movement path of the surgical instrument 200.

상기 추적장치(100)에서 상기 센서(114)는 데이터 처리장치에 접속되며, 상기 데이터처리장치는 마커들의 공간 포인트들을 기록하고 마커가 부착된 부분에 대한 기준좌표를 설정한다. 참고로 부가적인 마커들이 수술 기구들과 마커에 대한 수술기구들의 작용 부분들의 포인트가 프로그램된 추적장치에 부착될 수 있다. In the tracking device 100, the sensor 114 is connected to a data processing device, which records the spatial points of the markers and sets the reference coordinates for the portion to which the marker is attached. For reference additional markers may be attached to the tracking device programmed with the surgical instruments and points of the acting portions of the surgical instruments on the marker.

상기 수술 기구들은 장기들의 특정 목표 지점을 지나게 되고, 추적장치(100)는 장기들의 기준 좌표계에서의 목표 포인트를 확인하기 위하여 목표 지점들의 포인트를 기록한다. The surgical instruments pass a specific target point of the organs, and the tracking device 100 records the points of the target points to identify the target point in the reference coordinate system of the organs.

상기 모니터(122)는 기준좌표계에서 특정 포인트에 대하여 다른 수술 기구들의 포인트를 탐사하는 것과 같이, 수술중에 의사를 가이드하는데 사용되도록 기준좌표계와 목표 지점에 대한 정보를 디스플레이한다. The monitor 122 displays information about the reference coordinate system and the target point for use in guiding the physician during surgery, such as exploring the points of other surgical instruments with respect to a particular point in the reference coordinate system.

도 4 및 도 5에는 본 발명 실시예를 구성하는 수술도구를 보인 설명도가 도시되어 있다. 4 and 5 are explanatory views showing a surgical tool constituting an embodiment of the present invention.

도 4에 도시된 바와 같이, 환자의 수술을 위한 수술기구(200)에는 내시경(210)과 마커(220)가 구비된다. As shown in Figure 4, the surgical instrument 200 for surgery of the patient is provided with an endoscope 210 and a marker 220.

상기 내시경(210)은 내장장기(內臟臟器) 또는 체강(體腔) 내부를 직접 볼 수 있게 만든 의료기구이고, 마커(220)는 상기 추적장치(100)에 상기 수술기구(200)의 위치정보를 제공하기 위한 구성이다. The endoscope 210 is a medical device made to directly see the internal organs or body cavities, the marker 220 is the tracking device 100 in the position information of the surgical instrument 200 It is a configuration to provide.

의사는 상기 내시경(210)을 통해 수술 중 장기의 내부를 볼 수 있고, 상기 마커(220)는 상기 수술기구(200)의 이동경로를 컴퓨터에 제공한다. 이와 같이 상기 수술기구(200)의 이동경로가 제공되면 수술지도와 비교하여 상기 수술기구(200)의 이동경로 및 진행방향을 예측할 수 있다. The doctor may view the inside of the organ during surgery through the endoscope 210, and the marker 220 provides a computer with a movement path of the surgical instrument 200. As such, when the movement path of the surgical instrument 200 is provided, the movement path and the direction of movement of the surgical instrument 200 can be predicted compared to the surgical map.

즉, 이미 만들어진 수술지도와 환자의 장기의 변화상태에 따라 수술기구(200)의 위치가 바뀌면 상기 수술 기구(200)의 이동을 안내하는 가이드로봇(도시되지 않음)이 상기 마커(220)와 수술지도의 공간 좌표를 비교하여 오차를 계산하고, 그 오차에 기초하여 수술 지도를 보정하게 된다. 이와 같이 수술 지도가 보정되면 가이드로봇은 보정된 수술 지도를 반영하여 상기 수술 기구(200)의 진행방향을 보정한다. That is, when the position of the surgical instrument 200 is changed according to the already made surgical map and the change state of the organ of the patient, a guide robot (not shown) for guiding the movement of the surgical instrument 200 is operated with the marker 220 and the surgery. The error is calculated by comparing the spatial coordinates of the map, and the surgical map is corrected based on the error. When the surgical map is corrected as described above, the guide robot corrects the moving direction of the surgical instrument 200 by reflecting the corrected surgical map.

도 5에 도시된 바에 따르면, 상기 수술기구(200)는 이미 만들어진 수술지도에 따라 이동을 하게 된다. 상기 마커(220)는 실시간으로 상기 수술기구(200)의 위치 및 이동경로를 컴퓨터에 제공하게 되고, 컴퓨터는 상기 수술기구(200)의 위치를 수술지도와 비교하여 오차를 계산한다. 그리고 상기 오차를 보정하여 새로운 수술지도를 만들게 된다. 상기 가이드로봇은 보정된 수술지도에 따라 상기 수술기구(200)의 진행방향을 안내하게 된다.As shown in Figure 5, the surgical instrument 200 is moved according to the already made surgical map. The marker 220 provides the computer with the position and movement path of the surgical instrument 200 in real time, and the computer calculates an error by comparing the position of the surgical instrument 200 with a surgical map. Then, the error is corrected to create a new surgical map. The guide robot guides the moving direction of the surgical instrument 200 according to the corrected surgical map.

즉, 상기 영상장비(10)에 의해 수술 전에 만들어진 수술지도의 계획경로(p)는 수술 시에 변경될 수 있다. 환자의 호흡 및 상태 변화에 따라 장기의 위치가 변화하게 되면, 상기 추적장치(100)가 실시간으로 장기의 상태를 탐색하여 수술지도를 보정하게 된다. 상기 가이드로봇은 상기 수술기구(200)를 보정된 수술지도의 보정경로(a)로 안내하여 장기의 손상을 방지한다. That is, the planned path p of the surgical map made before the operation by the imaging device 10 may be changed at the time of the operation. When the position of the organ changes according to the change of the patient's breathing and state, the tracking device 100 searches for the state of the organ in real time and corrects the surgical map. The guide robot guides the surgical instrument 200 to the correction path (a) of the corrected surgical map to prevent damage to the organs.

도 9에는 본 발명의 실시예에서 수술 도구의 진행방향을 보정하는 과정을 보 인 흐름도가 도시되어 있다. 9 is a flow chart showing a process of correcting the progress direction of the surgical instrument in an embodiment of the present invention.

영상유도수술시스템은 영상장비로부터 2차원 의료 영상을 제공받아 3차원 장기모델로 변화하고 이를 이용하여 수술지도를 형성한다.(S100) 그리고, 자기장을 이용한 추적장치(100)는 자기장을 이용하여 수술 기구(200)에 장착된 마커(220)의 위치정보를 파악한다.(S110) 상기 마커(220)의 위치가 실시간으로 파악되면 수술기구(200)의 이동경로를 추적하여 상기 수술기구(200)의 진행방향을 예측하게 된다.(S120)The image guided surgical system receives a 2D medical image from an imaging device, changes it into a 3D organ model, and forms a surgical map using the same (S100). The position information of the marker 220 mounted on the instrument 200 is determined. (S110) When the position of the marker 220 is determined in real time, the movement path of the surgical instrument 200 is traced to the surgical instrument 200. It predicts the direction of travel. (S120)

이때 상기 수술기구(200)의 이동경로와 수술 지도를 비교하여 오차를 계산하게 되는데(S130), 이와 같은 오차를 반영하여 수술 지도를 보정하고 가이드로봇은 보정된 수술 지도에 의해 상기 수술기구(200)의 진행방향을 보정하게 된다.(S140)At this time, by comparing the movement path and the surgical map of the surgical instrument 200 is calculated an error (S130), by correcting the surgical map to reflect such an error and the guide robot is the surgical instrument 200 by the corrected surgical map The direction of travel is corrected.

다음으로 본 발명에 의한 영상유도수술시스템의 다른 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Next, another embodiment of an image guided surgical system according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 다른 실시예는 상기 추적장치(100) 대신에 다이렉트네비게이션(300)이 채용된 것으로 도 1 내지 도 5에 도시되어 있는 실시예와 동일한 구성요소에 대해서는 그 설명을 생략하겠다. In another embodiment of the present invention, a direct navigation 300 is used instead of the tracking device 100, and description thereof will be omitted for the same components as those shown in FIGS. 1 to 5.

도 6에는 본 발명의 다른 실시예를 구성하는 다이렉트네비게이션을 보인 사시도가 도시되어 있다. 6 is a perspective view showing a direct navigation constituting another embodiment of the present invention.

도 6에 도시된 바에 따르면, 다이렉트네비게이션(300)는 이동식 지지구조체(314), 캐리어(318) 및 만곡형 위치 설정 아암(322)(이하 'C-아암')을 포함하여 구성된다. 상기 이동식 지지구조체(314)는 휠(316)을 구비하며, 이것은 상기 다이 렉트네비게이션(300)의 이동을 가능하게 한다. 상기 다이렉트네비게이션(300)은 대상물의 3차원 영상을 실시간으로 탐색하는 장치이다. 즉, 상기 다이렉트네비게이션(300)은 환자의 3차원 장기 모형을 실시간으로 모델링하여 사용자에게 제공한다. As shown in FIG. 6, the direct navigation 300 comprises a movable support structure 314, a carrier 318 and a curved positioning arm 322 (hereinafter 'C-arm'). The movable support structure 314 has a wheel 316, which enables movement of the direct navigation 300. The direct navigation 300 is a device for searching a 3D image of an object in real time. That is, the direct navigation 300 models the 3D organ model of the patient in real time and provides the same to the user.

상기 C-아암(322)은 반원형상이고, 제1말단부(325)에 이미징 리시버(326)을 구비하고 제2말단부(327)에 이미징소스(330)를 구비한다. 상기 이미징소스(330)는 엑스레이 소스일 수 있다. 구동트레인(334)은 상기 캐리어(318)에 장착된다. 웨지형 클러치핸들(335)은 커버된 구동 트레인(334)으로부터 연장되고 결합된 위치에 유지되도록 장전된 스프링이다. 상기 C-아암(322)은 상기 캐리어(318)에 이동가능하게 장착된다. The C-arm 322 is semi-circular, with an imaging receiver 326 at the first end 325 and an imaging source 330 at the second end 327. The imaging source 330 may be an x-ray source. The drive train 334 is mounted to the carrier 318. The wedge-shaped clutch handle 335 is a spring loaded to extend from the covered drive train 334 and remain in the engaged position. The C-arm 322 is movably mounted to the carrier 318.

조작자는 상기 다이렉트네비게이션(300)를 굴려 환자가 이미징소스(330)과 이미징리시버(326) 사이에 위치되도록 상기 C-아암(322)을 위치시킨 후 환자의 이미지를 촬영할 수 있다. 상기 C-아암(322)은 궤도 회전을 하는데 적어도 2개의 다른 축을 중심으로 회전 가능하기 때문에 환자를 중심으로 여러 상이한 방향에 위치되어 원하는 방향의 이미지를 촬영할 수 있다. The operator may roll the direct navigation 300 to position the C-arm 322 so that the patient is positioned between the imaging source 330 and the imaging receiver 326 and then take an image of the patient. The C-arm 322 can be rotated about at least two different axes for orbital rotation, so that the C-arm 322 can be positioned in several different directions around the patient to capture an image in a desired direction.

도 7 및 도 8에는 본 발명 다른 실시예를 구성하는 수술도구를 보인 설명도가 도시되어 있다. 7 and 8 are explanatory views showing a surgical tool constituting another embodiment of the present invention.

도 7에 도시된 바와 같이, 상기 다이렉트네비게이션(300)은 환자의 장기와 수술기구(200)의 위치정보를 실시간으로 탐색하게 된다. 그리고, 가이드로봇은 상기 다이렉트네비게이션(300)으로부터 장기의 상태정보를 제공받아 오차가 발생할 경우 수술지도를 보정하고, 보정된 수술지도에 기초하여 상기 수술기구(200)의 진 행방향을 안내하게 된다. As shown in FIG. 7, the direct navigation 300 searches for the location information of the organ and the surgical instrument 200 of the patient in real time. In addition, the guide robot receives the state information of the organ from the direct navigation 300, corrects the surgical map when an error occurs, and guides the progress direction of the surgical instrument 200 based on the corrected surgical map. .

도 8에 도시된 바와 같이, 상기 영상장비(10)에 의해 수술 전에 만들어진 수술지도의 계획경로(p)는 수술 시에 변경될 수 있다. 즉, 환자의 호흡 및 상태 변화에 따라 장기의 위치가 변화하게 되면, 상기 다이렉트네비게이션(300)이 실시간으로 장기의 상태를 탐색하여 수술지도를 보정하게 된다. 상기 가이드로봇은 상기 수술기구(200)를 보정된 수술지도의 보정경로(a)로 안내하여 장기의 손상을 방지한다. As shown in FIG. 8, the planned path p of the surgical map made before the surgery by the imaging device 10 may be changed at the time of surgery. That is, when the location of the organ changes in accordance with the change of the patient's breathing and state, the direct navigation 300 searches for the state of the organ in real time to correct the surgical map. The guide robot guides the surgical instrument 200 to the correction path (a) of the corrected surgical map to prevent damage to the organs.

도 10에는 본 발명의 실시예 및 다른 실시예에서 수술 도구의 진행방향을 보정하는 과정을 보인 흐름도가 도시되어 있다. 10 is a flow chart showing a process of correcting the progress direction of the surgical instrument in the embodiment of the present invention and another embodiment.

상기 3차원영상출력시스템(10)은 수술 전에 상기 영상장비(1)에서 취합된 2차원 의료영상을 3차원 장기모델로 구성한다.(S200) 그리고 수술계획시스템은 상기 3차원 장기모델을 이용하여 수술지도를 형성한다.(S210) 수술 시에 다이렉트네비게이션(300)은 수술 도구(200)의 이동 경로 및 수술위치를 탐색하게 되고(S220), 가이드로봇은 상기 다이렉트네비게이션(300)과 내시경(210)을 통해 들어온 장기 내부의정보를 통해 수술 지도를 보정하게 된다.(S230) 상기 수술도구(200)는 그 진행방향이 보정된 수술지도에 의해 안내되게 된다.(S240)The three-dimensional image output system 10 configures a two-dimensional medical image collected by the imaging device 1 as a three-dimensional organ model before the operation (S200) and the surgery planning system using the three-dimensional organ model In operation S210, the direct navigation 300 searches for a movement path and a surgical position of the surgical tool 200, and a guide robot directs the direct navigation 300 and the endoscope 210. The surgical map is corrected through the information of the inside of the organ, which has been entered through the control panel. (S230) The surgical tool 200 is guided by the surgical map whose direction is corrected.

이와 같이 영상유도수술시스템은 수술전 획득한 환자의 3차원 영상정보(CT 또는 MRI)를 이용하여, 수술장 내에서 수술 부위 및 수술 도구의 3차원 위치를 실시간으로 추적하여 컴퓨터 영상에 수술 도구 및 인공 관절의 위치를 정합, 재구성함으로써 보이지 않는 인체 내부의 병소의 위치와 수술 도구의 상대적 위치를 화면 으로 확인하면서 수술할 수 있도록 한다.As described above, the image guided surgical system uses the 3D image information (CT or MRI) of the patient obtained before surgery to track the 3D position of the surgical site and the surgical tool in the operating room in real time, and then displays the surgical tools and the computer image. By aligning and reconstructing the position of artificial joints, it is possible to perform surgery while checking the position of invisible lesions and the relative position of surgical instruments on the screen.

하지만, 여러 가지 예기치 못한 원인으로 인하여 장기나 수술 도구의 규격이 변형되었을 경우에는 그 규격 정보를 보정해주기 위한 방법이 필요하다. 특히, 항법 시스템이 가지고 있지 못한 새로운 규격의 수술 도구를 사용할 경우에 이러한 보정 과정은 필수적이다. 이와 같이, 수술 도구의 보정(Calibration) 과정은 항법 시스템에 사용되는 수술 도구의 규격 정보를 획득, 혹은 기획득한 규격 정보를 수정하는 절차와 방식을 의미한다.However, when a standard or a surgical instrument is modified due to various unexpected causes, a method for correcting the standard information is needed. In particular, this calibration process is essential when using a new type of surgical instrument that the navigation system does not have. As described above, the calibration procedure of the surgical tool refers to a procedure and a method of acquiring the standard information of the surgical tool used in the navigation system or correcting the acquired standard information.

본 발명의 권리범위는 위에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.The scope of the present invention is not limited to the embodiments described above, but is defined by the claims, and various changes and modifications can be made by those skilled in the art within the scope of the claims. It is self-evident.

도 1은 본 발명에 의한 영상유도수술시스템의 바람직한 실시예를 구성하는 영상장비를 보인 측면도.1 is a side view showing the imaging equipment constituting a preferred embodiment of an image guided surgery system according to the present invention.

도 2는 본 발명 실시예를 구성하는 3차원영상출력시스템을 보인 구성도.Figure 2 is a block diagram showing a three-dimensional image output system constituting an embodiment of the present invention.

도 3은 본 발명 실시예를 구성하는 추적장치를 보인 사시도.3 is a perspective view showing a tracking device constituting an embodiment of the present invention.

도 4 및 도 5는 본 발명 실시예를 구성하는 수술도구를 보인 설명도.4 and 5 is an explanatory view showing a surgical tool constituting an embodiment of the present invention.

도 6은 본 발명의 다른 실시예를 구성하는 다이렉트네비게이션을 보인 사시도. 6 is a perspective view showing a direct navigation constituting another embodiment of the present invention.

도 7 및 도 8은 본 발명 다른 실시예를 구성하는 수술도구를 보인 설명도.Figure 7 and Figure 8 is an explanatory view showing a surgical tool constituting another embodiment of the present invention.

도 9 및 도 10은 본 발명의 실시예 및 다른 실시예에서 수술 도구의 진행방향을 보정하는 과정을 각각 보인 흐름도.9 and 10 are flow charts showing the process of correcting the progress direction of the surgical instrument in the embodiment of the present invention and another embodiment, respectively.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

1: 영상장비 10: 3차원영상출력시스템1: Imager 10: 3D image output system

100: 추적장치 200: 수술도구100: tracking device 200: surgical instruments

210: 내시경 220: 마커210: endoscope 220: marker

300: 다이렉트네비게이션300: direct navigation

Claims (16)

영상장비로부터 취합된 환자의 2차원 의료영상을 제공받아 3차원 장기모델로 변환하는 3차원영상출력시스템과;A 3D image output system for receiving a 2D medical image of a patient collected from an imaging device and converting the image into a 3D organ model; 내시경과 위치정보를 제공하는 마커가 구비된 수술기구와;A surgical instrument having a marker for providing endoscope and position information; 상기 3차원 장기모델을 기초로 수술지도를 구성하고, 상기 마커의 위치정보를 제공받아 상기 수술지도를 보정하며, 상기 수술기구가 보정된 수술지도를 따라 진행하도록 안내하는 가이드로봇을 포함하여 구성되는 영상유도수술시스템.Comprising a surgical map based on the three-dimensional organ model, receiving the position information of the marker to correct the surgical map, comprising a guide robot for guiding the surgical instrument to proceed along the corrected surgical map Imaging-guided Surgery System. 환자로부터 의료영상을 취합하는 영상장비와;Imaging equipment for collecting medical images from the patient; 상기 의료영상을 제공받아 3차원 장기모델로 변환하는 3차원영상출력시스템과;A 3D image output system for receiving the medical image and converting the medical image into a 3D organ model; 상기 3차원 장기모델을 제공받아 환부에 대한 수술지도를 만드는 수술계획시스템과;A surgery planning system provided with the three-dimensional organ model to create a surgical map for the affected part; 내시경과 위치정보를 제공하는 마커가 구비된 수술기구와;A surgical instrument having a marker for providing endoscope and position information; 상기 마커의 위치를 추적하여 상기 수술기구의 이동경로를 추적하는 추적장치와;A tracking device that tracks the position of the marker to track the movement path of the surgical instrument; 상기 수술기구의 이동경로에 따라 상기 수술지도를 보정하여 상기 수술기구의 동작을 안내하는 가이드로봇을 포함하여 구성되는 영상유도수술시스템.And a guide robot for guiding the operation of the surgical instrument by correcting the surgical map according to the movement path of the surgical instrument. 제 2 항에 있어서, The method of claim 2, 상기 추적장치에는 자기장을 이용하여 상기 마커의 위치정보를 파악하는 센서가 구비됨을 특징으로 하는 영상유도수술시스템.The tracking device is an image guided surgical system, characterized in that the sensor for identifying the location information of the marker using a magnetic field. 제 1 항 또는 제 2 항에 있어서,The method according to claim 1 or 2, 상기 가이드로봇은 상기 수술지도와 상기 마커의 공간 좌표를 비교하여 오차가 발생할 경우, 상기 오차에 대응되도록 상기 수술기구의 진행방향을 보정함을 특징으로 하는 영상유도수술시스템.The guide robot compares the surgical map and the spatial coordinates of the marker, if an error occurs, the image guided surgery system, characterized in that for correcting the direction of the surgical instrument to correspond to the error. 제 1 항 또는 제 2 항에 있어서, The method according to claim 1 or 2, 상기 3차원영상출력시스템은,The 3D image output system, 상기 영상장비의 의료영상을 저장하는 데이터베이스와;A database storing a medical image of the imaging device; 상기 데이터베이스로부터 의료영상을 제공받아 표준화 작업을 수행한 후 3차원 장기모델로 전환시키는 3D재생부를 포함하여 구성됨을 특징으로 하는 영상유도수술시스템.And a 3D reproducing unit configured to receive a medical image from the database, perform a standardization operation, and convert the medical image into a 3D organ model. 제 1 항 또는 제 2 항에 있어서,The method according to claim 1 or 2, 상기 영상장비는 컴퓨터단층촬영장치, 자기공명영상장치 또는 엑스선장치 중 어느 하나임을 특징으로 하는 영상유도수술시스템.The imaging device is an image guided surgical system, characterized in that any one of a computer tomography apparatus, magnetic resonance imaging apparatus or X-ray apparatus. 영상장비로부터 취합된 환자의 2차원 의료영상을 제공받아 3차원 장기모델 및 수술지도를 구성하는 3차원영상출력시스템과;A three-dimensional image output system for receiving a two-dimensional medical image of a patient collected from an imaging device and constructing a three-dimensional organ model and a surgical map; 내시경이 구비된 수술기구와;An surgical instrument equipped with an endoscope; 환자의 장기의 위치정보를 실시간으로 탐색하는 다이렉트네비게이션과;Direct navigation for searching the position information of the organ of the patient in real time; 상기 3차원 장기모델과 상기 장기의 상태정보를 비교하여 수술지도를 보정하고 보정된 수술지도에 기초하여 상기 수술기구의 진행방향을 안내하는 가이드로봇을 포함하여 구성되는 영상유도수술시스템.And a guide robot for compensating the surgical map by comparing the three-dimensional organ model and state information of the organ, and guiding the direction of the surgical instrument based on the corrected surgical map. 영상장비에서 촬영된 영상을 처리하여 3차원 장기모델로 변환하는 3차원영상출력시스템과;A three-dimensional image output system for processing the image captured by the imaging equipment and converting the image into a three-dimensional organ model; 상기 3차원 장기모델을 제공받아 환부에 대한 수술지도를 만드는 수술계획시스템과;A surgery planning system provided with the three-dimensional organ model to create a surgical map for the affected part; 수술 시 환자의 양방향 영상을 찍어서 3차원의 장기 위치정보를 탐색하는 다이렉트네비게이션과;Direct navigation to search for three-dimensional long-term location information by taking a bi-directional image of the patient during surgery; 상기 다이렉트네비게이션으로부터 제공된 장기 위치정보를 상기 수술지도에 대응시켜 수술지도를 보정하고, 보정된 수술지도에 기초하여 수술기구를 안내하는 가이드로봇을 포함하여 구성되는 영상유도수술시스템.And a guide robot for correcting the surgical map by mapping the long-term position information provided from the direct navigation to the surgical map, and guiding a surgical instrument based on the corrected surgical map. 제 7 항 또는 제 8 항에 있어서,9. The method according to claim 7 or 8, 상기 다이렉트네비게이션은 적어도 2개의 다른 축을 중심으로 궤도회전 가능 한 C-아암이 구비됨을 특징으로 하는 영상유도수술시스템.And said direct navigation is provided with a C-arm capable of orbital rotation about at least two different axes. 제 7 항 또는 제 8 항에 있어서,9. The method according to claim 7 or 8, 상기 3차원영상출력시스템은,The 3D image output system, 상기 영상장비의 의료영상을 저장하는 데이터베이스와;A database storing a medical image of the imaging device; 상기 데이터베이스로부터 의료영상을 제공받아 표준화 작업을 수행한 후 3차원 장기모델로 전환시키는 3D재생부를 포함하여 구성됨을 특징으로 하는 영상유도수술시스템.And a 3D reproducing unit configured to receive a medical image from the database, perform a standardization operation, and convert the medical image into a 3D organ model. 제 7 항 또는 제 8 항에 있어서,9. The method according to claim 7 or 8, 상기 영상장비는 컴퓨터단층촬영장치, 자기공명영상장치 또는 엑스선장치 중 어느 하나임을 특징으로 하는 영상유도수술시스템.The imaging device is an image guided surgical system, characterized in that any one of a computer tomography apparatus, magnetic resonance imaging apparatus or X-ray apparatus. 장기 모델로부터 수술 지도를 형성하는 단계와;Forming a surgical map from an organ model; 수술 기구의 이동 경로를 추적하여 상기 수술 기구의 진행방향을 예측하는 단계와;Predicting a moving direction of the surgical instrument by tracking a movement path of the surgical instrument; 상기 수술 기구의 이동경로를 수술 지도와 비교하여 오차를 계산하는 단계와;Calculating an error by comparing a movement path of the surgical instrument with a surgical map; 상기 오차를 반영하여 수술 기구의 진행방향을 보정하는 단계를 포함하는 영상유도수술시스템의 제어방법.Correcting the direction of progress of the surgical instrument by reflecting the error control method of an image guided surgical system. 제 12 항에 있어서,13. The method of claim 12, 자기장을 이용한 추적장치가 상기 수술 기구에 장착된 마커의 위치정보를 파악하는 단계를 더 포함하는 영상유도수술시스템의 제어방법.The control method of the image guided surgical system further comprises the step of identifying the position information of the marker mounted to the surgical instrument by the tracking device using a magnetic field. 제 13 항에 있어서,The method of claim 13, 상기 수술 지도를 형성하는 단계는,Forming the surgical map, 장기의 2차원 의료 영상을 취합하는 단계와;Collecting a two-dimensional medical image of an organ; 상기 2차원 의료 영상을 3차원 장기모델로 변환하는 단계를 포함하는 영상유도수술시스템의 제어방법.And converting the 2D medical image into a 3D organ model. 2차원 의료영상을 통해 3차원 장기모델을 구성하는 단계와;Constructing a 3D organ model through a 2D medical image; 상기 3차원 장기모델에 기초하여 수술지도를 형성하는 단계와;Forming a surgical map based on the three-dimensional organ model; 수술 도구의 이동 경로 및 수술 위치를 탐색하는 단계와;Exploring the movement path and the surgical position of the surgical instrument; 다이렉트네비게이션과 내시경을 통해 들어온 장기 내부의 정보를 통해 수술지도를 보정하는 단계를 포함하는 영상유도수술시스템의 제어방법.A method of controlling an image guided surgical system comprising the step of correcting a surgical map based on internal organs entered through direct navigation and endoscopy. 제 15 항에 있어서,The method of claim 15, 상기 수술 도구의 진행방향은 보정된 수술지도에 의해 안내되는 단계를 더 포함하는 영상유도수술시스템의 제어방법.The direction of operation of the surgical instrument further comprises the step of being guided by the corrected surgical guidance control method of the image guided surgical system.
KR1020090017039A 2009-02-27 2009-02-27 Image-guided Surgery System and Its Control Method KR101049507B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090017039A KR101049507B1 (en) 2009-02-27 2009-02-27 Image-guided Surgery System and Its Control Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090017039A KR101049507B1 (en) 2009-02-27 2009-02-27 Image-guided Surgery System and Its Control Method

Publications (2)

Publication Number Publication Date
KR20100098055A true KR20100098055A (en) 2010-09-06
KR101049507B1 KR101049507B1 (en) 2011-07-15

Family

ID=43005079

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090017039A KR101049507B1 (en) 2009-02-27 2009-02-27 Image-guided Surgery System and Its Control Method

Country Status (1)

Country Link
KR (1) KR101049507B1 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012115360A3 (en) * 2011-02-21 2012-12-13 Yoon Sang Jin Surgical robot system for performing surgery based on displacement information determined by the specification of the user, and method for controlling same
WO2013100319A1 (en) * 2011-12-26 2013-07-04 주식회사 인피니트헬스케어 Device and method for managing medical image data by using reference coordinates
KR101302595B1 (en) * 2012-07-03 2013-08-30 한국과학기술연구원 System and method for predict to surgery progress step
WO2013162227A1 (en) * 2012-04-25 2013-10-31 주식회사 고영테크놀러지 Navigation system for surgery
WO2013162221A1 (en) * 2012-04-27 2013-10-31 주식회사 고영테크놀러지 Method for tracking affected area and surgical instrument
US8682062B2 (en) 2010-10-04 2014-03-25 Korea Institute Of Science And Technology 3 dimension tracking system for surgery simulation and localization sensing method using the same
KR101408064B1 (en) * 2012-04-25 2014-06-18 한양대학교 에리카산학협력단 Surgery instrument
WO2014178610A1 (en) * 2013-04-30 2014-11-06 주식회사 고영테크놀러지 Optical tracking system and tracking method using same
KR101487248B1 (en) * 2013-05-28 2015-01-29 주식회사 고영테크놀러지 Optical tracking system
WO2016018646A1 (en) * 2014-07-28 2016-02-04 Intuitive Surgical Operations, Inc. Systems and methods for intraoperative segmentation
KR101655309B1 (en) * 2015-03-09 2016-09-08 한국과학기술연구원 Computer Navigation Method for Anterior Cruciate Ligament Reconstruction
WO2016195265A1 (en) * 2015-06-04 2016-12-08 현대중공업 주식회사 Surgical path setting device, surgical robot system comprising same and surgical path setting method for surgical robot
KR101687919B1 (en) * 2015-10-05 2016-12-19 (주)메가메디칼 Balloon dilation catheter navigation system for treatment of the sinuses
WO2019132166A1 (en) * 2017-12-28 2019-07-04 (주)휴톰 Method and program for displaying surgical assistant image
WO2019132168A1 (en) * 2017-12-28 2019-07-04 (주)휴톰 System for learning surgical image data
KR20190096575A (en) * 2018-02-09 2019-08-20 고려대학교 산학협력단 Medical imaging system
US10395775B2 (en) 2015-04-10 2019-08-27 Electronics And Telecommunications Research Institute Apparatus and method for recommending operation path
US10512509B2 (en) 2013-03-13 2019-12-24 Stryker Corporation Systems and methods for establishing virtual constraint boundaries
US11103315B2 (en) 2015-12-31 2021-08-31 Stryker Corporation Systems and methods of merging localization and vision data for object avoidance
CN114067646A (en) * 2021-10-16 2022-02-18 复旦大学 Visual simulation teaching system of puncture surgical robot
EP3302333B1 (en) * 2015-06-08 2022-04-06 University of Strathclyde Remote operations system, such as a robotic surgical system

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101638477B1 (en) * 2014-09-19 2016-07-11 주식회사 고영테크놀러지 Optical tracking system and registration method for coordinate system in optical tracking system
KR101650821B1 (en) 2014-12-19 2016-08-24 주식회사 고영테크놀러지 Optical tracking system and tracking method in optical tracking system
KR102014359B1 (en) * 2018-02-20 2019-08-26 (주)휴톰 Method and apparatus for providing camera location using surgical video
WO2019164274A1 (en) * 2018-02-20 2019-08-29 (주)휴톰 Training data generation method and device
US11399965B2 (en) * 2019-09-09 2022-08-02 Warsaw Orthopedic, Inc. Spinal implant system and methods of use
KR20210047057A (en) 2019-10-21 2021-04-29 한국전기연구원 System and method for upper gastrointestinal endoscopy, and a recording medium having computer readable program for executing the method
KR20210047630A (en) 2019-10-22 2021-04-30 한국전기연구원 System and method for analyzing upper gastrointestinal endoscopy image, and a recording medium having computer readable program for executing the method
KR20230112423A (en) 2022-01-20 2023-07-27 가톨릭관동대학교산학협력단 Medical gender for registration of noninvasive brain stimulation apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100346363B1 (en) * 2000-06-02 2002-08-01 주식회사 엔지티 Method and apparatus for 3d image data reconstruction by automatic medical image segmentation and image guided surgery system using the same
KR100726022B1 (en) * 2005-10-26 2007-06-12 한양대학교 산학협력단 System for 3D Localization and Non-Invasive Surgical Planning Using Bi-plane Fluoroscopic Images And Method therefor

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8682062B2 (en) 2010-10-04 2014-03-25 Korea Institute Of Science And Technology 3 dimension tracking system for surgery simulation and localization sensing method using the same
US9179980B2 (en) 2011-02-21 2015-11-10 Rimscience Co., Ltd. Surgical robot system for performing surgery based on displacement information determined by the specification of the user, and method for controlling same
WO2012115360A3 (en) * 2011-02-21 2012-12-13 Yoon Sang Jin Surgical robot system for performing surgery based on displacement information determined by the specification of the user, and method for controlling same
WO2013100319A1 (en) * 2011-12-26 2013-07-04 주식회사 인피니트헬스케어 Device and method for managing medical image data by using reference coordinates
WO2013162227A1 (en) * 2012-04-25 2013-10-31 주식회사 고영테크놀러지 Navigation system for surgery
KR101408064B1 (en) * 2012-04-25 2014-06-18 한양대학교 에리카산학협력단 Surgery instrument
WO2013162221A1 (en) * 2012-04-27 2013-10-31 주식회사 고영테크놀러지 Method for tracking affected area and surgical instrument
KR101302595B1 (en) * 2012-07-03 2013-08-30 한국과학기술연구원 System and method for predict to surgery progress step
US11918305B2 (en) 2013-03-13 2024-03-05 Stryker Corporation Systems and methods for establishing virtual constraint boundaries
US11464579B2 (en) 2013-03-13 2022-10-11 Stryker Corporation Systems and methods for establishing virtual constraint boundaries
US10512509B2 (en) 2013-03-13 2019-12-24 Stryker Corporation Systems and methods for establishing virtual constraint boundaries
WO2014178610A1 (en) * 2013-04-30 2014-11-06 주식회사 고영테크놀러지 Optical tracking system and tracking method using same
US10307210B2 (en) 2013-04-30 2019-06-04 Koh Young Technology Inc. Optical tracking system and tracking method using the same
CN105142561A (en) * 2013-04-30 2015-12-09 株式会社高永科技 Optical tracking system and tracking method using same
KR101487248B1 (en) * 2013-05-28 2015-01-29 주식회사 고영테크놀러지 Optical tracking system
WO2016018646A1 (en) * 2014-07-28 2016-02-04 Intuitive Surgical Operations, Inc. Systems and methods for intraoperative segmentation
US11445934B2 (en) 2014-07-28 2022-09-20 Intuitive Surgical Operations, Inc. Systems and methods for intraoperative segmentation
KR101655309B1 (en) * 2015-03-09 2016-09-08 한국과학기술연구원 Computer Navigation Method for Anterior Cruciate Ligament Reconstruction
US10395775B2 (en) 2015-04-10 2019-08-27 Electronics And Telecommunications Research Institute Apparatus and method for recommending operation path
CN107690317B (en) * 2015-06-04 2020-07-10 克瑞肖株式会社 Surgical path setting device, surgical robot system including the same
WO2016195265A1 (en) * 2015-06-04 2016-12-08 현대중공업 주식회사 Surgical path setting device, surgical robot system comprising same and surgical path setting method for surgical robot
US10631940B2 (en) 2015-06-04 2020-04-28 Curexo, Inc. Surgical path setting device, surgical robot system comprising same and surgical path setting method for surgical robot
CN107690317A (en) * 2015-06-04 2018-02-13 克瑞肖株式会社 The surgical robot system of operation pathway setting device including the operation pathway setting device and the operation pathway establishing method for operating robot
EP3302333B1 (en) * 2015-06-08 2022-04-06 University of Strathclyde Remote operations system, such as a robotic surgical system
US11806082B2 (en) 2015-06-08 2023-11-07 University Of Strathclyde Remote operations system
KR101687919B1 (en) * 2015-10-05 2016-12-19 (주)메가메디칼 Balloon dilation catheter navigation system for treatment of the sinuses
US11103315B2 (en) 2015-12-31 2021-08-31 Stryker Corporation Systems and methods of merging localization and vision data for object avoidance
US11806089B2 (en) 2015-12-31 2023-11-07 Stryker Corporation Merging localization and vision data for robotic control
WO2019132168A1 (en) * 2017-12-28 2019-07-04 (주)휴톰 System for learning surgical image data
WO2019132166A1 (en) * 2017-12-28 2019-07-04 (주)휴톰 Method and program for displaying surgical assistant image
KR20190096575A (en) * 2018-02-09 2019-08-20 고려대학교 산학협력단 Medical imaging system
CN114067646A (en) * 2021-10-16 2022-02-18 复旦大学 Visual simulation teaching system of puncture surgical robot

Also Published As

Publication number Publication date
KR101049507B1 (en) 2011-07-15

Similar Documents

Publication Publication Date Title
KR101049507B1 (en) Image-guided Surgery System and Its Control Method
JP2966089B2 (en) Interactive device for local surgery inside heterogeneous tissue
JP5328137B2 (en) User interface system that displays the representation of tools or buried plants
JP4488678B2 (en) Establishing a three-dimensional display of bone X-ray images
EP0501993B1 (en) Probe-correlated viewing of anatomical image data
US7203277B2 (en) Visualization device and method for combined patient and object image data
JP5121401B2 (en) System for distance measurement of buried plant
JP5976627B2 (en) Image generating apparatus and method for radioactive imaging
US7885441B2 (en) Systems and methods for implant virtual review
AU2013296825B2 (en) Radiographic imaging device
CN107106241B (en) System for navigating to surgical instruments
CN103619278B (en) The system guiding injection during endoscopic surgery
US8131031B2 (en) Systems and methods for inferred patient annotation
US8886286B2 (en) Determining and verifying the coordinate transformation between an X-ray system and a surgery navigation system
KR101156306B1 (en) Method and apparatus for instrument tracking on a scrolling series of 2d fluoroscopic images
US20080119725A1 (en) Systems and Methods for Visual Verification of CT Registration and Feedback
US20080154120A1 (en) Systems and methods for intraoperative measurements on navigated placements of implants
US20080119712A1 (en) Systems and Methods for Automated Image Registration
CN110120095A (en) System and method for using the partial 3 d volumetric reconstruction of standard fluorescence mirror
KR20190078853A (en) Laser projection apparatus and control method thereof, laser guidance system including the apparatus
US11918297B2 (en) System and method for registration between coordinate systems and navigation
CN105813563A (en) Method and system for electromagnetic tracking with magnetic trackers for respiratory monitoring
JP6806655B2 (en) Radiation imaging device, image data processing device and image processing program
US20080119724A1 (en) Systems and methods for intraoperative implant placement analysis
Otake et al. An image-guided femoroplasty system: development and initial cadaver studies

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140630

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee