WO2021101354A1 - 전자기 구동 시스템의 영상 정합 장치 및 방법 - Google Patents

전자기 구동 시스템의 영상 정합 장치 및 방법 Download PDF

Info

Publication number
WO2021101354A1
WO2021101354A1 PCT/KR2020/016619 KR2020016619W WO2021101354A1 WO 2021101354 A1 WO2021101354 A1 WO 2021101354A1 KR 2020016619 W KR2020016619 W KR 2020016619W WO 2021101354 A1 WO2021101354 A1 WO 2021101354A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
matching
electromagnetic
drive system
image matching
Prior art date
Application number
PCT/KR2020/016619
Other languages
English (en)
French (fr)
Inventor
장영준
이정민
Original Assignee
(주)바이오트코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)바이오트코리아 filed Critical (주)바이오트코리아
Publication of WO2021101354A1 publication Critical patent/WO2021101354A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/73Manipulators for magnetic surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present invention relates to an image matching device and method of an electromagnetic actuation system (EMA), and in particular, a three-dimensional image taken by a three-dimensional imaging device such as CT (Computed Tomographic), MRI (Magnetic Resonance Imaging), etc.
  • EMA electromagnetic actuation system
  • a 3-dimensional image taken by a three-dimensional imaging device such as CT (Computed Tomographic), MRI (Magnetic Resonance Imaging), etc.
  • CT Computer Tomographic
  • MRI Magnetic Resonance Imaging
  • the present invention relates to an image matching apparatus and method of an electromagnetic driving system for matching a position of a microrobot controlled by a magnetic field on a virtual 3D image by matching the coordinates of the driving system.
  • Korean Patent Registration No. 1758805 (hereinafter referred to as prior art), the existing X-ray imaging equipment is used as it is, but medical images are generated by matching multiple medical images to identify a larger area than one image. Disclosed is a medical image matching apparatus and method for reducing equipment replacement cost.
  • an object of the present invention is to provide an image matching apparatus and method of an electromagnetic driving system capable of matching the position of a microrobot on a virtual 3D image without the influence of radiation exposure.
  • an image matching device of an electromagnetic driving system is an image of an electromagnetic driving system that matches the position of a microrobot controlled by a magnetic field in the electromagnetic driving system on a virtual three-dimensional image.
  • a matching device comprising: a 3D image input unit configured to receive a 3D image such as a CT image or an MRI image before a procedure; A 2D image acquisition unit configured to acquire a 2D image including external shape and depth information of the patient in real time during the procedure; A first image matching unit configured to match the 3D image with a 2D image including external shape and depth information of the patient; An electromagnetic drive system coordinate input unit configured to receive coordinates of the electromagnetic drive system from the electromagnetic drive system; And a second-order image matching unit configured to match the image matched by the first-order image matching unit with the coordinates of the electromagnetic driving system.
  • the 2D image acquisition unit may be an imaging device configured to acquire two or more charge coupled device (CCD) images and depth information in real time.
  • CCD charge coupled device
  • internal organs and lesions of the body may be predicted based on the image matched by the first image matching unit.
  • the position of the microrobot may be matched on a virtual 3D image by matching by the second image matching unit.
  • an image matching method of an electromagnetic driving system includes the steps of: receiving a 3D image by a 3D image input unit before a procedure; Obtaining a 2D image including external shape and depth information of the patient in real time by the 2D image acquisition unit during the procedure; Matching the 3D image with a 2D image including external shape and depth information of the patient by a first image matching unit; Receiving, by an electromagnetic drive system coordinate input unit, coordinates of the electromagnetic drive system from the electromagnetic drive system; And matching, by a second image matching unit, the image matched by the first image matching unit with the coordinates of the electromagnetic driving system.
  • a three-dimensional image such as a CT image or an MRI image is input before the procedure, and the two-dimensional image including the external shape and depth information of the patient in real time during the procedure It is configured to acquire an image, match the 3D image with a 2D image including external shape and depth information of the patient, receive coordinates of the electromagnetic drive system from the electromagnetic drive system and match the matched image, There is an excellent effect of being able to match the position of the microrobot on a virtual 3D image without the influence of radiation exposure.
  • FIG. 1 is a block diagram of an image matching apparatus of an electromagnetic driving system according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating an image matching method of an electromagnetic driving system according to an embodiment of the present invention.
  • transmitting means that one component directly transmits data or signals to another component, as well as It includes transmitting data or signals to other components through at least one other component.
  • FIG. 1 is a block diagram of an image matching apparatus of an electromagnetic driving system according to an embodiment of the present invention.
  • An image matching device of an electromagnetic driving system is a device for matching the position of a microrobot controlled by a magnetic field in the electromagnetic driving system onto a virtual three-dimensional image, as shown in FIG.
  • a dimensional image input unit 100, a 2D image acquisition unit 110, a first image matching unit 200, an electromagnetic driving system coordinate input unit 210, and a second image matching unit 300 are included.
  • the 3D image input unit 100 serves to receive a 3D image such as a CT image or an MRI image from 3D imaging equipment such as CT, MRI, and cone beam CT before the procedure.
  • a 3D image such as a CT image or an MRI image from 3D imaging equipment such as CT, MRI, and cone beam CT before the procedure.
  • the 2D image acquisition unit 110 is installed in the electromagnetic driving system and serves to acquire a 2D image including the external shape and depth information of the patient in real time during the procedure.
  • the 2D image acquisition unit 110 is an imaging device configured to acquire two or more CCD images (which may be acquired by a CCD camera) and depth information (which may be acquired using laser, ultrasound, etc.) in real time. to be. Since the 2D image acquisition unit 110 does not generate radiation, there is no need to worry about radiation exposure as in the related art.
  • the first image matching unit 200 converts the 3D image input through the 3D image input unit 100 to a 2D image including external shape and depth information of the patient acquired by the 2D image acquisition unit 110. It plays a role in matching.
  • the internal organs and lesions of the body may be predicted based on the image matched by the first image matching unit 200.
  • the electromagnetic drive system coordinate input unit 210 serves to receive coordinates of the electromagnetic drive system from the electromagnetic drive system.
  • the position of the microrobot can be determined by the coordinates of the electromagnetic drive system.
  • the second image matching unit 300 serves to match the image matched by the first image matching unit 200 with the coordinates of the electromagnetic driving system input by the electromagnetic driving system coordinate input unit 210. It can be seen that the position of the microrobot is matched on a virtual 3D image by the registration by the second image matching unit 300.
  • FIG. 2 is a flowchart for explaining an image matching method of an electromagnetic driving system according to an embodiment of the present invention, where S denotes a step.
  • the 3D image input unit 100 receives a 3D image from the 3D imaging device (S10).
  • a 2D image including external shape and depth information of the patient is acquired in real time by the 2D image acquisition unit 110 while the treatment by the electromagnetic driving system is being performed (S20).
  • the first image matching unit 200 converts the 3D image input through the 3D image input unit 100 into a 2D image including external shape and depth information of the patient acquired by the 2D image acquisition unit 110. Match the image (S30).
  • the electromagnetic drive system coordinate input unit 210 receives the coordinates of the electromagnetic drive system from the electromagnetic drive system (S40), and the second image matching unit 300 generates the image matched in step S30 (S40). Matched with the coordinates of the electromagnetic drive system input in (S50).
  • a three-dimensional image such as a CT image or an MRI image is input before a procedure, and a two-dimensional image including the external shape and depth information of the patient in real time during the procedure It is configured to acquire an image, match the 3D image with a 2D image including external shape and depth information of the patient, receive coordinates of the electromagnetic drive system from the electromagnetic drive system and match the matched image, The position of the microrobot can be matched onto a virtual 3D image without the influence of radiation exposure.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명은 전자기 구동 시스템(Electromagnetic Actuation System, EMA)의 영상 정합 장치 및 방법에 관한 것으로서, 특히 시술 전에 CT(Computed Tomographic), MRI(Magnetic Resonance Imaging) 등과 같은 3차원 촬영장비에 의해 촬영된 3차원 영상을 입력받고, 시술 중에 2차원 영상 획득부에 의해 환자를 촬영하여 환자의 외형 및 깊이 정보를 포함하는 2차원 영상을 획득하고, 3차원 영상과 2차원 영상을 정합한 후 해당 정합 영상을 전자기 구동 시스템의 좌표와 정합시킴으로써 자기장에 의해 제어되는 마이크로로봇의 위치를 가상의 3차원 영상 상에 정합시키는 전자기 구동 시스템의 영상 정합 장치 및 방법에 관한 것이다.

Description

전자기 구동 시스템의 영상 정합 장치 및 방법
본 발명은 전자기 구동 시스템(Electromagnetic Actuation System, EMA)의 영상 정합 장치 및 방법에 관한 것으로서, 특히 시술 전에 CT(Computed Tomographic), MRI(Magnetic Resonance Imaging) 등과 같은 3차원 촬영장비에 의해 촬영된 3차원 영상을 입력받고, 시술 중에 2차원 영상 획득부에 의해 환자를 촬영하여 환자의 외형 및 깊이 정보를 포함하는 2차원 영상을 획득하고, 3차원 영상과 2차원 영상을 정합한 후 해당 정합 영상을 전자기 구동 시스템의 좌표와 정합시킴으로써 자기장에 의해 제어되는 마이크로로봇의 위치를 가상의 3차원 영상 상에 정합시키는 전자기 구동 시스템의 영상 정합 장치 및 방법에 관한 것이다.
최근, 의료용 무선 마이크로로봇에 대한 연구가 활발하게 진행되고 있다. 특히, 허혈성 혈관 질환 치료를 위해 기존의 카테터를 이용한 시술과는 달리 혈관 내 마이크로로봇의 이동 및 치료를 위한 다양한 형태의 전자기 구동 시스템이 연구되고 있다.
국내 특허 등록 제1758805호 공보(이하, 선행기술이라 함)에는 기존의 엑스레이 영상 장비들을 그대로 활용하되, 복수 개의 의료 영상을 정합하여 하나의 영상보다 넓은 영역을 확인할 수 있는 정합 영상을 생성함으로써 의료 영상 장비의 교체 비용을 절감하기 위한 의료 영상 정합 장치 및 방법이 개시되어 있다.
그러나 선행기술은 엑스레이 영상 장비로부터 획득된 영상을 사용하므로 방사능 피폭의 영향이 있기 때문에 환자 및 의사에게 위해를 가할 수 있다는 문제점이 있었다.
따라서 본 발명은 상기와 같은 점에 착안하여 이루어진 것으로서, 본 발명의 목적은 방사선 피폭의 영향 없이 마이크로로봇의 위치를 가상의 3차원 영상 상에 정합시킬 수 있는 전자기 구동 시스템의 영상 정합 장치 및 방법을 제공하는 데에 있다.
상기의 목적을 달성하기 위해 본 발명의 실시형태에 의한 전자기 구동 시스템의 영상 정합 장치는 전자기 구동 시스템에서 자기장에 의해 제어되는 마이크로로봇의 위치를 가상의 3차원 영상 상에 정합시키는 전자기 구동 시스템의 영상 정합 장치로서, 시술 전에 CT 영상 또는 MRI 영상과 같은 3차원 영상을 입력받도록 구성된 3차원 영상 입력부; 시술 중에 실시간으로 환자의 외형 및 깊이 정보를 포함하는 2차원 영상을 획득하도록 구성된 2차원 영상 획득부; 상기 3차원 영상을 상기 환자의 외형 및 깊이 정보를 포함하는 2차원 영상과 정합시키도록 구성된 제 1 차 영상 정합부; 상기 전자기 구동 시스템으로부터 전자기 구동 시스템의 좌표를 입력받도록 구성된 전자기 구동 시스템 좌표 입력부; 및 상기 제 1 차 영상 정합부에 의해 정합된 영상을 상기 전자기 구동 시스템의 좌표와 정합시키도록 구성된 제 2 차 영상 정합부;를 포함하는 것을 특징으로 한다.
상기 실시형태에 의한 전자기 구동 시스템의 영상 정합 장치에 있어서, 상기 2차원 영상 획득부는 2개 이상의 CCD(charge coupled device) 이미지 및 깊이 정보를 실시간으로 획득하도록 구성된 영상 장비일 수 있다.
상기 실시형태에 의한 전자기 구동 시스템의 영상 정합 장치에 있어서, 상기 제 1 차 영상 정합부에 의해 정합된 영상을 기초로 신체 내부 장기 및 병변이 예측될 수 있다.
상기 실시형태에 의한 전자기 구동 시스템의 영상 정합 장치에 있어서, 상기 제 2차 영상 정합부에 의한 정합에 의해 마이크로로봇의 위치가 가상의 3차원 영상 상에 정합될 수 있다.
상기의 목적을 달성하기 위해 본 발명의 다른 실시형태에 의한 전자기 구동 시스템의 영상 정합 방법은 시술 전에 3차원 영상 입력부가 3차원 영상을 입력받는 단계; 시술 중에 2차원 영상 획득부에 의해 실시간으로 환자의 외형 및 깊이 정보를 포함하는 2차원 영상이 획득되는 단계; 제 1 차 영상 정합부가 상기 3차원 영상을 상기 환자의 외형 및 깊이 정보를 포함하는 2차원 영상과 정합시키는 단계; 전자기 구동 시스템 좌표 입력부가 상기 전자기 구동 시스템으로부터 전자기 구동 시스템의 좌표를 입력받는 단계; 및 제 2 차 영상 정합부가 상기 제 1 차 영상 정합부에 의해 정합된 영상을 상기 전자기 구동 시스템의 좌표와 정합시키는 단계;를 포함하는 것을 특징으로 한다.
본 발명의 실시형태에 의한 전자기 구동 시스템의 영상 정합 장치 및 방법에 의하면, 시술 전에 CT 영상 또는 MRI 영상과 같은 3차원 영상을 입력받고, 시술 중에 실시간으로 환자의 외형 및 깊이 정보를 포함하는 2차원 영상을 획득하며, 상기 3차원 영상을 상기 환자의 외형 및 깊이 정보를 포함하는 2차원 영상과 정합시키며, 전자기 구동 시스템으로부터 전자기 구동 시스템의 좌표를 입력받아 상기 정합된 영상과 정합시키도록 구성됨으로써, 방사선 피폭의 영향 없이 마이크로로봇의 위치를 가상의 3차원 영상 상에 정합시킬 수 있다는 뛰어난 효과가 있다.
도 1은 본 발명의 실시예에 의한 전자기 구동 시스템의 영상 정합 장치의 블록 구성도이다.
도 2는 본 발명의 실시예에 의한 전자기 구동 시스템의 영상 정합 방법을 설명하기 위한 플로우챠트이다.
본 발명의 실시예를 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예를 기술하기 위한 것이며, 결코 제한적으로 해석되어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하는 것으로 해석되어서는 안 된다.
도면에서 도시된 각 장치에서, 몇몇 경우에서의 요소는 각각 동일한 참조 번호 또는 상이한 참조 번호를 가져서 표현된 요소가 상이하거나 유사할 수가 있음을 시사할 수 있다. 그러나 요소는 상이한 구현을 가지고 본 명세서에서 보여지거나 기술된 장치 중 몇몇 또는 전부와 작동할 수 있다. 도면에서 도시된 다양한 요소는 동일하거나 상이할 수 있다. 어느 것이 제1 요소로 지칭되는지 및 어느 것이 제2 요소로 불리는지는 임의적이다.
본 명세서에서 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송', '전달' 또는 '제공'한다 함은 어느 한 구성요소가 다른 구성요소로 직접 데이터 또는 신호를 전송하는 것은 물론, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송하는 것을 포함한다.
이하, 본 발명의 실시예를 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 실시예에 의한 전자기 구동 시스템의 영상 정합 장치의 블록 구성도이다.
본 발명의 실시예에 의한 전자기 구동 시스템의 영상 정합 장치는 전자기 구동 시스템에서 자기장에 의해 제어되는 마이크로로봇의 위치를 가상의 3차원 영상 상에 정합시키는 장치로서, 도 1에 도시된 바와 같이, 3차원 영상 입력부(100), 2차원 영상 획득부(110), 제 1 차 영상 정합부(200), 전자기 구동 시스템 좌표 입력부(210) 및 제 2 차 영상 정합부(300)를 포함한다.
3차원 영상 입력부(100)는 시술 전에 CT, MRI, 콘빔(cone beam) CT 등의 3차원 영상 장비로부터 CT 영상 또는 MRI 영상과 같은 3차원 영상을 입력받는 역할을 한다.
2차원 영상 획득부(110)는 전자기 구동 시스템 내에 설치되어 시술 중에 실시간으로 환자의 외형 및 깊이 정보를 포함하는 2차원 영상을 획득하는 역할을 한다. 2차원 영상 획득부(110)는 2개 이상의 CCD 이미지 (CCD 카메라에 의해 획득될 수 있음) 및 깊이 정보(레이저, 초음파 등을 활용하여 획득될 수 있음)를 실시간으로 획득할 수 있도록 구성된 영상 장비이다. 2차원 영상 획득부(110)는 방사능을 발생시키지 않으므로 종래와 같은 방사선 피폭에 대해 우려할 필요가 없다.
제 1 차 영상 정합부(200)는 3차원 영상 입력부(100)를 통해 입력된 3차원 영상을 2차원 영상 획득부(110)에 의해 획득된 환자의 외형 및 깊이 정보를 포함하는 2차원 영상과 정합시키는 역할을 한다. 제 1 차 영상 정합부(200)에 의해 정합된 영상을 기초로 신체 내부 장기 및 병변을 예측할 수 있다.
전자기 구동 시스템 좌표 입력부(210)는 전자기 구동 시스템으로부터 전자기 구동 시스템의 좌표를 입력받는 역할을 한다. 전자기 구동 시스템의 좌표에 의해 마이크로로봇의 위치를 알 수 있다.
제 2 차 영상 정합부(300)는 제 1 차 영상 정합부(200)에 의해 정합된 영상을 전자기 구동 시스템 좌표 입력부(210)에 의해 입력된 전자기 구동 시스템의 좌표와 정합시키는 역할을 한다. 제 2차 영상 정합부(300)에 의한 정합에 의해 마이크로로봇의 위치가 가상의 3차원 영상 상에 정합됨을 알 수 있다.
상기와 같이 구성된 본 발명의 실시예에 의한 전자기 구동 시스템의 영상 정합 장치를 이용한 전자기 구동 시스템의 영상 정합 방법에 대해 설명하기로 한다.
도 2는 본 발명의 실시예에 의한 전자기 구동 시스템의 영상 정합 방법을 설명하기 위한 플로우챠트로서, 여기서 S는 스텝(step)을 의미한다.
먼저, 시술 전에 3차원 영상 입력부(100)가 3차원 영상 장비로부터 3차원 영상을 입력받는다(S10).
이어서, 전자기 구동 시스템에 의한 시술이 이루어지는 중에 2차원 영상 획득부(110)에 의해 실시간으로 환자의 외형 및 깊이 정보를 포함하는 2차원 영상이 획득된다(S20).
다음, 제 1 차 영상 정합부(200)는 3차원 영상 입력부(100)를 통해 입력된 3차원 영상을 2차원 영상 획득부(110)에 의해 획득된 환자의 외형 및 깊이 정보를 포함하는 2차원 영상과 정합시킨다(S30).
이어서, 전자기 구동 시스템 좌표 입력부(210)가 전자기 구동 시스템으로부터 전자기 구동 시스템의 좌표를 입력받고(S40), 제 2 차 영상 정합부(300)가 스텝(S30)에서 정합된 영상을 스텝(S40)에서 입력된 전자기 구동 시스템의 좌표와 정합시킨다(S50).
본 발명의 실시예에 의한 전자기 구동 시스템의 영상 정합 장치 및 방법에 의하면, 시술 전에 CT 영상 또는 MRI 영상과 같은 3차원 영상을 입력받고, 시술 중에 실시간으로 환자의 외형 및 깊이 정보를 포함하는 2차원 영상을 획득하며, 상기 3차원 영상을 상기 환자의 외형 및 깊이 정보를 포함하는 2차원 영상과 정합시키며, 전자기 구동 시스템으로부터 전자기 구동 시스템의 좌표를 입력받아 상기 정합된 영상과 정합시키도록 구성됨으로써, 방사선 피폭의 영향 없이 마이크로로봇의 위치를 가상의 3차원 영상 상에 정합시킬 수 있다.
도면과 명세서에는 최적의 실시예가 개시되었으며, 특정한 용어들이 사용되었으나 이는 단지 본 발명의 실시형태를 설명하기 위한 목적으로 사용된 것이지 의미를 한정하거나 특허 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 수 있을 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (5)

  1. 전자기 구동 시스템(Electromagnetic Actuation System, EMA)에서 자기장에 의해 제어되는 마이크로로봇의 위치를 가상의 3차원 영상 상에 정합시키는 전자기 구동 시스템의 영상 정합 장치로서,
    시술 전에 CT(Computed Tomographic) 영상 또는 MRI(Magnetic Resonance Imaging) 영상과 같은 3차원 영상을 입력받도록 구성된 3차원 영상 입력부;
    시술 중에 실시간으로 환자의 외형 및 깊이 정보를 포함하는 2차원 영상을 획득하도록 구성된 2차원 영상 획득부;
    상기 3차원 영상을 상기 환자의 외형 및 깊이 정보를 포함하는 2차원 영상과 정합시키도록 구성된 제 1 차 영상 정합부;
    상기 전자기 구동 시스템으로부터 전자기 구동 시스템의 좌표를 입력받도록 구성된 전자기 구동 시스템 좌표 입력부; 및
    상기 제 1 차 영상 정합부에 의해 정합된 영상을 상기 전자기 구동 시스템의 좌표와 정합시키도록 구성된 제 2 차 영상 정합부;를 포함하는 전자기 구동 시스템의 영상 정합 장치.
  2. 제 1 항에 있어서,
    상기 2차원 영상 획득부는
    2개 이상의 CCD (charge coupled device) 이미지 및 깊이 정보를 실시간으로 획득하도록 구성된 영상 장비인 전자기 구동 시스템의 영상 정합 장치.
  3. 제 1 항에 있어서,
    상기 제 1 차 영상 정합부에 의해 정합된 영상을 기초로 신체 내부 장기 및 병변이 예측되는 전자기 구동 시스템의 영상 정합 장치.
  4. 제 1 항에 있어서,
    상기 제 2차 영상 정합부에 의한 정합에 의해 마이크로로봇의 위치가 가상의 3차원 영상 상에 정합되는 전자기 구동 시스템의 영상 정합 장치.
  5. 제 1 항에 기재된 전자기 구동 시스템의 영상 정합 장치를 이용한 영상 정합 방법으로서,
    시술 전에 3차원 영상 입력부가 3차원 영상을 입력받는 단계;
    시술 중에 2차원 영상 획득부에 의해 실시간으로 환자의 외형 및 깊이 정보를 포함하는 2차원 영상이 획득되는 단계;
    제 1 차 영상 정합부가 상기 3차원 영상을 상기 환자의 외형 및 깊이 정보를 포함하는 2차원 영상과 정합시키는 단계;
    전자기 구동 시스템 좌표 입력부가 상기 전자기 구동 시스템으로부터 전자기 구동 시스템의 좌표를 입력받는 단계; 및
    제 2 차 영상 정합부가 상기 제 1 차 영상 정합부에 의해 정합된 영상을 상기 전자기 구동 시스템의 좌표와 정합시키는 단계;를 포함하는 전자기 구동 시스템의 영상 정합 방법.
PCT/KR2020/016619 2019-11-21 2020-11-23 전자기 구동 시스템의 영상 정합 장치 및 방법 WO2021101354A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0150528 2019-11-21
KR1020190150528A KR20210062377A (ko) 2019-11-21 2019-11-21 전자기 구동 시스템의 영상 정합 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2021101354A1 true WO2021101354A1 (ko) 2021-05-27

Family

ID=75980082

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/016619 WO2021101354A1 (ko) 2019-11-21 2020-11-23 전자기 구동 시스템의 영상 정합 장치 및 방법

Country Status (2)

Country Link
KR (1) KR20210062377A (ko)
WO (1) WO2021101354A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110078274A (ko) * 2009-12-31 2011-07-07 주식회사 사이버메드 이미지 정합을 이용한 혈관 치료용 마이크로 로봇의 위치 추적 방법
KR101349275B1 (ko) * 2012-08-24 2014-01-09 전남대학교산학협력단 피두셜 마커를 이용한 2차원 이미지와 3차원 이미지의 정합 시스템 및 그 방법
KR20150051618A (ko) * 2013-11-05 2015-05-13 한국디지털병원수출사업협동조합 3차원 초음파 스캔 이미지의 합성을 포함한 3차원 초음파 진단 장치 및 방법
US20160242724A1 (en) * 2013-11-04 2016-08-25 Surgivisio Method for reconstructing a 3d image from 2d x-ray images
KR20170084945A (ko) * 2016-01-13 2017-07-21 삼성메디슨 주식회사 영상 정합 방법 및 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101758805B1 (ko) 2016-04-28 2017-07-18 스마트케어웍스(주) 의료 영상 정합 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110078274A (ko) * 2009-12-31 2011-07-07 주식회사 사이버메드 이미지 정합을 이용한 혈관 치료용 마이크로 로봇의 위치 추적 방법
KR101349275B1 (ko) * 2012-08-24 2014-01-09 전남대학교산학협력단 피두셜 마커를 이용한 2차원 이미지와 3차원 이미지의 정합 시스템 및 그 방법
US20160242724A1 (en) * 2013-11-04 2016-08-25 Surgivisio Method for reconstructing a 3d image from 2d x-ray images
KR20150051618A (ko) * 2013-11-05 2015-05-13 한국디지털병원수출사업협동조합 3차원 초음파 스캔 이미지의 합성을 포함한 3차원 초음파 진단 장치 및 방법
KR20170084945A (ko) * 2016-01-13 2017-07-21 삼성메디슨 주식회사 영상 정합 방법 및 장치

Also Published As

Publication number Publication date
KR20210062377A (ko) 2021-05-31

Similar Documents

Publication Publication Date Title
WO2016195401A1 (ko) 증강현실을 이용한 외과 수술용 3d 안경 시스템
WO2010093153A2 (ko) 수술용 항법 장치 및 그 방법
WO2020185048A2 (ko) C-arm 기반의 의료영상 시스템 및 2d 이미지와 3d 공간의 정합방법
JP4588981B2 (ja) 患者の繰り返し同じ相対的位置決め装置ならびに画像診断および/または治療装置
WO2022035110A1 (ko) 증강현실 의료영상을 제공하기 위한 사용자 단말기 및 증강현실 의료영상 제공 방법
WO2018216963A1 (ko) 영상 시스템이 결합된 마이크로로봇 제어 시스템
US7742569B2 (en) X-ray system and method for image composition
KR20130108320A (ko) 관련 애플리케이션들에 대한 일치화된 피하 해부구조 참조의 시각화
GB2433668A (en) Image registration based on the relative position of an imager to an imaged object
WO2015178745A1 (ko) 깊이 카메라를 이용한 의료영상 촬영장치 및 의료영상 보정방법
WO2014088193A1 (ko) 포터블 엑스선 영상 시스템 및 이를 사용하는 수술대 장치
WO2021101354A1 (ko) 전자기 구동 시스템의 영상 정합 장치 및 방법
WO2017196082A1 (ko) 3차원 두부 영상 정렬 장치 및 방법
CN108170259A (zh) 医疗系统辅助处理设备、医疗系统及辅助处理方法
WO2020041615A1 (en) Patient viewing system
WO2020209568A1 (ko) 방사선 진단 및 치료 장치의 모션 평가 시스템 및 방법
JP3780217B2 (ja) 放射線撮影装置
JP2001285858A (ja) 画像撮影方法および画像撮影装置
US20190236804A1 (en) Patient-mounted or patient support-mounted camera for position monitoring during medical procedures
WO2017105032A1 (ko) 치과용 임플란트 시술 계획 방법, 이를 위한 장치 및 이를 기록한 기록매체
WO2017003223A1 (ko) 영상 획득 장치 및 방법
CN211580038U (zh) 一种内窥镜及其摄像头组件
WO2016190575A1 (ko) 중재시술용 위치 계측기 및 이를 포함하는 바늘 가이드형 중재시술 로봇시스템
WO2020185049A2 (ko) 페디클 스크류 고정 플래닝 시스템 및 방법
WO2020231048A2 (ko) 증강현실을 이용한 의료 기구 자세 추적 시스템 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20888937

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20888937

Country of ref document: EP

Kind code of ref document: A1