KR101239294B1 - Apparatus and method for registering images at coordinate space - Google Patents

Apparatus and method for registering images at coordinate space Download PDF

Info

Publication number
KR101239294B1
KR101239294B1 KR1020110048585A KR20110048585A KR101239294B1 KR 101239294 B1 KR101239294 B1 KR 101239294B1 KR 1020110048585 A KR1020110048585 A KR 1020110048585A KR 20110048585 A KR20110048585 A KR 20110048585A KR 101239294 B1 KR101239294 B1 KR 101239294B1
Authority
KR
South Korea
Prior art keywords
image
robot
model
tomography
dimensional
Prior art date
Application number
KR1020110048585A
Other languages
Korean (ko)
Other versions
KR20120130563A (en
Inventor
김영수
신승학
장종성
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020110048585A priority Critical patent/KR101239294B1/en
Publication of KR20120130563A publication Critical patent/KR20120130563A/en
Application granted granted Critical
Publication of KR101239294B1 publication Critical patent/KR101239294B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4458Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit or the detector unit being attached to robotic arms

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

본 발명에 의한 영상 정합 장치는, 검사대상을 단층촬영하는 단층촬영기; 상기 단층촬영기에 의해 촬영된 다수개의 단층촬영 영상에서 표면정보만을 추출하여 3차원 영상모델로 재구성하는 연산부; 검사대상이 안착된 공간상에서 3차원으로 이동 가능한 로봇; 상기 로봇에 장착되며, 상기 검사대상 표면의 각 지점 위치정보를 수집하여 상기 검사대상의 표면을 3차원 표면모델로 재구성하는 표면영상 측정기; 상기 3차원 영상모델과 3차원 표면모델을 정합하여, 단층촬영 영상의 공간좌표계와 로봇의 공간좌표계를 일치시키는 제어부를 포함하여 구성된다. 본 발명에 의한 영상정합장치 및 영상정합방법을 이용하면, 환자에게 인공표식을 부착하고 인공표식의 위치를 감지하는 작업을 할 필요가 없으므로 영상정합을 위한 장치 및 공정이 매우 간단하며, 한 번의 정합과정을 통해 단층촬영 영상 공간좌표계를 검사대상과 조작로봇이 존재하고 있는 공간좌표계로 정합할 수 있으므로 두 단계의 정합과정을 거치는 종래에 비해 오차가 현저히 감소된다는 장점이 있다.An image matching device according to the present invention comprises: a tomography machine for tomography imaging of a subject; A calculation unit configured to extract only surface information from the plurality of tomography images photographed by the tomography camera and reconstruct it into a 3D image model; A robot capable of moving in three dimensions in a space on which an inspection object is seated; A surface image measuring device mounted on the robot and collecting position information of each point of the inspection target surface and reconstructing the inspection target surface into a three-dimensional surface model; And a controller for matching the three-dimensional image model and the three-dimensional surface model to match the spatial coordinate system of the tomography image with the spatial coordinate system of the robot. By using the image registration device and the image registration method according to the present invention, there is no need to attach the artificial marker to the patient and to detect the position of the artificial marker. Through the process, the tomography image spatial coordinate system can be matched to the spatial coordinate system in which the inspection object and the control robot exist, which has the advantage that the error is significantly reduced compared to the conventional two-step matching process.

Description

좌표공간 상에서의 영상정합장치 및 영상정합방법 {Apparatus and method for registering images at coordinate space}Image registration device and image registration method in coordinate space {Apparatus and method for registering images at coordinate space}

본 발명은 검사대상의 단층촬영 영상을 검사대상 조작로봇이 존재하는 좌표공간으로 정합하는 영상정합장치 및 영상정합방법에 관한 것으로, 더 상세하게는 단층촬영 표면영상과 검사대상의 현재 표면영상을 정합함으로써 단층촬영 영상을 검사대상 조작로봇이 존재하는 현실공간에 한 번에 정합시킬 수 있는 영상정합장치 및 영상정합방법에 관한 것이다.The present invention relates to an image registration device and an image registration method for matching a tomography image of an inspection target to a coordinate space in which the inspection robot is present, and more particularly, to a tomography surface image and a current surface image of the inspection target. The present invention relates to an image registration device and an image registration method capable of matching tomography images at a time in a real space in which an inspection target manipulation robot exists.

의학적으로 수술이란 피부나 점막, 기타 조직을 의료 기계를 사용하여 자르거나 째거나 조작을 가하여 병을 고치는 것을 말한다. 특히, 수술부위의 피부를 절개하여 열고 그 내부에 있는 기관 등을 치료, 성형하거나 제거하는 개복 수술은 출혈, 부작용, 환자의 고통, 흉터 등의 문제가 발생되는 바, 최근에는 로봇(robot)을 사용한 수술이 대안으로서 각광받고 있다.Medically, surgery refers to the repair of a skin, mucous membrane, or other tissue that is cut, torn or manipulated using a medical device. In particular, open surgery to incise and open the skin of the surgical site to treat, shape, or remove the organs therein causes problems such as bleeding, side effects, patient pain, and scars. The surgery used is in the spotlight as an alternative.

이와 같이 로봇을 사용한 수술 방법으로는 여러 종류가 있는데, 신체 내부를 수술하고자 하는 경우에는 신체 내부의 영상을 보면서 로봇을 조작하는 영상유도수술(IGS : image-guided surgery)이 주로 활용되고 있다. 영상유도수술은 수술장에서 수술도구의 위치를 추적하여 CT 영상 또는 MR 영상 등 환자의 단층촬영 영상에 중첩하여 시각화함으로써 수술의 정확성과 안정성을 높일 수 있는 방법이다. As described above, there are various types of surgical methods using a robot. In order to operate the inside of a body, image-guided surgery (IGS: image-guided surgery) for manipulating the robot while watching an image inside the body is mainly used. Image guided surgery is a method to increase the accuracy and stability of surgery by tracking the location of surgical instruments in the operating room and visualizing them on CT scans or MR images.

영상유도수술을 수행하기 위해서는, 수술 전 획득한 환자의 CT 혹은 MR 영상(이하 '단층촬영 영상'이라 통칭함)을 이용하여 수술 계획을 수립하고, 계산된 로봇의 이동 경로를 수술에 적용하기 전에 로봇과 영상 그리고 환자 공간 사이의 정합이 필수적으로 요구된다. 이와 같은 정합은, 환자에 인공표식을 부착한 후 위치 추적이 가능한 프로브로 부착된 인공표식의 위치정보를 획득하는 과정과, CT 혹은 MR 영상에서 추출한 인공표식의 위치와 수술실에서 획득한 인공표식의 위치를 기반으로 하는 포인트 기반 정합 과정을 통해 이루어진다.In order to perform the image guided surgery, the surgical plan is prepared using the CT or MR images (hereinafter referred to as 'tomographic images') of the patient obtained before surgery, and before the calculated robot's movement path is applied to the surgery. The registration between the robot, the image and the patient space is essential. Such registration includes the process of acquiring the position information of the artificial marker attached to the patient after attaching the artificial marker to the patient, and the position of the artificial marker extracted from the CT or MR image and the artificial marker obtained from the operating room. This is achieved through a point-based registration process based on location.

즉, 상기와 같은 종래의 정합방법은, 단층촬영 영상과 인공표식 간의 정합과, 로봇이 위치하는 공간과 인공표식 간의 정합이 각각 이루어져야 하므로, 2번의 정합 과정을 거치는 동안 오차가 커질 수 있다는 문제점이 있다. 또한 상기와 같은 종래의 정합방법은, 환자에게 수술에 불필요한 인공표식을 부착하기 때문에 환자에게 위해를 가할 수 있고, 정합 과정이 복잡하여 사용자의 숙련도에 따라 손떨림 등에 의한 인공 표식의 위치 측정오차가 발생될 수 있다는 단점이 있다. That is, in the conventional matching method as described above, since the matching between the tomography image and the artificial marker and the space between the robot location and the artificial marker have to be performed, the error may increase during two matching processes. have. In addition, in the conventional matching method as described above, the artificial markers unnecessary for the operation may be attached to the patient, which may cause harm to the patient, and the registration process is complicated, resulting in a position measurement error of the artificial marker due to the shaking of the user according to the user's skill. The disadvantage is that it can be.

본 발명은 상기와 같은 문제점을 해결하기 위하여 제안된 것으로, 한 번의 정합과정을 통해 단층촬영 영상을 검사대상과 조작로봇이 존재하고 있는 좌표공간으로 정합할 수 있는 영상정합장치 및 영상정합방법을 제공하는데 목적이 있다.The present invention has been proposed to solve the above problems, and provides an image registration apparatus and an image registration method capable of matching a tomography image to a coordinate space in which an inspection subject and a control robot exist through one registration process. The purpose is to.

상기와 같은 목적을 달성하기 위한 본 발명에 의한 영상 정합 장치는, 검사대상에 대한 다수개의 단층촬영 영상에서 표면정보만을 추출하여 3차원 영상모델로 재구성하는 연산부; 검사대상이 안착된 공간상에서 3차원으로 이동 가능한 로봇; 상기 로봇에 장착되며, 상기 검사대상 표면의 각 지점 위치정보를 수집하여 상기 검사대상의 표면을 3차원 표면모델로 재구성하는 표면영상 측정기; 상기 3차원 영상모델과 3차원 표면모델을 정합하여, 단층촬영 영상의 공간좌표계와 로봇의 공간좌표계를 일치시키는 제어부;를 포함하여 구성된다.In accordance with one aspect of the present invention, an image matching device includes: an operation unit configured to extract only surface information from a plurality of tomography images of an object to be reconstructed into a 3D image model; A robot capable of moving in three dimensions in a space on which an inspection object is seated; A surface image measuring device mounted on the robot and collecting position information of each point of the inspection target surface and reconstructing the inspection target surface into a three-dimensional surface model; And a controller configured to match the 3D image model and the 3D surface model to match the spatial coordinate system of the tomography image with the spatial coordinate system of the robot.

상기 연산부는, 상기 단층촬영 영상에서 추출한 표면정보를 마칭 큐브 알고리즘(Marching Cube Algorithm)을 사용하여 3차원 영상모델로 재구성한다.The calculator reconstructs the surface information extracted from the tomography image into a 3D image model using a Marching Cube Algorithm.

상기 연산부는, 상기 단층촬영 영상에 디스플레이되는 검사대상 형상 중 최외곽 라인의 내부영역을 삭제함으로써 표면정보를 추출하도록 구성된다.The calculating unit is configured to extract surface information by deleting an inner region of the outermost line of the inspection object shape displayed on the tomography image.

상기 제어부는, ICP(Iterative Closest Point) 알고리즘을 사용하여 상기 3차원 영상모델과 3차원 표면모델을 정합하도록 구성된다.The control unit is configured to match the 3D image model and the 3D surface model using an iterative closest point (ICP) algorithm.

상기 표면영상 측정기는, 검사대상 표면 중 어느 한 지점까지의 거리를 측정한 후 상기 로봇의 위치 및 각도를 고려하여, 검사대상 표면 중 거리를 측정한 어느 한 지점의 위치를 로봇의 공간좌표로 변환함으로써, 상기 3차원 표면모델을 로봇의 공간좌표계 상에서 재구성한다.The surface image measuring device measures the distance to any one point of the inspection target surface and converts the position of any one point measuring the distance among the inspection target surfaces into the spatial coordinates of the robot in consideration of the position and angle of the inspection target surface. Thus, the three-dimensional surface model is reconstructed on the spatial coordinate system of the robot.

상기 표면영상 측정기는, 레이저 스캐너 또는 3차원 카메라로 적용된다.The surface image measuring device is applied to a laser scanner or a three-dimensional camera.

본 발명에 의한 영상 정합 방법은, 검사대상에 대한 다수개의 단층촬영 영상에서 표면정보만을 추출하여 3차원 영상모델로 재구성하는 제1 단계; 로봇에 장착된 표면영상 측정기의 위치를 변경시켜 가면서 상기 검사대상 표면의 각 지점 위치정보를 수집하여 상기 검사대상의 표면을 3차원 표면모델로 재구성하는 제2 단계; 상기 3차원 영상모델과 3차원 표면모델을 정합하여, 단층촬영 영상의 공간좌표계와 로봇의 공간좌표계를 일치시키는 제3 단계;를 포함한다.According to an aspect of the present invention, there is provided a method of image matching, comprising: a first step of extracting only surface information from a plurality of tomography images of a subject to be reconstructed into a 3D image model; A second step of reconfiguring the surface of the inspection object into a three-dimensional surface model by collecting position information of each point of the inspection object surface while changing the position of the surface image measuring instrument mounted on the robot; And a third step of matching the three-dimensional image model and the three-dimensional surface model to match the spatial coordinate system of the tomography image with the spatial coordinate system of the robot.

상기 제1 단계는, 마칭 큐브 알고리즘(Marching Cube Algorithm)을 이용하여 상기 단층촬영 영상에서 추출한 표면정보를 3차원 영상모델로 재구성하도록 구성된다.The first step is configured to reconstruct the surface information extracted from the tomography image into a 3D image model using a Marching Cube Algorithm.

상기 제1 단계는, 상기 단층촬영 영상에 디스플레이되는 검사대상 형상 중 최외곽 라인의 내부영역을 삭제함으로써 표면정보를 추출하도록 구성된다.The first step is configured to extract surface information by deleting an inner region of the outermost line of the inspection object shape displayed on the tomography image.

상기 제1 단계는, 상기 단층촬영 영상에 디스플레이되는 검사대상 형상 중 최외곽 라인의 내부영역을 삭제하는 과정을 통해 표면정보를 추출하도록 구성된다.The first step may be configured to extract surface information through a process of deleting an inner region of an outermost line of the inspection target shape displayed on the tomography image.

상기 제2 단계는, 검사대상 표면 중 어느 한 지점까지의 거리를 측정한 후 상기 로봇의 위치 및 각도를 고려하여, 검사대상 표면 중 거리를 측정한 어느 한 지점의 위치를 로봇의 공간좌표로 변환함으로써, 상기 3차원 표면모델을 로봇의 공간좌표계 상에서 재구성한다.In the second step, after measuring the distance to any point of the surface to be examined, in consideration of the position and angle of the robot, converting the position of any point of the distance to the space coordinates of the inspection object to the spatial coordinates of the robot Thus, the three-dimensional surface model is reconstructed on the spatial coordinate system of the robot.

상기 제3 단계는, ICP(Iterative Closest Point) 알고리즘을 이용하여 상기 3차원 영상모델과 3차원 표면모델을 정합하도록 구성된다.The third step is configured to match the three-dimensional image model and the three-dimensional surface model using an Iterative Closest Point (ICP) algorithm.

상기 표면영상 측정기는, 레이저 스캐너 또는 3차원 카메라로 적용된다.The surface image measuring device is applied to a laser scanner or a three-dimensional camera.

본 발명에 의한 영상정합장치 및 영상정합방법을 이용하면, 환자에게 인공표식을 부착하고 인공표식의 위치를 감지하는 작업을 할 필요가 없으므로 영상정합을 위한 장치 및 공정이 매우 간단하며, 한 번의 정합과정을 통해 단층촬영 영상 공간좌표계를 검사대상과 조작로봇이 존재하고 있는 공간좌표계로 정합할 수 있으므로 두 단계의 정합과정을 거치는 종래에 비해 오차가 현저히 감소된다는 장점이 있다.By using the image registration device and the image registration method according to the present invention, there is no need to attach the artificial marker to the patient and to detect the position of the artificial marker. Through the process, the tomography image spatial coordinate system can be matched to the spatial coordinate system in which the inspection object and the control robot exist, which has the advantage that the error is significantly reduced compared to the conventional two-step matching process.

도 1은 본 발명에 의한 영상정합장치의 블록도이다.
도 2는 본 발명에 의한 영상정합방법의 순서도이다.
도 3은 3차원 영상모델을 구성하는 과정을 순차적으로 도시한다.
도 4는 본 발명에 의한 영상정합장치에 포함되는 로봇과 표면영상 측정기를 도시한다.
도 5는 3차원 영상모델과 3차원 표면모델을 정합시킨 형상을 도시한다.
1 is a block diagram of an image registration device according to the present invention.
2 is a flowchart of an image registration method according to the present invention.
3 sequentially illustrates a process of constructing a 3D image model.
4 illustrates a robot and a surface image measuring device included in the image registration device according to the present invention.
5 illustrates a shape in which a 3D image model and a 3D surface model are matched.

이하 첨부된 도면을 참조하여 본 발명에 의한 영상정합장치 및 영상정합방법의 실시예를 상세히 설명한다.Hereinafter, an embodiment of an image registration device and an image registration method according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 의한 영상정합장치의 블록도이다.1 is a block diagram of an image registration device according to the present invention.

본 발명에 의한 영상정합장치는 검사대상을 단층촬영한 영상의 공간좌표계를 검사대상 조작 또는 수술을 위한 로봇이 존재하는 공간좌표계와 정합하기 위한 장치이다. 본 발명에 의한 영상정합장치는, 검사대상의 외형뿐만 아니라 내부까지 확인할 수 있도록 단층촬영기(100)에 의해 촬영된 다수개의 단층촬영 영상에서 표면정보만을 추출한 후, 단층촬영 영상 표면정보를 3차원 영상모델로 재구성하는 연산부(200)와, 검사대상이 실제로 안착된 공간상에서 3차원으로 이동 및 회전이 가능한 로봇(300)과, 상기 로봇(300)에 장착되어 실제 검사대상 표면의 각 지점 위치정보를 수집한 후 검사대상의 표면을 3차원 표면모델로 재구성하는 표면영상 측정기(400)와, 연산부(200)에 의해 재구성된 3차원 영상모델과 표면영상 측정기(400)에 의해 재구성된 3차원 표면모델을 정합하여, 단층촬영 영상 공간좌표와 로봇(300)의 공간좌표를 일치시키는 제어부(500)를 포함하여 구성된다.The image registration device according to the present invention is a device for matching a spatial coordinate system of an image of a tomography image of an inspection object with a spatial coordinate system in which a robot for manipulating or operating an inspection object exists. The image registration device according to the present invention extracts only surface information from a plurality of tomography images taken by the tomography apparatus 100 so that not only the appearance of the inspection subject but also the inside can be checked, and then the tomography image surface information is three-dimensional image. The operation unit 200 for reconstructing the model, the robot 300 capable of moving and rotating in three dimensions in the space where the inspection object is actually seated, and the position information of each point of the actual inspection target surface mounted on the robot 300 After collection, the surface image measuring unit 400 reconstructing the surface of the inspection object into a three-dimensional surface model, the three-dimensional image model reconstructed by the calculating unit 200 and the three-dimensional surface model reconstructed by the surface image measuring unit 400. And a controller 500 for matching the tomography image spatial coordinates with the spatial coordinates of the robot 300.

이때, 본 발명에 의한 영상정합장치가 검사대상의 단층촬영을 하는 기능까지 수행할 필요가 있는 경우, 본 발명에 의한 영상정합장치는 상기 단층촬영기(100)를 구성요소로 포함하고, 상기 단층촬영기(100)는 제어부(500)로부터 신호를 전달받아 검사대상을 단층촬영 하도록 구성됨이 바람직하다.In this case, when the image registration device according to the present invention needs to perform a function of performing tomography of an examination subject, the image registration device according to the present invention includes the tomography apparatus 100 as a component, and the tomography camera 100 is preferably configured to receive a signal from the control unit 500 tomography the inspection object.

물론, 검사대상의 단층촬영 영상의 공간좌표계를 로봇의 공간좌표계와 정합시키기 위한 영상정합장치는 종래에도 제안된 바 있으나, 종래의 영상정합장치를 이용하여 단층촬영 영상을 로봇이 존재하는 공간좌표에 정합하고자 할 때에는 검사대상의 표면에 다수 개의 인공표식을 부착시킨 후, 단층촬영 영상과 인공표식을 정합시키고 로봇이 존재하는 공간과 인공표식을 정합시킴으로써 즉, 인공표식을 매개체로 단층촬영 영상과 로봇을 간접적으로 정합시킨다는 점에 있어 본 발명에 의한 영상정합장치와 차이가 있다. Of course, the image registration device for matching the spatial coordinate system of the tomography image of the inspection object with the spatial coordinate system of the robot has been proposed in the past, but by using the conventional image registration device tomographic image to the spatial coordinates that the robot exists In order to match, a number of artificial markers are attached to the surface of the inspection object, and the tomography image and the artificial marker are matched, and the space where the robot exists and the artificial marker are matched. There is a difference from the image matching device according to the present invention in terms of indirect matching.

즉, 종래의 영상정합장치는 2단계의 정합(단층촬영 영상과 인공표식 간의 정합 및 로봇이 존재하는 공간과 인공표식 간의 정합)을 거친 후 인공표식을 중간 매개체로 상기 두 정합을 매칭시킴으로써, 단층촬영 영상과 로봇이 존재하는 공간을 2단계에 걸쳐 간접적으로 정합시키므로, 정합 과정이 매우 복잡해진다는 단점이 있다. 또한, 두 대상을 정합시키는 과정에서 비교적 큰 오차가 발생되는데, 종래의 영상정합장치를 사용할 때와 같이 정합이 2단계에 걸쳐 이루어지는 경우에는 각각의 정합에서 발생된 오차가 누적되어 단층촬영 영상의 공간좌표계와 로봇의 공간좌표계에 차이가 크게 발생된다는 문제점이 있다. 이와 같이 단층촬영 영상의 공간좌표계와 로봇의 공간좌표계에 차이가 크게 발생되면, 단층촬영 영상의 공간좌표계 상에서는 로봇이 정상적인 경로를 따라 움직인다 하더라도 실제 검사대상이 위치하는 공간좌표계에서는 로봇이 비정상적인 경로를 따라 움직이게 되므로, 정합을 하는 의미가 없어지는 경우도 발생될 수 있다.In other words, the conventional image matching device has a two-step matching (matching between tomography images and artificial markers and matching between the space in which the robot is present and artificial markers) and then matching the two registrations with the intermediate markers as an intermediate medium. Indirectly matching the space where the captured image and the robot exist in two steps, the matching process is very complicated. In addition, a relatively large error occurs in the process of matching two objects. When the matching is performed in two stages, as in the case of using a conventional image matching device, the error generated in each matching is accumulated and the space of the tomography image is accumulated. There is a problem that a large difference occurs between the coordinate system and the spatial coordinate system of the robot. As such, when a large difference occurs between the spatial coordinate system of the tomography image and the spatial coordinate system of the tomography image, the robot follows an abnormal path in the spatial coordinate system where the actual object is located, even though the robot moves along the normal path on the spatial coordinate system of the tomography image. As it moves, it may occur that the meaning of matching disappears.

그러나 본 발명에 의한 영상정합장치는, 상기 언급한 바와 같이 단층촬영 영상으로부터 3차원 영상모델을 재구성하고 실제 검사대상의 표면으로부터 3차원 표면모델을 재구성한 후, 3차원 영상모델과 3차원 표면모델을 정합하도록 즉, 한 번의 정합과정을 통해 단층촬영 영상을 로봇(300)이 존재하는 공간좌표 상에 일치시킬 수 있다는 장점이 있다. 본 발명에 의한 영상정합장치를 이용하면, 검사대상에 인공표식을 부착시키는 과정이 필요 없으므로 전체적인 영상정합과정이 매우 간략해지고, 사용자의 손떨림 등에 의해 인공표식의 위치가 변경되고 이에 따라 오차가 발생되는 현상이 발생되지 아니한다는 장점이 있다. 또한, 본 발명에 의한 영상정합장치와 같이 한 번의 정합으로 검사대상의 단층촬영 영상의 공간좌표계를 로봇(300)의 공간좌표계와 정합시키게 되면, 두 차례에 걸쳐 정합을 해야만 단층촬영 영상의 공간좌표계를 로봇(300)의 공간좌표계와 정합시킬 수 있는 경우에 비해 단층촬영 영상의 공간좌표계와 로봇(300)의 공간좌표계 간의 오차가 적어진다는 장점이 있다. 또한, 본 발명에 의한 영상정합장치를 이용하는 경우에는 인공표식이 필요 없으므로 운전비용을 절감할 수 있다는 이점도 있다.However, in the image registration device according to the present invention, after reconstructing the three-dimensional image model from the tomography image and reconstructing the three-dimensional surface model from the actual target surface, the three-dimensional image model and the three-dimensional surface model That is, there is an advantage in that the tomography image can be matched on the spatial coordinates in which the robot 300 exists through one registration process. When the image matching device according to the present invention is used, the process of attaching the artificial mark to the inspection object is not necessary, and thus, the overall image matching process becomes very simple, and the position of the artificial mark is changed due to the shaking of the user, thereby causing an error. There is an advantage that the phenomenon does not occur. In addition, when the spatial coordinate system of the tomography image of the examination target is matched with the spatial coordinate system of the robot 300 by one registration as in the image registration device according to the present invention, the spatial coordinate system of the tomography image must be registered twice. The error between the spatial coordinate system of the tomography image and the spatial coordinate system of the robot 300 is reduced compared to the case where the coordinates can be matched with the spatial coordinate system of the robot 300. In addition, when using the image registration device according to the present invention there is also an advantage that can be reduced because the artificial marker is not required.

이때, 상기 언급한 바와 같이 한 번의 정합과정을 통해 단층촬영 영상을 로봇(300)이 존재하는 공간좌표 상에 일치시키는 것이 가능하기 위해서는, 단층촬영 영상 내의 검사대상 표면을 3차원 영상모델로 재구성하는 과정과, 실제 검사대상 표면을 3차원 표면모델로 재구성하는 과정과, 상기 3차원 영상모델과 3차원 표면모델을 정합하는 과정이 필수적으로 요구되는데, 3차원 영상모델 및 3차원 표면모델의 재구성 및 이들의 정합에 대해서는 이하 별도의 도면을 참조하여 상세히 설명한다.In this case, in order to be able to match the tomography image on the spatial coordinates where the robot 300 exists through a single registration process, the inspection subject surface in the tomography image is reconstructed into a 3D image model. A process, a process of reconstructing the actual inspection target surface into a 3D surface model, and a process of matching the 3D image model and the 3D surface model, are required. The reconstruction of the 3D image model and the 3D surface model and The matching thereof will be described in detail with reference to the separate drawings below.

또한, 상기 연산부(200)는 마칭 큐브 알고리즘(Marching Cube Algorithm)을 사용하여 단층촬영 영상에서 추출한 표면정보를 3차원 영상모델로 재구성하도록 구성되고, 상기 제어부(500)는 ICP(Iterative Closest Point) 알고리즘을 사용하여 상기 3차원 영상모델과 3차원 표면모델을 정합하도록 구성되며, 상기 표면영상 측정기(400)는 검사대상 표면 중 어느 한 지점까지의 거리를 측정한 후 상기 로봇(300)의 위치 및 각도를 고려하여 검사대상 표면 중 거리를 측정한 어느 한 지점의 위치를 로봇(300)의 공간좌표로 변환함으로써 상기 3차원 표면모델을 로봇(300)의 공간좌표계 상에서 재구성하도록 구성됨이 바람직한데, 이와 같은 3차원 영상모델 및 3차원 표면모델을 재구성하는 알고리즘에 관한 상세설명 역시 이하 별도의 도면을 참조하여 상세히 설명한다.
In addition, the operation unit 200 is configured to reconstruct the surface information extracted from the tomography image to a three-dimensional image model using a Marching Cube Algorithm, the control unit 500 is an ICP (Iterative Closest Point) algorithm It is configured to match the three-dimensional image model and the three-dimensional surface model using, the surface image measuring unit 400 measures the distance to any point of the inspection target surface and then the position and angle of the robot 300 In consideration of this, it is preferable that the three-dimensional surface model is configured to be reconstructed on the spatial coordinate system of the robot 300 by converting the position of any one point measured the distance of the inspection target surface into the spatial coordinate of the robot 300. Detailed description of the algorithm for reconstructing the three-dimensional image model and three-dimensional surface model will be described in detail with reference to the separate drawings below.

도 2는 본 발명에 의한 영상정합방법의 순서도이고, 도 3은 3차원 영상모델을 구성하는 과정을 순차적으로 도시하며, 도 4는 본 발명에 의한 영상정합장치에 포함되는 로봇과 표면영상 측정기를 도시하고, 도 5는 3차원 영상모델과 3차원 표면모델을 정합시킨 형상을 도시한다.2 is a flowchart of an image matching method according to the present invention, FIG. 3 sequentially shows a process of constructing a 3D image model, and FIG. 4 shows a robot and a surface image measuring device included in the image matching device according to the present invention. 5 illustrates a shape in which a 3D image model and a 3D surface model are matched.

본 발명에 의한 영상정합방법은 도 1에 도시된 영상정합장치를 이용하여 단층촬영 영상을 로봇(300)이 존재하는 공간좌표 상에 일치시키기 위한 것으로서, 본 실시예에서는 환자의 머리(20)를 검사대상으로 하고, 상기 로봇(300)이 수술용 로봇(300)으로 적용되는 경우를 설명한다. The image registration method according to the present invention is to match the tomography image on the spatial coordinates in which the robot 300 exists by using the image registration device illustrated in FIG. 1. As a test object, a case in which the robot 300 is applied to the surgical robot 300 will be described.

수술용 로봇(300)을 이용하여 머리(20) 내부를 수술을 하기 위해서는, 머리(20)를 CT 촬영 또는 MRI 촬영을 하여 머리(20) 내부의 구조를 명확하게 파악한 후, 촬영된 단층영상을 수술로봇(300)이 위치하고 있는 공간좌표 상에 정합시킴으로써 수술로봇(300)이 수술부위를 정확하게 수술할 수 있도록 해야 한다. 이와 같은 정합을 위해서는, 먼저 도 2에 도시된 바와 같이 머리(20)를 연속적으로 단층 촬영하여 다수개의 단층촬영 영상을 마련하고(S10), 상기 다수개의 단층촬영 영상에서 표면정보만을 추출하여 3차원 영상모델(10)로 재구성하는 과정(S20)이 선행되어야 한다. 이때, 머리(20)를 단층촬영하기 위한 단층촬영기(100)로는 일반적으로 CT 촬영기나 MRI 촬영기가 가장 널리 사용되는데, 머리(20) 즉, 검사대상의 표면뿐만 아니라 내부까지 촬영할 수만 있다면 어떠한 촬영기로도 대체될 수 있다.In order to operate the inside of the head 20 using the surgical robot 300, the CT scan or MRI of the head 20 to clearly determine the internal structure of the head 20, and then to take a photographed tomography By matching on the spatial coordinates where the surgical robot 300 is located, the surgical robot 300 should be able to accurately operate the surgical site. To achieve this, first, as shown in FIG. 2, tomography of the head 20 is continuously performed to prepare a plurality of tomography images (S10), and only surface information is extracted from the plurality of tomography images. The process of reconstructing the image model 10 (S20) must be preceded. In this case, a tomography apparatus 100 for tomography the head 20 is generally the most widely used CT or MRI imager, the head 20, that is, any camera as long as it can shoot not only the surface of the inspection target but also inside Can also be replaced.

한편, 단층촬영 영상 내의 머리 표면을 3차원 영상모델(10)로 재구성하기 위해서는 단층촬영 영상에 디스플레이되고 있는 머리의 단면형상 중 표면정보만을 추출하여 활용해야 하는데, 단층촬영 영상에는 도 3의 (a)에 도시된 바와 같이 머리의 표면 라인만이 나타나는 것이 아니라 머리의 내부까지 나타나는바, 표면정보만을 추출하는데 어려움이 있다. 즉, 사람의 머리를 단층촬영하게 되면, 뇌나 안구, 치아 등과 같은 부위가 단층촬영 영상에 나타나는바, 사람의 머리 표면정보만을 추출하는데 어려움이 있다.On the other hand, in order to reconstruct the head surface in the tomography image to the three-dimensional image model 10, it is necessary to extract only the surface information of the cross-sectional shape of the head displayed on the tomography image, the tomography image of Figure 3 (a As shown in), not only the surface line of the head appears but also the inside of the head, so it is difficult to extract only the surface information. In other words, when tomography of a human head is performed, a part such as a brain, an eyeball, a tooth, and the like appear in the tomography image, and thus it is difficult to extract only human head surface information.

따라서 도 3의 (b)에 도시된 바와 같이 단층촬영 영상에 디스플레이된 머리 형상 중 최외곽 라인을 따라 경계선을 설정하고, 도 3의 (c)에 도시된 바와 같이 경계선의 내부영역을 삭제한 후 머리의 표면정보만을 추출하여, 도 3의 (d)에 도시된 바와 같이 단층촬영 영상 내의 머리 표면을 3차원 영상모델(10)로 재구성함이 바람직하다. 한편, 한 장의 단층촬영 영상에는 머리의 표면이 선으로 나타나므로, 머리의 표면을 3차원 영상모델(10) 즉, 3차원적으로 굴곡을 갖는 면으로 나타내기 위해서는 머리의 각 지점별 단층촬영 영상이 다수 개 필요하다. 이때 머리의 단층촬영을 촘촘히 할수록 즉, 단층촬영 영상의 개수가 많을수록 재구성되는 3차원 영상모델(10)의 정밀도가 높아지는바, 보다 정밀한 3차원 영상모델(10)을 얻고자 하는 경우에는 많은 수의 단층촬영 영상을 마련해야 한다.Therefore, as shown in (b) of FIG. 3, the boundary line is set along the outermost line among the head shapes displayed in the tomography image, and the inner region of the boundary line is deleted as shown in (c) of FIG. It is preferable to extract only the surface information of the head and to reconstruct the head surface in the tomography image into the 3D image model 10 as shown in FIG. On the other hand, since the surface of the head is shown as a line in one tomography image, the tomography image for each point of the head is used to represent the surface of the head as a three-dimensional image model 10, that is, a three-dimensional curved surface. You need a large number of these. At this time, the more the tomography of the head, that is, the more the number of tomography images, the higher the accuracy of the reconstructed three-dimensional image model 10, and the more accurate three-dimensional image model 10, A tomography image should be prepared.

또한, 상기 단층촬영 영상에서 추출한 표면정보를 3차원 영상모델(10)로 재구성하는 방법으로는 마칭 큐브 알고리즘(Marching Cube Algorithm)을 사용하는 방법이 활용됨이 바람직하다. 상기 마칭 큐브 알고리즘은 3차원 입체적인 데이터 셋으로부터 등가면(isosurface)을 추출하기 위한 방법으로서, 픽셀값을 이용하여 큐브를 형성하고 각각의 픽셀 명암값을 이용하여 등가면을 추출하여 오브젝트를 생성하도록 구성되는데, 이와 같은 마칭 큐브 알고리즘은 표면 랜더링에 있어 널리 사용되고 있는 알고리즘이므로, 이에 대한 상세한 설명은 생략한다.In addition, a method using a Marching Cube Algorithm may be used as a method of reconstructing the surface information extracted from the tomography image into the 3D image model 10. The marching cube algorithm is a method for extracting an isosurface from a three-dimensional three-dimensional data set. The marching cube algorithm is configured to form a cube using pixel values and to generate an object by extracting an equivalent plane using each pixel contrast value. Since the marching cube algorithm is widely used in surface rendering, a detailed description thereof will be omitted.

단층촬영 영상 내의 머리 표면을 3차원 영상모델(10)로 재구성하는 과정이 완료되면, 표면영상 측정기(400)를 이용하여 실제 머리(20) 표면의 각 지점 위치정보를 수집한 후, 실제 머리(20) 표면을 3차원 표면모델(30)로 재구성한다(S30). 이때 표면영상 측정기(400)는, 실제 머리(20) 표면까지(도 4에서는 얼굴 표면까지)의 거리를 측정할 수 있도록 구성되며, 로봇(300)에 고정 장착된다. 따라서 표면영상 측정기(400)가 실제 머리(20) 표면의 각 지점 위치정보를 수집하기 위하여 움직일 때 로봇(300) 역시 표면영상 측정기(400)와 함께 움직이게 되므로, 상기 표면영상 측정기(400)에 의해 재구성되는 3차원 표면모델(30)은 로봇(300)이 위치하는 공간의 좌표로 나타내질 수 있다. 즉, 상기 표면영상 측정기(400)에 의해 재구성되는 3차원 표면모델(30)과 로봇(300)은 동일한 좌표 상에서 나타내지므로, 상기 3차원 표면모델(30)과 로봇(300) 간의 정합은 필요치 아니하다.After the process of reconstructing the head surface in the tomography image to the three-dimensional image model 10 is completed, by using the surface image measuring unit 400 to collect the position information of each point on the surface of the actual head 20, the actual head ( 20) Reconstruct the surface into a three-dimensional surface model (30) (S30). At this time, the surface image measuring unit 400 is configured to measure the distance to the actual head 20 surface (up to the face surface in Figure 4), it is fixedly mounted on the robot (300). Therefore, when the surface image measuring unit 400 moves to collect the position information of each point on the surface of the actual head 20, the robot 300 also moves together with the surface image measuring unit 400, so that the surface image measuring unit 400 The three-dimensional surface model 30 to be reconstructed may be represented by coordinates of the space where the robot 300 is located. That is, since the 3D surface model 30 and the robot 300 reconstructed by the surface image measuring unit 400 are represented on the same coordinates, matching between the 3D surface model 30 and the robot 300 is not necessary. Do.

상기 표면영상 측정기(400)는 이동하는 동안 실제 머리(20) 표면까지의 거리를 연속적으로 측정할 수 있도록 레이저 스캐너나 3차원 카메라로 적용됨이 바람직하나, 검사대상(본 실시예에서는 머리(20))까지의 거리를 각 부위별로 측정하여 검사대상의 표면을 3차원 표면모델(30)로 재구성할 수 있다면 레이저 스캐너나 3차원 카메라에 한정되지 아니하고 다양한 종류의 측정기로 대체될 수 있다.The surface image measuring unit 400 is preferably applied to a laser scanner or a three-dimensional camera to continuously measure the distance to the surface of the actual head 20 during the movement, the inspection object (head 20 in the present embodiment) If the distance to) can be reconstructed into the three-dimensional surface model (30) by measuring the area for each part, it is not limited to a laser scanner or a three-dimensional camera can be replaced by various types of measuring instruments.

한편, 실제 머리(30) 표면을 3차원 표면모델(30)로 재구성하는 과정이 완료되면, 상기 3차원 영상모델(10)과 3차원 표면모델(30)을 정합하여, 단층촬영 영상 공간좌표계와 로봇(300)의 공간좌표계를 일치시킨다(S40). 이와 같이 단층촬영 영상 공간좌표계와 로봇(300)의 공간좌표계가 일치되면, 시술자가 단층촬영 영상을 보면서 로봇(300)을 조작하여 수술을 하더라도 정밀한 수술이 가능해지는바, 영상유도수술의 안정성이 높아지고 원격수술이 가능해진다는 장점이 있다.Meanwhile, when the process of reconstructing the actual head 30 surface into the 3D surface model 30 is completed, the 3D image model 10 and the 3D surface model 30 are matched, and the tomography image spatial coordinate system Match the spatial coordinate system of the robot 300 (S40). As such, when the tomography image spatial coordinate system coincides with the spatial coordinate system of the robot 300, even if the operator operates the robot 300 while watching the tomography image, precise surgery is possible, and thus the stability of the image guided surgery is increased. The advantage is that remote surgery is possible.

또한, 3차원 영상모델(10)과 3차원 표면모델(30)을 정합할 때에는, 표면 정보 기반 정합 알고리즘인 ICP(Iterative Closest Point) 알고리즘을 적용함으로써, 단층촬영 영상 공간좌표와 로봇(300) 공간좌표를 정합시킴이 바람직하다. 이때, ICP 알고리즘은 두 개의 표면모델을 정합하는데 널리 활용되고 있는 알고리즘이므로, 이에 대한 상세한 설명은 생략한다.In addition, when matching the 3D image model 10 and the 3D surface model 30, an iterative closest point (ICP) algorithm, which is a surface information-based matching algorithm, is applied to tomography image spatial coordinates and the space of the robot 300. It is desirable to match the coordinates. At this time, since the ICP algorithm is widely used to match two surface models, a detailed description thereof will be omitted.

이상, 본 발명을 바람직한 실시 예를 사용하여 상세히 설명하였으나, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 첨부된 특허청구범위에 의하여 해석되어야 할 것이다. 또한, 이 기술분야에서 통상의 지식을 습득한 자라면, 본 발명의 범위에서 벗어나지 않으면서도 많은 수정과 변형이 가능함을 이해하여야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the scope of the present invention is not limited to the disclosed exemplary embodiments. It will also be appreciated that many modifications and variations will be apparent to those skilled in the art without departing from the scope of the present invention.

100 : 단층촬영기 200 : 연산부
300 : 로봇 400 : 표면영상 측정기
500 : 제어부
100: tomography apparatus 200: calculator
300: robot 400: surface image measuring instrument
500:

Claims (12)

검사대상에 대한 다수개의 단층촬영 영상에서 표면정보만을 추출하여 3차원 영상모델로 재구성하는 연산부;
검사대상이 안착된 공간상에서 3차원으로 이동 가능한 로봇;
상기 로봇에 장착되며, 상기 검사대상 표면의 각 지점 위치정보를 수집하여 상기 검사대상의 표면을 3차원 표면모델로 재구성하되, 검사대상 표면 중 어느 한 지점까지의 거리를 측정한 후 상기 로봇의 위치 및 각도를 고려하여 검사대상 표면 중 거리를 측정한 어느 한 지점의 위치를 로봇의 공간좌표로 변환함으로써 상기 3차원 표면모델을 로봇의 공간좌표계 상에서 재구성하는 표면영상 측정기;
상기 3차원 영상모델과 3차원 표면모델을 정합하여, 단층촬영 영상의 공간좌표계와 로봇의 공간좌표계를 일치시키는 제어부;
를 포함하는 것을 특징으로 하는 영상정합장치.
A calculation unit which extracts only surface information from a plurality of tomography images of a test object and reconstructs it into a 3D image model;
A robot capable of moving in three dimensions in a space on which an inspection object is seated;
The robot is mounted on the robot and collects location information of each point on the surface of the inspection object, and reconstructs the surface of the inspection object into a three-dimensional surface model. And a surface image measuring device for reconstructing the three-dimensional surface model on the spatial coordinate system of the robot by converting a position of a point measured from a distance of the inspection target surface in consideration of an angle to the spatial coordinate of the robot.
A controller configured to match the 3D image model and the 3D surface model to match the spatial coordinate system of the tomography image with the spatial coordinate system of the robot;
Image matching apparatus comprising a.
제1항에 있어서,
상기 연산부는, 상기 단층촬영 영상에서 추출한 표면정보를 마칭 큐브 알고리즘(Marching Cube Algorithm)을 사용하여 3차원 영상모델로 재구성하는 것을 특징으로 하는 영상정합장치.
The method of claim 1,
And the calculating unit reconstructs the surface information extracted from the tomography image into a 3D image model using a marching cube algorithm.
제1항에 있어서,
상기 연산부는, 상기 단층촬영 영상에 디스플레이되는 검사대상 형상 중 최외곽 라인의 내부영역을 삭제함으로써 표면정보를 추출하는 것을 특징으로 하는 영상정합장치.
The method of claim 1,
And the calculating unit extracts surface information by deleting an inner region of the outermost line of the inspection target shape displayed on the tomography image.
제1항 내지 제3항 중 어느 한 항에 있어서,
상기 제어부는, ICP(Iterative Closest Point) 알고리즘을 사용하여 상기 3차원 영상모델과 3차원 표면모델을 정합하는 것을 특징으로 하는 영상정합장치.
4. The method according to any one of claims 1 to 3,
And the controller is configured to match the 3D image model and the 3D surface model using an iterative closest point (ICP) algorithm.
삭제delete 제1항에 있어서,
상기 표면영상 측정기는, 레이저 스캐너 또는 3차원 카메라인 것을 특징으로 하는 영상정합장치.
The method of claim 1,
The surface image measuring device is an image registration device, characterized in that the laser scanner or three-dimensional camera.
검사대상에 대한 다수개의 단층촬영 영상에서 표면정보만을 추출하여 3차원 영상모델로 재구성하는 제1 단계;
로봇에 장착된 표면영상 측정기의 위치를 변경시켜 가면서 상기 검사대상 표면의 각 지점 위치정보를 수집하여 상기 검사대상의 표면을 3차원 표면모델로 재구성하되, 검사대상 표면 중 어느 한 지점까지의 거리를 측정한 후 상기 로봇의 위치 및 각도를 고려하여 검사대상 표면 중 거리를 측정한 어느 한 지점의 위치를 로봇의 공간좌표로 변환함으로써 상기 3차원 표면모델을 로봇의 공간좌표계 상에서 재구성하는 제2 단계;
상기 3차원 영상모델과 3차원 표면모델을 정합하여, 단층촬영 영상의 공간좌표계와 로봇의 공간좌표계를 일치시키는 제3 단계;
를 포함하는 것을 특징으로 하는 영상정합방법.
A first step of extracting only surface information from a plurality of tomography images of a subject to be reconstructed into a 3D image model;
While changing the position of the surface image measuring device mounted on the robot, the location information of each point of the inspection target surface is collected, and the surface of the inspection target is reconstructed into a three-dimensional surface model. A second step of reconstructing the three-dimensional surface model on the spatial coordinate system of the robot by converting a position of one point measured from a distance of the inspection target surface in consideration of the position and angle of the robot after measurement to the spatial coordinate of the robot;
A third step of matching the three-dimensional image model with the three-dimensional surface model and matching the spatial coordinate system of the tomography image with the spatial coordinate system of the robot;
Image matching method comprising a.
제7항에 있어서,
상기 제1 단계는, 마칭 큐브 알고리즘(Marching Cube Algorithm)을 이용하여 상기 단층촬영 영상에서 추출한 표면정보를 3차원 영상모델로 재구성하도록 구성되는 것을 특징으로 하는 영상정합방법.
The method of claim 7, wherein
And the first step is configured to reconstruct the surface information extracted from the tomography image into a 3D image model using a Marching Cube Algorithm.
제7항에 있어서,
상기 제1 단계는, 상기 단층촬영 영상에 디스플레이되는 검사대상 형상 중 최외곽 라인의 내부영역을 삭제하는 과정을 통해 표면정보를 추출하도록 구성되는 것을 특징으로 하는 영상정합방법.
The method of claim 7, wherein
And the first step is configured to extract surface information by deleting an inner region of the outermost line of the inspection target shape displayed on the tomography image.
삭제delete 제7항 내지 제9항 중 어느 한 항에 있어서,
상기 표면영상 측정기는, 레이저 스캐너 또는 3차원 카메라인 것을 특징으로 하는 영상정합방법.
10. The method according to any one of claims 7 to 9,
The surface image measuring device is an image matching method, characterized in that the laser scanner or three-dimensional camera.
제7항 내지 제9항 중 어느 한 항에 있어서,
상기 제3 단계는, ICP(Iterative Closest Point) 알고리즘을 이용하여 상기 3차원 영상모델과 3차원 표면모델을 정합하도록 구성되는 것을 특징으로 하는 영상정합방법.
10. The method according to any one of claims 7 to 9,
And the third step is configured to match the three-dimensional image model and the three-dimensional surface model using an iterative closest point (ICP) algorithm.
KR1020110048585A 2011-05-23 2011-05-23 Apparatus and method for registering images at coordinate space KR101239294B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110048585A KR101239294B1 (en) 2011-05-23 2011-05-23 Apparatus and method for registering images at coordinate space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110048585A KR101239294B1 (en) 2011-05-23 2011-05-23 Apparatus and method for registering images at coordinate space

Publications (2)

Publication Number Publication Date
KR20120130563A KR20120130563A (en) 2012-12-03
KR101239294B1 true KR101239294B1 (en) 2013-03-05

Family

ID=47514612

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110048585A KR101239294B1 (en) 2011-05-23 2011-05-23 Apparatus and method for registering images at coordinate space

Country Status (1)

Country Link
KR (1) KR101239294B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150138902A (en) * 2014-05-30 2015-12-11 큐렉소 주식회사 Method for matching bone position and apparatus using the method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102098958B1 (en) * 2013-06-24 2020-04-14 큐렉소 주식회사 Three Dimensions Image Dysplay System for The Organ
KR102395251B1 (en) * 2015-12-29 2022-05-09 한국전기연구원 Method and system for establishing region-of-interest in tomography
KR102078737B1 (en) * 2018-02-08 2020-02-19 성균관대학교산학협력단 Method for surface registration of surgical navigation and surgical navigation apparatus
KR102184001B1 (en) * 2019-03-21 2020-11-30 (주)레벨소프트 Medical image registration apparatus and method for surgical navigation
CN111973212B (en) * 2020-08-19 2022-05-17 杭州三坛医疗科技有限公司 Parameter calibration method and parameter calibration device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020014751A (en) * 2000-08-18 2002-02-25 카페주토 루이스 제이. Rendering of diagnostic imaging data on a three-dimensional map
JP2002524192A (en) * 1998-09-14 2002-08-06 インテグレイテッド サージカル システムズ System and method for performing an image-directed robotic orthopedic procedure without utilizing a confidence criterion system
KR20070004074A (en) * 2004-03-30 2007-01-05 고쿠리츠다이가쿠호진 하마마츠이카다이가쿠 Operation supporting device, method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002524192A (en) * 1998-09-14 2002-08-06 インテグレイテッド サージカル システムズ System and method for performing an image-directed robotic orthopedic procedure without utilizing a confidence criterion system
KR20020014751A (en) * 2000-08-18 2002-02-25 카페주토 루이스 제이. Rendering of diagnostic imaging data on a three-dimensional map
KR20070004074A (en) * 2004-03-30 2007-01-05 고쿠리츠다이가쿠호진 하마마츠이카다이가쿠 Operation supporting device, method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150138902A (en) * 2014-05-30 2015-12-11 큐렉소 주식회사 Method for matching bone position and apparatus using the method
KR101594989B1 (en) 2014-05-30 2016-02-18 큐렉소 주식회사 Method for matching bone position and apparatus using the method

Also Published As

Publication number Publication date
KR20120130563A (en) 2012-12-03

Similar Documents

Publication Publication Date Title
KR101572487B1 (en) System and Method For Non-Invasive Patient-Image Registration
KR101239294B1 (en) Apparatus and method for registering images at coordinate space
KR101982149B1 (en) Method and apparatus for creating medical image using partial medical image
US9757202B2 (en) Method and system of determining probe position in surgical site
US9396576B2 (en) Method and apparatus for estimating the three-dimensional shape of an object
KR20140096919A (en) Method and Apparatus for medical image registration
KR101638477B1 (en) Optical tracking system and registration method for coordinate system in optical tracking system
JP6182045B2 (en) Image processing apparatus and method
JP2015146989A (en) Image processing system, image processing method, program, and storage medium
CN107106243B (en) Optical tracking system and tracking method of optical tracking system
JP4491420B2 (en) Surgery support device and surgery support imaging device
KR20120111871A (en) Method and apparatus for creating medical image using 3d deformable model
US11127153B2 (en) Radiation imaging device, image processing method, and image processing program
US20120197112A1 (en) Spatially-localized optical coherence tomography imaging
JP2010274044A (en) Surgery support apparatus, surgery support method, and surgery support program
KR102233966B1 (en) Method and Appartus for registering medical images
Stolka et al. A 3D-elastography-guided system for laparoscopic partial nephrectomies
Mirota et al. Toward video-based navigation for endoscopic endonasal skull base surgery
KR20110136487A (en) Apparatus and method for obtaining medical fusion image
CN117392109A (en) Mammary gland focus three-dimensional reconstruction method and system
CN114283179A (en) Real-time fracture far-near end space pose acquisition and registration system based on ultrasonic images
KR101492801B1 (en) Operating medical navigation system and method for heart surgery with registration of oct image and 3-dimensional image
JP2017221684A (en) Image processing device and method thereof
の開発 Thesis Summary
KR20150088972A (en) Method and appartus for registering medical images

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151214

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161227

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee