KR20190038042A - Image processing method - Google Patents

Image processing method Download PDF

Info

Publication number
KR20190038042A
KR20190038042A KR1020170128016A KR20170128016A KR20190038042A KR 20190038042 A KR20190038042 A KR 20190038042A KR 1020170128016 A KR1020170128016 A KR 1020170128016A KR 20170128016 A KR20170128016 A KR 20170128016A KR 20190038042 A KR20190038042 A KR 20190038042A
Authority
KR
South Korea
Prior art keywords
image
frame
arm
localizer
information
Prior art date
Application number
KR1020170128016A
Other languages
Korean (ko)
Other versions
KR102002222B1 (en
Inventor
김영수
신승학
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020170128016A priority Critical patent/KR102002222B1/en
Publication of KR20190038042A publication Critical patent/KR20190038042A/en
Application granted granted Critical
Publication of KR102002222B1 publication Critical patent/KR102002222B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

Disclosed is an image processing method. The image processing method comprises: a step of acquiring first image information including a CT image that photographs the body of a patient, a frame mounted on the body of the patient, and a first localizer mounted in the frame; a step of acquiring position information of the first localizer and the frame that are shown on the first image information; a step of acquiring a C-arm image that photographs the body of the patient, the frame, and a second localizer mounted in the frame; a step of acquiring position information of the second localizer and the frame that are shown on the C-arm image; and a step of matching the first image information and the C-arm image based on the position information of the frame acquired from the first image information, and the position information of the frame acquired from the C-arm image. Therefore, the image processing method can display an operation target tissue, planned before an operation, and a route to the tissue on a C-arm image during the operation.

Description

영상 처리 방법{Image processing method}Image processing method

본 발명은 영상 처리 방법에 관련된 것으로, 보다 상세하게는 단층촬영 영상에서 계획된 수술 경로를 C-arm 영상에 표시하기 위한 영상 처리 방법에 관한 것이다.The present invention relates to an image processing method, and more particularly, to an image processing method for displaying a planned surgical path on a C-arm image in a tomographic image.

현재 시행되고 있는 뇌정위 수술에서는 단층촬영 영상에서 계획된 수술 목표 지점 및 경로에 의해 계산된 수치로 스테레오텍틱 프레임(stereotactic frame)을 조립하여 환자의 머리에 부착하게 되면 수술 목표지점을 기준으로 프레임의 회전축이 위치하게 된다. 특수한 크로스 헤어 킷을 프레임의 회전축에 위치한 이어링에 부착하고 환자의 측면에서 프레임의 회전축 방향으로 C-arm을 정렬한 상태로 촬영하면 영상에서 목표지점의 위치를 확인할 수 있다. In the present operation, when a stereotactic frame is assembled with a numerical value calculated by a planned target point and pathway in a tomographic image and attached to a head of a patient, . Attaching a special cross-hair kit to an earring located on the frame's rotation axis and taking the C-arm in alignment with the frame's rotation axis from the patient's side, the position of the target point in the image can be checked.

수술용 네비게이션 시스템은 수술 도구를 추적하기 위한 센서를 사용하여 C-arm의 위치를 추적하기 위해 추적 가능한 마커가 부착된 장치를 디텍터에 부착하여 C-arm의 위치를 센서의 좌표계에서 인식한다. 단층촬영 영상과 센서 간 정합을 수행하면 계획된 수술 경로 및 추적 가능한 수술 도구의 위치를 C-arm 영상에서 보여줄 수 있다. 수술 로봇의 경우 수술 중 수술 기구가 삽입된 상태에서 CT 영상을 촬영하여 단층촬영 영상 간 정합을 통해 삽입된 위치와 계획된 위치의 차이를 확인할 수 있다.The surgical navigation system recognizes the position of the C-arm in the sensor's coordinate system by attaching a device with a traceable marker to the detector to track the position of the C-arm using a sensor to track the surgical tool. The alignment between the tomographic image and the sensor can be used to show the planned surgical path and the position of the trackable surgical instrument in the C-arm image. In the case of a surgical robot, CT images can be taken while the surgical instrument is inserted during operation, and the difference between the inserted position and the planned position can be confirmed through the matching of the tomographic images.

상술한 스테레오텍틱 프레임의 타겟팅 메커니즘은 수술 경로로부터 계산된 수치에 의해 각 파트를 조립함으로써 목표 지점을 기준으로 프레임의 회전축 상에 위치할 수 있게 해준다. The targeting mechanism of the stereotactic frame described above allows each part to be assembled by the numerical value calculated from the surgical path so that it can be positioned on the rotation axis of the frame based on the target point.

반면, 수술 로봇은 이러한 수동 조립에서 오는 불편함을 개선하기 위해 개발된 자동화된 기기이기 때문에 해당 메커니즘을 적용할 수 없다. 이는 스테레오텍틱 프레임의 경우 회전축이 수술 목표지점 상에 위치하여 X-ray가 통과할 수 있는 공간을 확보할 수 있는 구조로 이루어져 있지만 로봇 시스템의 경우 회전축을 목표지점에 위치시키는 것과 회전축 상에 X-ray를 위한 공간을 확보하는 것이 어렵기 때문이다. 또한 특정한 방향으로 C-arm을 촬영해야 하기 때문에 다양한 각도에서 목표 지점을 확인하는 것이 불가능 하다. 수술 중 획득한 CT를 이용하는 방법은 수술실에서 CT를 촬영할 수 있는 영상장비를 필수적으로 요구하기 때문에 사용에 대한 제약이 크다. 그리고 C-arm의 위치를 추적하는 방법은 정확한 C-arm의 카메라 모델링을 위한 캘리브레이션과 추적을 위한 마커로 구성된 장치를 디텍터에 부착하여야 하고 센서에서 발생하는 오차로 인해 정밀함을 요구하는 수술에서는 사용하기 어렵다.On the other hand, the surgical robot can not be applied because it is an automated device developed to improve the inconvenience caused by such manual assembly. In the case of the stereotactic frame, the rotation axis is located on the target point of the surgery and the space for the X-ray can be secured. However, in the case of the robot system, the rotation axis is positioned at the target point, it is difficult to secure a space for the rail. Also, since the C-arm must be shot in a specific direction, it is impossible to identify the target point from various angles. The use of acquired CT during surgery has a limitation in use because it requires an imaging device capable of imaging CT in the operating room. The method of tracking the position of the C-arm is to attach a device consisting of markers for calibration and tracking for accurate camera modeling of the C-arm to the detector. it's difficult.

본 발명은 수술 전 계획한 수술 목표 조직 및 이에 도달하는 경로를 수술 중 C-arm 영상에 표시해 줄 수 있는 영상 처리 방법을 제공한다.The present invention provides an image processing method capable of displaying a pre-operatively planned target tissue and a pathway thereof to the C-arm image during surgery.

또한, 본 발명은 C-arm의 다양한 자세에서 계획된 수술 경로가 표시된 C-arm 영상을 표시할 수 있는 영상 처리 방법을 제공한다.In addition, the present invention provides an image processing method capable of displaying a C-arm image showing a planned surgical path in various postures of a C-arm.

본 발명에 따른 영상 처리 방법은 환자의 신체, 상기 환자의 신체에 장착된 프레임, 그리고 상기 프레임에 장착된 제1로컬라이저를 촬영한 CT 영상을 포함하는 제1영상 정보를 획득하는 단계; 상기 제1영상 정보에 나타난 상기 제1로컬라이저와 상기 프레임의 위치 정보를 획득하는 단계; 상기 환자의 신체, 상기 프레임, 그리고 상기 프레임에 장착된 제2로컬라이저를 촬영한 C-arm영상을 획득하는 단계; 상기 C-arm영상에 나타난 상기 제2로컬라이저와 상기 프레임의 위치 정보를 획득하는 단계; 및 상기 제1영상 정보에서 획득된 상기 프레임의 위치 정보와 상기 C-arm 영상에서 획득된 상기 프레임의 위치 정보를 기준으로 상기 제1영상 정보와 상기 C-arm 영상을 정합하는 단계를 포함한다.The image processing method according to the present invention includes the steps of acquiring first image information including a body of a patient, a frame mounted on a body of the patient, and a CT image of a first localizer mounted on the frame; Obtaining positional information of the first localizer and the frame shown in the first image information; Obtaining a C-arm image of the patient's body, the frame, and a second localizer mounted on the frame; Obtaining positional information of the second localizer and the frame appearing in the C-arm image; And matching the first image information with the C-arm image based on position information of the frame obtained from the first image information and position information of the frame obtained from the C-arm image.

또한, 상기 환자의 신체를 촬영한 MRI 영상을 획득하는 단계를 더 포함하되, 상기 제1영상 정보를 획득하는 단계는 상기 MRI 영상과 상기 CT 영상을 정합하는 단계를 포함하며, 상기 제1영상 정보는 상기 MRI 영상과 상기 CT 영상이 정합된 영상일 수 있다.The method may further include acquiring an MRI image of a body of the patient, wherein the obtaining of the first image information comprises matching the MRI image with the CT image, May be an image in which the MRI image and the CT image are matched.

또한, 상기 C-arm영상에 나타난 상기 제2로컬라이저와 상기 프레임의 위치 정보를 획득하는 단계는, 상기 C-arm영상에 나타난 상기 제2로컬라이저의 표식으로부터 적어도 3개 이상의 특징 점을 추출하는 단계; 및 상기 특징 점들의 위치 정보로부터 상기 C-arm영상에 나타난 상기 프레임의 위치 정보를 획득하는 단계를 포함할 수 있다.In addition, the step of acquiring the position information of the second localizer and the frame shown in the C-arm image may include extracting at least three feature points from the mark of the second localizer shown in the C-arm image step; And acquiring position information of the frame shown in the C-arm image from the position information of the feature points.

또한, 상기 제2로컬라이저의 표식은 적어도 3개 이상의 꼭지점을 포함하며, 상기 꼭지점들이 상기 특징 점으로 추출될 수 있다.Also, the mark of the second localizer may include at least three vertices, and the vertices may be extracted as the feature point.

또한, 상기 제2로컬라이저는 상기 프레임의 적어도 2개 이상의 위치에 장착되고, 각 위치에 장착된 상기 제2로컬라이저들은 서로 다른 표식을 가지며, 상기 C-arm 영상에는 상기 제2로컬라이저들의 서로 다른 표식이 나타날 수 있다.Also, the second localizer is mounted to at least two positions of the frame, the second localizers mounted at each position have different indications, and the C-arm image has a plurality of second localizers Other markers may appear.

본 발명에 의하면, 수술 도중에 제1영상 정보와 C-arm 영상이 정합된 정합 영상을 디스플레이를 통해 확인가능하며, 정합 영상을 통해 수술 기구가 제1영상 정보에 표시된 경로 및 수술 목표 조직에 정확하게 도달했는지 확인할 수 있다. According to the present invention, it is possible to confirm a matching image in which the first image information and the C-arm image are matched during the operation through the display, and it is possible to allow the surgical instrument to accurately reach the path indicated in the first image information, .

또한 본 발명에 의하면, 제2로컬라이저의 표식을 볼 수 있는 모든 C-arm 각도에서 정합 영상 생성이 가능하므로, C-arm의 자세에 제한 없이 제1영상 정보에 표시된 경로 및 수술 목표 조직을 확인할 수 있다.In addition, according to the present invention, it is possible to generate a matching image at all C-arm angles in which the mark of the second localizer can be seen, so that the path indicated in the first image information and the target tissue .

도 1은 본 발명의 실시 예에 따른 영상 처리 방법을 나타내는 순서도이다.
도 2은 본 발명의 실시 예에 따라 촬영된 MRI 영상과 수술 목표 조직에 도달하기 위한 경로를 표시한 사진이다.
도 3는 본 발명의 실시 예에 따라 제1로컬라이저가 부착된 프레임이 환자에게 장착된 모습을 나타내는 사진이다
도 4는 도 3의 환자를 촬영한 CT 영상을 나타내는 사진이다.
도 5는 본 발명의 실시 예에 따라, MRI 영상과 CT 영상의 정합으로 획득된 제1영상 정보를 나타내는 사진이다.
도 6은 본 발명의 실시 예에 따른 제2로컬라이저가 부착된 프레임을 나타내는 도면이다.
도 7은 제2로컬라이저에 표시된 표식을 나타내는 도면이다.
1 is a flowchart showing an image processing method according to an embodiment of the present invention.
FIG. 2 is a photograph showing an MRI image photographed according to an embodiment of the present invention and a path for reaching a surgical target tissue.
3 is a photograph showing a state in which a frame having a first localizer attached thereto is attached to a patient according to an embodiment of the present invention
4 is a photograph showing a CT image of the patient of FIG.
5 is a photograph showing first image information obtained by matching an MRI image and a CT image according to an embodiment of the present invention.
6 is a diagram showing a frame with a second localizer according to an embodiment of the present invention.
Fig. 7 is a diagram showing the markings displayed on the second localizer. Fig.

이하, 첨부된 도면들을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명할 것이다. 그러나 본 발명의 기술적 사상은 여기서 설명되는 실시 예에 한정되지 않고 다른 형태로 구체화 될 수도 있다. 오히려, 여기서 소개되는 실시 예는 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the technical spirit of the present invention is not limited to the embodiments described herein but may be embodied in other forms. Rather, the embodiments disclosed herein are provided so that the disclosure can be thorough and complete, and will fully convey the scope of the invention to those skilled in the art.

본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한, 도면들에 있어서, 막 및 영역들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다. In this specification, when an element is referred to as being on another element, it may be directly formed on another element, or a third element may be interposed therebetween. Further, in the drawings, the thicknesses of the films and regions are exaggerated for an effective explanation of the technical content.

또한, 본 명세서의 다양한 실시 예 들에서 제1, 제2, 제3 등의 용어가 다양한 구성요소들을 기술하기 위해서 사용되었지만, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 따라서, 어느 한 실시 예에 제 1 구성요소로 언급된 것이 다른 실시 예에서는 제 2 구성요소로 언급될 수도 있다. 여기에 설명되고 예시되는 각 실시 예는 그것의 상보적인 실시 예도 포함한다. 또한, 본 명세서에서 '및/또는'은 전후에 나열한 구성요소들 중 적어도 하나를 포함하는 의미로 사용되었다.Also, while the terms first, second, third, etc. in the various embodiments of the present disclosure are used to describe various components, these components should not be limited by these terms. These terms have only been used to distinguish one component from another. Thus, what is referred to as a first component in any one embodiment may be referred to as a second component in another embodiment. Each embodiment described and exemplified herein also includes its complementary embodiment. Also, in this specification, 'and / or' are used to include at least one of the front and rear components.

명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 또한, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 구성요소 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 구성요소 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하는 것으로 이해되어서는 안 된다. 또한, 본 명세서에서 "연결"은 복수의 구성 요소를 간접적으로 연결하는 것, 및 직접적으로 연결하는 것을 모두 포함하는 의미로 사용된다. The singular forms "a", "an", and "the" include plural referents unless the context clearly dictates otherwise. It is also to be understood that the terms such as " comprises "or" having "are intended to specify the presence of stated features, integers, Should not be understood to exclude the presence or addition of one or more other elements, elements, or combinations thereof. Also, in this specification, the term "connection " is used to include both indirectly connecting and directly connecting a plurality of components.

또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 발명에 따른 영상 처리 방법은 C-arm 영상이 사용되는 수술 시스템에 적용될 수 있다. C-arm 영상 촬영 시스템은 X-ray 기기의 일종으로, 신체의 뼈와 관절을 연속적으로 투시할 수 있고, 수술 도중에 영상을 보면서 시술할 수 있기 때문에, 정확한 수술 목표 지점을 수술할 수 있다.The image processing method according to the present invention can be applied to a surgical system in which a C-arm image is used. The C-arm imaging system is a type of X-ray device that can continuously view the bones and joints of the body and can be operated while viewing the images during operation, so that the operator can operate the precise operation target point.

본 발명에 따른 영상 처리 방법은, C-arm 영상 촬영 시스템을 이용한 수술에서, 수술 전 환자의 단층촬영 영상에서 계획된 목표 조직의 위치 및 이에 도달하기 위한 경로와 일치하는지 확인하기 위해 수술 계획 정보를 C-arm 영상에 표시해주기 위한 방법을 제공한다.In the image processing method according to the present invention, in order to confirm whether or not the position of the target tissue and the path for reaching the target tissue in the tomography image of the patient before operation are consistent with the operation using the C-arm imaging system, Provides a method for displaying on a -arm image.

본 발명에 따른 영상 처리 방법은, 알고리즘으로 구현되어 컴퓨터 판독 가능한 기록매체에 저장될 수 있으며, 컴퓨터 등에서 구현될 수 있다.The image processing method according to the present invention can be implemented by an algorithm and stored in a computer-readable recording medium, and can be implemented in a computer or the like.

아래에서는, 본 발명에 따른 영상 처리 방법이 뇌정위 수술에 적용되는 것을 예를 들어 설명한다. 그러나 본 발명에 따른 영상 처리 방법은 상기 수술에 국한되지 않으며, C-arm 영상 촬영 시스템이 활용되는 다양한 수술에 적용될 수 있다.Hereinafter, an image processing method according to the present invention is applied to brain pacing surgery. However, the image processing method according to the present invention is not limited to the above-described operation, and can be applied to various operations in which a C-arm imaging system is utilized.

도 1은 본 발명의 실시 예에 따른 영상 처리 방법을 나타내는 순서도이다.1 is a flowchart showing an image processing method according to an embodiment of the present invention.

도 1을 참조하면, 영상 처리 방법은 MRI 영상을 획득하는 단계(S10), CT 영상을 획득하는 단계(S20), MRI 영상과 CT 영상의 정합으로 제1영상 정보를 획득하는 단계(S30), 제1영상 정보에 나타난 프레임의 위치 정보를 획득하는 단계(S40), C-arm 영상을 획득하는 단계(S50), C-arm 영상에 나타난 프레임의 위치 정보를 획득하는 단계(S60), 그리고 프레임의 위치 정보를 기준으로 제1영상 정보와 C-arm 영상을 정합하는 단계(S60)를 포함한다.Referring to FIG. 1, the image processing method includes acquiring an MRI image (S10), acquiring a CT image (S20), acquiring first image information by matching the MRI image and CT image (S30) (S40), acquiring position information of a frame indicated by the first image information (S40), acquiring a C-arm image (S50), acquiring position information of a frame shown in the C-arm image And matching the first image information with the C-arm image on the basis of the position information of the C-arm image (S60).

MRI 영상을 획득하는 단계(S10)는 수술 전 환자의 MRI 영상을 촬영하고, 촬영된 MRI 영상에서 수술 목표 조직의 위치와 이에 도달하기 위한 경로를 결정한다. The step S10 of acquiring the MRI image captures the MRI image of the patient before surgery and determines the position of the target tissue and the path to reach the target tissue in the photographed MRI image.

도 2은 본 발명의 실시 예에 따라 촬영된 MRI 영상과 수술 목표 조직에 도달하기 위한 경로를 표시한 사진이다.FIG. 2 is a photograph showing an MRI image photographed according to an embodiment of the present invention and a path for reaching a surgical target tissue.

도 2를 참조하면, MRI 영상에는 환자의 두개골, 뇌 조직, 그리고 혈관 조직 등이 영상으로 나타나며, 이에 수술 목표 조직과 이에 도달하기 위한 경로를 표시할 수 있다. 도 2에서는 수술 목표 조직에 도달하기 위한 경로를 빨강색으로 표시하였다.Referring to FIG. 2, an MRI image shows an image of a patient's skull, brain tissue, and blood vessel tissue, and the surgical target tissue and path for reaching the target tissue can be displayed. In Fig. 2, the path for reaching the target tissue for surgery is indicated in red.

도 3는 본 발명의 실시 예에 따라 제1로컬라이저가 부착된 프레임이 환자에게 장착된 모습을 나타내는 사진이고, 도 4는 도 3의 환자를 촬영한 CT 영상을 나타내는 사진이다.FIG. 3 is a photograph showing a state in which a frame having a first localizer attached thereto is mounted on a patient according to an embodiment of the present invention, and FIG. 4 is a photograph showing a CT image of the patient in FIG.

도 3 및 도 4를 참조하면, CT 영상을 획득하는 단계(S20)는 환자에게 프레임(110)을 장착하고, 프레임(110)과 CT 영상간 정합용 표식이 표시된 제1로컬라이저(120)를 프레임(120)에 부착한 상태에서 CT 영상을 촬영한다.3 and 4, the acquiring step (S20) of acquiring a CT image includes attaching a frame 110 to a patient and attaching a first localizer 120, which displays a mark for matching between the frame 110 and the CT image And CT images are captured in a state of being attached to the frame 120.

촬영된 CT 영상에는 환자의 두개골(A), 프레임(110a), 그리고 제1로컬라이저(120b)의 표식이 촬영된다.In the photographed CT image, the marks of the patient's skull A, the frame 110a, and the first localizer 120b are photographed.

CT 영상에는 환자의 뇌 조직과 혈관 조직 등이 나타나지 않으므로, 수술 목표 조직에 도달하기 위한 경로를 얻기 위하여 MRI 영상과의 정합이 요구된다.Since the CT image does not show the patient's brain and blood vessels, matching with MRI images is required to obtain a pathway to reach the target tissue.

MRI 영상과 CT 영상의 정합으로 제1영상 정보를 획득하는 단계(S30)는, MRI 영상에서 획득된 정보와 CT 영상에서 획득된 정보를 매칭하여 정합한다. 일 예에 의하면, MRI 영상과 CT 영상에서 획득된 강도(intensity) 정보를 이용하여 영상을 정합할 수 있다. 이외에도 다양한 영상 정합 방법으로, MRI 영상과 CT 영상을 정합할 수 있다.The step S30 of obtaining the first image information by matching the MRI image and the CT image matches the information obtained from the MRI image and the information obtained from the CT image. According to one example, images can be matched using intensity information obtained from an MRI image and a CT image. In addition, MRI images and CT images can be matched by various image matching methods.

도 5는 본 발명의 실시 예에 따라, MRI 영상과 CT 영상의 정합으로 획득된 제1영상 정보를 나타내는 사진이다.5 is a photograph showing first image information obtained by matching an MRI image and a CT image according to an embodiment of the present invention.

도 5를 참조하면, 제1영상 정보에는 MRI 영상에 포함된 정보와 CT 영상에 포함된 정보가 함께 나타난다.Referring to FIG. 5, information included in the MRI image and information included in the CT image are displayed together with the first image information.

제1영상 정보에 나타난 프레임의 위치 정보를 획득하는 단계(S40)는, 제1영상 정보에 나타난 제1로컬라이저의 표식으로부터 프레임의 위치 정보를 획득한다. 실물 프레임과 이에 장착된 제1로컬라이저는 상대적인 위치 관계가 미리 결정되므로, 제1영상 정보에서 제1로컬라이저의 표식이 획득될 경우, 제1영상 정보상의 프레임의 위치 정보 획득이 가능하다.The step S40 of acquiring the position information of the frame indicated by the first image information acquires the position information of the frame from the mark of the first localizer shown in the first image information. Since the relative positional relationship between the real frame and the first localizer mounted thereon is predetermined, when the mark of the first localizer is acquired from the first image information, position information of the frame on the first image information can be obtained.

C-arm 영상을 획득하는 단계(S50)는, 환자에게 장착된 프레임(110)에서 제1로컬라이저(120)를 제거하고, 제2로컬라이저(130, 140)를 부착한 상태에서 C-arm 영상 촬영 시스템을 통해 C-arm 영상을 획득한다. C-arm 영상은 환자의 수술 과정에서 획득된다. 때문에, C-arm 영상을 획득하는 단계에서는 C-arm 영상 촬영 시스템의 구조적 특징과 원활한 수술 진행을 위하여 제1로컬라이저(120)와 다른 형상을 갖는 제2로컬라이저(130, 140)가 부착된 상태에서 진행된다.In step S50, the C-arm image is acquired by removing the first localizer 120 from the frame 110 mounted on the patient, and moving the second localizer 130, The C-arm image is obtained through the imaging system. C-arm images are acquired during the patient's surgical procedure. Therefore, in the step of acquiring the C-arm image, the second localizer 130, 140 having a shape different from that of the first localizer 120 is attached for the structural characteristic of the C- .

도 6은 본 발명의 실시 예에 따른 제2로컬라이저가 부착된 프레임을 나타내는 도면이고, 도 7은 제2로컬라이저에 표시된 표식을 나타내는 도면이다.Fig. 6 is a view showing a frame with a second localizer attached thereto according to an embodiment of the present invention, and Fig. 7 is a diagram showing markers displayed on a second localizer.

도 6 및 도 7을 참조하면, 제2로컬라이저(130, 140)는 적어도 2개 이상의 위치에서 프레임(110)에 장착되며, 각각의 제2로컬라이저(130, 140)에 표시된 표식(131, 141)은 서로 다른 형상을 가질 수 있다. 제2로컬라이저(130, 140)들은 서로 마주하는 위치에 장착될 수 있다. 표식(131, 141)은 X-ray가 투과되지 않는 금속 재질로 형성될 수 있다. 실시 예에 의하면, 표식은 Ti, Cu, Fe 중 어느 하나의 재질로 형성될 수 있다. 표식(131, 141)은 적어도 3개 이상의 꼭지점을 갖는 다각형상을 가질 수 있다.6 and 7, a second localizer 130, 140 is mounted to the frame 110 at at least two locations and is provided with markers 131, 141 may have different shapes. The second localizers 130 and 140 may be mounted at positions facing each other. The markers 131 and 141 may be formed of a metal material through which X-rays are not transmitted. According to the embodiment, the marking may be formed of any one of Ti, Cu, and Fe. The indicia 131, 141 may have a polygonal image with at least three vertices.

실시 예에 의하면, 프레임(110)에는 두 개의 제2로컬러이저(130, 140)가 마주보도록 장착되며, 하나의 제2로컬라이저(130)에는 마름모 형상의 표식(131)이, 다른 하나의 제2로컬라이저(140)에는 직사각 형상의 표식(141)이 표시될 수 있다.According to the embodiment, two second local loziers 130 and 140 are mounted on the frame 110 so as to face each other, one rhombic mark 131 is attached to one second localizer 130, The second localizer 140 may be displayed with a rectangular mark 141.

도 8은 본 발명의 실시 예에 따라 프레임이 장착된 환자를 나타내는 사진이고, 도 9는 도 8의 환자로부터 촬영된 C-arm 영상을 나타내는 도면이다.FIG. 8 is a photograph showing a patient equipped with a frame according to an embodiment of the present invention, and FIG. 9 is a view showing a C-arm image taken from the patient in FIG.

도 8 및 도 9를 참조하면, C-arm 영상에는 제2로컬라이저(130, 140)의 표식(131a, 141a)들이 나타나며, 표식(131a, 141a)들의 상대적인 크기 및 위치에 따라 C-arm 영상이 촬영된 방향 및 프레임(110)의 위치 및 자세를 확인할 수 있다. 8 and 9, the markers 131a and 141a of the second localizer 130 and 140 are displayed on the C-arm image, and the C-arm image 141a and the mark 141a are displayed on the C- And the position and posture of the frame 110 can be confirmed.

C-arm 영상에 나타난 프레임의 위치 정보를 획득하는 단계(S60)는, C-arm 영상에 나타난 표식(131a, 141a)들로부터 프레임(110a)의 위치 정보를 획득한다. 실시 예에 의하면, C-arm 영상에 나타난 표식(131a, 141a)들에서 적어도 3개 이상의 특징 점을 추출하고, 추출된 특징 점들을 이용하여 three point perspective pose estimation 알고리즘을 이용하여, C-arm 영상에 나타난 프레임(110a)의 위치 정보를 획득한다. 실시 예에 의하면, 특징 점들은 C-arm 영상에 나타난 표식(131a, 141a)들의 꼭지점들에서 임의로 추출할 수 있다.The step S60 of acquiring the position information of the frame shown in the C-arm image acquires the position information of the frame 110a from the marks 131a and 141a shown in the C-arm image. According to the embodiment, at least three feature points are extracted from the marks 131a and 141a displayed on the C-arm image, and the three-point perspective estimation algorithm is used to extract the C-arm image The position information of the frame 110a shown in FIG. According to the embodiment, the feature points can be arbitrarily extracted from the vertices of the marks 131a and 141a appearing in the C-arm image.

제1영상 정보와 C-arm 영상을 정합하는 단계(S70)는, 제1영상 정보에서 획득된 프레임의 위치 정보와 C-arm 영상에서 획득된 프레임의 위치 정보를 기준으로 제1영상 정보와 C-arm 영상을 정합한다. 프레임(110)은 CT 영상을 촬영하는 단계와 C-arm 영상을 촬영하는 단계에서 같은 위치에서 환자에게 고정 장착되므로, 프레임의 위치 정보를 기준으로 영상들을 정합할 수 있다.In step S70, the first image information and the C-arm image are matched with each other based on the position information of the frame obtained in the first image information and the position information of the frame obtained in the C-arm image, Match the -arm image. Since the frame 110 is fixed to the patient at the same position in the step of photographing the CT image and the step of photographing the C-arm image, the images can be registered based on the position information of the frame.

도 10은 본 발명의 실시 예에 따른 제1영상 정보와 C-arm 영상이 정합된 정합 영상을 나타내는 사진이다.10 is a photograph showing a matching image in which first image information and C-arm image are matched according to an embodiment of the present invention.

도 10을 참조하면, 의사는 수술 도중에 제1영상 정보와 C-arm 영상이 정합된 정합 영상(A)을 디스플레이를 통해 확인가능하며, 정합 영상(A)을 통해 수술 기구가 제1영상 정보에 표시된 경로 및 수술 목표 조직(D)에 정확하게 도달했는지 확인할 수 있다. 삽입된 수술기구의 위치가 제1영상 정보에 표시된 경로와 차이가 있을 경우, 수술 기구의 위치를 계획된 지점으로 조정할 수 있다.Referring to FIG. 10, the surgeon can confirm a matched image A in which the first image information and the C-arm image are matched during the operation through the display, It is possible to confirm whether or not the indicated path and the target tissue (D) have been correctly reached. When the position of the inserted surgical instrument is different from the path indicated in the first image information, the position of the surgical instrument can be adjusted to the planned position.

이상, 본 발명을 바람직한 실시 예를 사용하여 상세히 설명하였으나, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 첨부된 특허청구범위에 의하여 해석되어야 할 것이다. 또한, 이 기술분야에서 통상의 지식을 습득한 자라면, 본 발명의 범위에서 벗어나지 않으면서도 많은 수정과 변형이 가능함을 이해하여야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the scope of the present invention is not limited to the disclosed exemplary embodiments. It will also be appreciated that many modifications and variations will be apparent to those skilled in the art without departing from the scope of the present invention.

110: 프레임
120: 제1로컬라이저
130, 140: 제2로컬라이저
131, 141: 표식
110: frame
120: first localizer
130, 140: a second localizer
131, 141: Marker

Claims (6)

환자의 신체, 상기 환자의 신체에 장착된 프레임, 그리고 상기 프레임에 장착된 제1로컬라이저를 촬영한 CT 영상을 포함하는 제1영상 정보를 획득하는 단계;
상기 제1영상 정보에 나타난 상기 프레임의 위치 정보를 획득하는 단계;
상기 환자의 신체, 상기 프레임, 그리고 상기 프레임에 장착된 제2로컬라이저를 촬영한 C-arm영상을 획득하는 단계;
상기 C-arm영상에 나타난 상기 프레임의 위치 정보를 획득하는 단계; 및
상기 제1영상 정보에서 획득된 상기 프레임의 위치 정보와 상기 C-arm 영상에서 획득된 상기 프레임의 위치 정보를 기준으로 상기 제1영상 정보와 상기 C-arm 영상을 정합하는 단계를 포함하는 영상 처리 방법.
Obtaining first image information including a body of a patient, a frame mounted on a body of the patient, and a CT image of a first localizer mounted on the frame;
Obtaining positional information of the frame represented by the first image information;
Obtaining a C-arm image of the patient's body, the frame, and a second localizer mounted on the frame;
Obtaining position information of the frame displayed on the C-arm image; And
And matching the first image information with the C-arm image based on position information of the frame obtained from the first image information and position information of the frame obtained from the C-arm image Way.
제 1 항에 있어서,
상기 환자의 신체를 촬영한 MRI 영상을 획득하는 단계를 더 포함하되,
상기 제1영상 정보를 획득하는 단계는
상기 MRI 영상과 상기 CT 영상을 정합하는 단계를 포함하며,
상기 제1영상 정보는 상기 MRI 영상과 상기 CT 영상이 정합된 영상인 영상 처리 방법.
The method according to claim 1,
Further comprising the step of acquiring an MRI image of the body of the patient,
The step of acquiring the first image information
And matching the MRI image with the CT image,
Wherein the first image information is an image in which the MRI image and the CT image are matched.
제 1 항에 있어서,
상기 C-arm영상에 나타난 상기 프레임의 위치 정보를 획득하는 단계는,
상기 C-arm영상에 나타난 상기 제2로컬라이저의 표식으로부터 적어도 3개 이상의 특징 점을 추출하는 단계; 및
상기 특징 점들의 위치 정보로부터 상기 C-arm영상에 나타난 상기 프레임의 위치 정보를 획득하는 단계를 포함하는 영상 처리 방법.
The method according to claim 1,
The step of acquiring the position information of the frame shown in the C-
Extracting at least three feature points from the mark of the second localizer represented in the C-arm image; And
And obtaining position information of the frame displayed on the C-arm image from the position information of the feature points.
제 3 항에 있어서,
상기 제2로컬라이저의 표식은 적어도 3개 이상의 꼭지점을 포함하며, 상기 꼭지점들이 상기 특징 점들로 추출되는 영상 처리 방법.
The method of claim 3,
Wherein the mark of the second localizer includes at least three vertices, and the vertices are extracted with the feature points.
제 1 항에 있어서,
상기 제2로컬라이저는 상기 프레임의 적어도 2개 이상의 위치에 장착되고, 각 위치에 장착된 상기 제2로컬라이저들은 서로 다른 표식을 가지며,
상기 C-arm 영상에는 상기 제2로컬라이저들의 서로 다른 표식이 나타나는 영상 처리 방법.
The method according to claim 1,
Wherein the second localizer is mounted to at least two positions of the frame, the second localizers mounted at each position have different indications,
Wherein the C-arm image displays different markers of the second localizers.
제 1 항 내지 제 5 항 중 어느 하나의 항에 기재된 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.A computer-readable recording medium on which a program for performing the method according to any one of claims 1 to 5 is recorded.
KR1020170128016A 2017-09-29 2017-09-29 Computer-readable recording medium on which a computer program for image processing is recorded KR102002222B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170128016A KR102002222B1 (en) 2017-09-29 2017-09-29 Computer-readable recording medium on which a computer program for image processing is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170128016A KR102002222B1 (en) 2017-09-29 2017-09-29 Computer-readable recording medium on which a computer program for image processing is recorded

Publications (2)

Publication Number Publication Date
KR20190038042A true KR20190038042A (en) 2019-04-08
KR102002222B1 KR102002222B1 (en) 2019-10-21

Family

ID=66164700

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170128016A KR102002222B1 (en) 2017-09-29 2017-09-29 Computer-readable recording medium on which a computer program for image processing is recorded

Country Status (1)

Country Link
KR (1) KR102002222B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120289826A1 (en) * 2011-05-12 2012-11-15 Siemens Aktiengesellschaft Method for localization and identification of structures in projection images
KR101499557B1 (en) * 2012-10-16 2015-03-09 삼성전자주식회사 Apparatus and method for photographing a medical image
KR20160041803A (en) * 2014-10-08 2016-04-18 삼성전자주식회사 Image processing apparatus and control method for the same, and medical image apparatus
KR20160132931A (en) * 2014-03-13 2016-11-21 내비게이트 써지컬 테크놀로지, 인크. System and method for real time tracking and modeling of surgical site

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120289826A1 (en) * 2011-05-12 2012-11-15 Siemens Aktiengesellschaft Method for localization and identification of structures in projection images
KR101499557B1 (en) * 2012-10-16 2015-03-09 삼성전자주식회사 Apparatus and method for photographing a medical image
KR20160132931A (en) * 2014-03-13 2016-11-21 내비게이트 써지컬 테크놀로지, 인크. System and method for real time tracking and modeling of surgical site
KR20160041803A (en) * 2014-10-08 2016-04-18 삼성전자주식회사 Image processing apparatus and control method for the same, and medical image apparatus

Also Published As

Publication number Publication date
KR102002222B1 (en) 2019-10-21

Similar Documents

Publication Publication Date Title
US11583344B2 (en) Devices, systems and methods for natural feature tracking of surgical tools and other objects
Navab et al. Camera augmented mobile C-arm (CAMC): calibration, accuracy study, and clinical applications
EP2967297B1 (en) System for dynamic validation, correction of registration for surgical navigation
EP3711700B1 (en) System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US9248000B2 (en) System for and method of visualizing an interior of body
US7570987B2 (en) Perspective registration and visualization of internal areas of the body
RU2434600C2 (en) Surgical system controlled by images
Winne et al. Overlay visualization in endoscopic ENT surgery
KR102105974B1 (en) Medical imaging system
US20180303550A1 (en) Endoscopic View of Invasive Procedures in Narrow Passages
CN111970986A (en) System and method for performing intraoperative guidance
WO2014120909A1 (en) Apparatus, system and method for surgical navigation
JP2002186603A (en) Method for transforming coordinates to guide an object
US11944325B2 (en) System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
JP7239545B2 (en) Systems for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
EP3554383B1 (en) System for providing images for guiding surgery
US20200297430A1 (en) System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
CN113491578A (en) Method for registering medical images to a circle-arc assembly
Marinetto et al. Multicamera optical tracker assessment for computer aided surgery applications
EP2984987B1 (en) Method and system for marking of fluoroscope field-of-view
JP7323489B2 (en) Systems and associated methods and apparatus for robotic guidance of a guided biopsy needle trajectory
CN112137722A (en) Surgical robotic systems, methods, and devices
KR102002222B1 (en) Computer-readable recording medium on which a computer program for image processing is recorded
WO2018109227A1 (en) System providing images guiding surgery
GB2614025A (en) Surgery guidance system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant