KR102002222B1 - 영상 처리용 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 - Google Patents
영상 처리용 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 Download PDFInfo
- Publication number
- KR102002222B1 KR102002222B1 KR1020170128016A KR20170128016A KR102002222B1 KR 102002222 B1 KR102002222 B1 KR 102002222B1 KR 1020170128016 A KR1020170128016 A KR 1020170128016A KR 20170128016 A KR20170128016 A KR 20170128016A KR 102002222 B1 KR102002222 B1 KR 102002222B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- frame
- arm
- localizer
- information
- Prior art date
Links
- 238000004590 computer program Methods 0.000 title claims 4
- 238000000034 method Methods 0.000 claims description 9
- 239000003550 marker Substances 0.000 claims description 8
- 238000003672 processing method Methods 0.000 abstract description 15
- 210000001519 tissue Anatomy 0.000 description 13
- 238000001356 surgical procedure Methods 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 5
- 238000003325 tomography Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 210000004204 blood vessel Anatomy 0.000 description 2
- 210000005013 brain tissue Anatomy 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 210000003625 skull Anatomy 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000007769 metal material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002672 stereotactic surgery Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- High Energy & Nuclear Physics (AREA)
- Theoretical Computer Science (AREA)
- Pulmonology (AREA)
- Optics & Photonics (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
영상 처리 방법이 개시된다. 영상 처리 방법은 환자의 신체, 상기 환자의 신체에 장착된 프레임, 그리고 상기 프레임에 장착된 제1로컬라이저를 촬영한 CT 영상을 포함하는 제1영상 정보를 획득하는 단계; 상기 제1영상 정보에 나타난 상기 제1로컬라이저와 상기 프레임의 위치 정보를 획득하는 단계; 상기 환자의 신체, 상기 프레임, 그리고 상기 프레임에 장착된 제2로컬라이저를 촬영한 C-arm영상을 획득하는 단계; 상기 C-arm영상에 나타난 상기 제2로컬라이저와 상기 프레임의 위치 정보를 획득하는 단계; 및 상기 제1영상 정보에서 획득된 상기 프레임의 위치 정보와 상기 C-arm 영상에서 획득된 상기 프레임의 위치 정보를 기준으로 상기 제1영상 정보와 상기 C-arm 영상을 정합하는 단계를 포함한다.
Description
본 발명은 영상 처리 방법에 관련된 것으로, 보다 상세하게는 단층촬영 영상에서 계획된 수술 경로를 C-arm 영상에 표시하기 위한 영상 처리 방법에 관한 것이다.
현재 시행되고 있는 뇌정위 수술에서는 단층촬영 영상에서 계획된 수술 목표 지점 및 경로에 의해 계산된 수치로 스테레오텍틱 프레임(stereotactic frame)을 조립하여 환자의 머리에 부착하게 되면 수술 목표지점을 기준으로 프레임의 회전축이 위치하게 된다. 특수한 크로스 헤어 킷을 프레임의 회전축에 위치한 이어링에 부착하고 환자의 측면에서 프레임의 회전축 방향으로 C-arm을 정렬한 상태로 촬영하면 영상에서 목표지점의 위치를 확인할 수 있다.
수술용 네비게이션 시스템은 수술 도구를 추적하기 위한 센서를 사용하여 C-arm의 위치를 추적하기 위해 추적 가능한 마커가 부착된 장치를 디텍터에 부착하여 C-arm의 위치를 센서의 좌표계에서 인식한다. 단층촬영 영상과 센서 간 정합을 수행하면 계획된 수술 경로 및 추적 가능한 수술 도구의 위치를 C-arm 영상에서 보여줄 수 있다. 수술 로봇의 경우 수술 중 수술 기구가 삽입된 상태에서 CT 영상을 촬영하여 단층촬영 영상 간 정합을 통해 삽입된 위치와 계획된 위치의 차이를 확인할 수 있다.
상술한 스테레오텍틱 프레임의 타겟팅 메커니즘은 수술 경로로부터 계산된 수치에 의해 각 파트를 조립함으로써 목표 지점을 기준으로 프레임의 회전축 상에 위치할 수 있게 해준다.
반면, 수술 로봇은 이러한 수동 조립에서 오는 불편함을 개선하기 위해 개발된 자동화된 기기이기 때문에 해당 메커니즘을 적용할 수 없다. 이는 스테레오텍틱 프레임의 경우 회전축이 수술 목표지점 상에 위치하여 X-ray가 통과할 수 있는 공간을 확보할 수 있는 구조로 이루어져 있지만 로봇 시스템의 경우 회전축을 목표지점에 위치시키는 것과 회전축 상에 X-ray를 위한 공간을 확보하는 것이 어렵기 때문이다. 또한 특정한 방향으로 C-arm을 촬영해야 하기 때문에 다양한 각도에서 목표 지점을 확인하는 것이 불가능 하다. 수술 중 획득한 CT를 이용하는 방법은 수술실에서 CT를 촬영할 수 있는 영상장비를 필수적으로 요구하기 때문에 사용에 대한 제약이 크다. 그리고 C-arm의 위치를 추적하는 방법은 정확한 C-arm의 카메라 모델링을 위한 캘리브레이션과 추적을 위한 마커로 구성된 장치를 디텍터에 부착하여야 하고 센서에서 발생하는 오차로 인해 정밀함을 요구하는 수술에서는 사용하기 어렵다.
본 발명은 수술 전 계획한 수술 목표 조직 및 이에 도달하는 경로를 수술 중 C-arm 영상에 표시해 줄 수 있는 영상 처리 방법을 제공한다.
또한, 본 발명은 C-arm의 다양한 자세에서 계획된 수술 경로가 표시된 C-arm 영상을 표시할 수 있는 영상 처리 방법을 제공한다.
본 발명에 따른 영상 처리 방법은 환자의 신체, 상기 환자의 신체에 장착된 프레임, 그리고 상기 프레임에 장착된 제1로컬라이저를 촬영한 CT 영상을 포함하는 제1영상 정보를 획득하는 단계; 상기 제1영상 정보에 나타난 상기 제1로컬라이저와 상기 프레임의 위치 정보를 획득하는 단계; 상기 환자의 신체, 상기 프레임, 그리고 상기 프레임에 장착된 제2로컬라이저를 촬영한 C-arm영상을 획득하는 단계; 상기 C-arm영상에 나타난 상기 제2로컬라이저와 상기 프레임의 위치 정보를 획득하는 단계; 및 상기 제1영상 정보에서 획득된 상기 프레임의 위치 정보와 상기 C-arm 영상에서 획득된 상기 프레임의 위치 정보를 기준으로 상기 제1영상 정보와 상기 C-arm 영상을 정합하는 단계를 포함한다.
또한, 상기 환자의 신체를 촬영한 MRI 영상을 획득하는 단계를 더 포함하되, 상기 제1영상 정보를 획득하는 단계는 상기 MRI 영상과 상기 CT 영상을 정합하는 단계를 포함하며, 상기 제1영상 정보는 상기 MRI 영상과 상기 CT 영상이 정합된 영상일 수 있다.
또한, 상기 C-arm영상에 나타난 상기 제2로컬라이저와 상기 프레임의 위치 정보를 획득하는 단계는, 상기 C-arm영상에 나타난 상기 제2로컬라이저의 표식으로부터 적어도 3개 이상의 특징 점을 추출하는 단계; 및 상기 특징 점들의 위치 정보로부터 상기 C-arm영상에 나타난 상기 프레임의 위치 정보를 획득하는 단계를 포함할 수 있다.
또한, 상기 제2로컬라이저의 표식은 적어도 3개 이상의 꼭지점을 포함하며, 상기 꼭지점들이 상기 특징 점으로 추출될 수 있다.
또한, 상기 제2로컬라이저는 상기 프레임의 적어도 2개 이상의 위치에 장착되고, 각 위치에 장착된 상기 제2로컬라이저들은 서로 다른 표식을 가지며, 상기 C-arm 영상에는 상기 제2로컬라이저들의 서로 다른 표식이 나타날 수 있다.
본 발명에 의하면, 수술 도중에 제1영상 정보와 C-arm 영상이 정합된 정합 영상을 디스플레이를 통해 확인가능하며, 정합 영상을 통해 수술 기구가 제1영상 정보에 표시된 경로 및 수술 목표 조직에 정확하게 도달했는지 확인할 수 있다.
또한 본 발명에 의하면, 제2로컬라이저의 표식을 볼 수 있는 모든 C-arm 각도에서 정합 영상 생성이 가능하므로, C-arm의 자세에 제한 없이 제1영상 정보에 표시된 경로 및 수술 목표 조직을 확인할 수 있다.
도 1은 본 발명의 실시 예에 따른 영상 처리 방법을 나타내는 순서도이다.
도 2은 본 발명의 실시 예에 따라 촬영된 MRI 영상과 수술 목표 조직에 도달하기 위한 경로를 표시한 사진이다.
도 3는 본 발명의 실시 예에 따라 제1로컬라이저가 부착된 프레임이 환자에게 장착된 모습을 나타내는 사진이다
도 4는 도 3의 환자를 촬영한 CT 영상을 나타내는 사진이다.
도 5는 본 발명의 실시 예에 따라, MRI 영상과 CT 영상의 정합으로 획득된 제1영상 정보를 나타내는 사진이다.
도 6은 본 발명의 실시 예에 따른 제2로컬라이저가 부착된 프레임을 나타내는 도면이다.
도 7은 제2로컬라이저에 표시된 표식을 나타내는 도면이다.
도 2은 본 발명의 실시 예에 따라 촬영된 MRI 영상과 수술 목표 조직에 도달하기 위한 경로를 표시한 사진이다.
도 3는 본 발명의 실시 예에 따라 제1로컬라이저가 부착된 프레임이 환자에게 장착된 모습을 나타내는 사진이다
도 4는 도 3의 환자를 촬영한 CT 영상을 나타내는 사진이다.
도 5는 본 발명의 실시 예에 따라, MRI 영상과 CT 영상의 정합으로 획득된 제1영상 정보를 나타내는 사진이다.
도 6은 본 발명의 실시 예에 따른 제2로컬라이저가 부착된 프레임을 나타내는 도면이다.
도 7은 제2로컬라이저에 표시된 표식을 나타내는 도면이다.
이하, 첨부된 도면들을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명할 것이다. 그러나 본 발명의 기술적 사상은 여기서 설명되는 실시 예에 한정되지 않고 다른 형태로 구체화 될 수도 있다. 오히려, 여기서 소개되는 실시 예는 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.
본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한, 도면들에 있어서, 막 및 영역들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다.
또한, 본 명세서의 다양한 실시 예 들에서 제1, 제2, 제3 등의 용어가 다양한 구성요소들을 기술하기 위해서 사용되었지만, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 따라서, 어느 한 실시 예에 제 1 구성요소로 언급된 것이 다른 실시 예에서는 제 2 구성요소로 언급될 수도 있다. 여기에 설명되고 예시되는 각 실시 예는 그것의 상보적인 실시 예도 포함한다. 또한, 본 명세서에서 '및/또는'은 전후에 나열한 구성요소들 중 적어도 하나를 포함하는 의미로 사용되었다.
명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 또한, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 구성요소 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 구성요소 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하는 것으로 이해되어서는 안 된다. 또한, 본 명세서에서 "연결"은 복수의 구성 요소를 간접적으로 연결하는 것, 및 직접적으로 연결하는 것을 모두 포함하는 의미로 사용된다.
또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 것이다.
본 발명에 따른 영상 처리 방법은 C-arm 영상이 사용되는 수술 시스템에 적용될 수 있다. C-arm 영상 촬영 시스템은 X-ray 기기의 일종으로, 신체의 뼈와 관절을 연속적으로 투시할 수 있고, 수술 도중에 영상을 보면서 시술할 수 있기 때문에, 정확한 수술 목표 지점을 수술할 수 있다.
본 발명에 따른 영상 처리 방법은, C-arm 영상 촬영 시스템을 이용한 수술에서, 수술 전 환자의 단층촬영 영상에서 계획된 목표 조직의 위치 및 이에 도달하기 위한 경로와 일치하는지 확인하기 위해 수술 계획 정보를 C-arm 영상에 표시해주기 위한 방법을 제공한다.
본 발명에 따른 영상 처리 방법은, 알고리즘으로 구현되어 컴퓨터 판독 가능한 기록매체에 저장될 수 있으며, 컴퓨터 등에서 구현될 수 있다.
아래에서는, 본 발명에 따른 영상 처리 방법이 뇌정위 수술에 적용되는 것을 예를 들어 설명한다. 그러나 본 발명에 따른 영상 처리 방법은 상기 수술에 국한되지 않으며, C-arm 영상 촬영 시스템이 활용되는 다양한 수술에 적용될 수 있다.
도 1은 본 발명의 실시 예에 따른 영상 처리 방법을 나타내는 순서도이다.
도 1을 참조하면, 영상 처리 방법은 MRI 영상을 획득하는 단계(S10), CT 영상을 획득하는 단계(S20), MRI 영상과 CT 영상의 정합으로 제1영상 정보를 획득하는 단계(S30), 제1영상 정보에 나타난 프레임의 위치 정보를 획득하는 단계(S40), C-arm 영상을 획득하는 단계(S50), C-arm 영상에 나타난 프레임의 위치 정보를 획득하는 단계(S60), 그리고 프레임의 위치 정보를 기준으로 제1영상 정보와 C-arm 영상을 정합하는 단계(S60)를 포함한다.
MRI 영상을 획득하는 단계(S10)는 수술 전 환자의 MRI 영상을 촬영하고, 촬영된 MRI 영상에서 수술 목표 조직의 위치와 이에 도달하기 위한 경로를 결정한다.
도 2은 본 발명의 실시 예에 따라 촬영된 MRI 영상과 수술 목표 조직에 도달하기 위한 경로를 표시한 사진이다.
도 2를 참조하면, MRI 영상에는 환자의 두개골, 뇌 조직, 그리고 혈관 조직 등이 영상으로 나타나며, 이에 수술 목표 조직과 이에 도달하기 위한 경로를 표시할 수 있다. 도 2에서는 수술 목표 조직에 도달하기 위한 경로를 빨강색으로 표시하였다.
도 3는 본 발명의 실시 예에 따라 제1로컬라이저가 부착된 프레임이 환자에게 장착된 모습을 나타내는 사진이고, 도 4는 도 3의 환자를 촬영한 CT 영상을 나타내는 사진이다.
도 3 및 도 4를 참조하면, CT 영상을 획득하는 단계(S20)는 환자에게 프레임(110)을 장착하고, 프레임(110)과 CT 영상간 정합용 표식이 표시된 제1로컬라이저(120)를 프레임(120)에 부착한 상태에서 CT 영상을 촬영한다.
촬영된 CT 영상에는 환자의 두개골(A), 프레임(110a), 그리고 제1로컬라이저(120b)의 표식이 촬영된다.
CT 영상에는 환자의 뇌 조직과 혈관 조직 등이 나타나지 않으므로, 수술 목표 조직에 도달하기 위한 경로를 얻기 위하여 MRI 영상과의 정합이 요구된다.
MRI 영상과 CT 영상의 정합으로 제1영상 정보를 획득하는 단계(S30)는, MRI 영상에서 획득된 정보와 CT 영상에서 획득된 정보를 매칭하여 정합한다. 일 예에 의하면, MRI 영상과 CT 영상에서 획득된 강도(intensity) 정보를 이용하여 영상을 정합할 수 있다. 이외에도 다양한 영상 정합 방법으로, MRI 영상과 CT 영상을 정합할 수 있다.
도 5는 본 발명의 실시 예에 따라, MRI 영상과 CT 영상의 정합으로 획득된 제1영상 정보를 나타내는 사진이다.
도 5를 참조하면, 제1영상 정보에는 MRI 영상에 포함된 정보와 CT 영상에 포함된 정보가 함께 나타난다.
제1영상 정보에 나타난 프레임의 위치 정보를 획득하는 단계(S40)는, 제1영상 정보에 나타난 제1로컬라이저의 표식으로부터 프레임의 위치 정보를 획득한다. 실물 프레임과 이에 장착된 제1로컬라이저는 상대적인 위치 관계가 미리 결정되므로, 제1영상 정보에서 제1로컬라이저의 표식이 획득될 경우, 제1영상 정보상의 프레임의 위치 정보 획득이 가능하다.
C-arm 영상을 획득하는 단계(S50)는, 환자에게 장착된 프레임(110)에서 제1로컬라이저(120)를 제거하고, 제2로컬라이저(130, 140)를 부착한 상태에서 C-arm 영상 촬영 시스템을 통해 C-arm 영상을 획득한다. C-arm 영상은 환자의 수술 과정에서 획득된다. 때문에, C-arm 영상을 획득하는 단계에서는 C-arm 영상 촬영 시스템의 구조적 특징과 원활한 수술 진행을 위하여 제1로컬라이저(120)와 다른 형상을 갖는 제2로컬라이저(130, 140)가 부착된 상태에서 진행된다.
도 6은 본 발명의 실시 예에 따른 제2로컬라이저가 부착된 프레임을 나타내는 도면이고, 도 7은 제2로컬라이저에 표시된 표식을 나타내는 도면이다.
도 6 및 도 7을 참조하면, 제2로컬라이저(130, 140)는 적어도 2개 이상의 위치에서 프레임(110)에 장착되며, 각각의 제2로컬라이저(130, 140)에 표시된 표식(131, 141)은 서로 다른 형상을 가질 수 있다. 제2로컬라이저(130, 140)들은 서로 마주하는 위치에 장착될 수 있다. 표식(131, 141)은 X-ray가 투과되지 않는 금속 재질로 형성될 수 있다. 실시 예에 의하면, 표식은 Ti, Cu, Fe 중 어느 하나의 재질로 형성될 수 있다. 표식(131, 141)은 적어도 3개 이상의 꼭지점을 갖는 다각형상을 가질 수 있다.
실시 예에 의하면, 프레임(110)에는 두 개의 제2로컬러이저(130, 140)가 마주보도록 장착되며, 하나의 제2로컬라이저(130)에는 마름모 형상의 표식(131)이, 다른 하나의 제2로컬라이저(140)에는 직사각 형상의 표식(141)이 표시될 수 있다.
도 8은 본 발명의 실시 예에 따라 프레임이 장착된 환자를 나타내는 사진이고, 도 9는 도 8의 환자로부터 촬영된 C-arm 영상을 나타내는 도면이다.
도 8 및 도 9를 참조하면, C-arm 영상에는 제2로컬라이저(130, 140)의 표식(131a, 141a)들이 나타나며, 표식(131a, 141a)들의 상대적인 크기 및 위치에 따라 C-arm 영상이 촬영된 방향 및 프레임(110)의 위치 및 자세를 확인할 수 있다.
C-arm 영상에 나타난 프레임의 위치 정보를 획득하는 단계(S60)는, C-arm 영상에 나타난 표식(131a, 141a)들로부터 프레임(110a)의 위치 정보를 획득한다. 실시 예에 의하면, C-arm 영상에 나타난 표식(131a, 141a)들에서 적어도 3개 이상의 특징 점을 추출하고, 추출된 특징 점들을 이용하여 three point perspective pose estimation 알고리즘을 이용하여, C-arm 영상에 나타난 프레임(110a)의 위치 정보를 획득한다. 실시 예에 의하면, 특징 점들은 C-arm 영상에 나타난 표식(131a, 141a)들의 꼭지점들에서 임의로 추출할 수 있다.
제1영상 정보와 C-arm 영상을 정합하는 단계(S70)는, 제1영상 정보에서 획득된 프레임의 위치 정보와 C-arm 영상에서 획득된 프레임의 위치 정보를 기준으로 제1영상 정보와 C-arm 영상을 정합한다. 프레임(110)은 CT 영상을 촬영하는 단계와 C-arm 영상을 촬영하는 단계에서 같은 위치에서 환자에게 고정 장착되므로, 프레임의 위치 정보를 기준으로 영상들을 정합할 수 있다.
도 10은 본 발명의 실시 예에 따른 제1영상 정보와 C-arm 영상이 정합된 정합 영상을 나타내는 사진이다.
도 10을 참조하면, 의사는 수술 도중에 제1영상 정보와 C-arm 영상이 정합된 정합 영상(A)을 디스플레이를 통해 확인가능하며, 정합 영상(A)을 통해 수술 기구가 제1영상 정보에 표시된 경로 및 수술 목표 조직(D)에 정확하게 도달했는지 확인할 수 있다. 삽입된 수술기구의 위치가 제1영상 정보에 표시된 경로와 차이가 있을 경우, 수술 기구의 위치를 계획된 지점으로 조정할 수 있다.
이상, 본 발명을 바람직한 실시 예를 사용하여 상세히 설명하였으나, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 첨부된 특허청구범위에 의하여 해석되어야 할 것이다. 또한, 이 기술분야에서 통상의 지식을 습득한 자라면, 본 발명의 범위에서 벗어나지 않으면서도 많은 수정과 변형이 가능함을 이해하여야 할 것이다.
110: 프레임
120: 제1로컬라이저
130, 140: 제2로컬라이저
131, 141: 표식
120: 제1로컬라이저
130, 140: 제2로컬라이저
131, 141: 표식
Claims (6)
- 환자의 특정 신체 부위를 촬영한 MRI 영상과, 제1로컬라이저가 부착된 프레임을 상기 환자의 특정 신체 부위에 장착한 상태에서 상기 환자의 특정 신체 부위를 촬영한 CT영상이 정합된 제1영상 정보에서 상기 프레임의 위치 정보를 획득하고,
제2로컬라이저가 부착된 상기 프레임을 상기 환자의 특정 신체 부위에 장착한 상태에서 상기 환자의 특정 신체 부위를 촬영한 C-arm영상에서 상기 프레임의 위치 정보를 획득하고,
상기 제1영상 정보에서 획득한 상기 프레임의 위치 정보와 상기 C-arm영상에서 획득한 상기 프레임의 위치 정보를 기준으로 상기 제1영상 정보와 상기 C-arm 영상을 정합시키기 위한 영상 처리용 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록매체. - 삭제
- 제 1 항에 있어서,
상기 C-arm영상에서 상기 프레임의 위치 정보의 획득은,
상기 C-arm영상에 나타난 상기 제2로컬라이저의 표식으로부터 적어도 3개 이상의 특징 점을 추출하고, 상기 특징 점들의 위치 정보로부터 상기 C-arm영상에 나타난 상기 프레임의 위치 정보를 획득하는 영상 처리용 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록매체. - 제 3 항에 있어서,
상기 제2로컬라이저의 표식은 적어도 3개 이상의 꼭지점을 포함하며, 상기 꼭지점들이 상기 특징 점들로 추출되는 영상 처리용 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록매체. - 제 1 항에 있어서,
상기 제2로컬라이저는 상기 프레임의 적어도 2개 이상의 위치에 장착되고, 각 위치에 장착된 상기 제2로컬라이저들은 서로 다른 표식을 가지며,
상기 C-arm 영상에는 상기 제2로컬라이저들의 서로 다른 표식이 나타나는 영상 처리용 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록매체. - 삭제
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170128016A KR102002222B1 (ko) | 2017-09-29 | 2017-09-29 | 영상 처리용 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170128016A KR102002222B1 (ko) | 2017-09-29 | 2017-09-29 | 영상 처리용 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190038042A KR20190038042A (ko) | 2019-04-08 |
KR102002222B1 true KR102002222B1 (ko) | 2019-10-21 |
Family
ID=66164700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170128016A KR102002222B1 (ko) | 2017-09-29 | 2017-09-29 | 영상 처리용 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102002222B1 (ko) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120289826A1 (en) | 2011-05-12 | 2012-11-15 | Siemens Aktiengesellschaft | Method for localization and identification of structures in projection images |
KR101499557B1 (ko) | 2012-10-16 | 2015-03-09 | 삼성전자주식회사 | 의료 영상 촬영 방법 및 장치 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3116434A2 (en) * | 2014-03-13 | 2017-01-18 | Navigate Surgical Technologies Inc. | System for real time tracking and modeling of surgical site |
KR102530170B1 (ko) * | 2014-10-08 | 2023-05-10 | 삼성전자주식회사 | 영상 처리 장치, 영상 처리 장치 제어 방법 및 의료 영상 장치 |
-
2017
- 2017-09-29 KR KR1020170128016A patent/KR102002222B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120289826A1 (en) | 2011-05-12 | 2012-11-15 | Siemens Aktiengesellschaft | Method for localization and identification of structures in projection images |
KR101499557B1 (ko) | 2012-10-16 | 2015-03-09 | 삼성전자주식회사 | 의료 영상 촬영 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
KR20190038042A (ko) | 2019-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11583344B2 (en) | Devices, systems and methods for natural feature tracking of surgical tools and other objects | |
JP7204663B2 (ja) | 慣性計測装置を使用して手術の正確度を向上させるためのシステム、装置、及び方法 | |
EP3711700B1 (en) | System for neuronavigation registration and robotic trajectory guidance, and related methods and devices | |
Navab et al. | Camera augmented mobile C-arm (CAMC): calibration, accuracy study, and clinical applications | |
US11589926B2 (en) | Mobile surgical tracking system with an integrated fiducial marker for image guided interventions | |
US9248000B2 (en) | System for and method of visualizing an interior of body | |
JP7381474B2 (ja) | 局所平面を用いた医用誘導システム及び方法 | |
US20190099222A1 (en) | Automatic registration method and device for surgical robot | |
EP2588018B1 (en) | Medical image registration using a rigid inner body surface | |
KR102105974B1 (ko) | 의료 영상 시스템 | |
WO2017183032A1 (en) | Method and system for registration verification | |
US20200297430A1 (en) | System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices | |
JP7239545B2 (ja) | ニューロナビゲーション位置合わせおよびロボット軌道誘導のためのシステム、ロボット手術、ならびに関連する方法およびデバイス | |
CN113491578B (zh) | 将医学图像配准到圆环-圆弧组件的方法 | |
King et al. | Stereo augmented reality in the surgical microscope | |
US20240108417A1 (en) | System for neuronavigation registration and robotic trajectory guidance, and related methods and devices | |
JP7323489B2 (ja) | 誘導された生検針の軌道をロボットによりガイダンスするためのシステムと、関連する方法および装置 | |
CN112137722B (zh) | 手术机器人系统、方法和装置 | |
KR20160057024A (ko) | 마커리스 3차원 객체추적 장치 및 그 방법 | |
KR102002222B1 (ko) | 영상 처리용 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 | |
JP7511555B2 (ja) | 画像装置のための空間的位置合わせ方法 | |
EP3533408B1 (en) | Method, system, computer program product and computer-readable medium for temporarily marking a region of interest on a patient | |
US20230252681A1 (en) | Method of medical calibration | |
US20220096165A1 (en) | Interventional device tracking | |
US20200297451A1 (en) | System for robotic trajectory guidance for navigated biopsy needle, and related methods and devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |