KR102140383B1 - Method for microscope based augmented reality navigation, device and computer readable medium for performing the method - Google Patents

Method for microscope based augmented reality navigation, device and computer readable medium for performing the method Download PDF

Info

Publication number
KR102140383B1
KR102140383B1 KR1020180151628A KR20180151628A KR102140383B1 KR 102140383 B1 KR102140383 B1 KR 102140383B1 KR 1020180151628 A KR1020180151628 A KR 1020180151628A KR 20180151628 A KR20180151628 A KR 20180151628A KR 102140383 B1 KR102140383 B1 KR 102140383B1
Authority
KR
South Korea
Prior art keywords
brain
model
microscope
local
marker
Prior art date
Application number
KR1020180151628A
Other languages
Korean (ko)
Other versions
KR20200065297A (en
Inventor
박태용
정희렬
강승우
구교영
이정진
Original Assignee
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교산학협력단 filed Critical 숭실대학교산학협력단
Priority to KR1020180151628A priority Critical patent/KR102140383B1/en
Publication of KR20200065297A publication Critical patent/KR20200065297A/en
Application granted granted Critical
Publication of KR102140383B1 publication Critical patent/KR102140383B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

본 발명의 일 실시예에 따른 현미경 기반 증강현실 네비게이션 방법은, 수술 전 촬영된 뇌 영상으로부터 생성된 3차원 뇌 모델과, 수술 중 수술용 현미경으로부터 획득되는 뇌의 국소 영역에 대한 국부 현미경 영상의 비강체 정합을 수행하고, 수술용 현미경으로부터 수신되는 국부 현미경 영상을 분석하여, 국소 영역의 부분적인 변형에 따른 3차원 뇌 모델 전체의 물리적인 변형을 시뮬레이션하며, 국부 현미경 영상이 증강현실로 반영되면서, 수술 과정에 따른 시뮬레이션 결과가 실시간으로 반영되는 3차원 뇌 모델을 수술용 현미경에 구비된 디스플레이 모듈로 출력할 수 있다.The microscope-based augmented reality navigation method according to an embodiment of the present invention includes a ratio of a 3D brain model generated from a brain image taken before surgery and a local microscope image to a local area of the brain obtained from a surgical microscope during surgery. Perform rigid body registration, analyze the local microscope image received from the surgical microscope, simulate the physical deformation of the entire 3D brain model according to partial deformation of the local area, and the local microscope image is reflected as augmented reality, A 3D brain model in which simulation results according to a surgical procedure are reflected in real time can be output to a display module provided in a surgical microscope.

Description

현미경 기반 증강현실 네비게이션 방법, 이를 수행하기 위한 장치 및 기록매체 {METHOD FOR MICROSCOPE BASED AUGMENTED REALITY NAVIGATION, DEVICE AND COMPUTER READABLE MEDIUM FOR PERFORMING THE METHOD}Microscope-based augmented reality navigation method, device and recording medium for performing it {METHOD FOR MICROSCOPE BASED AUGMENTED REALITY NAVIGATION, DEVICE AND COMPUTER READABLE MEDIUM FOR PERFORMING THE METHOD}

본 발명은 현미경 기반 증강현실 네비게이션 방법, 이를 수행하기 위한 장치 및 기록매체에 관한 것으로서, 더욱 상세하게는 뇌 수술 중 발생되는 뇌의 변형을 수술 중간에 바로 확인 가능하도록 수술용 현미경에 구비된 디스플레이 모듈에 직접 증강현실 기술을 통해 가시화하는 현미경 기반 증강현실 네비게이션 방법, 이를 수행하기 위한 장치 및 기록매체에 관한 것이다.The present invention relates to a microscope-based augmented reality navigation method, an apparatus for performing the same, and a recording medium, and more specifically, a display module provided in a surgical microscope so that brain deformation occurring during brain surgery can be immediately identified in the middle of surgery. The present invention relates to a microscope-based augmented reality navigation method visualized through augmented reality technology, a device and a recording medium for performing the same.

증강현실(Augmented Reality, AR) 기술은 현실과 가상의 이미지를 결합시킴으로 현실감과 몰입감의 증가로 인하여 대중적 접근성이 높다는 장점이 존재한다. 이러한 장점은 의료 분야에까지 확산되어 AR을 이용한 네비게이션 수술에도 관련 연구가 진행되고 있다.Augmented Reality (AR) technology has the advantage of high public access due to the increase in realism and immersion by combining real and virtual images. These advantages have spread to the medical field, and research is also being conducted on navigation surgery using AR.

특히, 뇌 수술은 미세한 오차도 환자에게 뇌 손상에 따른 장애를 가져올 수 있는 정밀성을 요하는 수술 중 하나로, 정확한 병변의 위치 확인을 위해 증강현실 및 네비게이션 시스템을 이용한다. Particularly, brain surgery is one of the surgeries that require precision that can cause disorders due to brain damage to patients with minute errors, and uses augmented reality and navigation systems to accurately locate the lesions.

이와 관련된 종래 기술로는, 수술 전 촬영된 영상(CT/MRI)를 이용하여 기존 네비게이션 시스템의 강체 정합(Rigid Registration) 결과를 증강 현실(Augmented Reality, AR) 기술을 통해 단순히 가시화하는 AR 기반 네비게이션 기술이 있다.As a related art, AR-based navigation technology that simply visualizes the result of rigid registration of an existing navigation system through augmented reality (AR) technology using an image taken before surgery (CT/MRI) There is this.

하지만, 종래 기술들은 수술 전 영상의 강체 정합만을 수행하며, 뇌, 간 등과 같이 힘에 의한 변형이 발생하는 장기들을 대상으로 하는 기술임에도 불구하고, 장기의 변형을 고려하지 않고 주요 부위를 가시화 하는 정도에 그치고 있다는 한계가 있다.However, the prior art performs only rigid registration of the image before surgery, and despite the fact that it is a target for organs that are deformed by force, such as the brain and liver, the degree of visualizing the main site without considering the deformation of the organ There is a limit that it stops.

또한, 종래 기술에 따르면 뇌 수술시 사용되는 수술용 현미경과 네비게이션 시스템을 동시에 사용할 수 없기 때문에 현미경 영상과 정합된 환자의 CT/MRI 영상을 번갈아 보아야한다는 불편함이 존재하며, 뇌가 아닌 두개골(두피)를 강체 정합(Rigid Registration)하여 사용함으로써 실제 뇌의 위치는 오차가 발생될 수 있다. In addition, according to the prior art, since the surgical microscope used in brain surgery and the navigation system cannot be used at the same time, there is the inconvenience of alternately viewing the CT/MRI image of the patient matched with the microscope image. ) By using Rigid Registration, an error may occur in the location of the actual brain.

또한, 수술 중 발생되는 뇌척수액 손실, 병변 제거, 뇌의 박동 등과 같은 변동사항 및 뇌의 변형이 반영되지 않아 수술 중 시시각각으로 변형되는 뇌 조직의 정확한 구조 파악에 어려움을 겪고 있다.In addition, fluctuations such as cerebrospinal fluid loss, lesion removal, brain beats, etc., which occur during surgery, and brain deformation are not reflected, which makes it difficult to grasp the exact structure of brain tissue that is deformed from time to time during surgery.

한국등록특허 제10-1190645호Korean Registered Patent No. 10-1190645 한국공개특허 제10-2017-0134598호Korean Patent Publication No. 10-2017-0134598

본 발명의 일측면은 뇌의 국소 영역을 관찰하는 수술용 현미경에 의해 촬영된 영상만으로도 뇌의 전체 영역에 대한 물리적 변형을 추정하며, 추정된 뇌 영역의 시뮬레이션 결과를 수술용 현미경을 통해 증강현실로 가시화할 수 있는 현미경 기반 증강현실 네비게이션 방법, 이를 수행하기 위한 장치 및 기록매체를 제공한다.One aspect of the present invention estimates the physical deformation of the entire area of the brain with only an image taken by a surgical microscope observing a local area of the brain, and the simulation results of the estimated brain area are augmented reality through a surgical microscope. Provided is a microscope-based augmented reality navigation method that can be visualized, an apparatus for performing the same, and a recording medium.

본 발명의 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 현미경 기반 증강현실 네비게이션 방법은, 수술 전 촬영된 뇌 영상으로부터 생성된 3차원 뇌 모델과, 수술 중 수술용 현미경으로부터 획득되는 뇌의 국소 영역에 대한 국부 현미경 영상의 비강체 정합을 수행하고, 수술 중 상기 수술용 현미경으로부터 수신되는 상기 국부 현미경 영상을 프레임별로 분석하여, 상기 국소 영역에 배치된 마커의 위치 변화에 따라 상기 국소 영역의 부분적인 변형에 따른 상기 3차원 뇌 모델 전체의 물리적인 변형을 시뮬레이션하며, 상기 국부 현미경 영상이 증강현실로 반영되면서, 수술 과정에 따른 시뮬레이션 결과가 실시간으로 반영되는 상기 3차원 뇌 모델을 상기 수술용 현미경에 구비된 디스플레이 모듈로 출력한다.The microscope-based augmented reality navigation method according to an embodiment of the present invention includes a ratio of a 3D brain model generated from a brain image taken before surgery and a local microscope image to a local area of the brain obtained from a surgical microscope during surgery. Rigid body registration is performed, and the local microscope image received from the surgical microscope during surgery is analyzed for each frame, and the three-dimensional brain according to partial deformation of the local area according to the positional change of the marker disposed in the local area. Simulates the physical deformation of the entire model and outputs the 3D brain model in which the simulation result according to the surgical process is reflected in real time as the local microscope image is reflected in augmented reality to a display module provided in the surgical microscope. .

상기 비강체 정합을 수행하는 것은, 상기 수술용 현미경의 동작 파라미터에 기반하여 상기 3차원 뇌 모델과 상기 국부 영상의 초기 정합을 수행한 후, 상기 국부 현미경 영상에 포함된 각각의 마커의 위치에 대응되는 상기 3차원 뇌 모델의 3차원 좌표를 추출하여 매칭 포인트로 설정하고, 상기 마커와 상기 매칭 포인트를 일대일로 매칭시키는 정밀 정합을 수행하는 것일 수 있다.Performing the non-rigid registration, after performing the initial matching of the 3D brain model and the local image based on the operating parameters of the surgical microscope, corresponds to the position of each marker included in the local microscope image It may be to extract the 3D coordinates of the 3D brain model to be set as a matching point, and perform precision matching to match the marker and the matching point on a one-to-one basis.

상기 3차원 뇌 모델 전체의 물리적인 변형을 시뮬레이션하는 것은, 상기 국부 현미경 영상을 프레임별로 분석하여, 이전 프레임에서의 상기 마커의 위치와 현재 프레임에서의 상기 마커의 위치를 비교하여 상기 마커에 대한 이동 벡터를 산출하고, 상기 마커에 미리 매칭된 상기 매칭 포인트를 상기 이동 벡터에 따라 이동시켜 상기 국소 영역의 물리적인 변형을 추정하고, 변형된 상기 국소 영역에 기반하여 상기 삼차원 뇌 모델의 물리적인 변형을 추정하는 것일 수 있다.To simulate the physical deformation of the entire 3D brain model, the local microscope image is analyzed frame by frame, and the position of the marker in the previous frame is compared with the position of the marker in the current frame to move for the marker. A vector is calculated, and the matching point pre-matched to the marker is moved according to the motion vector to estimate the physical deformation of the local area, and the physical deformation of the three-dimensional brain model is calculated based on the modified local area. It may be an estimate.

상기 뇌 영상으로부터 전경 및 배경이 분리된 뇌 영역을 추출하고, 추출된 상기 뇌 영역을 메쉬(mesh) 형태로 나타낸 고해상도 모델을 생성하고, 상기 고해상도 모델로부터 서로 다른 해상도를 갖는 복수의 다해상도 모델을 생성하는 것을 더 포함하며, 상기 3차원 뇌 모델은, 어느 하나의 상기 다해상도 모델이 변형되는 경우, 상기 어느 하나의 다해상도 모델과 매핑된 상기 고해상도 모델이 함께 변형되는 하이브리드 모델인 것을 특징으로 할 수 있다.Extracting the brain regions in which the foreground and background are separated from the brain image, generating a high-resolution model representing the extracted brain regions in a mesh form, and generating a plurality of multi-resolution models having different resolutions from the high-resolution models. Further comprising generating, the three-dimensional brain model, if any one of the multi-resolution model is deformed, characterized in that a hybrid model in which the high-resolution model mapped with any one of the multi-resolution model is transformed together Can.

상기 3차원 뇌 모델 전체의 물리적인 변형을 시뮬레이션하는 것은, 상기 국부 현미경 영상을 프레임별로 분석하여, 이전 프레임에서의 상기 마커의 위치와 현재 프레임에서의 상기 마커의 위치를 비교하여 상기 마커에 대한 이동 벡터를 산출하고, 산출된 적어도 하나의 상기 이동 벡터에 기초하여 상기 뇌 영역에 가해지는 외력을 추정하고, 상기 다해상도 모델을 구성하는 복수의 사면체 사면체(Tetrahedron) 중 상기 뇌 영역의 이종 형질 영역 간 경계 영역에 미리 설정된 제약 조건에 따른 내력을 추정하며, 상기 뇌 영역에 가해지는 상기 외력 및 상기 제약 조건에 기반한 상기 내력에 따라 상기 다해상도 모델을 구성하는 사면체의 각 정점을 변형시키는 것일 수 있다.To simulate the physical deformation of the entire 3D brain model, the local microscope image is analyzed frame by frame, and the position of the marker in the previous frame is compared with the position of the marker in the current frame to move for the marker. A vector is calculated, the external force applied to the brain region is estimated based on the calculated at least one motion vector, and the heterogeneous trait regions of the brain region among a plurality of tetrahedral tetrahedra constituting the multi-resolution model Estimating the internal strength according to the constraints preset in the boundary region, and may be to transform each vertex of the tetrahedron constituting the multi-resolution model according to the external force applied to the brain region and the internal force based on the constraint.

상기 3차원 뇌 모델을 상기 수술용 현미경에 구비된 디스플레이 모듈로 출력하는 것은, 상기 수술용 현미경의 동작 파라미터를 분석하여 상기 국소 영역으로부터 관심 영역을 추출하고, 상기 관심 영역을 상기 고해상도 모델로 렌더링하고, 상기 관심 영역을 제외한 나머지 영역을 상기 다해상도 모델로 렌더링하며, 상기 고해상도 모델 및 상기 다해상도 모델로 렌더링된 상기 3차원 뇌 모델을 상기 디스플레이 모듈로 출력하는 것일 수 있다.Outputting the 3D brain model to the display module provided in the surgical microscope, analyzes operating parameters of the surgical microscope, extracts a region of interest from the local region, renders the region of interest to the high resolution model In other words, the remaining areas excluding the region of interest may be rendered as the multi-resolution model, and the high-resolution model and the three-dimensional brain model rendered as the multi-resolution model may be output to the display module.

상기 3차원 뇌 모델을 상기 수술용 현미경에 구비된 디스플레이 모듈로 출력하는 것은, 상기 수술용 현미경의 동작 파라미터를 분석하여 상기 국소 영역에 형성된 병변 영역을 추출하고, 상기 병변 영역을 상기 고해상도 모델로 렌더링하고, 상기 병변 영역을 제외한 나머지 영역을 상기 다해상도 모델로 렌더링하며, 상기 고해상도 모델 및 상기 다해상도 모델로 렌더링된 상기 3차원 뇌 모델을 상기 디스플레이 모듈로 출력하는 것일 수 있다.Outputting the 3D brain model to the display module provided in the surgical microscope analyzes the operating parameters of the surgical microscope to extract the lesion area formed in the local area, and renders the lesion area to the high resolution model And, the remaining areas other than the lesion area may be rendered by the multi-resolution model, and the high-resolution model and the three-dimensional brain model rendered by the multi-resolution model may be output to the display module.

상기 3차원 뇌 모델을 상기 수술용 현미경에 구비된 디스플레이 모듈로 출력하는 것은, 상기 국소 영역에 배치된 적어도 하나의 제1 마커의 위치 정보를 기초로 상기 국소 영역에 형성된 후보 병변 영역을 추출하고, 수술 도구에 부착된 제2 마커의 위치를 기준으로 상기 후보 병변 영역으로부터 병변 영역을 추출하며, 상기 제1 마커 및 상기 제2 마커의 위치 변화에 기반하여 상기 병변 영역의 변형을 추정하여 수술 과정에 따른 시뮬레이션 결과가 실시간으로 반영된 상기 3차원 뇌 모델을 상기 수술용 현미경에 구비된 디스플레이 모듈로 출력하는 것일 수 있다.Outputting the 3D brain model to the display module provided in the surgical microscope extracts a candidate lesion region formed in the local region based on the location information of at least one first marker disposed in the local region, Based on the position of the second marker attached to the surgical tool, a lesion area is extracted from the candidate lesion area, and the deformation of the lesion area is estimated based on a change in the position of the first marker and the second marker in the surgical process. The 3D brain model in which the simulation result is reflected in real time may be output to a display module provided in the surgical microscope.

또한, 본 발명의 일 실시예에 따른 컴퓨터로 판독 가능한 기록매체는, 본에 따발명에 따른 현미경 기반 증강현실 네비게이션 방법을 수행하기 위한, 컴퓨터 프로그램이 기록될 수 있다.In addition, in the computer-readable recording medium according to an embodiment of the present invention, a computer program for performing a microscope-based augmented reality navigation method according to the present invention may be recorded.

또한, 본 발명의 일 실시예에 따른 현미경 기반 증강현실 네비게이션 장치는, 수술 전 촬영된 뇌 영상으로부터 생성된 3차원 뇌 모델과, 수술 중 수술용 현미경으로부터 획득되는 뇌의 국소 영역에 대한 국부 현미경 영상의 비강체 정합을 수행하는 비강체 정합부, 수술 중 상기 수술용 현미경으로부터 수신되는 상기 국부 현미경 영상을 프레임별로 분석하여, 상기 국소 영역에 배치된 마커의 위치 변화에 따라 상기 국소 영역의 부분적인 변형에 따른 상기 3차원 뇌 모델 전체의 물리적인 변형을 시뮬레이션하는 시뮬레이션부 및 상기 국부 현미경 영상이 증강현실로 반영되면서, 수술 과정에 따른 시뮬레이션 결과가 실시간으로 반영되는 상기 3차원 뇌 모델을 상기 수술용 현미경에 구비된 디스플레이 모듈로 출력하는 증강현실 제어부를 포함한다.In addition, the microscope-based augmented reality navigation device according to an embodiment of the present invention, a 3D brain model generated from a brain image taken before surgery, and a local microscope image of a local area of the brain obtained from a surgical microscope during surgery A non-rigid matching unit performing a non-rigid matching of, the local microscope image received from the surgical microscope during surgery is analyzed frame by frame, and partial deformation of the local region according to a change in the position of the marker disposed in the local region The simulation unit for simulating the physical deformation of the entire 3D brain model and the local microscope image are reflected as augmented reality, and the 3D brain model in which the simulation result according to the surgical process is reflected in real time is the surgical microscope It includes an augmented reality control unit output to the display module provided in the.

상술한 본 발명의 일측면에 따르면, 정확한 병변 제거 깊이와 영역, 중요 혈관, 중요 부위 등과 같이 뇌 수술과 관련된 중요 정보를 수술용 현미경에 AR 가시화를 제공함으로써 편리성 제공이 가능하며, 수술시간 단축을 단축시킬 수 있다. 또한, 두개골(두피)이 아닌 뇌를 직접 정합함으로써 비강체 정합 결과의 정확도가 향상될 수 있으며, 현미경 영상에서 보이는 뇌의 국소 영역 뿐만 아니라 보이지 않는 전체 영역들에 대한 변형까지 추정함으로써 보다 높은 정확도 수술 네비게이션 시스템을 제공할 수 있다.According to one aspect of the present invention described above, it is possible to provide convenience by providing AR visualization of a surgical microscope with important information related to brain surgery, such as accurate lesion removal depth and area, important blood vessels, and important areas, and shorten the operation time. Can be shortened. In addition, the accuracy of the result of the non-rigid matching can be improved by directly matching the brain, not the skull (scalp). It is possible to provide a navigation system.

도 1은 본 발명의 일 실시예에 따른 현미경 기반 증강현실 네비게이션 장치의 개략적인 구성이 도시된 블록도이다.
도 2는 도 1의 비강체 정합부의 구체적인 구성이 도시된 블록도이다.
도 3은 도 2의 하이브리드 모델 생성부에 의해 생성된 3차원 뇌 모델의 일 예가 도시된 도면이다.
도 4는 도 2의 정밀 정합부에 의해 수행되는 구체적인 정밀 정합의 일 예가 도시된 도면이다.
도 5 내지 도 10은 도 1의 시뮬레이션부에 의해 수행되는 물리 모델 변형 과정의 구체적인 일 예가 도시된 도면이다.
도 11은 본 발명의 일 실시예에 따른 현미경 기반 증강현실 네비게이션 방법의 개략적인 흐름이 도시된 순서도이다.
1 is a block diagram illustrating a schematic configuration of a microscope-based augmented reality navigation device according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a specific configuration of the non-rigid matching portion of FIG. 1.
FIG. 3 is a diagram illustrating an example of a 3D brain model generated by the hybrid model generator of FIG. 2.
4 is a view showing an example of a specific precision matching performed by the precision matching unit of FIG. 2.
5 to 10 are views illustrating a specific example of a physical model transformation process performed by the simulation unit of FIG. 1.
11 is a flowchart illustrating a schematic flow of a microscope-based augmented reality navigation method according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.For a detailed description of the present invention, which will be described later, reference is made to the accompanying drawings that illustrate, by way of example, specific embodiments in which the invention may be practiced. These examples are described in detail enough to enable those skilled in the art to practice the present invention. It should be understood that the various embodiments of the invention are different, but need not be mutually exclusive. For example, certain shapes, structures, and properties described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with one embodiment. In addition, it should be understood that the location or placement of individual components within each disclosed embodiment can be changed without departing from the spirit and scope of the invention. Therefore, the following detailed description is not intended to be taken in a limiting sense, and the scope of the present invention, if appropriately described, is limited only by the appended claims, along with all ranges equivalent to those claimed. In the drawings, similar reference numerals refer to the same or similar functions across various aspects.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 현미경 기반 증강현실 네비게이션 장치의 개략적인 구성이 도시된 블록도이다.1 is a block diagram showing a schematic configuration of a microscope-based augmented reality navigation device according to an embodiment of the present invention.

본 발명에 따른 현미경 기반 증강현실 네비게이션 장치(1000)는 수술 중 뇌에 부착된 마커 또는 뇌의 소정 위치에 설정된 특징점에 기반한 비강체 정합(Non-rigid Registration) 기술 및 뇌 조직의 물리 시뮬레이션 기술을 융합을 통해 3차원 뇌 형상을 모델링 할 수 있다.The microscope-based augmented reality navigation device 1000 according to the present invention fuses a non-rigid registration technology and a physical simulation technology of brain tissue based on a marker attached to the brain during surgery or a feature point set at a predetermined location in the brain 3D brain shape can be modeled through.

특히, 본 발명에 따른 현미경 기반 증강현실 네비게이션 장치(1000)는 뇌의 국소 영역을 관찰하는 수술용 현미경에 의해 촬영된 영상만으로도 뇌의 전체 영역에 대한 물리적 변형을 추정하며, 추정된 뇌 영역의 시뮬레이션 결과를 수술용 현미경을 통해 증강현실로 가시화할 수 있다.In particular, the microscope-based augmented reality navigation apparatus 1000 according to the present invention estimates the physical deformation of the entire area of the brain only with an image taken by a surgical microscope observing a local area of the brain, and simulates the estimated brain area The results can be visualized with augmented reality through a surgical microscope.

따라서, 본 발명에 따른 현미경 기반 증강현실 네비게이션 장치(1000)는 병변, 혈관 등과 같이 서로 다른 물성치를 갖는 이종 형질을 고려하여 뇌 조직의 3차원 모델을 자연스럽게 변형시킬 수 있으며, 수술 중 발생되는 뇌 조직의 전체적인 변형을 수술용 현미경을 통해 실시간으로 가시화함으로써 시술자는 수술 중 뇌 조직의 정확한 형태를 즉각적으로 확인할 수 있다.Therefore, the microscope-based augmented reality navigation apparatus 1000 according to the present invention can naturally transform a 3D model of brain tissue in consideration of heterogeneous traits having different physical properties such as lesions and blood vessels, and brain tissue generated during surgery By visualizing the entire deformation in real time through a surgical microscope, the operator can immediately confirm the exact shape of brain tissue during surgery.

구체적으로, 본 발명의 일 실시예에 따른 현미경 기반 증강현실 네비게이션 장치(1000)는 강체 정합부(100), 시뮬레이션부(200) 및 증강현실 제어부(300)를 포함할 수 있다.Specifically, the microscope-based augmented reality navigation apparatus 1000 according to an embodiment of the present invention may include a rigid body matching unit 100, a simulation unit 200, and an augmented reality control unit 300.

이때, 본 발명에 따른 현미경 기반 증강현실 네비게이션 장치(1000)는 이동성을 갖거나 고정될 수 있으며, 서버(server) 또는 엔진(engine) 형태일 수 있으며, 디바이스(device), 기구(apparatus), 단말(terminal), UE(user equipment), MS(mobile station), 무선기기(wireless device), 휴대기기(handheld device) 등 다른 용어로 불릴 수 있다. At this time, the microscope-based augmented reality navigation apparatus 1000 according to the present invention may have mobility or be fixed, and may be in the form of a server or an engine, a device, an apparatus, and a terminal. (terminal), user equipment (UE), mobile station (MS), wireless device (wireless device), handheld device (handheld device), etc.

또한, 본 발명에 따른 현미경 기반 증강현실 네비게이션 장치(1)는 수술용 현미경과 일체화된 구성으로 마련되거나 수술용 현미경과 별도 구비되어 마련될 수도 있다.In addition, the microscope-based augmented reality navigation device 1 according to the present invention may be provided in an integrated configuration with a surgical microscope or may be provided separately from a surgical microscope.

한편, 현미경 기반 증강현실 네비게이션 장치(1000)는 도 1에 도시된 구성요소보다 많은 구성요소에 의해 구현될 수 있고, 그보다 적은 구성요소에 의해 구현될 수 있다. 또는, 현미경 기반 증강현실 네비게이션 장치(1000)는 비강체 정합부(100), 시뮬레이션부(200) 및 증강현실 제어부(300) 중 적어도 두 개의 구성요소가 하나의 구성요소로 통합되어 하나의 구성요소가 복합적인 기능을 수행할 수도 있다. 이하, 상술한 구성요소들에 대해 구체적으로 설명하기로 한다.Meanwhile, the microscope-based augmented reality navigation apparatus 1000 may be implemented by more components than those shown in FIG. 1, and may be implemented by fewer components. Alternatively, the microscope-based augmented reality navigation device 1000 is a single component by combining at least two components of the non-rigid matching unit 100, the simulation unit 200, and the augmented reality control unit 300 as one component. Can perform multiple functions. Hereinafter, the above-described components will be described in detail.

비강체 정합부(100)는 수술 전 촬영된 뇌 영상으로부터 생성된 3차원 뇌 모델과, 수술 중 수술용 현미경으로부터 획득되는 뇌의 국소 영역에 대한 국부 현미경 영상의 비강체 정합(Non-rigid Registration)을 수행할 수 있다. 이와 관련하여, 도 2를 함께 참조하여 설명하기로 한다.The non-rigid matching unit 100 is a non-rigid registration of a 3D brain model generated from a brain image taken before surgery and a local microscope image of a local area of the brain obtained from a surgical microscope during surgery (Non-rigid Registration) You can do In this regard, it will be described with reference to FIG. 2 together.

도 2는 도 1의 비강체 정합부(100)의 구체적인 구성이 도시된 블록도이다.FIG. 2 is a block diagram showing a specific configuration of the non-rigid matching portion 100 of FIG. 1.

도시된 바와 같이, 비강체 정합부(100)는 하이브리드 모델 생성부(110), 초기 정합부(120) 및 정밀 정합부(130)를 포함할 수 있다. As shown, the non-rigid matching unit 100 may include a hybrid model generation unit 110, an initial matching unit 120, and a precision matching unit 130.

하이브리드 모델 생성부(110)는 수술 전 촬영된 컴퓨터 단층촬영(computed tomography) 영상, 자기공명영상(Magnetic Resonance Imaging) 등과 같은 형태의 뇌 영상으로부터 3차원 뇌 모델을 생성할 수 있다. The hybrid model generator 110 may generate a 3D brain model from brain images in the form of computed tomography images, magnetic resonance imaging, etc., taken before surgery.

여기서, 3차원 뇌 모델은 하나의 고해상도 모델에 복수의 다해상도 모델이 미리 매칭된 하이브리드 모델의 형태일 수 있다.Here, the 3D brain model may be in the form of a hybrid model in which a plurality of multi-resolution models are previously matched to one high-resolution model.

하이브리드 모델 생성부(110)는 수집된 뇌 영상으로부터 전경 및 배경이 분리된 뇌 영역을 추출하고, 추출된 뇌 영역을 메쉬(mesh) 형태로 나타낸 고해상도 모델을 생성할 수 있다. 그리고, 하이브리드 모델 생성부(110)는 고해상도 모델로부터 서로 다른 해상도를 갖는 복수의 다해상도 모델을 생성할 수 있다.The hybrid model generator 110 may extract a brain region in which the foreground and background are separated from the collected brain image, and generate a high-resolution model in which the extracted brain region is meshed. In addition, the hybrid model generator 110 may generate a plurality of multi-resolution models having different resolutions from the high-resolution models.

즉, 고해상도 모델은 수술 전 촬영 영상을 이용하여 생성할 수 있다. 고해상도 모델은 다수의 정점을 사용하는 메쉬 형태로 뇌 조직(뇌 조직)을 나타내므로 높은 정밀도를 가지며, 연체의 세세한 부분까지 표현할 수 있어 AR 기반 네비게이션 수술에 널리 사용되고 있다. That is, a high-resolution model can be generated using a pre-operative imaging image. The high resolution model has a high precision because it represents the brain tissue (brain tissue) in the form of a mesh using a large number of vertices, and is widely used in AR-based navigation surgery because it can express even the smallest parts of the soft body.

그러나, 고해상도 모델은 뇌 조직의 변형이 발생하는 경우, 다수의 정점을 변형시키기 위한 계산량이 증가하여 시뮬레이션 속도가 크게 저하된다는 문제점이 있다. 또한, 고해상도 모델은 내부가 비어 있어 지역적인 부피 변형을 고려할 수 없으며, 이종의 형질로 구성된 연체 조직을 나타내기에 어려움이 있다.However, the high-resolution model has a problem that when the deformation of the brain tissue occurs, the calculation speed for deforming a large number of vertices increases, and the simulation speed is greatly reduced. In addition, the high-resolution model has an empty interior, so it is not possible to take account of regional volumetric deformation, and it is difficult to represent soft tissue composed of heterogeneous traits.

다해상도 모델은 고해상도 모델로부터 생성할 수 있다. 예를 들면, 다해상도 모델은 고해상도 모델의 어느 영역을 나타내는 정점의 수를 사면체(Tetrahedron)를 구성하는 4 개의 정점으로 감소시키는 방식으로 사면체들의 집합을 생성할 수 있다. Multiresolution models can be generated from high resolution models. For example, a multi-resolution model can generate a set of tetrahedrons by reducing the number of vertices representing a region of the high-resolution model to the four vertices that make up the tetrahedron.

이러한 다해상도 모델은 사면체들의 집합으로 뇌 조직을 나타내므로, 뇌 조직의 변형이 발생하는 경우, 고해상도 모델에 비해 정점 변형을 위한 계산량을 감소시켜 시뮬레이션 속도를 향상시킬 수 있다는 장점이 있다. 또한, 다해상도 모델은 사면체들의 집합으로 뇌 조직을 나타내어 연속체 특성을 가지며, 뇌 조직의 부위별 부피, 물성치 차이 등으로 인한 변형을 나타낼 수 있다.Since this multi-resolution model represents brain tissue as a set of tetrahedrons, when the brain tissue is deformed, it has an advantage that the simulation speed can be improved by reducing the computation amount for vertex deformation compared to the high-resolution model. In addition, the multi-resolution model represents the brain tissue as a set of tetrahedra and has a continuum characteristic, and may represent deformations due to differences in volume and physical properties of parts of the brain tissue.

하이브리드 모델 생성부(110)는 고해상도 모델 및 다해상도 모델의 인접하는 정점 간 보간을 수행할 수 있다. 예를 들면, 하이브리드 모델 생성부(110)는 선형 보간 법을 적용하여 고해상도 모델 및 다해상도 모델의 인접하는 정점 간 보간을 수행할 수 있다. 하이브리드 모델 생성부(110)는 고해상도 모델 및 다해상도 모델 간 보간을 수행하여 고해상도 모델 및 다해상도 모델 간의 해상도 차이를 해소시킬 수 있다.The hybrid model generator 110 may perform interpolation between adjacent vertices of a high resolution model and a multiresolution model. For example, the hybrid model generator 110 may perform interpolation between adjacent vertices of a high resolution model and a multiresolution model by applying a linear interpolation method. The hybrid model generator 110 may perform interpolation between the high resolution model and the multiresolution model to resolve the difference in resolution between the high resolution model and the multiresolution model.

하이브리드 모델 생성부(110)는 고해상도 모델 및 다해상도 모델의 인접하는 정점 간 맵핑을 수행하여 하이브리드 모델 형태의 3차원 뇌 모델을 생성할 수 있다. 예를 들면, 하이브리드 모델 생성부(110)는 고해상도 모델 및 다해상도 모델의 인접하는 정점을 가상으로 연결시키는 Coordinate 맵핑을 수행할 수 있다. 이와 관련하여, 도 3을 함께 참조하여 설명하기로 한다.The hybrid model generator 110 may generate a 3D brain model in the form of a hybrid model by performing mapping between adjacent vertices of a high resolution model and a multiresolution model. For example, the hybrid model generator 110 may perform coordinate mapping that virtually connects adjacent vertices of the high resolution model and the multiresolution model. In this regard, it will be described with reference to FIG. 3 together.

도 3은 하이브리드 모델의 일 예를 도시한 도면이다.3 is a diagram illustrating an example of a hybrid model.

도시된 바와 같이, 하이브리드 모델 생성부(110)는 고해상도 모델(3) 및 다해상도 모델(5)의 인접하는 정점을 보간한 뒤 맵핑을 수행하여 하이브리드 모델(1)을 생성할 수 있다. 하이브리드 모델(1)은 다해상도 모델(5)이 변형되는 경우, 고해상도 모델(3)이 함께 변형될 수 있다. 즉, 하이브리드 모델(1)을 변형시키는 시뮬레이션을 구현하기 위해서는, 다해상도 모델(5)의 사면체를 구성하는 정점으로부터 변형 물리량을 계산하여 다해상도 모델(5)을 변형시킬 수 있으며, 이러한 다해상도 모델(5)의 정점에 맵핑된 고해상도 모델(3) 또한 다해상도 모델(5)의 정점 변형에 따라 함께 변형시킬 수 있다. 이와 관련하여 구체적인 설명은 후술하기로 한다.As illustrated, the hybrid model generator 110 may generate a hybrid model 1 by interpolating adjacent vertices of the high resolution model 3 and the multiresolution model 5 and performing mapping. In the hybrid model 1, when the multi-resolution model 5 is deformed, the high-resolution model 3 may be deformed together. That is, in order to implement the simulation for transforming the hybrid model 1, the multi-resolution model 5 can be transformed by calculating the deformation physical quantity from the vertices constituting the tetrahedron of the multi-resolution model 5, and such a multi-resolution model The high-resolution model 3 mapped to the vertex of (5) can also be modified together according to the vertex deformation of the multi-resolution model 5. A detailed description in this regard will be described later.

이와 같이, 하이브리드 모델 생성부(10)는 고해상도 모델 및 다해상도 모델을 맵핑하여 다해상도 모델을 변형시키는 경우, 고해상도 모델이 함께 변형되게 하는 하이브리드 모델을 생성함으로써, 변형을 위한 계산량을 감소시켜 시뮬레이션 속도를 향상시킬 뿐만 아니라, 조직의 이종 형질을 반영할 수 있으며, 고해상도 모델에 의해 높은 정밀도를 갖는 3차원 모델을 가시화할 수 있다.As described above, when the multi-resolution model is deformed by mapping the high-resolution model and the multi-resolution model, the hybrid model generation unit 10 generates a hybrid model that deforms the high-resolution model together, thereby reducing the computational amount for the deformation and simulating speed. In addition to improving, it is possible to reflect heterogeneous traits of tissues, and to visualize a three-dimensional model with high precision by a high-resolution model.

초기 정합부(120)는 수술용 현미경의 동작 파라미터에 기반하여 상기 3차원 뇌 모델과 상기 국부 영상의 초기 정합을 수행할 수 있다. 예컨대, 초기 정합부(120)는 수술용 현미경의 회전, 이동, 스케일 변환 등과 같이 수술용 현미경의 동작을 나타내는 동작 파라미터를 수집하여, 수술용 현미경에 의해 촬영된 국부 현미경 영상이 3차원 뇌 모델의 전체 영역 중 어느 위치에 대한 영상인지를 대략적으로 추정할 수 있다.The initial matching unit 120 may perform initial matching of the 3D brain model and the local image based on operating parameters of a surgical microscope. For example, the initial matching unit 120 collects operation parameters indicating the operation of the surgical microscope, such as rotation, movement, and scale conversion of the surgical microscope, so that the local microscope image photographed by the surgical microscope is a 3D brain model. It is possible to roughly estimate which position of the entire area is an image.

정밀 정합부(130)는 초기 정합부(120)에 의해 수행된 초기 정합 결과를 기초로 3차원 뇌 모델과 국부 현미경 영상의 최종적인 비강체 정합을 수행할 수 있다.The precision matching unit 130 may perform final non-rigid matching of the 3D brain model and the local microscopic image based on the initial matching result performed by the initial matching unit 120.

구체적으로, 수술용 현미경에 의해 촬영된 뇌의 국소 영역에는 뇌 구조의 변형을 트래킹하기 위한 마커가 적어도 하나 배치될 수 있다.Specifically, at least one marker for tracking deformation of the brain structure may be disposed in a local area of the brain photographed by a surgical microscope.

마커는 실리콘 등과 같이 뇌 표면으로부터 미끄러지지 않은 재질로 마련되며, 뇌피질에 직접적인 부착은 불가능하기 때문에 수술에 방해되지 않는 위치에 배치될 수 있다.The marker is made of a material that is not slipped from the brain surface, such as silicone, and can be placed in a position that does not interfere with surgery because it cannot be directly attached to the brain cortex.

정밀 정합부(130)는 도 4에 도시된 바와 같이, 국부 현미경 영상에 포함된 각각의 마커의 위치를 추출하고, 3차원 뇌 모델에서 각각의 마커 위치에 대응되는 정점을 추출할 수 있다. 정밀 정합부(130)는 추출된 정점을 매칭 포인트로 설정하고, 특정 마커와 이에 대응되는 매칭 포인트를 일대일로 매칭시키는 정밀 정합을 수행할 수 있다.As shown in FIG. 4, the precision matching unit 130 may extract the position of each marker included in the local microscope image, and extract a vertex corresponding to each marker position in the 3D brain model. The precision matching unit 130 may set the extracted vertex as a matching point, and perform precise matching by matching a specific marker and a matching point corresponding to it one-to-one.

한편, 정밀 정합부(130)는 증강현실 객체의 정확한 정합을 위해 깊이 정보를 정합에 추가 활용 가능하며, 이에 따라 정확한 정합 뿐만 아니라 실제 수술을 위한 깊이감을 표현할 수 있다.On the other hand, the precision matching unit 130 may additionally utilize depth information to match for accurate matching of the augmented reality object, and accordingly, it may express not only accurate matching but also depth sense for actual surgery.

시뮬레이션부(200)는 3차원 뇌 모델의 물리적인 변형을 시뮬레이션 할 수 있다.The simulation unit 200 may simulate physical deformation of the 3D brain model.

수술용 현미경에 의해 촬영된 국부 현미경 영상은 뇌의 국소 영역만 보여주기 때문에 시야 범위가 매우 좁다. 따라서, 시뮬레이션부(200)는 보다 정확한 정보 제공을 위하여 뇌피질 비강체 정합 결과를 토대로 3차원 뇌 모델의 물리적인 변형을 시뮬레이션 할 수 있다.The local microscope image taken by the surgical microscope shows only a local area of the brain, so the field of view is very narrow. Therefore, the simulation unit 200 may simulate physical deformation of the 3D brain model based on the results of matching the non-rigid cortical brain to provide more accurate information.

구체적인 일 예로, 시뮬레이션부(200)는 수술 중 수술용 현미경으로부터 수신되는 국부 현미경 영상을 프레임별로 분석하여 3차원 뇌 모델의 물리적인 변형을 시뮬레이션 할 수 있다. 이와 관련하여, 도 5 내지 도 7을 함께 참조하여 설명하기로 한다.As a specific example, the simulation unit 200 may analyze a local microscope image received from a surgical microscope during surgery for each frame to simulate physical deformation of a 3D brain model. In this regard, it will be described with reference to FIGS. 5 to 7 together.

도 5 내지 도 7은 마커의 위치 변화에 따른 물리 모델 변형 과정의 구체적인 일 예를 설명하기 위한 도면이다.5 to 7 are views for explaining a specific example of a physical model deformation process according to a change in the position of the marker.

먼저, 도 5에 도시된 바와 같이, 시뮬레이션부(200)는 수술 중 수술용 현미경으로부터 수신되는 국부 현미경 영상을 프레임별로 수집할 수 있다. 도시된 실시예에서, 현재 프레임(t+1 Frame)에서 수술 도구가 뇌 조직에 외력을 가함에 따라 이전 프레임(t Frame)에서 뇌 조직에 배치된 마커의 위치가 변형된 것을 알 수 있다.First, as illustrated in FIG. 5, the simulation unit 200 may collect local microscope images received from a surgical microscope during surgery for each frame. In the illustrated embodiment, it can be seen that the position of the marker disposed in the brain tissue in the previous frame (t Frame) is changed as the surgical tool applies external force to the brain tissue in the current frame (t+1 Frame).

이러한 경우, 시뮬레이션부(200)는 도 6에 도시된 바와 같이 국부 현미경 영상을 이웃하는 프레임별로 분석하여, 이전 프레임(t Frame)에서의 마커의 위치와 현재 프레임(t+1 Frame)에서의 마커의 위치를 비교할 수 있다. 시뮬레이션부(200)는 마커의 위치 변화를 나타내는 이동 벡터를 각각의 마커별로 산출할 수 있다.In this case, the simulation unit 200 analyzes the local microscope image for each neighboring frame as shown in FIG. 6, and the position of the marker in the previous frame (t Frame) and the marker in the current frame (t+1 Frame) You can compare the locations. The simulation unit 200 may calculate a motion vector representing a change in the position of the marker for each marker.

이후, 시뮬레이션부(200)는 도 7에 도시된 바와 같이 각각의 마커별로 미리 매칭된 매칭 포인트를 산출한 이동 벡터에 따라 이동시켜 국소 영역의 물리적인 변형을 추정할 수 있다. 최종적으로, 시뮬레이션부(200)는 변형된 국소 영역에 기반하여 삼차원 뇌 모델 전체의 물리적인 변형을 추정할 수 있다. 즉, 시뮬레이션부(200)는 매칭 포인트별로 산출된 이동 벡터만큼 각각의 매칭 포인트를 이동시켜 변형된 국소 영역을 시뮬레이션하고, 변형되지 않은 영역 중 변형된 국소 영역과 이웃하는 영역을 연결하여 3차원 뇌 모델의 전체적인 변형을 추정할 수 있다.Thereafter, as illustrated in FIG. 7, the simulation unit 200 may estimate a physical deformation of the local area by moving according to a motion vector calculating a matching point pre-matched for each marker. Finally, the simulation unit 200 may estimate the physical deformation of the entire 3D brain model based on the modified local area. That is, the simulation unit 200 simulates the deformed local area by moving each matching point as much as the motion vector calculated for each matching point, and connects the deformed local area and the neighboring area among the non-deformed areas to the 3D brain. You can estimate the overall deformation of the model.

다른 예로, 시뮬레이션부(200)는 수술 과정에서 국소 영역에 가해지는 외력 및 내력을 추정하고, 이를 기반으로 분석하여 3차원 뇌 모델의 물리적인 변형을 시뮬레이션 할 수 있다. 이와 관련하여, 도 8 및 도 9을 함께 참조하여 설명하기로 한다.As another example, the simulation unit 200 may simulate the physical deformation of the 3D brain model by estimating the external force and internal stress applied to the local area in the course of surgery, and analyzing it based on this. In this regard, it will be described with reference to FIGS. 8 and 9 together.

도 8은 시뮬레이션부에 의해 설정되는 뇌 조직의 이종 형질 영역의 일 예이고, 도 9는 시뮬레이션부에 의해 생성되는 가상 스프링의 일 예를 도시한 도면이다.8 is an example of a heterogeneous trait region of brain tissue set by the simulation unit, and FIG. 9 is a diagram showing an example of a virtual spring generated by the simulation unit.

도시된 바와 같이, 시뮬레이션부(200)는 하이브리드 모델이 나타내는 뇌 조직에서 이종 형질 영역을 설정하고, 이종 형질 영역 간을 연결하는 가상 스프링을 생성할 수 있다.As illustrated, the simulation unit 200 may set a heterogeneous trait region in brain tissue represented by the hybrid model, and generate a virtual spring connecting the heterogeneous trait regions.

사람의 장기는 일반 조직, 병변, 혈관 등과 같이 서로 다른 물성치를 갖는 이종 형질의 집합으로 구성될 수 있다. 따라서, 뇌 조직의 물성치를 하나로 가정하여 3차원 모델 변형 시뮬레이션을 실행하는 경우, 오차가 발생하여 부자연스러운 결과가 나타날 수 있다.Human organs can consist of a collection of heterogeneous traits with different properties, such as general tissue, lesions, and blood vessels. Therefore, when a 3D model deformation simulation is performed on the assumption that the physical properties of brain tissue are one, errors may occur and unnatural results may occur.

따라서, 시뮬레이션부(200)는 뇌 조직의 이종 형질 영역 간 경계 영역을 나타내는 다해상도 모델의 사면체에 다해상도 모델을 변형시키는 경우 제약 조건(Constraint)이 되는 가상 스프링을 생성할 수 있다. Accordingly, the simulation unit 200 may generate a virtual spring that becomes a constraint when a multi-resolution model is deformed on a tetrahedron of a multi-resolution model representing a boundary region between heterogeneous trait regions of brain tissue.

먼저, 시뮬레이션부(200)는 하이브리드 모델에서 뇌 조직의 이종 형질 영역을 설정하고, 이종 형질 영역 간 경계 영역을 설정할 수 있다. First, the simulation unit 200 may set a heterogeneous trait region of brain tissue in a hybrid model, and set a boundary region between heterogeneous trait regions.

예를 들어, 도 8을 참조하면, 시뮬레이션부(200)는 뇌를 나타내는 하이브리드 모델을 정상 조직의 제1 형질 영역(1b)과 종양 조직의 제2 형질 영역(1a)으로 설정할 수 있으며, 제1 형질 영역(1b)의 경계와 제2 형질 영역(1a)의 경계 사이의 영역을 이종 형질 영역 간 경계 영역(2)으로 설정할 수 있다. For example, referring to FIG. 8, the simulation unit 200 may set the hybrid model representing the brain as the first trait region 1b of normal tissue and the second trait region 1a of tumor tissue, and the first The region between the boundary of the trait region 1b and the boundary of the second trait region 1a can be set as the boundary region 2 between the heterogeneous trait regions.

여기에서, 제1 형질 영역(1b) 또는 제2 형질 영역(1a)에 대한 변형이 이루어지는 경우, 제1 형질 영역(1b) 또는 제2 형질 영역(1a)을 나타내는 다해상도 모델의 사면체를 구성하는 정점의 변형이 시뮬레이션 되는데, 각각 정상 조직 또는 종양 조직의 특성을 나타내는 물성치 기반의 서로 다른 제한 조건이 적용되어 정점 변형의 물리량이 계산될 수 있다.Here, when a modification to the first trait region 1b or the second trait region 1a is made, the tetrahedron of the multi-resolution model representing the first trait region 1b or the second trait region 1a is constructed. The deformation of the vertex is simulated, and the physical quantity of the vertex deformation can be calculated by applying different constraints based on physical properties representing characteristics of normal tissue or tumor tissue, respectively.

시뮬레이션부(200)는 경계 영역을 나타내는 다해상도 모델의 사면체를 구성하는 각 정점의 좌표를 획득할 수 있다.The simulation unit 200 may obtain coordinates of each vertex constituting the tetrahedron of the multi-resolution model representing the boundary region.

즉, 도시된 바와 같이, 경계 영역(2)은 다해상도 모델의 사면체(5a)들의 집합으로 나타낼 수 있다. 시뮬레이션부(200)는 이러한 경계 영역(2)을 나타내는 사면체(5a)를 구성하는 각 정점의 좌표를 획득할 수 있다.That is, as shown, the boundary region 2 may be represented by a set of tetrahedrons 5a of the multi-resolution model. The simulation unit 200 may acquire coordinates of each vertex constituting the tetrahedron 5a representing the boundary region 2.

한편, 시뮬레이션부(200)는 이종 형질 영역 간 경계 영역에서 이종 형질 영역을 연결 시켜주기 위한 가상 스프링을 생성할 수 있다. 가상 스프링은 다해상도 모델의 사면체를 구성하는 각 정점과 해당 사면체 내부 중심점을 잇는 선으로 정의될 수 있다.Meanwhile, the simulation unit 200 may generate a virtual spring for connecting the heterogeneous trait regions in the boundary region between the heterogeneous trait regions. The virtual spring may be defined as a line connecting each vertex constituting the tetrahedron of the multi-resolution model and the inner center point of the tetrahedron.

도 9를 참조하면, 경계 영역을 나타내는 다해상도 모델의 사면체는 4 개의 정점으로 구성될 수 있다. 시뮬레이션부(200)는 이러한 4 개의 정점 좌표(p1, p2, p3, p4)와 내부 중심점 좌표(p0)를 연결하여 가상 스프링(7)을 생성할 수 있다. 여기서, 다해상도 모델 사면체의 내부 중심점 좌표(p0)는 아래의 수학식 1과 같이 계산될 수 있다.Referring to FIG. 9, the tetrahedron of the multi-resolution model representing the boundary region may be composed of four vertices. The simulation unit 200 may generate the virtual spring 7 by connecting these four vertex coordinates (p 1 , p 2 , p 3 , p 4 ) and the internal center point coordinates (p 0 ). Here, the coordinates of the inner center point (p 0 ) of the multi-resolution model tetrahedron may be calculated as in Equation 1 below.

Figure 112018119874104-pat00001
Figure 112018119874104-pat00001

수학식 1에서 p0는 다해상도 모델 사면체의 중심점 좌표를 나타내고, pi 는 각각 다해상도 모델 사면체를 구성하는 정점 좌표를 나타낸다.In Equation 1, p 0 denotes the center point coordinates of the multi-resolution model tetrahedron, and p i denotes vertex coordinates constituting the multi-resolution model tetrahedron.

시뮬레이션부(200)는 이종 형질 영역 간의 서로 다른 물성치에 기반하여 가상 스프링의 탄성계수를 설정할 수 있다. 시뮬레이션부(200)는 제1 형질 영역(1b) 및 제2 형질 영역(1a)의 특성을 나타내는 물성치를 이용하여 가상 스프링의 탄성계수를 설정할 수 있다.The simulation unit 200 may set the elastic modulus of the virtual spring based on different physical properties between heterogeneous trait regions. The simulation unit 200 may set the elastic modulus of the virtual spring using the property values representing the characteristics of the first trait region 1b and the second trait region 1a.

이를 위해, 시뮬레이션부(200)는 경계 영역(2)의 제약 조건을 설정할 수 있다. 시뮬레이션부(200)는 가상 스프링을 이용하여 경계 영역(2)을 나타내는 사면체(5a)를 변형시키는 경우 적용되는 제약 조건을 아래 수학식 2 및 수학식 3과 같이 계산할 수 있다. To this end, the simulation unit 200 may set constraints of the boundary region 2. The simulation unit 200 may calculate constraints applied when the tetrahedron 5a representing the boundary region 2 is deformed using the virtual spring as shown in Equations 2 and 3 below.

Figure 112018119874104-pat00002
Figure 112018119874104-pat00002

Figure 112018119874104-pat00003
Figure 112018119874104-pat00003

수학식 2에서 wi는 정점 pi의 무게를 나타내고, Cspring은 가상 스프링을 구성하는 두 정점 간의 거리 차이로, 수학식 3과 같이 계산될 수 있다. 또한, 수학식 2에서

Figure 112018119874104-pat00004
는 정점의 변형 방향, khetero는 가상 스프링의 탄성계수를 나타낸다. 수학식 3에서 li는 가상 스프링을 구성하는 두 정점 간의 초기 거리를 나타낸다.In Equation 2, w i represents the weight of the vertex p i , and C spring is a distance difference between two vertices constituting the virtual spring, and can be calculated as in Equation 3. Also, in Equation 2
Figure 112018119874104-pat00004
Is the deformation direction of the vertex, k hetero is the elastic modulus of the virtual spring. In Equation 3, l i represents the initial distance between two vertices constituting the virtual spring.

이와 같은 방법으로, 시뮬레이션부(200)는 하이브리드 모델이 나타내는 뇌 조직에서 이종 형질 영역을 설정하고, 이종 형질 영역 간을 연결하는 가상 스프링을 생성할 수 있다. In this way, the simulation unit 200 may set a heterogeneous trait region in brain tissue represented by the hybrid model, and generate a virtual spring connecting the heterogeneous trait regions.

이후, 시뮬레이션부(200)는 설정된 이종 형질 영역 및 생성된 가상 스프링을 이용하여 3차원 뇌 모델의 변형을 추정할 수 있다. 이와 관련하여, 도 10을 함께 참조하여 설명하기로 한다.Thereafter, the simulation unit 200 may estimate deformation of the 3D brain model using the set heterogeneous trait region and the generated virtual spring. In this regard, it will be described with reference to FIG. 10 together.

도 10은 시뮬레이션부에 의해 수행되는 하이브리드 모델의 물리 시뮬레이션 방법의 구체적인 일 예가 도시된 도면이다.10 is a diagram illustrating a specific example of a physical simulation method of a hybrid model performed by a simulation unit.

구체적으로, 시뮬레이션부(200)는 뇌 조직에 가해지는 외력(External Forces) 및 제약 조건에 기반한 내력(Internal Forces)을 반영하여 하이브리드 모델을 변형시킬 수 있다.Specifically, the simulation unit 200 may deform the hybrid model by reflecting external forces applied to brain tissue and internal forces based on constraints.

상술한 바와 같이 하이브리드 모델(1)을 변형시키는 시뮬레이션을 구현하기 위해서는, 다해상도 모델(5)의 사면체를 구성하는 정점으로부터 변형 물리량을 계산하여 다해상도 모델(5)을 변형시킬 수 있으며, 이러한 다해상도 모델(5)의 정점에 맵핑된 고해상도 모델(3) 또한 다해상도 모델(5)의 정점 변형에 따라 함께 변형시킬 수 있다. In order to implement the simulation for transforming the hybrid model 1 as described above, the multi-resolution model 5 can be transformed by calculating the deformation physical quantity from the vertices constituting the tetrahedron of the multi-resolution model 5, The high-resolution model 3 mapped to the vertex of the resolution model 5 can also be modified together according to the vertex deformation of the multi-resolution model 5.

따라서, 시뮬레이션부(200)는 다해상도 모델(5)의 정점을 변화시킬 수 있으며, 이때, 이종 형질 영역 간 경계 영역을 나타내는 다해상도 모델의 경우 수학식 2에 따른 제약 조건을 반영할 수 있다.Therefore, the simulation unit 200 may change the vertex of the multi-resolution model 5, and in this case, in the case of the multi-resolution model showing the boundary region between heterogeneous trait regions, the constraint condition according to Equation 2 may be reflected.

시뮬레이션부(200)는 이러한 정점 변형을 수행하기 위한 물리 모델로 PBD(Position Based Dynamics) 물리 모델을 이용할 수 있다.The simulation unit 200 may use a PBD (Position Based Dynamics) physical model as a physical model for performing the vertex transformation.

이때, 시뮬레이션부(200)는 4 가지 단계를 반복 수행하여 다해상도 모델(5)의 정점을 변형시킴으로써 뇌 조직을 나타내는 하이브리드 모델(1)의 물리 시뮬레이션을 실현시킬 수 있다.At this time, the simulation unit 200 may perform the four steps repeatedly to deform the vertex of the multi-resolution model 5 to realize a physical simulation of the hybrid model 1 representing brain tissue.

먼저, 시뮬레이션부(200)는 다해상도 모델(5)의 사면체를 구성하는 각 정점의 현재 위치를 기준으로 단위 시간에 대한 속도 및 외력을 반영하여 정점의 새로운 위치를 산출할 수 있다. 구체적으로는, 시뮬레이션부(200)는 정점의 현재 속도(vi)에 뇌 조직에 가해지는 외력(f)과 내부 Damping 및 질량(mi)을 고려하여 새로운 속도(vi new)를 산출할 수 있다. First, the simulation unit 200 may calculate the new position of the vertex by reflecting the speed and external force for the unit time based on the current position of each vertex constituting the tetrahedron of the multi-resolution model 5. Specifically, the simulation unit 200 calculates a new velocity (v i new ) in consideration of the external force (f) applied to the brain tissue and the internal damping and mass (m i ) at the current velocity (v i ) of the vertex. Can.

여기서, 외력의 크기 및 방향은 이전 프레임(t Frame)에서의 마커의 위치와 현재 프레임(t+1 Frame)에서의 마커의 위치를 비교하여 산출되는 마커의 위치 변화를 나타내는 이동 벡터로부터 획득될 수 있다.Here, the magnitude and direction of the external force can be obtained from a motion vector indicating a change in the position of the marker calculated by comparing the position of the marker in the previous frame (t Frame) with the position of the marker in the current frame (t+1 Frame). have.

또한, 시뮬레이션부(200)는 정점의 현재 위치(pi)를 기준으로 단위시간(△t)에 대한 속도 정보인 새로운 속도(vi new)를 반영하여 정점의 새로운 위치(pi new)를 산출할 수 있다. 이는 아래 수학식 4 내지 6과 같이 나타낼 수 있다.In addition, the simulation unit 200 reflects the new speed (v i new ), which is speed information for the unit time (△ t), based on the current position (p i ) of the vertex, and sets the new position (p i new ) of the vertex. Can be calculated. This can be expressed as Equations 4 to 6 below.

Figure 112018119874104-pat00005
Figure 112018119874104-pat00005

Figure 112018119874104-pat00006
Figure 112018119874104-pat00006

Figure 112018119874104-pat00007
Figure 112018119874104-pat00007

시뮬레이션부(200)는 정점의 새로운 위치(pi new)에 제약 조건(C)을 적용하여 최종 위치(pi fin)로 수정할 수 있다. 여기서, 이종 형질 영역 간 경계 영역을 나타내는 다해상도 모델의 경우 가상 스프링에 기반한 수학식 2에 따른 제약 조건이 적용될 수 있다. 이는 아래 수학식 7 및 8과 같이 나타낼 수 있다.The simulation unit 200 may modify the final position p i fin by applying the constraint C to the new position p i new . Here, in the case of a multi-resolution model showing a boundary region between heterogeneous trait regions, constraints according to Equation 2 based on a virtual spring may be applied. This can be expressed as Equations 7 and 8 below.

Figure 112018119874104-pat00008
Figure 112018119874104-pat00008

Figure 112018119874104-pat00009
Figure 112018119874104-pat00009

마지막으로, 시뮬레이션부(200)는 충돌처리를 수행하여 변형된 하이브리드 모델(1)이 관통되는 현상을 방지할 수 있다.Finally, the simulation unit 200 may prevent a phenomenon in which the modified hybrid model 1 penetrates by performing collision processing.

이와 같이, 시뮬레이션부(200)는 PBD 물리 모델 기반의 정점 변형을 통한 하이브리드 모델의 변형을 수행함으로써, 연체의 외력 및 내력을 고려한 시뮬레이션 결과를 제공할 수 있다. 특히, 이종 형질 간 경계 영역의 변형 시, 가상 스프링에 기반한 제약 조건을 적용하여 이종 형질 영역의 변형을 자연스럽게 표현할 수 있다.As described above, the simulation unit 200 may provide a simulation result in consideration of the external force and the internal force of the soft body by performing the transformation of the hybrid model through the vertex transformation based on the PBD physical model. In particular, when the boundary region between heterogeneous traits is modified, the deformation of the heterogeneous trait region can be naturally expressed by applying a constraint based on a virtual spring.

증강현실 제어부(300)는 최종적으로 시뮬레이션된 3차원 뇌 모델을 수술용 현미경에 구비된 디스플레이 모듈을 통해 출력되도록 제어할 수 있다.The augmented reality control unit 300 may control the final simulated 3D brain model to be output through a display module provided in the surgical microscope.

증강현실 제어부(300)는 비강체 정합 결과를 이용하여 3차원 뇌 모델에 국부 현미경 영상이 증강현실로 반영된 영상이 디스플레이 모듈을 통해 출력되도록 할 수 있다.The augmented reality control unit 300 may use a non-rigid matching result to output an image in which a local microscope image is reflected as an augmented reality in a 3D brain model through a display module.

이후, 증강현실 제어부(300)는 수술 과정에서 발생되는 3차원 뇌 모델의 물리적인 변화에 따른 시뮬레이션 결과를 실시간으로 반영Subsequently, the augmented reality control unit 300 reflects the simulation result according to the physical change of the 3D brain model generated in the surgical process in real time.

한편, 증강현실 제어부(300)는 수술 과정에서 수집되는 수술용 현미경의 동작 상태에 따라 3차원 뇌 모델의 해상도를 동적으로 가변시킬 수 있다.Meanwhile, the augmented reality control unit 300 may dynamically change the resolution of the 3D brain model according to the operating state of the surgical microscope collected during the surgical procedure.

예를 들어, 증강현실 제어부(300)는 수술용 현미경의 동작 파라미터를 분석하여 국소 영역으로부터 관심 영역을 추출할 수 있다. 즉, 증강현실 제어부(300)는 수술용 현미경의 동작과 관련된 신호 또는 정보를 수집하여, 수술용 현미경, 다시 말해 시술자가 현재 뇌 영역의 어느 부분에 관심(시선)을 두고 있는지를 판단할 수 있다.For example, the augmented reality control unit 300 may extract an area of interest from a local area by analyzing operating parameters of a surgical microscope. That is, the augmented reality controller 300 may collect signals or information related to the operation of the surgical microscope, and determine which part of the brain area the operator is currently interested in (gaze). .

증강현실 제어부(300)는 추출된 관심 영역에 해당되는 뇌 영역을 하브리드 모델 중 가장 높은 해상도를 갖는 고해상도 모델로 모델링하고, 추출된 관심 영역을 제외한 뇌 모델의 나머지 영역을 고해상도 모델보다 낮은 해상도를 갖는 제1 다해상도 모델로 렌더링할 수 있다. 이 과정에서, 증강현실 제어부(300)는 관심 영역에 포함되지 않은 영역이면서 관심 영역과 관련된 영역(혈관 등)은 제1 다해상도 모델보다 높은 해상도를 갖는 제2 다해상도 모델로 렌더링할 수 있다.The augmented reality controller 300 models the brain region corresponding to the extracted region of interest as a high-resolution model having the highest resolution among the hybrid models, and sets the remaining regions of the brain model excluding the extracted region of interest to have a lower resolution than the high-resolution model. It can be rendered into the first multi-resolution model. In this process, the augmented reality controller 300 may render a region not included in the region of interest and a region related to the region of interest (blood vessels, etc.) as a second multi-resolution model having a higher resolution than the first multi-resolution model.

이후, 증강현실 제어부(300)는 고해상도 모델 및 제1, 2 다해상도 모델로 렌더링된 3차원 뇌 모델을 수술용 현미경에 구비된 디스플레이 모듈을 통해 실시간으로 출력할 수 있다. 이에, 본 발명에 따른 현미경 기반 증강현실 네비게이션 장치(1000)는 시뮬레이션에 요구되는 처리 속도는 최소화하면서도 시술자가 수술에 필요한 영역에 대한 모델링 정보는 정확하게 제공할 수 있는 효과를 가지게 된다.Thereafter, the augmented reality control unit 300 may output the high-resolution model and the 3D brain model rendered as the first and second multi-resolution models in real time through a display module provided in the surgical microscope. Accordingly, the microscope-based augmented reality navigation apparatus 1000 according to the present invention has an effect of accurately providing modeling information on an area required for an operator while minimizing a processing speed required for simulation.

또 다른 예로, 증강현실 제어부(300)는 수술 도구에 부착되는 마커의 위치 정보를 이용하여 뇌 영역 중 수술 과정에 따라 변형되는 병변 영역을 정확하게 추출할 수 있다. As another example, the augmented reality control unit 300 may accurately extract a lesion area deformed according to a surgical process among brain areas using location information of a marker attached to a surgical tool.

구체적으로, 증강현실 제어부(300)는 국부 현미경 영상에 포함된 국소 영역에 배치된 적어도 하나의 제1 마커의 위치 정보를 기초로 국소 영역에 형성된 후보 병변 영역을 추출할 수 있다. 상술한 바와 같이, 뇌 피질에 부착되는 마커는 뇌 영역 중 병변에 인접하면서 직접적으로 병변에 영향을 미치지 않는 위치에 부착되기 때문에, 증강현실 제어부(300)는 국소 영역에 고정 배치된 제1 마커의 위치를 이용하여 대략적인 병변 영역을 추정할 수 있다.Specifically, the augmented reality control unit 300 may extract a candidate lesion region formed in the local region based on the location information of at least one first marker disposed in the local region included in the local microscope image. As described above, since the marker attached to the brain cortex is attached to a position in the brain area adjacent to the lesion and not directly affecting the lesion, the augmented reality control unit 300 of the first marker fixedly placed in the local area The location can be used to estimate the approximate lesion area.

이후, 증강현실 제어부(300)는 수술 과정에서 수집되는 국부 현미경 영상을 분석하여, 수술 도구에 부착된 마커인 제2 마커의 위치를 프레임별로 수집할 수 있다. 수술 도구는 병변에 직접 접근하기 때문에, 증강현실 제어부(300)는 수술 도구에 부착된 제2 마커의 위치를 기준점으로 하는 소정 반경을 생성하고, 앞서 추정된 후보 병변 영역과 중첩되는 영역을 최종적인 병변 영역으로 추정할 수 있다. 이후, 증강현실 제어부(300)는 제1 마커 및 제2 마커의 위치 변화에 기초하여 추정된 병변 영역의 변형이 실시간 반영된 3차원 뇌 모델을 수술용 현미경에 구비된 디스플레이 모듈로 출력할 수 있다.Thereafter, the augmented reality control unit 300 may analyze the local microscope image collected in the surgical process, and collect the position of the second marker, which is a marker attached to the surgical tool, by frame. Since the surgical tool directly accesses the lesion, the augmented reality control unit 300 generates a predetermined radius based on the position of the second marker attached to the surgical tool as a reference point, and finalizes the region overlapping with the previously estimated candidate lesion region. It can be estimated as the lesion area. Thereafter, the augmented reality control unit 300 may output a 3D brain model in which the deformation of the estimated lesion region is reflected in real time based on the positional changes of the first marker and the second marker to a display module provided in the surgical microscope.

도 11은 본 발명의 일 실시예에 따른 현미경 기반 증강현실 네비게이션 방법의 개략적인 흐름이 도시된 순서도이다.11 is a flowchart illustrating a schematic flow of a microscope-based augmented reality navigation method according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 현미경 기반 증강현실 네비게이션 방법은 도 1의 현미경 기반 증강현실 네비게이션 장치(1000)에 의해 수행될 수 있다. 이를 위해, 본 발명에 따른 현미경 기반 증강현실 네비게이션 장치(1000)는 후술하는 현미경 기반 증강현실 네비게이션 방법을 구성하는 각 단계를 수행하기 위한 소프트웨어(애플리케이션)이 미리 설치될 수 있다.The microscope-based augmented reality navigation method according to an embodiment of the present invention may be performed by the microscope-based augmented reality navigation device 1000 of FIG. 1. To this end, the microscope-based augmented reality navigation apparatus 1000 according to the present invention may be pre-installed with software (application) for performing each step constituting the microscope-based augmented reality navigation method described later.

먼저, 현미경 기반 증강현실 네비게이션 장치(1000)는 수술 전 촬영된 뇌 영상으로부터 생성된 3차원 뇌 모델과, 수술 중 수술용 현미경으로부터 획득되는 뇌의 국소 영역에 대한 국부 현미경 영상의 비강체 정합을 수행할 수 있다(910). First, the microscope-based augmented reality navigation apparatus 1000 performs non-rigid matching of a 3D brain model generated from a brain image taken before surgery and a local microscope image of a local area of the brain obtained from a surgical microscope during surgery. It can be done (910).

현미경 기반 증강현실 네비게이션 장치(1000)는 수술 전 촬영된 뇌 영상으로부터 메쉬 형태로 나타내어지는 고해상도 모델을 생성하고, 생성된 고해상도 모델로부터 서로 다른 해상도를 갖는 복수의 다해상도 모델을 생성할 수 있으며, 고해상도 모델에 매핑된 복수의 다해상도 모델로 구성된 하이브리드 모델을 3차원 뇌 모델로 설정할 수 있다. 현미경 기반 증강현실 네비게이션 장치(1000)는 생성된 3차원 뇌 모델을 수술용 현미경으로부터 촬영되는 국부 현미경 영상과 비강체 정합을 수행할 수 있다.The microscope-based augmented reality navigation apparatus 1000 may generate a high-resolution model represented in a mesh form from brain images taken before surgery, and may generate a plurality of multi-resolution models having different resolutions from the generated high-resolution model, A hybrid model composed of a plurality of multi-resolution models mapped to a model may be set as a 3D brain model. The microscope-based augmented reality navigation device 1000 may perform non-rigid matching with a local microscope image photographed from a surgical microscope on the generated 3D brain model.

현미경 기반 증강현실 네비게이션 장치(1000)는 수술 중 수술용 현미경으로부터 수신되는 국부 현미경 영상을 분석하여, 국소 영역의 부분적인 변형에 따른 3차원 뇌 모델 전체의 물리적인 변형을 시뮬레이션할 수 있다(920). The microscope-based augmented reality navigation apparatus 1000 may analyze a local microscope image received from a surgical microscope during surgery to simulate physical deformation of the entire 3D brain model according to partial deformation of the local area (920). .

구체적으로, 현미경 기반 증강현실 네비게이션 장치(1000)는 프레임별로 수집되는 국부 현미경 영상에 포함된 마커의 위치 변화를 나타내는 이동 벡터를 산출하고, 산출된 이동 벡터에 따라 뇌의 국부 영역에 대한 부분적인 변형을 추정할 수 있으며, 이를 기초로 3차원 뇌 모델 전체에 대한 물리적인 변형을 시뮬레이션 할 수 있다. 이와 관련된 구체적인 내용은 상술하였으므로, 반복되는 설명은 생략하기로 한다.Specifically, the microscope-based augmented reality navigation apparatus 1000 calculates a motion vector representing a change in the position of a marker included in a local microscope image collected for each frame, and partially transforms a local area of the brain according to the calculated motion vector Can be estimated, and based on this, physical deformation of the entire 3D brain model can be simulated. Since detailed contents related to this have been described above, repeated description will be omitted.

이후, 현미경 기반 증강현실 네비게이션 장치(1000)는 국부 현미경 영상이 증강현실로 반영되면서, 수술 과정에 따른 시뮬레이션 결과가 실시간으로 반영되는 3차원 뇌 모델을 수술용 현미경에 구비된 디스플레이 모듈로 출력할 수 있다(930).Thereafter, the microscope-based augmented reality navigation apparatus 1000 may output a 3D brain model in which a simulation result according to a surgical process is reflected in real time while a local microscope image is reflected as augmented reality to a display module provided in the surgical microscope. Yes (930).

이와 같은, 현미경 기반 증강현실 네비게이션 방법을 제공하는 기술은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Such a technique for providing a microscope-based augmented reality navigation method may be implemented as an application or implemented in the form of program instructions that can be executed through various computer components to be recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, or the like alone or in combination.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium are specially designed and configured for the present invention, and may be known and available to those skilled in the computer software field.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine language codes produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the present invention, and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to embodiments, those skilled in the art understand that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. Will be able to.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to embodiments, those skilled in the art understand that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. Will be able to.

100: 비강체 정합부
200: 시뮬레이션부
300: 증강현실 제어부
100: non-rigid mating part
200: simulation unit
300: augmented reality control

Claims (10)

수술 전 촬영된 뇌 영상으로부터 생성된 3차원 뇌 모델과, 수술 중 수술용 현미경으로부터 획득되는 뇌의 국소 영역에 대한 국부 현미경 영상의 비강체 정합을 수행하고,
수술 중 상기 수술용 현미경으로부터 수신되는 상기 국부 현미경 영상을 프레임별로 분석하여, 상기 국소 영역에 배치된 마커의 위치 변화에 따라 상기 국소 영역의 부분적인 변형에 따른 상기 3차원 뇌 모델 전체의 물리적인 변형을 시뮬레이션하며,
상기 국부 현미경 영상이 증강현실로 반영되면서, 수술 과정에 따른 시뮬레이션 결과가 실시간으로 반영되는 상기 3차원 뇌 모델을 상기 수술용 현미경에 구비된 디스플레이 모듈로 출력하는, 현미경 기반 증강현실 네비게이션 방법.
Non-rigid matching of a 3D brain model generated from a brain image taken before surgery and a local microscopic image of a local area of the brain obtained from a surgical microscope during surgery is performed.
During surgery, the local microscope image received from the surgical microscope is analyzed frame by frame to physically transform the entire 3D brain model according to the partial deformation of the local area according to the positional change of the marker disposed in the local area. To simulate
A microscope-based augmented reality navigation method for outputting the 3D brain model in which a simulation result according to a surgical procedure is reflected in real time to the display module provided in the surgical microscope while the local microscope image is reflected in the augmented reality.
제1항에 있어서, 상기 비강체 정합을 수행하는 것은,
상기 수술용 현미경의 동작 파라미터에 기반하여 상기 3차원 뇌 모델과 상기 국부 현미경 영상의 초기 정합을 수행한 후, 상기 국부 현미경 영상에 포함된 각각의 마커의 위치에 대응되는 상기 3차원 뇌 모델의 3차원 좌표를 추출하여 매칭 포인트로 설정하고, 상기 마커와 상기 매칭 포인트를 일대일로 매칭시키는 정밀 정합을 수행하는 것인, 현미경 기반 증강현실 네비게이션 방법.
The method of claim 1, wherein performing the non-rigid matching,
After performing the initial matching of the 3D brain model and the local microscope image based on the operating parameters of the surgical microscope, 3 of the 3D brain model corresponding to the position of each marker included in the local microscope image A method of extracting dimensional coordinates, setting them as a matching point, and performing precision matching to match the marker and the matching point on a one-to-one basis, a microscope-based augmented reality navigation method.
제2항에 있어서, 상기 3차원 뇌 모델 전체의 물리적인 변형을 시뮬레이션하는 것은,
상기 국부 현미경 영상을 프레임별로 분석하여, 이전 프레임에서의 상기 마커의 위치와 현재 프레임에서의 상기 마커의 위치를 비교하여 상기 마커에 대한 이동 벡터를 산출하고, 상기 마커에 미리 매칭된 상기 매칭 포인트를 상기 이동 벡터에 따라 이동시켜 상기 국소 영역의 물리적인 변형을 추정하고, 변형된 상기 국소 영역에 기반하여 상기 삼차원 뇌 모델의 물리적인 변형을 추정하는 것인, 현미경 기반 증강현실 네비게이션 방법.
According to claim 2, Simulating the physical deformation of the entire three-dimensional brain model,
The local microscope image is analyzed frame by frame to compare the position of the marker in the previous frame and the position of the marker in the current frame to calculate a motion vector for the marker, and to match the matching point previously matched to the marker. A method for estimating a physical deformation of the local area by moving according to the motion vector, and estimating a physical deformation of the three-dimensional brain model based on the modified local area.
제1항에 있어서,
상기 뇌 영상으로부터 전경 및 배경이 분리된 뇌 영역을 추출하고, 추출된 상기 뇌 영역을 메쉬(mesh) 형태로 나타낸 고해상도 모델을 생성하고, 상기 고해상도 모델로부터 서로 다른 해상도를 갖는 복수의 다해상도 모델을 생성하는 것을 더 포함하며,
상기 3차원 뇌 모델은, 어느 하나의 상기 다해상도 모델이 변형되는 경우, 상기 어느 하나의 다해상도 모델과 매핑된 상기 고해상도 모델이 함께 변형되는 하이브리드 모델인 것을 특징으로 하는, 현미경 기반 증강현실 네비게이션 방법.
According to claim 1,
Extracting the brain regions in which the foreground and background are separated from the brain image, generating a high-resolution model representing the extracted brain regions in a mesh form, and generating a plurality of multi-resolution models having different resolutions from the high-resolution models. Further comprising generating,
The 3D brain model is a microscope-based augmented reality navigation method, characterized in that, when any one of the multi-resolution models is modified, the high-resolution model mapped with the one multi-resolution model is transformed together. .
제4항에 있어서, 상기 3차원 뇌 모델 전체의 물리적인 변형을 시뮬레이션하는 것은,
상기 국부 현미경 영상을 프레임별로 분석하여, 이전 프레임에서의 상기 마커의 위치와 현재 프레임에서의 상기 마커의 위치를 비교하여 상기 마커에 대한 이동 벡터를 산출하고, 산출된 적어도 하나의 상기 이동 벡터에 기초하여 상기 뇌 영역에 가해지는 외력을 추정하고,
상기 다해상도 모델을 구성하는 복수의 사면체 사면체(Tetrahedron) 중 상기 뇌 영역의 이종 형질 영역 간 경계 영역에 미리 설정된 제약 조건에 따른 내력을 추정하며,
상기 뇌 영역에 가해지는 상기 외력 및 상기 제약 조건에 기반한 상기 내력에 따라 상기 다해상도 모델을 구성하는 사면체의 각 정점을 변형시키는 것인, 현미경 기반 증강현실 네비게이션 방법.
According to claim 4, Simulating the physical deformation of the entire three-dimensional brain model,
The local microscope image is analyzed frame by frame to compare the position of the marker in the previous frame and the position of the marker in the current frame to calculate a motion vector for the marker, and based on the calculated at least one motion vector To estimate the external force applied to the brain region,
Estimation of a history according to a preset constraint in a boundary region between heterogeneous trait regions of the brain region among a plurality of tetrahedron tetrahedra constituting the multiresolution model,
A microscope-based augmented reality navigation method for transforming each vertex of the tetrahedron constituting the multi-resolution model according to the external force applied to the brain region and the internal force based on the constraint.
제4항에 있어서, 상기 3차원 뇌 모델을 상기 수술용 현미경에 구비된 디스플레이 모듈로 출력하는 것은,
상기 수술용 현미경의 동작 파라미터를 분석하여 상기 국소 영역으로부터 관심 영역을 추출하고, 상기 관심 영역을 상기 고해상도 모델로 렌더링하고, 상기 관심 영역을 제외한 나머지 영역을 상기 다해상도 모델로 렌더링하며, 상기 고해상도 모델 및 상기 다해상도 모델로 렌더링된 상기 3차원 뇌 모델을 상기 디스플레이 모듈로 출력하는 것인, 현미경 기반 증강현실 네비게이션 방법.
According to claim 4, Outputting the three-dimensional brain model to the display module provided in the surgical microscope,
The operating parameters of the surgical microscope are analyzed to extract a region of interest from the local region, render the region of interest to the high-resolution model, render the remaining regions excluding the region of interest to the multi-resolution model, and the high-resolution model And outputting the 3D brain model rendered as the multi-resolution model to the display module.
제4항에 있어서, 상기 3차원 뇌 모델을 상기 수술용 현미경에 구비된 디스플레이 모듈로 출력하는 것은,
상기 수술용 현미경의 동작 파라미터를 분석하여 상기 국소 영역에 형성된 병변 영역을 추출하고, 상기 병변 영역을 상기 고해상도 모델로 렌더링하고, 상기 병변 영역을 제외한 나머지 영역을 상기 다해상도 모델로 렌더링하며, 상기 고해상도 모델 및 상기 다해상도 모델로 렌더링된 상기 3차원 뇌 모델을 상기 디스플레이 모듈로 출력하는 것인, 현미경 기반 증강현실 네비게이션 방법.
According to claim 4, Outputting the three-dimensional brain model to the display module provided in the surgical microscope,
By analyzing the operating parameters of the surgical microscope, a lesion region formed in the local region is extracted, the lesion region is rendered into the high resolution model, and the remaining regions excluding the lesion region are rendered into the multiresolution model, and the high resolution And outputting the 3D brain model rendered as a model and the multi-resolution model to the display module.
제4항에 있어서, 상기 3차원 뇌 모델을 상기 수술용 현미경에 구비된 디스플레이 모듈로 출력하는 것은,
상기 국소 영역에 배치된 적어도 하나의 제1 마커의 위치 정보를 기초로 상기 국소 영역에 형성된 후보 병변 영역을 추출하고, 수술 도구에 부착된 제2 마커의 위치를 기준으로 상기 후보 병변 영역으로부터 병변 영역을 추출하며, 상기 제1 마커 및 상기 제2 마커의 위치 변화에 기반하여 상기 병변 영역의 변형을 추정하여 수술 과정에 따른 시뮬레이션 결과가 실시간으로 반영된 상기 3차원 뇌 모델을 상기 수술용 현미경에 구비된 디스플레이 모듈로 출력하는 것인, 현미경 기반 증강현실 네비게이션 방법.
According to claim 4, Outputting the three-dimensional brain model to the display module provided in the surgical microscope,
A candidate lesion area formed in the local area is extracted based on the location information of at least one first marker disposed in the local area, and a lesion area from the candidate lesion area based on the position of the second marker attached to the surgical tool Extracting, and estimating the deformation of the lesion area based on the positional changes of the first marker and the second marker, and providing the 3D brain model in which the simulation results according to the surgical process are reflected in real time in the surgical microscope A microscope-based augmented reality navigation method that outputs to a display module.
제1항 내지 제8항 중 어느 하나의 항에 따른 현미경 기반 증강현실 네비게이션 방법을 수행하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체.
A computer-readable recording medium having a computer program recorded thereon for performing the microscope-based augmented reality navigation method according to any one of claims 1 to 8.
수술 전 촬영된 뇌 영상으로부터 생성된 3차원 뇌 모델과, 수술 중 수술용 현미경으로부터 획득되는 뇌의 국소 영역에 대한 국부 현미경 영상의 비강체 정합을 수행하는 비강체 정합부;
수술 중 상기 수술용 현미경으로부터 수신되는 상기 국부 현미경 영상을 프레임별로 분석하여, 상기 국소 영역에 배치된 마커의 위치 변화에 따라 상기 국소 영역의 부분적인 변형에 따른 상기 3차원 뇌 모델 전체의 물리적인 변형을 시뮬레이션하는 시뮬레이션부; 및
상기 국부 현미경 영상이 증강현실로 반영되면서, 수술 과정에 따른 시뮬레이션 결과가 실시간으로 반영되는 상기 3차원 뇌 모델을 상기 수술용 현미경에 구비된 디스플레이 모듈로 출력하는 증강현실 제어부를 포함하는, 현미경 기반 증강현실 네비게이션 장치.
A non-rigid matching unit that performs non-rigid matching of a local microscopic image on a local area of the brain obtained from a surgical microscope during surgery and a 3D brain model generated from a brain image taken before surgery;
During surgery, the local microscope image received from the surgical microscope is analyzed frame by frame to physically transform the entire 3D brain model according to the partial deformation of the local area according to the positional change of the marker disposed in the local area. Simulation unit for simulating; And
A microscope-based augmentation including an augmented reality control unit that outputs the 3D brain model in which the simulation result according to the surgical process is reflected in real time to the display module provided in the surgical microscope while the local microscope image is reflected in the augmented reality. Reality navigation device.
KR1020180151628A 2018-11-30 2018-11-30 Method for microscope based augmented reality navigation, device and computer readable medium for performing the method KR102140383B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180151628A KR102140383B1 (en) 2018-11-30 2018-11-30 Method for microscope based augmented reality navigation, device and computer readable medium for performing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180151628A KR102140383B1 (en) 2018-11-30 2018-11-30 Method for microscope based augmented reality navigation, device and computer readable medium for performing the method

Publications (2)

Publication Number Publication Date
KR20200065297A KR20200065297A (en) 2020-06-09
KR102140383B1 true KR102140383B1 (en) 2020-07-31

Family

ID=71082336

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180151628A KR102140383B1 (en) 2018-11-30 2018-11-30 Method for microscope based augmented reality navigation, device and computer readable medium for performing the method

Country Status (1)

Country Link
KR (1) KR102140383B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102583320B1 (en) * 2021-08-05 2023-09-27 숭실대학교 산학협력단 Method of brain deformation prediction for external ventricular drain surgery based on augmented reality recording medium and device for performing the method
CN117562678B (en) * 2024-01-08 2024-04-12 华中科技大学同济医学院附属协和医院 Auxiliary system for neurosurgery microscope

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101190645B1 (en) 2010-06-18 2012-10-15 이태경 Merging Method for Multiple Images and Marker tray for merging Oromaxillofaical image
KR101503940B1 (en) 2007-01-30 2015-03-18 지이 헬쓰케어 리미티드 Tools for aiding in the diagnosis of neurodegenerative diseases

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6772180B2 (en) 2015-04-06 2020-10-21 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Alignment compensation system and method in image-guided surgery

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101503940B1 (en) 2007-01-30 2015-03-18 지이 헬쓰케어 리미티드 Tools for aiding in the diagnosis of neurodegenerative diseases
KR101190645B1 (en) 2010-06-18 2012-10-15 이태경 Merging Method for Multiple Images and Marker tray for merging Oromaxillofaical image

Also Published As

Publication number Publication date
KR20200065297A (en) 2020-06-09

Similar Documents

Publication Publication Date Title
CN109589170B (en) Left atrial appendage closure guidance in medical imaging
JP6312898B2 (en) Information processing apparatus, information processing method, and program
CN103371870B (en) A kind of surgical navigation systems based on multimode images
CN107067398B (en) Completion method and device for missing blood vessels in three-dimensional medical model
Özgür et al. Preoperative liver registration for augmented monocular laparoscopy using backward–forward biomechanical simulation
KR102140383B1 (en) Method for microscope based augmented reality navigation, device and computer readable medium for performing the method
EP2594200A1 (en) Method for simulating and correcting deformation of cerebral tissue images
KR101948482B1 (en) Physics simulation method of soft-body, computer readable medium and device for performing the method
JP6145870B2 (en) Image display apparatus and method, and program
KR102370490B1 (en) Method for modifying medical images according to modification of virtual object, recording medium and device for performing the method
JP6493877B2 (en) Reference point evaluation apparatus, method and program, and alignment apparatus, method and program
EP3328305B1 (en) Microscope tracking based on video analysis
Trivisonne et al. Constrained stochastic state estimation of deformable 1D objects: Application to single-view 3D reconstruction of catheters with radio-opaque markers
CN113614781A (en) System and method for identifying objects in an image
KR100346363B1 (en) Method and apparatus for 3d image data reconstruction by automatic medical image segmentation and image guided surgery system using the same
KR102583320B1 (en) Method of brain deformation prediction for external ventricular drain surgery based on augmented reality recording medium and device for performing the method
KR102398171B1 (en) Method of breast deformation prediction for breast surgery based on augmented reality recording medium and device for performing the method
Selmi et al. 3D interactive ultrasound image deformation for realistic prostate biopsy simulation
Wu et al. Learning soft-tissue simulation from models and observation
Tanaiutchawoot et al. A path generation algorithm for biopsy needle insertion in a robotic breast biopsy navigation system
Makhlouf et al. Biomechanical modeling and simulation of a human organ using an augmented reality technique during open surgery.
Chen et al. Presenting a simple method of brain shift estimation for neuronavigations and considering its practicality
US10163529B2 (en) Display processing method and apparatus
US20230240762A1 (en) Method and device for segmentation and registration of an anatomical structure
US20220414914A1 (en) Systems and methods for determining a volume of resected tissue during a surgical procedure

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant