KR102442093B1 - Methods for improving surface registration in surgical navigation systems - Google Patents

Methods for improving surface registration in surgical navigation systems Download PDF

Info

Publication number
KR102442093B1
KR102442093B1 KR1020220051880A KR20220051880A KR102442093B1 KR 102442093 B1 KR102442093 B1 KR 102442093B1 KR 1020220051880 A KR1020220051880 A KR 1020220051880A KR 20220051880 A KR20220051880 A KR 20220051880A KR 102442093 B1 KR102442093 B1 KR 102442093B1
Authority
KR
South Korea
Prior art keywords
point cluster
data
medical image
camera
registration
Prior art date
Application number
KR1020220051880A
Other languages
Korean (ko)
Inventor
김기선
민경기
윤수현
Original Assignee
주식회사 비엠이코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비엠이코리아 filed Critical 주식회사 비엠이코리아
Priority to KR1020220051880A priority Critical patent/KR102442093B1/en
Application granted granted Critical
Publication of KR102442093B1 publication Critical patent/KR102442093B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]

Abstract

The present invention relates to a method for improving surface matching in surgical navigation systems to reduce matching errors in deep lesions. According to an embodiment of the present invention, the method for improving surface matching in surgical navigation systems comprises the steps of: acquiring medical image data of an object to be examined from a medical imaging device; acquiring camera image data of the object to be examined from a camera imaging device; extracting medical image point cluster data from the medical image data and extracting camera image point cluster data from the camera image data; training an artificial intelligence prediction model on the basis of the medical image point cluster; inputting the camera image point cluster data in the trained artificial intelligence prediction model to generate a predicted internal feature point cluster for the camera image; and using a medical image point cluster including internal feature point clusters for the medical image point cluster and a camera image point cluster including the predicted internal feature point cluster to perform surface matching so that two point clusters are disposed adjacent to each other.

Description

수술용 내비게이션 시스템에서의 표면 정합 개선 방법{METHODS FOR IMPROVING SURFACE REGISTRATION IN SURGICAL NAVIGATION SYSTEMS}METHODS FOR IMPROVING SURFACE REGISTRATION IN SURGICAL NAVIGATION SYSTEMS

본 발명은 수술용 내비게이션 시스템에서의 표면 정합 개선 방법에 관한 것으로 보다 구체적으로는 인공지능 기술을 이용하여 예측된 내부 특징점을 추가 정합점으로 사용하는 수술용 내비게이션 시스템에서의 표면 정합 개선 방법에 관한 것이다.The present invention relates to a method for improving surface registration in a surgical navigation system, and more particularly, to a method for improving surface registration in a surgical navigation system using internal feature points predicted using artificial intelligence technology as additional registration points. .

뉴로내비게이션 시스템(Neuronavigation system) 또는 수술용 내비게이션 시스템은 수술 도구의 3차원적 위치를 수술 전에 촬영한 환자의 영상위에 실시간으로 가시화하여 정확한 수술을 수행할 수 있도록 지원하는 의료장비로서, 수술 전 CT 또는 MRI를 이용하여 획득된 의료영상 데이터와 광학 카메라 또는 전자기 발생기를 통해 수술실에서 획득한 환자 데이터를 동일한 위치로 정렬하여 수술 도구의 위치를 실시간으로 추적 가능하게 하는 장치이다. Neuronavigation system or surgical navigation system is a medical device that supports accurate surgery by visualizing the three-dimensional position of a surgical tool on the patient's image taken before surgery in real time. It is a device that aligns medical image data acquired using MRI and patient data acquired in an operating room through an optical camera or electromagnetic generator in the same position to track the position of a surgical tool in real time.

이러한 수술용 내비게이션 시스템의 임상적 유용성을 검증하는 연구는 지속적으로 수행되고 있으며, 최근에는 정확한 수술의 계획과 수행을 위해 필수적인 장비로 인식되고 있어 그 사용이 지속적으로 증가하고 있다. 수술용 내비게이션 시스템의 정확도를 결정하는 핵심은 수술 중에 획득한 환자의 해부학적 신체정보와 수술 전에 획득한 의료영상정보를 일치시키는 정합하는 것에 있으며, 통상적으로 이를 환자-의료영상 간 정합(Patient-to-image registration)이라고도 한다. Research to verify the clinical usefulness of such a surgical navigation system is continuously being conducted, and recently, it is recognized as an essential device for accurate surgery planning and execution, and its use is continuously increasing. The key to determining the accuracy of the surgical navigation system is matching the patient's anatomical body information acquired during surgery with the medical image information acquired before surgery, and this is usually done by patient-to-medical image matching. Also called -image registration).

정합 방식은 크게 점정합(Paired-point registration)과 표면정합(Contour-based registration)으로 분류될 수 있는데, 점정합은 표식자 마커(Fiducial marker)를 환자의 머리에 부착한 후 수술 직전에 영상데이터를 획득하고 수술중에는 추적장치를 이용해 대응되는 표지자 마커의 위치를 획득하여 의료영상공간과 실제 환자공간 상의 변환을 계산하는 방법이다. 점정합은 정확하고 안정된 결과를 제시하기 때문에 현재 임상에서 가장 많이 활용되고 있지만, 수술 직전에 추가적인 의료영상 촬영이 필요하여 방사선 노출 또는 의료비용 증가가 발생하며, 영상 획득 후 수술실로 이동하여 정합이 완료될 때까지 표식자 마커들이 고정되어 있어야만 정확도를 보장할 수 있다는 단점이 있다. The registration method can be largely divided into paired-point registration and contour-based registration. In point registration, a fiducial marker is attached to the patient's head and the image data It is a method of calculating the transformation between the medical image space and the actual patient space by acquiring the position of the corresponding marker marker using a tracking device during surgery. Point registration is currently most used in clinical practice because it provides accurate and stable results. However, additional medical imaging is required immediately before surgery, resulting in increased radiation exposure or medical costs. There is a disadvantage in that the accuracy can be guaranteed only when the marker markers are fixed until they become available.

반면 얼굴 표면에서 획득된 점군집을 이용한 표면 정합 방법은 추가적인 의료영상촬영이 필요 없고 편리하다라는 이점이 있지만 얼굴 표면 점군집을 사용함에 따라 표면에서의 작은 정합 오차가 거리에 비례하여 증가하는 레버암 효과로 인해 정밀 수술 적용이 제한되는 문제점이 존재한다. 구체적으로 수술용 내비게이션 시스템은 의료영상 공간과 환자 공간의 정합을 통해 인체 내부 병변과 수술도구의 상대적 위치를 추적한다. 정합을 위한 입력으로 사용되는 환자 데이터(내비게이션 시스템 기준 3차원 정보)와 의료영상 데이터(의료영상 장비 기준 3차원 정보)는 3차원 공간상에 분포한 점들의 집합인 점군집 형태로 획득된다.On the other hand, the surface registration method using point clusters obtained from the face surface has the advantage that it does not require additional medical imaging and is convenient. There is a problem that the application of precision surgery is limited due to the effect. Specifically, the surgical navigation system tracks the relative positions of internal lesions and surgical tools through the matching of the medical image space and the patient space. Patient data (3D information based on a navigation system) and medical image data (3D information based on medical imaging equipment) used as inputs for registration are acquired in the form of a point cluster, which is a set of points distributed in a 3D space.

도 1은 종래 표면정합 ICP 알고리즘을 나타내는 흐름도이다. 두 점군집을 동일한 위치로 일치시키는 정합 알고리즘으로 iterative closest points (ICP)가 사용된다. ICP는 서로 다른 개수로 구성된 점군집 사이 전역 에러 값이 최소가 되는 회전/이동 행렬을 계산하는 알고리즘으로 다음의 식 1과 같다.1 is a flowchart illustrating a conventional surface matching ICP algorithm. Iterative closest points (ICP) is used as a matching algorithm that matches two point clusters to the same location. ICP is an algorithm that calculates a rotation/translation matrix that minimizes the global error value between point clusters composed of different numbers, as shown in Equation 1 below.

Figure 112022045113417-pat00001
Figure 112022045113417-pat00001

R과 t는 두 점군집 사이 회전 행렬과 이동 행렬을 의미하며 SiCi는 환자 공간 점군집과 의료영상 공간 점군집을 의미한다. 의료영상 점군집은 환자 공간 점군집 대비 상대적으로 많은 개수로 획득되기 때문에 환자 공간 점군집에 대응하는 의료영상 상의 대응점 탐색 과정이 선행된다. 대응점 사이의 유클리디언 거리 합이 최소가 되는 회전 및 이동 변환 행렬을 획득하여 정합을 수행하게 된다.R and t denote the rotation matrix and the translation matrix between the two point clusters, and Si and Ci denote the patient space point cluster and the medical image space point cluster. Since the number of medical image point clusters is relatively larger than that of the patient space point clusters, the process of searching for corresponding points on the medical image corresponding to the patient space point clusters is preceded. The registration is performed by obtaining a rotation and translation transformation matrix that minimizes the sum of the Euclidean distances between the corresponding points.

ICP 알고리즘에 사용되는 두 점군집은 서로 다른 측정 장비를 사용하기 때문에 각 점군집을 구성하는 점들의 개수와 분포가 서로 상이하게 획득된다. 따라서 도 2에 도시된 바와 같이, 이로 인해 발생하는 정합된 두 점군집 사이의 미세한 자세방위(attitude and heading) 오차는 얼굴 표면부에 위치한 병변의 정합 오차 작게 나타나지만 심층부로 갈수록 병변 정합 오차가 점점 증가하는 잔차 회전 오차(residual rotation error, RRE) 특성이 발생하게 된다. 위와 같은 문제점은 표면 정합 정확도에 의존하여 진행되는 실제 수술환경에서 인체 내부에 삽입된 수술도구의 부정확한 위치 제공과 사용자 신뢰도 감소를 유발하며, 이는 의료 사고, 수술 후유증, 수술 범위 제한과 같은 문제를 일으킨다.Since the two point clusters used in the ICP algorithm use different measurement equipment, the number and distribution of points constituting each point cluster are obtained differently. Therefore, as shown in FIG. 2, the minute attitude and heading error between the two matched point clusters caused by this shows a small matching error of the lesion located on the surface of the face, but the lesion matching error gradually increases as the depth increases. A residual rotation error (RRE) characteristic is generated. The above problems cause inaccurate positioning of surgical tools inserted inside the human body and a decrease in user reliability in the actual surgical environment that relies on the accuracy of surface registration, which can lead to problems such as medical accidents, postoperative complications, and limiting the scope of surgery. causes

대한민국 특허공개공보 2017-0012077(2017.02.02)Korean Patent Publication No. 2017-0012077 (2017.02.02)

본 발명은, 종래 수술용 내비게이션 시스템 정합에서 발생하는 심층부 오차를 개선하기 위해 내부 특징점을 이용한 추가 점군집 생성하고, 이를 이용하여 수술용 내비게이션 시스템에서의 표면 정합을 개선할 수 있는 방법을 제공하는 것을 목적으로 한다.The present invention provides a method capable of improving surface registration in a surgical navigation system by generating an additional point cluster using internal feature points in order to improve the depth error occurring in the conventional surgical navigation system registration, and using this The purpose.

전술한 과제를 해결하기 위해 본 발명의 일양태에 따르면 수술용 내비게이션 시스템에서의 표면 정합을 개선할 수 있는 방법을 제공하고, 이 방법은,According to an aspect of the present invention in order to solve the above problems, there is provided a method for improving surface registration in a surgical navigation system, the method comprising:

의료 영상 장치로부터 검사 대상의 의료 영상 데이터를 취득하는 단계;acquiring medical image data of an examination subject from a medical imaging apparatus;

카메라 영상 장치로부터 검사대상의 카메라 영상 데이터를 취득하는 단계;acquiring camera image data of an inspection object from a camera imaging device;

의료 영상 데이터로부터 의료 영상 점군집 데이터를 추출하고, 카메라 영상 데이터로부터 카메라 영상 점군집 데이터를 추출하는 단계;extracting medical image point cluster data from the medical image data and extracting the camera image point cluster data from the camera image data;

의료 영상 점군집에 기반하여 인공지능 예측 모델을 학습하는 단계;learning an artificial intelligence prediction model based on the medical image point cluster;

카메라 영상 점군집 데이터를 학습된 인공지능 예측 모델에 투입하여 카메라 영상에 대한 예측된 내부 특징 점군집을 생성하는 단계; 및generating a predicted internal feature point cluster for the camera image by inputting the camera image point cluster data to the learned artificial intelligence prediction model; and

의료 영상 점군집에 대한 내부 특징 점군집을 포함하는 의료 영상 점군집과, 예측된 내부 특징 점군집을 포함하는 카메라 영상 점군집을 이용하여 두 점군집이 근접하여 배치되도록 표면 정합을 수행하는 단계;를 포함한다. performing surface registration so that the two point clusters are disposed adjacent to each other using a medical image point cluster including an internal feature point cluster for the medical image point cluster and a camera image point cluster including a predicted internal feature point cluster; includes

전술한 하나의 양태에 있어서, 인공지능 예측 모델은, 의료영상으로부터 의료영상 점군집과 내부 특징점 데이터를 추출하는 단계, 의료 영상 점군집 데이터를 다운샘플링하여 가상 환자 점군집 데이터를 생성하는 단계, 및 가상 환자 점군집 데이터와 내부 특징 점군집 사이의 관계를 이용하여 인공지능 예측 모델을 학습하는 단계에 의해 학습된다.In the above-described aspect, the artificial intelligence prediction model includes the steps of extracting medical image point clusters and internal feature point data from a medical image, generating virtual patient point cluster data by downsampling the medical image point cluster data, and It is learned by learning the artificial intelligence prediction model using the relationship between the virtual patient point cluster data and the internal feature point cluster.

또한 전술한 어느 하나의 양태에 있어서, 의료영상은 컴퓨터 단층촬영(computed tomography: CT) 장치, 자기공명영상(magnetic resonance imaging,MRI) 장치 및 양전자 단층 촬영(positron emission tomography, PET) 장치 중 적어도 하나로부터 촬영되는 영상일 수 있다. In addition, in any one of the above aspects, the medical image is at least one of a computed tomography (CT) device, a magnetic resonance imaging (MRI) device, and a positron emission tomography (PET) device. It may be an image taken from

또한 전술한 어느 하나의 양태에 있어서, 카메라 영상은 3차원 스캐너, 내시경 장치, 광학 카메라, 씨암(C-arm) 장치 및 광간섭단층촬영장치(opticalcoherence tomography)중 적어도 하나로부터 촬영되는 영상일 수 있다. In addition, in any one of the above aspects, the camera image may be an image taken from at least one of a three-dimensional scanner, an endoscope device, an optical camera, a C-arm device, and an optical coherence tomography device. .

또한 전술한 어느 하나의 양태에 있어서, 표면 정합을 수행하는 단계는 인공지능 모델에서 예측된 내부 특징 점군집을 포함하는 카메라 영상 점군집과; 의료 영상 내부 특징 점군집을 포함하는 의료영상 점군집이 근접하도록 정합을 수행한다. In addition, in any one of the above aspects, the performing the surface registration comprises: a camera image point cluster including an internal feature point cluster predicted by the artificial intelligence model; Registration is performed so that the medical image point clusters including the feature point clusters inside the medical image are close to each other.

본 발명에 따르면, 인공지능 모델을 이용하여 종래의 내비게이션 시스템으로 획득할 수 없는 인체 내부 해부학적 특징점 획득이 가능하고, 인공지능 모델에 필요한 데이터를 자동으로 생성하고 학습하여 사용자 개입 없이 특징점 예측이 수행될 수 있으며, 수 천 개의 가상 환자 점군집과 인체 내부 해부학적 특징점 사이 상대적 위치 관계를 학습하여, 실제 환자 공간 점군집에서 높은 정확도로 내부 해부학적 특징점을 확보할 수 있을 뿐만 아니라, 인체 내부에 위치한 점군집 데이터를 정합 추가 대응점으로 사용함으로써 심층부 병변에서의 정합 오차를 더욱 감소시킬 수 있다.According to the present invention, by using an artificial intelligence model, it is possible to acquire internal anatomical feature points that cannot be obtained with a conventional navigation system, and by automatically generating and learning data necessary for the artificial intelligence model, feature point prediction is performed without user intervention. By learning the relative positional relationship between thousands of virtual patient point clusters and anatomical feature points inside the human body, it is possible to obtain internal anatomical feature points with high accuracy in the real patient space point cluster, as well as By using the point cluster data as an additional matching point, the registration error in deep lesions can be further reduced.

도 1은 종래 표면 정합 ICP 알고리즘 흐름을 나타내는 흐름도;
도 2는 종래 표면 정합 기술에서의 문제점을 나타내는 도면;
도 3은 본 발명에 따른 수술용 내비게이션 시스템의 구성을 나타내는 블록도;
도 4는 표면 정합 장치의 세부 구성을 나타내는 도면;
도 5는 인공지능 학습 모델의 일례를 나타내는 도면;
도 6은 점군집 다운샘플링을 이용한 가상 환자 점군집 생성의 일례를 나타내는 도면;
도 7은 점군집 중심점과 방향벡터를 설명하기 위한 도면;
도 8은 3차원 이동 값 예측을 위한 네트워크 구조를 나타내는 도면;
도 9는 병변 정합 오차 측정을 설명하기 위해 이용되는 내부 구조물 및 가상 병변 위치를 나타내는 도면;
도 10은 내부 특징점 점군집을 포함한 점군집 데이터를 나타내는 도면;
도 11은 내부 특징점 점군집을 포함한 정합 결과를 나타내는 도면;
도 12는 인공지능 모델을 학습하는 방법의 흐름을 나타내는 도면;
도 13은 학습된 인공지능 예측 모델을 통해 카메라 영상과 의료 영상 사이의 표면 정합 과정을 나타내는 흐름도이다.
1 is a flow chart showing the flow of a conventional surface registration ICP algorithm;
2 is a diagram showing a problem in the prior art surface registration technique;
3 is a block diagram showing the configuration of a navigation system for surgery according to the present invention;
4 is a view showing a detailed configuration of a surface matching device;
5 is a diagram showing an example of an artificial intelligence learning model;
6 is a diagram illustrating an example of generating a virtual patient point cluster using point cluster downsampling;
7 is a diagram for explaining a point cluster center point and a direction vector;
8 is a diagram illustrating a network structure for predicting a three-dimensional movement value;
9 is a diagram illustrating an internal structure and a virtual lesion location used to explain measurement of lesion registration error;
10 is a diagram illustrating point cluster data including an internal feature point point cluster;
11 is a diagram showing a matching result including an internal feature point cluster;
12 is a diagram showing a flow of a method for learning an artificial intelligence model;
13 is a flowchart illustrating a surface registration process between a camera image and a medical image through a trained artificial intelligence prediction model.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되는 실시예를 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이다. 본 명세서에서 본 실시예는 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 그리고 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 따라서, 몇몇 실시예들에서, 잘 알려진 구성 요소, 잘 알려진 동작 및 잘 알려진 기술들은 본 발명이 모호하게 해석되는 것을 피하기 위하여 구체적으로 설명되지 않는다. Advantages and features of the present invention, and methods of achieving them, will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms. In the present specification, the present embodiment is provided to complete the disclosure of the present invention, and to completely inform those of ordinary skill in the art to which the present invention pertains to the scope of the present invention. And the invention is only defined by the scope of the claims. Accordingly, in some embodiments, well-known components, well-known operations, and well-known techniques have not been specifically described in order to avoid obscuring the present invention.

본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 정의되어 있지 않은 한 이상적으로 또는 과도하게 해석되지 않는다. All terms (including technical and scientific terms) used in this specification may be used with meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. Also, terms defined in commonly used dictionary are not to be interpreted ideally or excessively unless defined.

도 3은 본 발명의 일 실시 예에 따른 수술용 내비게이션 시스템의 구성을 설명하기 위한 도면이다. 도 3에 도시된 바와 같이, 본 발명의 일 실시 예에 따른 수술용 내비게이션 시스템(100)은 카메라 영상 장치(110), 의료영상 장치(120) 및 표면 정합 장치(130)를 포함한다.3 is a view for explaining the configuration of a navigation system for surgery according to an embodiment of the present invention. As shown in FIG. 3 , the navigation system 100 for surgery according to an embodiment of the present invention includes a camera imaging device 110 , a medical imaging device 120 , and a surface matching device 130 .

카메라 영상 장치(110)는 수술 직전 수술공간에 제공되는 광학 카메라, 3차원 스캐너, 내시경 장치, 씨암(C-arm) 장치 및 광간섭 단층 촬영장치(optical coherence tomography) 중 어느 하나일 수 있다. 카메라 영상 장치(110)는 카메라 영상 데이터를 획득하여 환자 데이터로서 표면 정합 장치(130)로 전달한다. 여기서, 환자 데이터 또는 카메라 영상 데이터는, 광학 카메라, 3차원 스캐너, 내시경 장치, 씨암(C-arm) 장치 및 광간섭 단층 촬영장치(optical coherence tomography) 중 어느 하나로부터 촬영되는 카메라 영상 데이터일 수 있다.The camera imaging apparatus 110 may be any one of an optical camera, a 3D scanner, an endoscope apparatus, a C-arm apparatus, and an optical coherence tomography apparatus provided in an operating space immediately before surgery. The camera imaging apparatus 110 acquires camera image data and transmits it to the surface matching apparatus 130 as patient data. Here, the patient data or camera image data may be camera image data photographed from any one of an optical camera, a three-dimensional scanner, an endoscope device, a C-arm device, and an optical coherence tomography device. .

의료영상 장치(120)는 컴퓨터 단층촬영(computed tomography: CT) 장치, 자기공명영상(magnetic resonance imaging, MRI) 장치 및 양전자 단층 촬영(positron emission tomography, PET) 장치 중 어느 하나일 수 있다. 의료영상 장치(120)는 의료영상 데이터를 획득하여 표면 정합 장치(130)로 전달한다. 여기서, 의료영상 데이터는, 컴퓨터 단층촬영(computed tomography: CT) 장치, 자기공명영상(magnetic resonance imaging, MRI) 장치 및 양전자 단층 촬영(positron emission tomography, PET) 장치 중 어느 하나로부터 촬영되는 의료영상 데이터일 수 있으며, 표면과 내부 기관에 대한 3차원 복원이 가능하도록 구성된다.The medical imaging apparatus 120 may be any one of a computed tomography (CT) apparatus, a magnetic resonance imaging (MRI) apparatus, and a positron emission tomography (PET) apparatus. The medical imaging apparatus 120 acquires medical image data and transmits it to the surface matching apparatus 130 . Here, the medical image data is medical image data captured from any one of a computed tomography (CT) device, a magnetic resonance imaging (MRI) device, and a positron emission tomography (PET) device. It may be, and it is configured to enable three-dimensional reconstruction of the surface and internal organs.

표면 정합 장치(130)는 카메라 영상 데이터와 의료영상 데이터에 기반하여 병변 위치를 정확하게 산출하도록 구성되며, 본 발명에서 병변 위치를 정확하게 산출하기 위해 표면 정합 장치는 인공지능 기술을 적용하여 정합 동작을 수행하도록 구성된다.The surface matching device 130 is configured to accurately calculate the lesion location based on camera image data and medical image data, and in the present invention, the surface matching device performs a matching operation by applying artificial intelligence technology to accurately calculate the lesion location. configured to do

구체적으로 표면 정합 장치(130)는 도 4에 도시된 바와 같이 데이터 추출부(210), 내부 특징점 생성부(220) 및 표면 정합부(230)을 포함한다. 데이터 추출부(210)는 수술대상 표면에 대해 카메라 영상 데이터(환자 영상 데이터)와 의료영상 데이터를 분할하고, 수술대상 표면에 대한 분할된 카메라 영상 데이터와 의료영상 데이터 각각에 대한 점군집 데이터(의료영상 점군집 데이터 및 카메라영상 점군집 데이터)를 추출한다. Specifically, the surface matching device 130 includes a data extraction unit 210 , an internal feature point generation unit 220 , and a surface matching unit 230 as shown in FIG. 4 . The data extraction unit 210 divides camera image data (patient image data) and medical image data for the surgical target surface, and point cluster data (medical) for each of the divided camera image data and medical image data for the surgical target surface. image point cluster data and camera image point cluster data) are extracted.

내부 특징점 생성부(220)는 학습된 인공지능 모델에 카메라 영상 점군집 데이터가 입력되면 내부 특징점을 예측하여 생성하도록 구성되는데, 인공지능 예측 모델은 의료영상 점군집(42,062개의 점) 다운샘플링을 통해 생성되는 여러 세트의 가상 환자 점군집(591개의 점)과 내부 특징점 사이 관계에 의해 학습된다. 학습 완료된 후 카메라 영상 표면 점군집(591개의 점)이 인공지능 예측 모델에 입력되면 인공지능 예측 모델은 카메라 영상 점군집에 대한 내부 특징점(121개의 점)을 생성하게 된다. 여기서 내부 특징점 데이터는 의료 영상으로부터 육안으로 구분 가능한 인체 내부 해부학적 지표로 구성된다. The internal feature point generator 220 is configured to predict and generate internal feature points when the camera image point cluster data is input to the learned artificial intelligence model. The artificial intelligence prediction model uses medical image point clusters (42,062 points) downsampling It is learned by the relationship between the generated multiple sets of virtual patient point clusters (591 points) and internal feature points. After learning is completed, when the camera image surface point cluster (591 points) is input to the AI prediction model, the AI prediction model generates internal feature points (121 points) for the camera image point cluster. Here, the internal feature point data is composed of an internal anatomical index of the human body that can be distinguished from the medical image with the naked eye.

의료 영상에 존재하는 내부 특징점은 촬영 환경에 따른 형상 변형이 최소화되는 경조직(hard tissue)을 대상으로 전문가에 의해 구분될 수 있다. 이는 뼈의 이음부, 돌기, 극점에 해당하는 점으로 본 발명이 이에 한정되는 것은 아니고 머리의 경우 나시온(nasion), 스태필리온(staphylion), 셀라(sella), 바시온(basion) 등을 포함하고, 임상학적으로 정의된 다른 특징점을 포함할 수도 있다. 각 내부 특징점은 3차원 공간상의 좌표 값으로 획득되며, 이는 의료 영상의 얼굴 표면 점군집과 내부 특징점 사이의 관계를 학습하는 인공지능 모델을 구성한다.Internal feature points existing in a medical image may be classified by an expert for hard tissue in which shape deformation according to an imaging environment is minimized. This is a point corresponding to the joint, protrusion, and pole of the bone, and the present invention is not limited thereto. and may include other clinically defined feature points. Each internal feature point is obtained as a coordinate value in three-dimensional space, which constitutes an artificial intelligence model that learns the relationship between the facial surface point cluster and the internal feature point of the medical image.

표면 정합부(230)는 카메라영상 표면 점군집(591개의 점) + 인공지능 모델에서 예측된 내부 특징 점군집(121개의 점)과; 의료영상 점군집(42,062개의 점) + 의료영상 내부 특징 점군집(121개의 점)을 이용하여 두 점군집이 근접하도록 정합을 수행한다. The surface matching unit 230 includes: a camera image surface point cluster (591 points) + an internal feature point cluster (121 points) predicted by the artificial intelligence model; Using the medical image point cluster (42,062 points) + medical image internal feature point cluster (121 points), registration is performed so that two point clusters are close together.

다음으로 도 5를 참조하여 인공지능 학습 모듈(500)에 대해 설명한다. 도 5는 내부 특징점 생성부를 훈련하기 위한 인공지능 학습 모듈의 일례를 나타낸다. 인공지능 학습 모듈(500)은 훈련 데이터를 이용하여 기계 학습을 수행할 수 있는 장치로서, 인공 신경망으로 구성된 모델을 이용하여 학습하는 장치를 포함할 수 있다. 즉, 신경망 훈련 장치는 데이터 마이닝, 데이터 분석, 지능형 의사 결정 및 기계 학습 알고리즘을 위해 이용될 정보를 수신, 분류, 저장 및 출력하도록 구성될 수 있다. 여기서, 기계 학습 알고리즘은 딥 러닝 알고리즘을 포함할 수 있다.Next, the artificial intelligence learning module 500 will be described with reference to FIG. 5 . 5 shows an example of an artificial intelligence learning module for training an internal feature point generator. The artificial intelligence learning module 500 is a device capable of performing machine learning using training data, and may include a device that learns using a model composed of an artificial neural network. That is, the neural network training apparatus may be configured to receive, classify, store and output information to be used for data mining, data analysis, intelligent decision making, and machine learning algorithms. Here, the machine learning algorithm may include a deep learning algorithm.

학습 모듈(500)은 적어도 하나의 외부 장치 또는 단말기와 통신할 수 있고, 외부 장치를 대신하여 혹은 외부장치를 도와 데이터를 분석하거나 학습하여 결과를 도출할 수 있다. 여기서, 다른 장치를 도운다는 의미는 분산 처리를 통한 연산력의 분배를 의미할 수 있다. 학습 모듈(500)은 통상적으로 서버를 의미할 수도 있고, 신경망 학습 서버 등으로 지칭될 수 있다. The learning module 500 may communicate with at least one external device or terminal, and may derive a result by analyzing or learning data on behalf of or with the help of an external device. Here, helping other devices may mean distribution of computing power through distributed processing. The learning module 500 may generally mean a server, or may be referred to as a neural network learning server or the like.

신경망 학습 장치(100)는 통신부(Communication Unit, 510), 입력부(Input Unit, 520), 메모리(Memory, 530), 러닝 프로세서(Learning Processor, 540), 및 프로세서(Processor, 560) 등을 포함할 수 있다.The neural network learning apparatus 100 may include a communication unit 510, an input unit 520, a memory 530, a learning processor 540, and a processor 560. can

통신부(510)는 무선 통신부(미도시) 및 인터페이스부(미도시)를 포함하는 구성을 의미할 수 있다. 즉, 통신부(510)는 유무선 통신이나 인터페이스를 통하여 표면 정합 장치로 데이터를 송수신할 수 있다.The communication unit 510 may refer to a configuration including a wireless communication unit (not shown) and an interface unit (not shown). That is, the communication unit 510 may transmit/receive data to and from the surface matching device through wired/wireless communication or an interface.

입력부(520)는 모델 학습을 위한 훈련 데이터 또는 학습된 모델(a trained model)을 이용하여 출력을 획득하기 위한 입력 데이터 등을 획득할 수 있다. 입력부(520)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 러닝 프로세서(540) 또는 프로세서(560)는 획득한 데이터를 전처리하여 모델 학습에 입력이 가능한 훈련 데이터 또는 전처리된 입력 데이터를 생성할 수 있다.The input unit 520 may acquire training data for model learning or input data for acquiring an output using a trained model. The input unit 520 may acquire raw input data, and in this case, the learning processor 540 or the processor 560 pre-processes the acquired data to generate training data or pre-processed input data that can be input to model learning. can do.

메모리(530)는 러닝 프로세서(540) 또는 신경망 학습 장치(500)에서 학습된 모델을 저장할 수 있다. 이때, 메모리(530)는 필요에 따라 학습된 모델을 학습 시점 또는 학습 진척도 등에 따라 복수의 버전으로 구분하여 저장할 수 있다. 이때, 메모리(530)는 입력부(520)에서 획득한 입력 데이터, 모델 학습을 위하여 이용되는 학습 데이터(또는 훈련 데이터), 모델의 학습 히스토리 등을 저장할 수 있다. 이때, 메모리(530)에 저장된 입력 데이터는 모델 학습에 적합하게 가공된 데이터뿐만 아니라, 가공되지 않은 입력 데이터 그 자체일 수 있다.The memory 530 may store the model learned by the learning processor 540 or the neural network learning apparatus 500 . In this case, the memory 530 may divide and store the learned model into a plurality of versions according to a learning time point or learning progress, etc. as needed. In this case, the memory 530 may store input data obtained from the input unit 520 , learning data (or training data) used for model learning, a learning history of the model, and the like. In this case, the input data stored in the memory 530 may be unprocessed input data itself as well as data processed to be suitable for model learning.

메모리(530)는 모델 저장부(531) 및 데이터베이스(532) 등을 포함할 수 있다. 모델 저장부(531)는 러닝 프로세서(540)을 통하여 학습 중인 또는 학습된 신경망 모델을 저장하며, 학습을 통하여 모델이 업데이트되면 업데이트 된 모델을 저장한다. 이때, 모델 저장부(531)는 필요에 따라 학습된 모델을 학습 시점 또는 학습 진척도 등에 따라 복수의 버전으로 구분하여 저장할 수 있다.The memory 530 may include a model storage unit 531 , a database 532 , and the like. The model storage unit 531 stores the neural network model being trained or learned through the learning processor 540 , and when the model is updated through learning, the updated model is stored. In this case, the model storage unit 531 may divide and store the learned model into a plurality of versions according to a learning time point or learning progress, etc. as necessary.

데이터베이스(532)는 입력부(520)에서 획득한 입력 데이터, 모델 학습을 위하여 이용되는 학습 데이터(또는 훈련 데이터), 모델의 학습 히스토리 등을 저장할 수 있다. 데이터베이스(532)에 저장된 입력 데이터는 모델 학습에 적합하게 가공된 데이터뿐만 아니라, 가공되지 않은 입력 데이터 그 자체일 수 있다.The database 532 may store input data obtained from the input unit 520 , learning data (or training data) used for model learning, a learning history of the model, and the like. The input data stored in the database 532 may be raw input data itself as well as data processed to be suitable for model learning.

러닝 프로세서(540)는 훈련 데이터 또는 트레이닝 셋(training set)을 이용하여 인공 신경망을 훈련(training, 또는 학습)시킬 수 있다. 러닝 프로세서(540)는 프로세서(560)가 입력부(520)를 통해 획득한 입력 데이터를 전처리한 데이터를 바로 획득하여 인공 신경망을 학습하거나, 데이터베이스(532)에 저장된 전처리된 입력 데이터를 획득하여 인공 신경망을 학습할 수 있다.The learning processor 540 may train (train, or learn) the artificial neural network using training data or a training set. The learning processor 540 learns the artificial neural network by directly acquiring the data obtained by preprocessing the input data obtained by the processor 560 through the input unit 520 , or by acquiring the preprocessed input data stored in the database 532 to obtain the artificial neural network can learn

구체적으로, 러닝 프로세서(540)는 앞서 설명한 다양한 학습 기법을 이용하여 인공 신경망을 반복적으로 학습시킴으로써, 인공 신경망의 최적화된 모델 파라미터들을 결정할 수 있다. 본 명세서에서는 훈련 데이터를 이용하여 학습됨으로써 파라미터가 결정된 인공 신경망을 학습 모델 또는 학습된 모델(a trained model)이라 칭할 수 있다.Specifically, the learning processor 540 may determine the optimized model parameters of the artificial neural network by repeatedly learning the artificial neural network using the various learning techniques described above. In the present specification, an artificial neural network whose parameters are determined by being trained using training data may be referred to as a learning model or a trained model.

러닝 프로세서(540)는 신경망 학습 장치(500)에 통합되거나 구현된 메모리를 포함할 수 있다. 일부 실시 예에서, 러닝 프로세서(540)는 메모리(530)를 사용하여 구현될 수 있다. 선택적으로 또는 부가적으로, 러닝 프로세서(540)는 단말기에 직접 결합된 외부 메모리 또는 단말기와 통신하는 서버에서 유지되는 메모리와 같이 단말기와 관련된 메모리를 사용하여 구현될 수 있다. The learning processor 540 may include a memory integrated or implemented in the neural network learning apparatus 500 . In some embodiments, the learning processor 540 may be implemented using the memory 530 . Alternatively or additionally, the learning processor 540 may be implemented using memory associated with the terminal, such as external memory coupled directly to the terminal or memory maintained in a server in communication with the terminal.

세부적으로 본 발명에서 인공지능 예측 모델(내부 특징점 생성부)을 제공하 위해, 학습 데이터 생성 단계와 내부 특징점 예측을 위한 인공지능 모델 학습 단계가 포함된다. In detail, in order to provide an artificial intelligence prediction model (internal feature point generator) in the present invention, a learning data generation step and an AI model learning step for internal feature point prediction are included.

첫 번째 단계로 인공지능 모델 학습 데이터를 생성하는 과정은 다음과 같다. As the first step, the process of generating AI model training data is as follows.

가. 사용자 개입 없이 환자 점군집을 묘사하는 시계열 데이터를 자동으로 생성하기 위해 의료영상 점군집 다운샘플링을 이용하여 연속적인 시계열 데이터 모형을 생성한다.go. To automatically generate time series data depicting patient point clusters without user intervention, a continuous time series data model is generated using medical image point cluster downsampling.

나. 다운샘플링은 정의된 비율만큼의 표면 점을 의료영상 점군집에서 랜덤하게 추출하는 방법으로 수행된다. 본 발명의 일 실시 예에서는 42,062개의 점들로 이루어진 의료영상 점군집을 환자 점군집 개수 591개 수준으로(약 0.01%) 다운샘플링 하였다.me. Downsampling is performed by randomly extracting surface points as much as a defined ratio from a medical image point cluster. In an embodiment of the present invention, a medical image point cluster consisting of 42,062 points was downsampled to the level of 591 patient point clusters (about 0.01%).

다. 환자 점군집은 사용자의 선호도와 숙련도, 병변 위치에 따라 서로 다른 형태로 획득되기 때문에 샘플링 반복 횟수를 증가시킬수록 다양한 경우의 가상 환자 점군집 데이터 생성이 가능하다.All. Since patient point clusters are acquired in different forms depending on the user's preference, proficiency, and lesion location, as the number of sampling repetitions increases, virtual patient point cluster data in various cases can be generated.

라. 인공지능 모델 학습 데이터는 각기 입력과 출력 한 쌍으로 이루어지며, 본 발명에서는 내부 해부학적 특징점의 상대 좌표가 출력 정보로 사용된다.la. The AI model training data consists of a pair of input and output, respectively, and in the present invention, the relative coordinates of internal anatomical feature points are used as output information.

마. CT, MRI와 같은 의료영상 장비는 인체를 투과하는 방사선 또는 자기장을 이용하여 의료영상 데이터 상에서 내부 해부학적 특징점 좌표 획득이 가능하다.mind. Medical imaging equipment such as CT and MRI can acquire coordinates of internal anatomical features on medical image data using radiation or magnetic field that penetrates the human body.

바. 본 발명의 실시예에서 도 6에 도시된 바와 같이 3차원 복원된 의료영상 이미지에서 다운샘플링된 점군집의 중심점 좌표와 내부 해부학적 특징점 사이 상대적 위치 값을 계산하여 각 입력 데이터의 출력 값으로 설정한다.bar. In an embodiment of the present invention, as shown in FIG. 6 , a relative position value between the coordinates of the center point of a point cluster downsampled from the three-dimensional reconstructed medical image image and the internal anatomical feature point is calculated and set as the output value of each input data. .

인공지능 모델을 이용하여 입력과 출력 정보를 학습하는 과정은 다음과 같다. The process of learning input and output information using an artificial intelligence model is as follows.

가. 본 발명의 실시예에 따른 이에 한정되는 것은 아니지만 인공지능 모델은 가상 환자 점군집의 형태적 특징을 추출하는 네트워크와 점군집 중심과 방향 벡터의 수치적 값을 처리하는 네트워크로 구성된 다중 입력 구조를 가진다.go. Although not limited thereto according to an embodiment of the present invention, the artificial intelligence model has a multiple input structure composed of a network for extracting morphological features of a virtual patient point cluster and a network for processing numerical values of point cluster centers and direction vectors. .

나. 가상 환자 점군집은 수술 대상 표면에 분포된 점들이 기하학적 형상(이미지)을 보이는 데이터로 인공지능 모델 중 하나인 합성곱신경망(convolution neural network, CNN)을 이용하여 형상 특징을 추출하였다. 그러나 본 발명은 이에 한정되는 것은 아니고, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network), MLP(Multilayer Perceptron)와 같은 방식의 네트워크 모델들을 포함할 수도 있다.me. The virtual patient point cluster is data showing geometric shapes (images) of points distributed on the surgical target surface, and shape features were extracted using a convolutional neural network (CNN), one of the artificial intelligence models. However, the present invention is not limited thereto, and network models such as Deep Neural Network (DNN), Recurrent Neural Network (RNN), Bidirectional Recurrent Deep Neural Network (BRDNN), and Multilayer Perceptron (MLP) may be included.

신경망은 생물학적 뉴런의 동작원리와 뉴런간의 연결 관계를 모델링한 것으로 노드(node) 또는 처리 요소(processing element)라고 하는 다수의 뉴런들이 레이어(layer) 구조의 형태로 연결된 정보처리 시스템이다. 인공신경망은 시냅스(synapse)의 결합으로 네트워크를 형성한 인공 뉴런(노드)이 학습을 통해 시냅스의 결합 세기를 변화시켜, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 용어 신경망 또는 인공신경망은 용어 뉴럴 네트워크(Neural Network)와 혼용되어 사용될 수 있으며, 인공신경망은 복수의 레이어(layer)를 포함할 수 있고, 레이어들 각각은 복수의 뉴런(neuron)을 포함할 수 있다. 또한 인공신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. A neural network is an information processing system in which a number of neurons called nodes or processing elements are connected in the form of a layer structure by modeling the operating principle of biological neurons and the connection relationship between neurons. An artificial neural network may refer to an overall model having problem-solving ability by changing the strength of synapses through learning in which artificial neurons (nodes) formed a network by combining synapses. The term neural network or artificial neural network may be used interchangeably with the term neural network, and the artificial neural network may include a plurality of layers, and each of the layers may include a plurality of neurons. . Also, the artificial neural network may include neurons and synapses connecting neurons.

다. 도 7에 도시된 바와 같이 점군집 중심점과 방향벡터는 다운샘플링된 점군집을 대표하는 값으로 점군집 분포에 따라 다른 값이 계산되기 때문에 동일한 해부학적 특징점 좌표에 대한 상대적 관계에서 차이를 보인다.All. As shown in FIG. 7 , the point cluster center point and the direction vector are representative values of the downsampled point cluster, and since different values are calculated according to the point cluster distribution, they show a difference in the relative relationship to the same anatomical feature point coordinates.

라. 도 8은 3차원 이동값 예측을 위한 네트워크 구조를 나타내는 도면으로, 모델 입력으로 가상 환자 공간 점군집 ‘[xi yi zi]xn’과 점군집 중심 좌표 ‘[xc yc zc]’ & 3축 방향 벡터 ‘[ax ay az; bx by bz; cx cy cz]’가 사용되어 출력 값인 해부학적 특징점 좌표 상대위치 ‘[xr yr zr]’ 사이 네트워크 가중치를 반복하여 학습한다.la. 8 is a diagram illustrating a network structure for predicting a three-dimensional movement value. As a model input, the virtual patient space point cluster '[xi yi zi]xn' and the point cluster center coordinate '[xc yc zc]' & 3-axis direction vector '[ax ay az; bx by bz; cx cy cz]’ is used to repeatedly learn the network weight between the output value of the anatomical feature coordinate relative position ‘[xr yr zr]’.

마. 이와 같이 학습이 완료된 모델은 내부 특징점 생성부(220)에 업로드되어, 실제 수술공간에서 획득된 환자 점군집 입력에 대해 3축 좌표 이동 값을 예측해주므로 환자 점군집 중심점에서 좌표 이동을 하여 내부 특징점 좌표를 예측할 수 있다.mind. As such, the learned model is uploaded to the internal feature point generator 220 and predicts the 3-axis coordinate movement value for the patient point cluster input obtained in the actual operating space. can be predicted

전술한 본 발명을 이용한 심층부 정합 정확도 향상 검증을 위해, 도 9에 도시된 바와 같이 내부 병변이 묘사된 구조물을 삽입한 두상 모형을 이용하여 병변 정합 오차를 측정하였다. 내부 구조물은 일정한 간격의 높이(7 cm)와 깊이(4 cm)로 홈을 내어 위치에 따른 병변을 묘사하였다. In order to verify the improvement of the deep registration accuracy using the present invention described above, as shown in FIG. 9 , the lesion registration error was measured using a head model in which a structure depicting an internal lesion was inserted. The internal structure was grooved at regular intervals of height (7 cm) and depth (4 cm) to describe the lesion according to the location.

두상 모형의 의료영상 점군집에 다운샘플링 방법을 사용하여 가상의 환자 점군집 2,000 세트를 생성한 뒤 학습과 검증 각각 80%, 20%의 비율로 나누어 모델을 학습시켰다. After generating 2,000 sets of virtual patient point clusters using the downsampling method for the medical image point clusters of the head model, the model was trained by dividing the training and validation rates by 80% and 20%, respectively.

학습 완료된 모델에 학습에는 사용되지 않은 실제 환자 점군집을 입력하여 예측되는 좌표이동 값을 이용하여 내부 해부학적 특징점 좌표를 획득하였다.The coordinates of the internal anatomical feature points were obtained using the predicted coordinate shift values by inputting the actual patient point cluster, which was not used for training, into the trained model.

도 10은 본 발명에 따른 내부 점군집을 포함하는 점군집 데이터를 도시한 도면이다. 예측된 단일 좌표는 심층부 정합 정확도를 향상 시킬 수 있는 주요 지표이지만 표면 정합에 사용되는 기존 591개 점군집에 높은 가중치를 두어 강체 변환이 이루어져 정합 정확도 개선에 미치는 효과가 미비하다(591 + 1개 점군집). 따라서 본 발명에서는 예측된 특징점을 중심으로 동심원 형태의 점군집을 생성하여 회전 이동 행렬 계산 가중치를 균등하게 하였다(591 + 121개 점군집).10 is a diagram illustrating point cluster data including an internal point cluster according to the present invention. The predicted single coordinate is a major indicator that can improve the deep-level registration accuracy, but the rigid body transformation is performed with a high weight on the existing 591 point clusters used for surface registration, so the effect on the registration accuracy improvement is insignificant (591 + 1 points) association). Therefore, in the present invention, a point cluster in the form of concentric circles is generated centering on the predicted feature points to equalize the weights for calculating the rotation movement matrix (591 + 121 point clusters).

내부 점군집이 포함된 의료영상 점군집과 환자영상 점군집을 이용한 ICP 정합 정확도는 27개 내부 타겟점에서의 정합 오차(target registration error, TRE)를 계산한 뒤 기존 표면 정합의 타겟 정합 오차와 비교 하였다. The ICP registration accuracy using the medical image point cluster including the internal point cluster and the patient image point cluster is compared with the target registration error of the existing surface registration after calculating the target registration error (TRE) at 27 internal target points. did.

Figure 112022045113417-pat00002
Figure 112022045113417-pat00002

여기서 Target Medical P는 의료영상에서의 내부 타겟점(특징점) 위치Here, Target Medical P is the location of the internal target point (feature point) in the medical image.

Target Patient P 는 카메라 영상에서의 내부 타겟점(특징점) 위치 를 의미한다.Target Patient P means the location of the internal target point (feature point) in the camera image.

도 11 및 표 1에 도시된 바와 같이, 사용된 타겟점은 얼굴 표면을 기준으로 Proximal: [#1, #4, #7, #10, #13, #,16, #19, #22, #25], Middle: [#2, #5, #8, #11, #14, #17, #20, #23, #26], Distal: [#3, #6, #9, #12, #15, #18, 21, #24, #27]의 배치를 가지며, 타겟 정합 오차는 표면 근처에 위치한 proximal 평균 2.502 mm & 1.663 mm, 중간 middle 평균 3.297 mm & 1.935 mm, 가장 심층부에 위치한 distal 평균 4.383 mm & 2.525 mm로 심층부 오차 개선과 함께 모든 병변 위치에서 정합 오차가 개선되는 결과를 보였다.As shown in Fig. 11 and Table 1, the target points used were based on the face surface Proximal: [#1, #4, #7, #10, #13, #,16, #19, #22, # 25], Middle: [#2, #5, #8, #11, #14, #17, #20, #23, #26], Distal: [#3, #6, #9, #12, # 15, #18, 21, #24, #27], and the target registration errors are proximal mean 2.502 mm & 1.663 mm near the surface, middle middle mean 3.297 mm & 1.935 mm, and distal mean 4.383 located at the deepest part. mm & 2.525 mm, with the improvement of the depth error and the improvement of the registration error at all lesion locations.

[표 1] 표면 점군집 정합도 및 표면 점군집+내부 점군집 정합도 비교[Table 1] Comparison of surface point cluster consistency and surface point cluster + internal point cluster consistency

Figure 112022045113417-pat00003
Figure 112022045113417-pat00003

즉, 전체 27개 내부 타겟점의 정합 오차 평균은 본 발명에서 제안된 방법을 적용하였을 때 2.041 mm로 표면 점군집만을 이용한 기존 방법에서의 3.394mm 대비 약 40% 정합 오차 개선되는 것을 알 수 있다. That is, it can be seen that the average registration error of 27 internal target points is 2.041 mm when the method proposed in the present invention is applied, which improves the registration error by about 40% compared to 3.394 mm in the existing method using only surface point clusters.

도 12는 전술한 바와 같은 수술용 내비게이션 시스템의 인공지능 모델의 학습 방법의 흐름을 나타내는 도면이다. 도 12에 도시한 바와 같이 인공지능 모델의 학습 방법은 먼저 단계 S110에서 의료 영상으로부터 의료 영상 점군집과 내부 특징점 데이터를 추출하는 단계를 포함한다. 의료영상 데이터는, 컴퓨터 단층촬영(computed tomography: CT) 장치, 자기공명영상(magnetic resonance imaging, MRI) 장치 및 양전자 단층 촬영(positron emission tomography, PET) 장치 중 어느 하나로부터 촬영되는 의료영상 데이터일 수 있으며, 표면과 내부 기관에 대한 3차원 영상으로 복원되고 복원된 3차원 영상으로부터 의료영상 점군집 데이터와 내부 특징점 데이터가 추출된다.12 is a diagram illustrating a flow of a learning method of an artificial intelligence model of a surgical navigation system as described above. As shown in FIG. 12 , the method of learning an artificial intelligence model includes first extracting a medical image point cluster and internal feature point data from a medical image in step S110. The medical image data may be medical image data taken from any one of a computed tomography (CT) device, a magnetic resonance imaging (MRI) device, and a positron emission tomography (PET) device. In addition, medical image point cluster data and internal feature point data are extracted from the restored 3D image and restored as a 3D image of the surface and internal organs.

이어진 단계 S120에서 의료영상 점군집 데이터의 다운샘플링을 통해 여러 세트의 가상 환자 점군집(591개의 점)가 생성된다.In the subsequent step S120, several sets of virtual patient point clusters (591 points) are generated through downsampling of the medical image point cluster data.

이어진 단계 S130에서는 가상 환자 점군집 데이터가 인공지능 모델 학습을 위해 충분히 생성되었는지 여부를 확인하고 그렇지 않은 경우에는 단계 S120으로 진행되는 한편 충분한 경우 단계 S140으로 진행된다.In the subsequent step S130, it is checked whether the virtual patient point cluster data is sufficiently generated for artificial intelligence model learning.

단계 S140에서는 가상 환자 점군집 데이터와 내부 특징점 데이터 사이의 관계를 인공지능 모델에 학습시켜 인공지능 예측 모델을 생성하고 종료한다.In step S140, the artificial intelligence model is trained on the relationship between the virtual patient point cluster data and the internal feature point data to generate and end the artificial intelligence prediction model.

생성된 인공지능 예측 모델은 내부 특징점 생성부(220)에 투입되고 내부 특징점 생성부(220)를 포함하는 표면 정합장치는 도 13과 같은 정합 동작을 수행하게 된다.The generated artificial intelligence prediction model is input to the internal feature point generator 220 and the surface matching device including the internal feature point generator 220 performs the matching operation as shown in FIG. 13 .

도 13은 학습된 인공지능 예측 모델을 이용한 표면 정합 방법을 나타내는 흐름도이다. 도 13에 도시된 바와 같이 인공지능 예측 모델을 통한 표면 정합 방법은 단계 S210에서 카메라 영상 장치(110) 및 의료 영상 장치(120)로부터 각각의 영상 데이터를 취득하는 단계를 포함한다. 13 is a flowchart illustrating a surface registration method using a learned artificial intelligence prediction model. As shown in FIG. 13 , the surface matching method using the artificial intelligence prediction model includes acquiring respective image data from the camera imaging apparatus 110 and the medical imaging apparatus 120 in step S210 .

카메라 영상 데이터는 환자의 신체 부위 예를 들면 얼굴 표면을 촬영한 영상 데이터이며 본 명세서에서 환자 데이터 또는 환자 영상 데이터로서 언급될 수도 있다. 이어진 단계 S220에서 데이터 추출부(210)는 카메라 영상으로부터 카메라 영상 데이터로부터 카메라 영상(환자 영상) 점군집 데이터 취득하고 의료 영상 데이터로부터 의료 영상 점군집 데이터를 취득한다. CT와 같은 의료 영상 데이터는 환자의 신체 표면과 내부 기관에 대한 3차원 영상으로 복원되고 복원된 3차원 영상으로부터 의료영상 점군집 데이터와 내부 특징점 데이터가 추출된다.The camera image data is image data obtained by photographing a body part of a patient, for example, a face surface, and may be referred to herein as patient data or patient image data. In the subsequent step S220 , the data extractor 210 acquires camera image (patient image) point cluster data from the camera image data from the camera image and medical image point cluster data from the medical image data. Medical image data such as CT is restored as a three-dimensional image of the patient's body surface and internal organs, and medical image point cluster data and internal feature point data are extracted from the restored three-dimensional image.

이어진 단계 S230에서는, 단계 S220에서 획득된 환자 영상 점군집 데이터가 인공지능 예측 모델로 입력되고 인공지능 예측 모델에 의해 내부 특징점이 예측되어 생성된다. In the subsequent step S230, the patient image point cluster data obtained in step S220 is input to the AI prediction model, and internal feature points are predicted and generated by the AI prediction model.

환자 영상 점군집에 대한 내부 특징점이 생성되고 나면 단계 S240에서 표면 정합부(230)는 카메라 영상 점군집과 인공지능 모델에서 예측된 내부 특징 점군집과; 의료영상 점군집과 의료영상 내부 특징 점군집 사이의 정합, 즉 두개의 점군집이 서로 근접하도록 정합 동작을 수행하게 된다.After the internal feature points for the patient image point cluster are generated, in step S240, the surface matching unit 230 includes the camera image point cluster and the internal feature point cluster predicted from the artificial intelligence model; A matching operation is performed between the medical image point cluster and the medical image internal feature point cluster, that is, the two point clusters are close to each other.

정합 동작이 수행된 후 단계 S250에서 표면 정합부는 정합 정확도를 계산하고 계산된 정합 정확도가 미리결정된 기준값을 만족하는지 여부를 판단하고, 기준값 이하인 경우 단계 S240으로 복귀하여 다시 정합 동작을 수행하는 반면 기준치를 만족하는 경우 프로세스를 종료한다.After the registration operation is performed, in step S250, the surface matching unit calculates the registration accuracy and determines whether the calculated registration accuracy satisfies a predetermined reference value. If satisfied, the process is terminated.

본 발명에 따르면, 인공지능 모델을 이용하여 종래의 내비게이션 시스템으로 획득할 수 없는 인체 내부 해부학적 특징점 획득이 가능하고, 인공지능 모델에 필요한 데이터를 자동으로 생성하고 학습하여 사용자 개입 없이 특징점 예측이 수행될 수 있으며, 수 천 개의 가상 환자 점군집과 인체 내부 해부학적 특징점 사이 상대적 위치 관계를 학습하여, 실제 환자 공간 점군집에서 높은 정확도로 내부 해부학적 특징점을 확보할 수 있을 뿐만 아니라, 인체 내부에 위치한 점군집 데이터를 정합 추가 대응점으로 사용함으로써 심층부 병변에서의 정합 오차를 더욱 감소시킬 수 있다.According to the present invention, by using an artificial intelligence model, it is possible to acquire internal anatomical feature points that cannot be obtained with a conventional navigation system, and by automatically generating and learning data necessary for the artificial intelligence model, feature point prediction is performed without user intervention. By learning the relative positional relationship between thousands of virtual patient point clusters and anatomical feature points inside the human body, it is possible to obtain internal anatomical feature points with high accuracy in the real patient space point cluster, as well as By using the point cluster data as an additional matching point, the registration error in deep lesions can be further reduced.

본 발명에 따르면, 인공지능 모델을 이용하여 종래의 내비게이션 시스템으로 획득할 수 없는 인체 내부 해부학적 특징점 획득이 가능하고, 인공지능 모델에 필요한 데이터를 자동으로 생성하고 학습하여 사용자 개입 없이 특징점 예측이 수행될 수 있으며, 수 천 개의 가상 환자 점군집과 인체 내부 해부학적 특징점 사이 상대적 위치 관계를 학습하여, 실제 환자 공간 점군집에서 높은 정확도로 내부 해부학적 특징점을 확보할 수 있을 뿐만 아니라, 인체 내부에 위치한 점군집 데이터를 정합 추가 대응점으로 사용함으로써 심층부 병변에서의 정합 오차를 더욱 감소시킬 수 있다.According to the present invention, by using an artificial intelligence model, it is possible to acquire internal anatomical feature points that cannot be obtained with a conventional navigation system, and by automatically generating and learning data necessary for the artificial intelligence model, feature point prediction is performed without user intervention. By learning the relative positional relationship between thousands of virtual patient point clusters and anatomical feature points inside the human body, it is possible to obtain internal anatomical feature points with high accuracy in the real patient space point cluster, as well as By using the point cluster data as an additional matching point, the registration error in deep lesions can be further reduced.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively)처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. may be embodied in The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속하는 것으로 해석되어야만 한다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result. Therefore, other implementations, other embodiments, and equivalents to the claims should be construed as falling within the scope of the following claims.

100: 수술용 내비게이션 시스템 110: 카메라 영상 장치
120: 의료 영상 장치 130: 표면 정합 장치
210: 데이터 추출부 220: 내부 특징점 생성부
230: 표면 정합부 500: 학습 모듈
100: surgical navigation system 110: camera imaging device
120: medical imaging device 130: surface matching device
210: data extraction unit 220: internal feature point generation unit
230: surface matching unit 500: learning module

Claims (7)

카메라 영상 장치, 의료영상 장치 및 표면 정합 장치를 포함하는 수술용 내비게이션 시스템에서의 표면 정합 개선 방법에 있어서,
의료 영상 장치로부터 검사 대상의 의료 영상 데이터를 취득하는 단계;
카메라 영상 장치로부터 검사대상의 카메라 영상 데이터를 취득하는 단계;
표면 정합 장치를 이용해 의료 영상 데이터로부터 의료 영상 점군집 데이터를 추출하고, 카메라 영상 데이터로부터 카메라 영상 점군집 데이터를 추출하는 단계;
의료 영상 점군집에 기반하여 표면 정합 장치에 이용되는 인공지능 예측 모델을 학습하는 단계;
표면 정합 장치에서, 카메라 영상 점군집 데이터를 학습된 인공지능 예측 모델에 투입하여 카메라 영상에 대한 예측된 인체 내부 특징 점군집을 생성하는 단계; 및
표면 정합 장치에서 의료 영상 점군집에 대한 인체 내부 특징 점군집을 포함하는 의료 영상 점군집과, 예측된 인체 내부 특징 점군집을 포함하는 카메라 영상 점군집을 이용하여 두 점군집이 근접하여 배치되도록 표면 정합을 수행하는 단계;를 포함하는 것을 특징으로 하는
수술용 내비게이션 시스템에서의 표면 정합 개선 방법.
A method for improving surface registration in a surgical navigation system including a camera imaging device, a medical imaging device, and a surface registration device, the method comprising:
acquiring medical image data of an examination subject from a medical imaging apparatus;
acquiring camera image data of an inspection object from a camera imaging device;
extracting medical image point cluster data from the medical image data using a surface matching device, and extracting the camera image point cluster data from the camera image data;
learning an artificial intelligence prediction model used in a surface matching device based on a medical image point cluster;
generating, in the surface matching device, a predicted human body feature point cluster for the camera image by inputting the camera image point cluster data to the learned artificial intelligence prediction model; and
The surface matching device uses a medical image point cluster including the internal body feature point cluster for the medical image point cluster and the camera image point cluster including the predicted body internal feature point cluster so that the two point clusters are placed adjacent to each other. performing matching; characterized in that it comprises
A method for improving surface registration in surgical navigation systems.
제1항에 있어서,
표면 정합 장치에 이용되는 인공지능 예측 모델은,
의료영상으로부터 의료영상 점군집과 인체 내부 특징점 데이터를 추출하는 단계,
의료 영상 점군집 데이터를 다운샘플링하여 가상 환자 점군집 데이터를 생성하는 단계, 및
가상 환자 점군집 데이터와 인체 내부 특징 점군집 사이의 관계를 이용하여 인공지능 예측 모델을 학습하는 단계에 의해 학습되는 것을 특징으로 하는
수술용 내비게이션 시스템에서의 표면 정합 개선 방법.
According to claim 1,
The artificial intelligence prediction model used in the surface matching device is,
extracting the medical image point cluster and human body internal feature point data from the medical image;
downsampling the medical image point cluster data to generate virtual patient point cluster data; and
Characterized in that the learning is performed by the step of learning the artificial intelligence prediction model using the relationship between the virtual patient point cluster data and the human body internal feature point cluster.
A method for improving surface registration in surgical navigation systems.
제1항에 있어서,
상기 의료영상은 컴퓨터 단층촬영(computed tomography: CT) 장치, 자기공명영상(magnetic resonance imaging,MRI) 장치 및 양전자 단층 촬영(positron emission tomography, PET) 장치 중 적어도 하나로부터 촬영되는 영상인 것을 특징으로 하는
수술용 내비게이션 시스템에서의 표면 정합 개선 방법.
According to claim 1,
The medical image is an image taken from at least one of a computed tomography (CT) device, a magnetic resonance imaging (MRI) device, and a positron emission tomography (PET) device
A method for improving surface registration in surgical navigation systems.
제1항에 있어서,
상기 카메라 영상은 3차원 스캐너, 내시경 장치, 광학 카메라, 씨암(C-arm) 장치 및 광간섭단층촬영장치(opticalcoherence tomography)중 적어도 하나로부터 촬영되는 영상인 것을 특징으로 하는
수술용 내비게이션 시스템에서의 표면 정합 개선 방법.
According to claim 1,
The camera image is an image taken from at least one of a three-dimensional scanner, an endoscope device, an optical camera, a C-arm device, and an optical coherence tomography device.
A method for improving surface registration in surgical navigation systems.
제2항에 있어서,
상기 표면 정합 장치에서 상기 표면 정합을 수행하는 단계는 인공지능 모델에서 예측된 인체 내부 특징 점군집을 포함하는 카메라 영상 점군집과; 의료 영상 인체 내부 특징 점군집을 포함하는 의료영상 점군집이 근접하도록 정합을 수행하는 것을 특징으로 하는
수술용 내비게이션 시스템에서의 표면 정합 개선 방법.
3. The method of claim 2,
The performing of the surface registration in the surface matching device may include: a camera image point cluster including a human body internal feature point cluster predicted by an artificial intelligence model; Medical image comprising the internal feature point cluster of a medical image, characterized in that the registration is performed so that the point clusters are close to each other
A method for improving surface registration in surgical navigation systems.
제2항에 있어서,
상기 표면 정합 장치에서 상기 의료 영상 점군집 데이터 다운샘플링은 의료 영상 점군집을 카메라 영상 점군집 수준으로 축소하는 단계를 포함하는 것을 특징으로 하는
수술용 내비게이션 시스템에서의 표면 정합 개선 방법.
3. The method of claim 2,
In the surface matching device, the downsampling of the medical image point cluster data comprises reducing the medical image point cluster to the level of the camera image point cluster.
A method for improving surface registration in surgical navigation systems.
제2항에 있어서,
상기 인체 내부 특징점 데이터는 의료 영상으로부터 육안으로 구분 가능한 인체 내부 해부학적 지표로 구성되는 것을 특징으로 하는
수술용 내비게이션 시스템에서의 표면 정합 개선 방법.
3. The method of claim 2,
The human body internal feature point data is characterized in that it consists of an internal anatomical index of the human body that can be distinguished from the medical image with the naked eye.
A method for improving surface registration in surgical navigation systems.
KR1020220051880A 2022-04-27 2022-04-27 Methods for improving surface registration in surgical navigation systems KR102442093B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220051880A KR102442093B1 (en) 2022-04-27 2022-04-27 Methods for improving surface registration in surgical navigation systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220051880A KR102442093B1 (en) 2022-04-27 2022-04-27 Methods for improving surface registration in surgical navigation systems

Publications (1)

Publication Number Publication Date
KR102442093B1 true KR102442093B1 (en) 2022-09-13

Family

ID=83286810

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220051880A KR102442093B1 (en) 2022-04-27 2022-04-27 Methods for improving surface registration in surgical navigation systems

Country Status (1)

Country Link
KR (1) KR102442093B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102592314B1 (en) * 2023-04-13 2023-10-23 주식회사 비엠이코리아 Registration method using ellipsoid fitting usable for surgical navigation system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170012077A (en) 2015-07-23 2017-02-02 바이오센스 웹스터 (이스라엘) 리미티드 Surface registration of a ct image with a magnetic tracking system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170012077A (en) 2015-07-23 2017-02-02 바이오센스 웹스터 (이스라엘) 리미티드 Surface registration of a ct image with a magnetic tracking system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
박현준 외 4인, 뉴로내비게이션 시스템 표면정합에 대한 병변 정합 오차의 회전적 특정 분석: 팬텀 연구(2016) 1부. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102592314B1 (en) * 2023-04-13 2023-10-23 주식회사 비엠이코리아 Registration method using ellipsoid fitting usable for surgical navigation system

Similar Documents

Publication Publication Date Title
US11741605B2 (en) Method and system for image registration using an intelligent artificial agent
KR102442090B1 (en) Point registration method in surgical navigation system
KR102458324B1 (en) Data processing method using a learning model
JP5832938B2 (en) Image processing apparatus, method, and program
EP3888050A1 (en) Apparatus for identifying regions in a brain image
CN114792326A (en) Surgical navigation point cloud segmentation and registration method based on structured light
KR102442093B1 (en) Methods for improving surface registration in surgical navigation systems
US11682187B2 (en) Method and apparatus to classify structures in an image
KR102103281B1 (en) Ai based assistance diagnosis system for diagnosing cerebrovascular disease
KR102545906B1 (en) Data processing method using a learning model
US11837352B2 (en) Body representations
WO2021052552A1 (en) Training a machine learning algorithm using digitally reconstructed radiographs
US11508070B2 (en) Method and apparatus to classify structures in an image
US20210342655A1 (en) Method And Apparatus To Classify Structures In An Image
JP7486485B2 (en) Apparatus for identifying regions in brain images
EP3794550B1 (en) Comparison of a region of interest along a time series of images
Lankton Localized statistical models in computer vision
Kanakatte et al. Cardiac Landmark Detection using Generative Adversarial Networks from Cardiac MR Images
García Tahoces et al. Deep learning method for aortic root detection
KR20230037195A (en) Medical image classification method through image analysis based on machine learning model
CN116824173A (en) Medical image processing method, medical image processing device and storage medium
KR20220086937A (en) 3D morphological or anatomical landmark detection method and apparatus by multi-stage deep reinforcement learning
CN115424720A (en) Tubular structure fracture completion method and device and computer equipment
CN114140487A (en) Brain image segmentation method and device
CN113971683A (en) System and method for estimating motion of an object using a generic deformation model of anatomical tissue

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant