KR20230089889A - Medical image matching device for enhancing augment reality precision of endoscope and reducing deep target error and method of the same - Google Patents

Medical image matching device for enhancing augment reality precision of endoscope and reducing deep target error and method of the same Download PDF

Info

Publication number
KR20230089889A
KR20230089889A KR1020210178639A KR20210178639A KR20230089889A KR 20230089889 A KR20230089889 A KR 20230089889A KR 1020210178639 A KR1020210178639 A KR 1020210178639A KR 20210178639 A KR20210178639 A KR 20210178639A KR 20230089889 A KR20230089889 A KR 20230089889A
Authority
KR
South Korea
Prior art keywords
matching
image data
medical image
artificial intelligence
patient
Prior art date
Application number
KR1020210178639A
Other languages
Korean (ko)
Other versions
KR102644469B1 (en
Inventor
최안렬
Original Assignee
가톨릭관동대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭관동대학교산학협력단 filed Critical 가톨릭관동대학교산학협력단
Priority to KR1020210178639A priority Critical patent/KR102644469B1/en
Publication of KR20230089889A publication Critical patent/KR20230089889A/en
Application granted granted Critical
Publication of KR102644469B1 publication Critical patent/KR102644469B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

To enhance the augmented reality precision of endoscopy and reducing deep target lesion error, a medical image matching device according to an embodiment of the present invention comprises: an input part for receiving the image data of a patient space and medical image data; an artificial intelligence model storage part for storing an artificial intelligence model for estimating the rotation and translation transformation matrix values for precise matching based on the image data of the patient space and the medical image data; a matching part for precisely matching the image data of the patient space and the medical image data; and an output part for outputting the matching result of the image data of the patient space and the medical image data, wherein the matching part may include: a first matching part for generating a first matching coordinate point by roughly matching the image data of the patient space and the medical image data, a second matching part for generating a second matching coordinate point by matching the first matching coordinate point and a surface coordinate point of the medical image data; and a third matching part for performing precise matching based on the rotation and translation transformation matrix values estimated using the second matching coordinate point as an input into the artificial intelligence model.

Description

내시경 증강현실 정밀도 향상 및 심부 병변 오차 감소를 위한 의료 영상 정합 장치 및 그 방법{MEDICAL IMAGE MATCHING DEVICE FOR ENHANCING AUGMENT REALITY PRECISION OF ENDOSCOPE AND REDUCING DEEP TARGET ERROR AND METHOD OF THE SAME}Medical image matching device and method for enhancing endoscopic augmented reality precision and reducing error in deep lesions

본 발명은 의료 영상 정합 장치에 관한 것으로, 상세하게는 내시경의 증강 현실의 정밀도를 향상시키고 심부 병변 오차를 최소화하여 의료 영상 데이터의 데이터와 환자 공간의 데이터를 정밀 정합을 할 수 있는 의료 영상 정합 장치 및 그 방법에 관한 것이다. The present invention relates to a medical image matching device, and more particularly, to a medical image matching device capable of precisely matching medical image data and patient space data by improving the precision of augmented reality of an endoscope and minimizing errors in deep lesions. and its method.

더욱 상세하게는, 본 발명은 인공 신경망을 이용하여 환자 공간의 데이터 및 팬텀의 병변 위치 정보를 기반으로 회전 및 병진 변환 행렬값을 추정하고여, 의료 영상 데이터의 데이터와 환자 공간의 데이터를 정밀 정합을 할 수 있는 의료 영상 정합 장치 및 그 방법에 관한 것이다. More specifically, the present invention uses an artificial neural network to estimate rotational and translational transformation matrix values based on patient space data and phantom lesion position information, and precisely match medical image data data and patient space data. It relates to a medical image matching device capable of performing and a method therefor.

영상 유도 수술 시스템은 수술 도구의 3차원 위치를 수술 전 촬영한 환자의 의료 영상에 가시화하여 병변 및 주변의 위치를 실시간으로 제공하는 의료 시스템이다. An image-guided surgical system is a medical system that visualizes the three-dimensional position of a surgical instrument on a pre-surgery medical image of a patient and provides the position of a lesion and its surroundings in real time.

영상 유도 수술 시스템은 수술 전 환자의 의료 영상을 획득하고, 수술 중 공간 정합을 수행한 후, 수술 도구의 좌표 변환을 통한 가상의 수술 도구를 의료 영상 내에 겹쳐서 표시한다. 여기서, 공간 정합은 수술 전 촬영한 의료 영상의 좌표와 수술 중 획득한 환자 공간 좌표를 동일한 공간으로 정렬시키는 과정을 의미한다. 두 좌표의 정합이 정확하게 수행되지 않으면 실제 수술도구의 위치와 가상의 수술도구의 위치간 이격이 발생할 수 있다. 따라서 준비된 의료 영상과 환자 공간의 영상을 정확하게 정합하는 기술이 필요하다.The image-guided surgical system acquires a medical image of a patient before surgery, performs spatial registration during surgery, and displays a virtual surgical tool overlaid on the medical image through coordinate conversion of the surgical tool. Here, spatial matching refers to a process of aligning the coordinates of a medical image taken before an operation with the coordinates of a patient's space obtained during an operation in the same space. If the two coordinates are not accurately matched, a gap may occur between the position of the actual surgical tool and the position of the virtual surgical tool. Therefore, a technique for accurately matching the prepared medical image and the image of the patient's space is required.

한편, 이와 같은 공간 정합은 점 정합과 표면 정합으로 구분된다. 먼저, 점 정합은 의료 영상 및 환자 공간에서 하나의 직선 위에 존재하지 않는 최소 3개의 표식자 마커 좌표를 획득한다. 또한, 각 의료 영상 및 환자 공간의 지역 좌표계를 기초로하여 두 공간의 정렬이 일치될 수 있도록 좌표계간 회전과 선형 변환을 수행한다. Meanwhile, such spatial matching is divided into point matching and surface matching. First, point matching acquires coordinates of at least three marker markers that do not exist on a single straight line in the space of a medical image and a patient. In addition, rotation and linear transformation are performed between coordinate systems so that the alignment of the two spaces can be matched based on the local coordinate system of each medical image and patient space.

따라서, 점 정합을 수행하기 위해서는 미리 환자 얼굴에 표식자 마커를 부착해야 하며, 추가적으로 CT(computed tomography) 촬영을 해야하는 번거로움이 발생한다. 또한, 환자 얼굴에 부착된 표식자 마커에 의해 신체의 국부가 부어오르는 종착이 발생할 가능성이 높으며, 이로 인해 표식자 마커가 움직일 경우 정확도가 저하된다는 한계가 존재한다.Therefore, in order to perform point matching, a marker marker must be attached to the patient's face in advance, and additionally, computed tomography (CT) imaging is required. In addition, there is a high possibility of swelling of the body part due to the marker marker attached to the patient's face, and due to this, there is a limitation that accuracy is lowered when the marker marker moves.

한편, 도1은 종래의 표면 정합을 설명하기 위한 도면이다. On the other hand, Figure 1 is a view for explaining the conventional surface matching.

도 1에 도시된 바와 같이 환자(P)의 표면에 대한 정보는 프로브(10)를 통해 획득될 수 있다.As shown in FIG. 1 , information on the surface of the patient P may be acquired through the probe 10 .

일 예로, 집도의는 프로브(10)가 환자(P)의 신체에 인접한 상태에서 프로브(10)를 천천히 이동시키게 되며, 수술용 내비게이션 장치는 환자(P)의 표면에 대한 정보를 반영하는 프로브 좌표 데이터(C)들을 획득하게 된다.For example, the surgeon moves the probe 10 slowly while the probe 10 is adjacent to the body of the patient P, and the surgical navigation device provides probe coordinate data reflecting information on the surface of the patient P (C) will be obtained.

그리고, 수술용 내비게이션 장치는 획득한 프로브 좌표 데이터(C)들을 회전 또는 이동시켜 기 촬영한 환자(P)의 의료 영상으로부터 획득한 표면 좌표 데이터들과 정합하고 정합한 결과물을 단일의 공간에 위치시키게 된다.In addition, the surgical navigation device rotates or moves the acquired probe coordinate data (C) to match the surface coordinate data obtained from the previously photographed medical image of the patient (P) and to position the matched result in a single space do.

한편, 표면 좌표 데이터들은 의료영상 장비를 통해 획득한 고해상도의 영상 정보를 기반으로 하기 때문에 수천에서 수십만개의 좌표 데이터로 구성될 수 있다.Meanwhile, since the surface coordinate data is based on high-resolution image information acquired through medical imaging equipment, it may consist of thousands to hundreds of thousands of coordinate data.

따라서, 표면 정합은 환자 공간과 의료 영상간 지정된 표식자 마커 없이 각 공간의 좌표 군집으로 변환 행렬을 찾아낸다. 또한, 표면 정합은 추가적인 CT 촬영을 진행하지 않으며 임상의의 편의성이 있다.Therefore, surface matching finds a transformation matrix as a set of coordinates in each space without a designated marker marker between the patient space and the medical image. In addition, surface matching does not require an additional CT scan and is convenient for clinicians.

그러나, 표면 정합은 환자 공간 좌표 군집을 획득하는 지역인 얼굴 표면에서 환부가 멀어지면서 증가되는 병변 오차 문제가 발생된다. 일 예로, 얼굴 표면에서 약간의 회전 오차가 발생한 경우, 얼굴 표면에서 멀리 떨어진 심부 병변 측에서는 증폭된다. 즉, 표면 정합은 얼굴 표면의 좌표만으로 정합을 수행하기 때문에 심부 병변 측에서 오차가 발생하여 타 병변으로 오인될 수 있다는 한계가 있다.However, surface matching causes a problem of increased lesion error as the affected area moves away from the facial surface, which is an area where a patient spatial coordinate cluster is acquired. For example, when a slight rotation error occurs on the face surface, it is amplified on the side of the deep lesion far from the face surface. That is, since surface matching is performed only with the coordinates of the face surface, there is a limit in that an error may occur on the side of a deep lesion and may be mistaken for another lesion.

본 발명이 이루고자 하는 기술적 과제는 본 발명은 의료 영상 정합 장치에 관한 것으로, 더욱 상세하게는 환자 공간의 데이터 및 팬텀의 병변 위치 정보를 기반으로 회전 및 병진 변환 행렬값을 추정하고, 심부 병변 오차를 최소화하여 의료 영상 데이터의 데이터와 환자 공간의 데이터를 정밀 정합을 할 수 있는 의료 영상 정합 장치를 제공하는 것이다. A technical problem to be achieved by the present invention relates to a medical image matching device, and more particularly, to estimate rotational and translational transformation matrix values based on patient space data and lesion position information of a phantom, and deep lesion errors. An object of the present invention is to provide a medical image matching device capable of precisely matching data of medical image data and data of a patient's space by minimizing the size.

본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problem to be achieved by the present invention is not limited to the above-mentioned technical problem, and other technical problems not mentioned can be clearly understood by those skilled in the art from the description below. There will be.

상기 기술적 과제를 달성하기 위하여, 본 발명의 일 실시예에 따른 내시경 증강현실 정밀도 향상 및 심부 병변 오차 감소를 위하여 환자 공간의 영상 데이터와 의료 영상 데이터를 정밀 정합하는 의료 영상 정합 장치에 있어서, 상기 환자 공간의 영상 데이터와 상기 의료 영상 데이터를 수신하는 입력부, 상기 환자 공간의 영상 데이터와 상기 의료 영상 데이터를 기반으로 정밀 정합을 위한 회전 및 병진 변환 행렬 값을 추정하는 인공 지능 모델이 저장된 인공 지능 모델 저장부, 상기 환자 공간의 영상 데이터와 상기 의료 영상 데이터를 정밀 정합하는 정합부 및 상기 환자 공간의 영상 데이터와 상기 의료 영상 데이터의 정합 결과물을 출력하는 출력부를 포함할 수 있다. In order to achieve the above technical problem, in the medical image matching device for precisely matching image data of a patient space and medical image data in order to improve precision of endoscopic augmented reality and reduce errors in deep lesions according to an embodiment of the present invention, the patient An input unit for receiving spatial image data and the medical image data, and an artificial intelligence model storing an artificial intelligence model for estimating rotational and translational transformation matrix values for precise matching based on the image data of the patient's space and the medical image data. It may include a matching unit that precisely matches the patient space image data and the medical image data, and an output unit that outputs a matching result of the patient space image data and the medical image data.

또한, 상기 정합부는 상기 환자 공간의 영상 데이터와 상기 의료 영상 데이터를 개략적으로 정합하여 제1정합 좌표점을 생성하는 제1정합부, 상기 제1정합 좌표점과 상기 의료 영상 데이터의 표면 좌표점을 정합하여 제2 정합 좌표점을 생성하는 제2정합부 및 상기 제2정합 좌표점을 상기 인공 지능 모델의 입력으로 하여 추정된 상기 회전 및 병진 변환 행렬값을 기반으로 정밀 정합하는 제3정합부를 포함할 수 있다. In addition, the matching unit generates a first matching coordinate point by roughly matching the image data of the patient space and the medical image data, and the first matching coordinate point and the surface coordinate point of the medical image data. A second matching unit generating a second matching coordinate point by matching and a third matching unit performing precise matching based on the rotation and translation matrix values estimated by using the second matching coordinate point as an input of the artificial intelligence model can do.

상기 인공 지능 모델의 입력 정보 특징점은 상기 환자 공간의 얼굴 표면 좌표점과 상기 환자 공간의 얼굴 표면 좌표점에 대응되는 상기 의료 영상 데이터의 표면 좌표점을 포함하며, 6개의 차원(dimension)으로 설정될 수 있다. The input information feature points of the artificial intelligence model include face surface coordinate points in the patient space and surface coordinate points of the medical image data corresponding to the face surface coordinate points in the patient space, and are set in six dimensions. can

상기 인공 지능 모델은 팬텀의 병변 위치 좌표점를 기반으로한 데이터 세트를 더 확보하여 인공 지능 모델의 입력 특징점을 설정하고, 상기 병변 위치 좌표점을 기반으로한 인공 지능 모델의 입력 특징점은 가상의 병변 구조물에 임의로 지정한 병변 후보군의 위치 좌표점과 상기 병변 구조물을 촬영한 영상 데이터에서 상기 병변 후보군의 위치 정보와 대응되는 위치 좌표점을 포함하며, 6개의 차원(dimension)으로 설정될 수 있다. The artificial intelligence model further secures a data set based on the coordinates of the lesion location of the phantom to set input feature points of the artificial intelligence model, and the input feature points of the artificial intelligence model based on the coordinates of the lesion location are the virtual lesion structures. It includes the location coordinate points of the lesion candidate group arbitrarily designated in , and the location coordinate point corresponding to the location information of the lesion candidate group in the image data obtained by photographing the lesion structure, and can be set in six dimensions.

상기 인공 지능 모델은 Bi-LSTM(Bidirectional LSTM) 아키텍처를 포함하며, 회귀 레이어 (Regression layer)를 이용하여 회전 및 병진 변환 행렬을 3X3 차원인 회전 변환 행렬과 3X1차원인 병진 변환 행렬로 출력할 수 있다. The artificial intelligence model includes a Bi-LSTM (Bidirectional LSTM) architecture, and a rotation and translation matrix can be output as a 3X3-dimensional rotation matrix and a 3X1-dimensional translation matrix using a regression layer. .

상기 제2정합부, 상기 인공 지능 모델 및 상기 제3정합부는 ICP(iterative closest point) 알고리즘을 이용하여 정합할 수 있다. The second matching unit, the artificial intelligence model, and the third matching unit may be matched using an iterative closest point (ICP) algorithm.

또한, 본 발명의 일 실시예에 따른 내시경 증강현실 정밀도 향상 및 심부 병변 오차 감소를 위하여 환자 공간의 영상 데이터와 의료 영상 데이터를 정밀 정합 하는 의료 영상 정밀 정합 방법에 있어서, a) 상기 환자 공간의 영상 데이터와 상기 의료 영상 데이터를 획득하는 단계, b) 상기 환자 공간의 영상 데이터와 상기 의료 영상 데이터로부터 개략적으로 좌표점을 추출하여 정합하고, 개략적인 회전 및 병진 변환 행렬을 추출하는 단계, c) 상기 개략적으로 정합된 좌표점과 상기 환자 공간의 영상 데이터로부터 추출된 얼굴 표면 좌표점을 추출된 상기 개략적인 회전 및 병진 변환 행렬을 이용하여 제1정합하고 제1정합 좌표점을 생성하는 단계, d) 상기 제1정합 데이터를 증강시키고, 증강된 제 1정합 좌표점을 상기 의료 영상 데이터로부터 추출된 표면 좌표점과 정합하여 제2정합 좌표점을 생성하는 단계 및 e) 상기 제2정합 좌표점을 상기 인공 지능 모델의 입력으로 하여 추정된 상기 회전 및 병진 변환 행렬값을 기반으로 정밀 정합하는 단계를 포함할 수 있다. In addition, in the medical image precision matching method for precisely matching patient space image data and medical image data in order to improve endoscopic augmented reality precision and reduce deep lesion errors according to an embodiment of the present invention, a) the image of the patient space Acquiring data and the medical image data; b) roughly extracting and matching coordinate points from the patient space image data and the medical image data, and extracting a rough rotation and translation matrix; c) First matching the roughly matched coordinate points and facial surface coordinate points extracted from the image data of the patient space using the extracted coarse rotation and translation matrix, and generating a first matching coordinate point, d) generating a second matching coordinate point by augmenting the first matching data and matching the augmented first matching coordinate point with a surface coordinate point extracted from the medical image data; and and performing precise matching based on the rotation and translation matrix values estimated as inputs of the artificial intelligence model.

상기 d) 단계 및 상기e) 단계는 ICP(iterative closest point) 알고리즘을 이용하여 정합할 수 있다. Step d) and step e) may be matched using an iterative closest point (ICP) algorithm.

상기 d) 단계는 1회의 증강 시마다 상기 제1정합 좌표점을 5% 증강시키며, 상기 증강을 복수회 실시할 수 있다. In the step d), the first matching coordinate point is augmented by 5% for each augmentation, and the augmentation may be performed a plurality of times.

상기 d) 단계는 상기 1회의 증강이 끝날 때마다 표면 정합 오차를 분석하는 단계를 포함하며, 상기 표면 정합 오차 분석값이 기 설정된 종료 조건을 만족할 때 증강을 중단할 수 있다. The step d) includes analyzing a surface matching error every time the one-time augmentation is finished, and the augmentation may be stopped when the surface matching error analysis value satisfies a preset end condition.

본 발명의 실시예에 따르면, 환자 공간의 영상 데이터와 의료 영상 데이터를 인공 지능 모델을 기반으로 추출된 회전 및 병진 변환 행렬을 이용하여 정합을 진행하기 때문에, 표면 정합 시 발생하는 심부 병변 오차를 최소화할 수 있다. According to an embodiment of the present invention, since the image data of the patient space and the medical image data are matched using a rotation and translation matrix extracted based on an artificial intelligence model, errors in deep lesions occurring during surface matching are minimized. can do.

또한, 본 발명의 실시예에 따르면, 환자 공간의 영상 데이터와 의료 영상 데이터로부터 대략적으로 좌표점을 추출하여 코스 정합을 먼저 수행함으로써 정합 정확도를 향상시킬 수 있다. In addition, according to an embodiment of the present invention, matching accuracy may be improved by first performing course matching by roughly extracting coordinate points from image data of the patient space and medical image data.

또한, 본 발명의 실시예에 따르면, 가상의 병변 구조물의 병변 위치 좌표점을 포함한 데이터 세트를 확보하고, 이를 기반으로 인공 지능 모델 입력 정보의 특징점을 설정하여 학습을 수행하므로, 얼굴 표면에서 멀리 떨어진 심부 병변 측에서도 최적화된 회전 및 병진 변환 행렬을 추정할 수 있다. In addition, according to an embodiment of the present invention, since a data set including coordinate points of the lesion location of a virtual lesion structure is obtained, and learning is performed by setting feature points of artificial intelligence model input information based on this, learning is performed by Optimized rotational and translational transformation matrices can also be estimated on the deep lesion side.

또한, 본 발명의 실시예에 따르면, 사용자는 심부 병변 측의 오차가 최소화된 의료 영상 데이터와 환자 공간의 영상 데이터 정합 결과물을 인지할 수 있다. 이로써, 사용자는 정확하게 심부 병변을 파악할 수 있으며, 효율적으로 심부 병변의 수술을 진행할 수 있다. In addition, according to an embodiment of the present invention, the user can recognize a result of matching medical image data and patient space image data in which an error on the side of a deep lesion is minimized. As a result, the user can accurately grasp the deep lesion and can efficiently perform surgery on the deep lesion.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the above effects, and should be understood to include all effects that can be inferred from the detailed description of the present invention or the configuration of the invention described in the claims.

도1은 종래의 표면 정합을 설명하기 위한 도면이다.
도2는 본 발명의 실시예에 따른 의료 영상 정합 장치를 도시하는 도면이다.
도3은 본 발명의 실시예에 따른 의료 영상 데이터의 표면 데이터와 환자 공간의 얼굴 표면 데이터를 정합하는 방법을 도시하는 도면이다.
도4는 본 발명의 실시예에 따른 의료 영상 정합 장치가 제1정합 및 제2정합을 진행하는 방법을 구체적으로 도시하는 도면이다.
도5는 본 발명의 실시예에 따른 인공 지능 모델을 구축하는 방법을 도시하는 도면이다.
도6은 본 발명의 실시예에 따른 인공 지능 모델의 학습을 위한 입력 정보를 도시하는 도면이다.
도7은 본 발명의 실시예에 따른 인공 지능 모델의 Bi-LSTM 아키텍처를 도시하는 도면이다.
1 is a diagram for explaining conventional surface matching.
2 is a diagram illustrating a medical image matching device according to an embodiment of the present invention.
3 is a diagram illustrating a method of matching surface data of medical image data with face surface data of a patient's space according to an embodiment of the present invention.
4 is a diagram specifically illustrating a method of performing first and second registration by a medical image registration apparatus according to an embodiment of the present invention.
5 is a diagram illustrating a method of building an artificial intelligence model according to an embodiment of the present invention.
6 is a diagram illustrating input information for learning an artificial intelligence model according to an embodiment of the present invention.
7 is a diagram showing the Bi-LSTM architecture of an artificial intelligence model according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and, therefore, is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is said to be "connected (connected, contacted, combined)" with another part, this is not only "directly connected", but also "indirectly connected" with another member in between. "Including cases where In addition, when a part "includes" a certain component, it means that it may further include other components without excluding other components unless otherwise stated.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도2는 본 발명의 실시예에 따른 의료 영상 정합 장치를 도시하는 도면이다. 2 is a diagram illustrating a medical image matching device according to an embodiment of the present invention.

도2에 도시된 바와 같이, 본 발명의 실시예에 따른 의료 영상 정합 장치(100)는 입력부(110), 좌표점 생성부(120), 증강부(130), 인공 지능 모델 저장부(140), 정합부(150) 및 출력부(160)를 포함할 수 있다. As shown in FIG. 2, the medical image matching device 100 according to an embodiment of the present invention includes an input unit 110, a coordinate point generation unit 120, an augmentation unit 130, and an artificial intelligence model storage unit 140. , may include a matching unit 150 and an output unit 160.

먼저, 입력부(110)는 환자 공간의 영상 데이터와 의료 영상 데이터를 수신한다. 환자 공간은 환자가 위치한 공간이며, 수술 시 환자 공간으로부터 획득될 수 있다. 또한, 환자 공간의 영상 데이터와 의료 영상 데이터는 3차원 형태일 수 있다. First, the input unit 110 receives image data of a patient's space and medical image data. The patient space is a space in which a patient is located, and may be obtained from the patient space during surgery. Also, the image data of the patient's space and the medical image data may be in a 3D form.

일 예로, 입력부(110)는 프로브(미도시)를 포함할 수 있다. 프로브는 환자 공간의 영상 데이터를 획득할 수 있다. 프로브는 막대 형상의 의료도구일 수 있으며, 단부가 환자의 신체 표면과 접촉되거나 인접하게 배치된 상태로 사용될 수 있다. 프로브는 환자의 신체 표면을 따라 이동하며 환자 공간의 신체 표면에 대한 영상데이터를 획득한다. 프로브는 환자의 신체를 향한 일측에 배치되는 센서를 포함할 수 있다. 센서는 광학식 센서일 수 있다. For example, the input unit 110 may include a probe (not shown). The probe may acquire image data of the patient's space. The probe may be a rod-shaped medical tool, and may be used with an end disposed in contact with or adjacent to a patient's body surface. The probe moves along the patient's body surface and acquires image data of the body surface in the patient's space. The probe may include a sensor disposed on one side facing the patient's body. The sensor may be an optical sensor.

한편, 의료 영상 데이터는 수술 전에 획득된 환자의 영상으로 CT, MRI 또는 초음파 등을 통해 촬영된 것일 수 있다. Meanwhile, the medical image data is an image of a patient acquired before surgery and may be captured through CT, MRI, or ultrasound.

또한, 좌표점 생성부(121)는 제1좌표점 생성부(121) 및 제2좌표점 생성부(122)를 포함할 수 있다. Also, the coordinate point generator 121 may include a first coordinate point generator 121 and a second coordinate point generator 122 .

제1좌표점 생성부(121)는 의료 영상 데이터로부터 표면 좌표점 세트를 획득할 수 있다. 또한, 제1좌표점 생성부(121)는 획득한 표면 좌표점 세트를 기초로 하여 코스 정합(Coarse matching)을 위한 기준 좌표점인 제1좌표점 생성을 할 수 있다. 여기서, 제1좌표점은 대략적인 정합을 위하여 추출된 의료 영상 데이터의 표면 좌표점이다. The first coordinate point generation unit 121 may obtain a set of surface coordinate points from medical image data. Also, the first coordinate point generation unit 121 may generate a first coordinate point, which is a reference coordinate point for coarse matching, based on the acquired surface coordinate point set. Here, the first coordinate point is a surface coordinate point of medical image data extracted for approximate matching.

제2좌표점 생성부(122)는 프로브로부터 입력된 환자의 신체 표면에 대한 좌표점을 획득하여 코스 정합을 위한 기준 좌표점인 제2좌표점을 생성할 수 있다. 여기서, 제2좌표점은 프로브가 환자 얼굴의 표면을 접촉할 시, 획득된 환자 얼굴 표면 좌표점을 포함할 수 있다. 일 예로, 제2좌표점은 프로브가 환자의 이마, 코끝, 눈끝 및 이마 등을 접촉할 시 환자 공간의 얼굴 표면 좌표점을 포함할 수 있다. The second coordinate point generation unit 122 may obtain the coordinate points of the patient's body surface input from the probe and generate second coordinate points that are reference coordinate points for course matching. Here, the second coordinate point may include a coordinate point obtained when the probe contacts the surface of the patient's face. For example, the second coordinate point may include a face surface coordinate point in the patient's space when the probe contacts the forehead, nose tip, eye tip, and forehead of the patient.

증강부(130)는 제1정합된 표면 좌표점을 증강시킨다. 후술하겠지만, 증강부(130)는 보간법을 이용하여 제1정합 좌표점을 증강시킬 수 있다. 여기서, 제1정합 좌표점을 증강시킨다는 것은 제1 정합 좌표점을들의 수를 증가시키는 것으로 이해될 수 있다. 구체적으로, 증강부(130)는 구간적 3차 에르미트 보간 다항식(Piecewise Cubic Hermite Interpolating Polynomial)을 이용하여 제1정합 좌표점을 증강시킬 수 있다. 구간적 3차 에르미트 보간 다항식은 각 점들의 값과 1차 미분값을 대응시켜 보간하는 특징을 가진다. 구간적 3차 에르미트 보간 다항식은 다음의 [수학식 1]으로 설명될 수 있다.The augmentation unit 130 augments the first matched surface coordinate points. As will be described later, the augmentation unit 130 may augment the first matching coordinate point using an interpolation method. Here, augmenting the first matching coordinate points may be understood as increasing the number of first matching coordinate points. Specifically, the augmentation unit 130 may augment the first matching coordinate point using a piecewise cubic Hermite interpolating polynomial. The piecewise cubic Hermitian interpolation polynomial has a feature of interpolating by matching the value of each point with the first derivative. The piecewise cubic Hermitian interpolation polynomial can be described by the following [Equation 1].

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

[수학식 2][Equation 2]

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

구간적 3차 에르미트 보간법은 k번째 데이터를

Figure pat00005
, 데이터 값을
Figure pat00006
, 기울기 값을
Figure pat00007
, k번째 데이터의 구간을
Figure pat00008
,
Figure pat00009
라 하고,
Figure pat00010
의 범위에서 [수학식 2]를 만족하는 [수학식 1]의 3차 다항식
Figure pat00011
를 계산하는 것을 의미한다.The piecewise cubic Hermite interpolation method takes the kth data
Figure pat00005
, the data value
Figure pat00006
, the slope value
Figure pat00007
, the interval of the kth data
Figure pat00008
,
Figure pat00009
say,
Figure pat00010
A cubic polynomial of [Equation 1] that satisfies [Equation 2] in the range of
Figure pat00011
means to calculate

구간적 3차 에르미트 보간법을 이용하여 좌표점을 증강시키면, 데이터가 과도하게 상승하는 오버슈트(overshoot) 현상이 방지될 수 있다. 따라서 신체 표면의 평탄 영역을 정확하게 연결할 수 있다.If coordinate points are augmented using piecewise cubic Hermitian interpolation, an overshoot phenomenon in which data rises excessively can be prevented. Therefore, it is possible to precisely connect the flat areas of the body surface.

또한, 증강부(130)는 제1정합 좌표점을 5%씩 증강시킬 수 있다. 제1정합 좌표점을 5% 증강시키는 과정을 1회의 스텝으로 가정하면, 증강부(130)는 1회 이상의 스텝을 반복 실시할 수 있다. 증강부(130)는 제한된 시간 내에서 획득된 제1정합 좌표점의 좌표점 수를 증강시키므로 정합 정확도를 높일 수 있다. Also, the augmentation unit 130 may augment the first matching coordinate points by 5%. Assuming that the process of augmenting the first registration coordinate point by 5% is one step, the augmentation unit 130 may repeat one or more steps. The augmentation unit 130 augments the number of coordinate points of the first matching coordinate points acquired within a limited period of time, thereby increasing matching accuracy.

인공 지능 모델 저장부(140)는 의료 영상 데이터 및 환자 공간의 영상 데이터를 수신할 수 있으며, 수신한 의료 영상 데이터 및 환자 공간의 영상 데이터를 이용하여 회전 및 병진 변환 행렬 값을 추정할 수 있다. The artificial intelligence model storage unit 140 may receive medical image data and patient space image data, and estimate rotation and translation matrix values using the received medical image data and patient space image data.

구체적으로, 인공 지능 모델 저장부(140)에 인공 지능 모델을 저장할 수 있으며, 인공 지능 모델은 의료 영상 데이터 및 환자 공간의 영상 데이터를 입력으로 하여 정밀 정합을 위한 회전 및 병진 변환 행렬 값을 추정할 수 있다. 인공 지능 모델은 특징적인 값을 시간에 따라 스스로 학습하고 상호 연관성이 있는 시계열 데이터에 따라 예측하는 인공 지능 모델 LSTM(Long Short Term Memory)로 구현될 수 있다. 또한, 인공 지능 모델은 정확도를 향상시키기 위하여 LSTM을 순방향뿐만 아니라 역방향의 결과까지 함께 이용하는 Bi-LSTM(Bidirectional LSTM)를 포함할 수 있다. Specifically, an artificial intelligence model may be stored in the artificial intelligence model storage unit 140, and the artificial intelligence model may estimate rotation and translation matrix values for precision matching by taking medical image data and patient space image data as inputs. can The artificial intelligence model can be implemented as an artificial intelligence model LSTM (Long Short Term Memory) that learns characteristic values by itself over time and predicts them according to correlated time-series data. In addition, the artificial intelligence model may include Bidirectional LSTM (Bi-LSTM), which uses LSTM together with forward as well as backward results in order to improve accuracy.

한편, 정합부(150)는 제1정합부(151), 제2정합부(152) 및 제3정합부(153)을 포함할 수 있다. Meanwhile, the matching unit 150 may include a first matching unit 151 , a second matching unit 152 , and a third matching unit 153 .

제1정합부(151)는 개략적으로 제1좌표점과 제2좌표점을 정합할 수 있다. 정합은 각자의 공간에 위치한 좌표점 세트들을 하나의 좌표계에 배치하는 것을 의미한다. 즉, 제1정합부(151)는 정합된 결과물을 하나의 공간 좌표계에 배치할 수 있다. 이 때, 제1정합부(151)는 코스 정합을 하는 경우의 회전 및 병진 변환 행렬 값을 추출할 수 있다. The first matching unit 151 may roughly match the first coordinate point and the second coordinate point. Registration means arranging sets of coordinate points located in their respective spaces in one coordinate system. That is, the first matching unit 151 may arrange the matched result in one spatial coordinate system. At this time, the first matching unit 151 may extract rotation and translation matrix values in case of course matching.

또한, 제1정합부(151)는 추출된 회전 및 병진 변환 행렬값을 이용하여 환자 공간의 얼굴 표면 좌표점을 코스 정합된 좌표점과 정합할 수 있다. 제1정합부(151)는 환자 공간의 얼굴 표면 좌표점을 이동시키거나 회전시켜 코스 정합된 좌표점과 정합을 구현할 수 있다. 또한, 제1정합부(151)는 코스 정합된 좌표점을 이동시키거나 회전시켜 환자 공간의 얼굴 표면 좌표점과 코스 정합할 수 있다. 그리고, 이 때, 환자 공간의 얼굴 표면 좌표점은 입력부(110)에서 프로브의 이동 경로에 따라 입력된 환자의 신체 표면에 대한 좌표점들을 포함할 수 있다. 그리고, 제1정합부(151)는 정합 결과물인 코스 정합된 표면 좌표점을 제1정합 좌표점으로 하여 하나의 공간 좌표계에 배치할 수 있다. In addition, the first matching unit 151 may match the face surface coordinate points in the patient space with the coordinate points that are course matched using the extracted rotation and translation matrix values. The first matching unit 151 may move or rotate the coordinate points of the facial surface in the patient's space to implement matching with the coordinate points that are course-matched. In addition, the first matching unit 151 may move or rotate the coordinate points that have been coarsely matched to make course matching with the facial surface coordinate points in the patient's space. In this case, the coordinate points of the face surface of the patient space may include coordinate points of the body surface of the patient input according to the movement path of the probe in the input unit 110 . In addition, the first matching unit 151 may arrange the surface coordinate points, which are the matching results, as the first matching coordinate points in one spatial coordinate system.

제2정합부(152)는 증강부(130)에서 증강된 제1정합 좌표점과 의료 영상 데이터의 표면 좌표점을 정합할 수 있다. 일 예로, 제2정합부(152)는 ICP(iterative closest point) 알고리즘을 이용하여 정합할 수 있다.The second matching unit 152 may match the first matching coordinate points augmented by the augmenting unit 130 with the surface coordinate points of the medical image data. For example, the second matching unit 152 may be matched using an iterative closest point (ICP) algorithm.

ICP 알고리즘은 두 공간의 좌표간 위치의 평균 차이가 최소가 될 수 있는 회전 및 이동 행렬을 계산하여 매칭하는 방법이다. ICP 알고리즘은 다음의 수학식 3으로 정의된다.The ICP algorithm is a method of calculating and matching rotation and movement matrices in which the average difference in positions between coordinates in two spaces can be minimized. The ICP algorithm is defined by Equation 3 below.

[수학식 3] 초기에 개략적으로[Equation 3] Roughly initially

Figure pat00012
Figure pat00012

수학식 3에서, R과 t는 두개의 좌표점 세트의 위치 오차를 최소화할 수 있는 회전 행렬과 이동 행렬을 의미하며,

Figure pat00013
Figure pat00014
는 각각 환자 공간의 얼굴 표면 좌표점 세트인 증강된 제1정합 좌표점 세트와 의료 영상의 표면 좌표점 세트를 의미한다.In Equation 3, R and t denote a rotation matrix and a translation matrix capable of minimizing the position error of the two sets of coordinate points,
Figure pat00013
and
Figure pat00014
denotes an augmented first registration coordinate point set, which is a face surface coordinate point set in the patient space, and a surface coordinate point set of the medical image, respectively.

한편, 제2정합부(152)는 정합 결과물에 대한 정확도를 분석할 수 있다. 제2정합부(152)는 표면 정합 오차 (Surface registration error; SRE) 분석을 통해 정합 오차나 정합 정확도를 분석할 수 있다. 표면 정합 오차는 하나의 표면 좌표점 세트와 다른 표면 좌표점 세트 간 거리를 계산하고 이를 평균하여 획득된다.Meanwhile, the second matching unit 152 may analyze the accuracy of the matching result. The second matching unit 152 may analyze a registration error or registration accuracy through surface registration error (SRE) analysis. The surface registration error is obtained by calculating and averaging the distance between one set of surface coordinate points and another set of surface coordinate points.

표면 정합 오차는 아래의 수학식 4에 의해 계산될 수 있다.The surface matching error can be calculated by Equation 4 below.

[수학식 4][Equation 4]

Figure pat00015
Figure pat00015

[수학식 4]에서

Figure pat00016
는 i번째 의료 영상의 표면 좌표점을 의미하고
Figure pat00017
는 ICP 알고리즘을 통해 획득된 변환행렬이 적용된 i번째 환자 공간의 얼굴 표면 좌표점을 의미한다. 이 때, 환자 공간의 얼굴 표면 좌표점은 i 번째 증강된 제1정합 좌표점을 포함한다.In [Equation 4]
Figure pat00016
Means the surface coordinate point of the ith medical image and
Figure pat00017
denotes the coordinate point of the face surface in the ith patient space to which the transformation matrix obtained through the ICP algorithm is applied. At this time, the face surface coordinate point in the patient space includes the i-th augmented first matching coordinate point.

제2정합부(152)는 계산된 표면 정합 오차가 종료 조건 만족 여부를 판단할 수 있다. 제2정합부(152)는 표면 정합 오차가 종료 조건을 만족하는 경우, 환자 공간의 얼굴 표면 좌표점에 대응되는 의료 영상의 표면 좌표점과 최종 증강된 환자 공간의 얼굴 표면 좌표점을 추출할 수 있다. The second matching unit 152 may determine whether the calculated surface matching error satisfies the end condition. When the surface matching error satisfies the end condition, the second matching unit 152 may extract the surface coordinate points of the medical image corresponding to the facial surface coordinate points of the patient space and the finally augmented facial surface coordinate points of the patient space. there is.

또한, 제2정합부(152)는 표면 정합 오차가 종료 조건을 만족하지 않는 경우, 제1정합 좌표점을 증강부(130)에서 스텝을 반복하여 증강시킬 수 있다. In addition, when the surface matching error does not satisfy the end condition, the second matching unit 152 may increase the first matching coordinate point by repeating steps in the augmenting unit 130 .

제3정합부(153)는 저장된 인공 지능 모델을 기반으로 정합을 진행할 수 있다. 이 때, 인공 지능 모델은 추가적으로 팬텀의 팬텀 병변 위치 좌표점을 포함하여 ICP를 이용한 최적화된 정합을 할 수 있다. 여기서 팬텀은 얼굴 모양 모형으로, 가상의 병변 구조물이 구비될 수 있다. 이 때, 팬텀의 병변 위치 좌표점은 가상의 병변 구조물에 임의로 지정된 병변 후보군을 의미한다. 따라서, 제3정합부(153)는 팬텀 병변 위치 좌표점을 추가적으로 포함하여 추출된 이동 및 병진 변환 행렬값을 기초로 ICP정합이 구현되기 때문에 심부 병변 오차 증폭을 감소시킬 수 있다.The third matching unit 153 may perform matching based on the stored artificial intelligence model. At this time, the artificial intelligence model may additionally perform optimized matching using ICP by including the phantom lesion position coordinates of the phantom. Here, the phantom is a facial shape model, and may include a virtual lesion structure. In this case, the coordinate points of the lesion location of the phantom refer to a lesion candidate group arbitrarily assigned to the virtual lesion structure. Therefore, since ICP matching is implemented based on the translation and translation matrix values extracted by the third matching unit 153 by additionally including the phantom lesion position coordinates, error amplification of deep lesions can be reduced.

마찬가지로, 제3정합부(153)는 결과물을 하나의 공간 좌표계에 배치할 수 있다. 일 예로, 제3정합부(153)는 실시간 의료 영상 좌표계에 정합된 좌표점을 배치할 수 있다. Similarly, the third matching unit 153 may arrange the results in one spatial coordinate system. For example, the third matching unit 153 may arrange coordinate points matched to the real-time medical image coordinate system.

출력부(160)는 제3정합부(153)에서 배치된 결과물을 출력한다. 출력부(160)는 정합 결과물을 디스플레이 장치를 통해 영상으로 표시할 수 있다. The output unit 160 outputs the result arranged in the third matching unit 153 . The output unit 160 may display the matching result as an image through a display device.

도3은 본 발명의 실시예에 따른 의료 영상 데이터의 표면 데이터와 환자 공간의 얼굴 표면 데이터를 정합하는 방법을 도시하는 도면이다.3 is a diagram illustrating a method of matching surface data of medical image data with face surface data of a patient's space according to an embodiment of the present invention.

도3을 참조하면, 단계(S110)에서 의료 영상 정합 장치는 의료 영상 데이터 및 환자 공간의 영상 데이터를 수신할 수 있다. 의료 영상 정합 장치는 의료 영상 데이터로부터 환자를 촬영한 의료 영상 데이터의 표면 좌표점을 추출하여 획득할 수 있다. 일 예로, 의료 영상 데이터의 표면 좌표점을 환자의 신체 표면에 대한 좌표점들을 포함한다. Referring to FIG. 3 , in step S110, the medical image matching device may receive medical image data and image data of a patient's space. The medical image matching device may extract and obtain surface coordinate points of medical image data of a patient from the medical image data. For example, the surface coordinate points of the medical image data include coordinate points of the patient's body surface.

한편, 의료 영상 정합 장치는 환자 공간의 영상 데이터로부터 프로브가 센싱한 환자 공간의 얼굴 표면 좌표점을 추출하여 획득할 수 있다. 의료 영상 정합 장치는 프로브를 이용하여 프로브의 위치 정보를 나타내는 환자 공간의 영상 데이터를 수집한다. Meanwhile, the medical image matching device may extract and obtain coordinate points of the face surface of the patient's space sensed by the probe from image data of the patient's space. The medical image matching device collects image data of a patient's space representing positional information of the probe using a probe.

다음으로, 단계(S120)에서, 의료 영상 정합 장치는 획득된 의료 영상 데이터의 표면 좌표점과 환자 의료 영상 공간의 얼굴 표면 좌표점의 코스 정합용 좌표점을 추출할 수 있다. 일 예로, 의료 영상 정합 장치는 의료 영상의 공간의 표면 좌표점으로부터 개략적인 정합인 코스 정합을 위해 제1좌표점을 추출할 수 있다. 또한, 의료 영상 정합 장치는 환자 공간의 얼굴 표면 좌표점으로부터 코스 정합용 제2좌표점을 추출할 수 있다. 여기서, 제2좌표점은 프로브가 환자의 이마, 코끝, 눈끝 및 이마 등을 접촉할 시 환자 공간의 얼굴 표면 좌표점을 포함할 수 있다. Next, in step S120, the medical image matching device may extract coordinate points for course matching between the surface coordinate points of the obtained medical image data and the face surface coordinate points of the patient's medical image space. For example, the medical image matching device may extract a first coordinate point for rough matching, that is, course matching, from a surface coordinate point in the space of the medical image. Also, the apparatus for matching medical images may extract second coordinate points for course matching from the coordinate points of the facial surface in the patient's space. Here, the second coordinate point may include a face surface coordinate point in the patient's space when the probe contacts the forehead, nose tip, eye tip, and forehead of the patient.

이 때, 의료 영상 정합 장치는 추출된 제1좌표점 및 제2좌표점을 코스 정합하여 코스 정합된 좌표점을 획득할 수 있다. 또한, 의료 영상 정합 장치는 코스 정합을 하는 경우의 회전 및 병진 변환 행렬값을 추출할 수 있다. In this case, the medical image matching device may obtain a course-matched coordinate point by course-matching the extracted first and second coordinate points. Also, the apparatus for matching medical images may extract rotational and translational transformation matrix values in case of course matching.

또한, 의료 영상 정합 장치는 추출된 회전 및 병진 변환 행렬값을 이용하여 환자 공간의 얼굴 표면 좌표점을 코스 정합된 좌표점과 정합할 수 있다. 이 때, 환자 공간의 얼굴 표면 좌표점은 프로브의 이동 경로에 따라 입력된 환자의 신체 표면에 대한 좌표점들을 포함할 수 있다. 그리고, 의료 영상 정합 장치는 정합 결과물인 코스 정합된 표면 좌표점을 제1정합 좌표점으로 하여 하나의 공간 좌표계에 배치할 수 있다. Also, the apparatus for matching medical images may match coordinate points of the facial surface in the patient's space with coordinate points that are course-matched using the extracted rotational and translational transformation matrix values. In this case, the face surface coordinate points in the patient space may include coordinate points of the patient's body surface input according to the movement path of the probe. In addition, the medical image matching device may arrange surface coordinate points, which are matching results, as first matching coordinate points in one spatial coordinate system.

단계(S130)에서, 의료 영상 정합 장치는 제1정합 좌표점을 증강할 수 있다. 제1정합 좌표점을 증강하는 단계는 복수 회 반복 실시될 수 있다. 일 예로, 제1정합 좌표점은 5%씩 증강될 수 있다. 제1정합 좌표점을 5% 증강시키는 과정을 1회의 스텝으로 가정하면, 의료 영상 정합 장치는1회 이상의 스텝을 반복 실시할 수 있다. 의료 영상 정합 장치는 제한된 시간 내에서 획득된 제1정합 좌표점의 좌표점 수를 증강시키므로 정합 정확도를 높일 수 있다. In step S130, the medical image matching device may augment the first registration coordinate point. The step of augmenting the first registration coordinate point may be repeatedly performed a plurality of times. For example, the first matching coordinate point may be augmented by 5%. Assuming that the process of augmenting the first registration coordinate point by 5% is one step, the medical image matching device may repeat one or more steps. The medical image matching device can increase matching accuracy by augmenting the number of coordinate points of the first matching coordinate points obtained within a limited time.

또한, 의료 영상 정합 장치는 증강된 제1 정합 좌표점을 의료 영상 데이터의 표면 좌표점과 정합할 수 있다. 일 예로, 의료 영상 정합 장치는 ICP(iterative closest point) 알고리즘을 이용하여 정합할 수 있다. ICP 알고리즘은 두 공간의 좌표간 위치의 평균 차이가 최소가 될 수 있는 회전 및 이동 행렬을 계산하여 매칭하는 방법이다. Also, the medical image matching device may match the augmented first matching coordinate point with the surface coordinate point of the medical image data. For example, the medical image matching device may perform matching using an iterative closest point (ICP) algorithm. The ICP algorithm is a method of calculating and matching rotation and movement matrices in which the average difference in positions between coordinates in two spaces can be minimized.

한편, 의료 영상 정합 장치는 표면 정합 오차 분석을 통해 정합 오차나 정합 정확도를 분석할 수 있다. 표면 정합 오차는 하나의 표면 좌표점 세트와 다른 표면 좌표점 세트 간 거리를 계산하고 이를 평균하여 획득된다. Meanwhile, the medical image registration device may analyze registration error or registration accuracy through surface registration error analysis. The surface registration error is obtained by calculating and averaging the distance between one set of surface coordinate points and another set of surface coordinate points.

또한, 의료 영상 정합 장치는 계산된 표면 정합 오차가 종료 조건 만족 여부를 판단할 수 있다. 의료 영상 정합 장치는 표면 정합 오차가 종료 조건을 만족하는 경우, 환자 공간의 얼굴 표면 좌표점에 대응되는 의료 영상 데이터의 표면 좌표점과 최종 증강된 환자 공간의 얼굴 표면 좌표점을 추출할 수 있다. 추출된 결과물은 제2정합 좌표점을 의미한다. 그리고, 의료 영상 정합 장치는 표면 정합 오차가 종료 조건을 만족하지 않는 경우, 스텝을 반복하여 제1정합 좌표점을 증강시킬 수 있다. Also, the medical image matching device may determine whether the calculated surface matching error satisfies the end condition. When the surface registration error satisfies the end condition, the medical image matching device may extract the surface coordinate points of the medical image data corresponding to the facial surface coordinate points in the patient space and the finally augmented facial surface coordinate points in the patient space. The extracted result means the second matching coordinate point. In addition, when the surface registration error does not satisfy the end condition, the medical image registration apparatus may augment the first registration coordinate point by repeating the steps.

단계(S140)에서, 의료 영상 정합 장치는 인공 지능 모델을 기반으로 정합을 진행할 수 있다. 이 때, 의료 영상 정합 장치는 제2정합 좌표점과 팬텀 병변 위치 좌표점을 인공 지능 모델의 입력으로하여 추출된 회전 및 병진 변환 행렬값을 기반으로 최적화된 정합을 할 수 있다. 일 예로, 의료 영상 정합 장치는 ICP를 활용하여 최적화된 정합을 진행할 수 있다. 따라서, 의료 영상 정합 장치는 팬텀 병변 위치 좌표점이 반영된 회전 및 병진 변환 행렬값을 이용하여 최적화된 정합을 구현하기 때문에 심부 병변 오차 증폭을 감소시킬 수 있다.In step S140, the medical image matching device may perform matching based on an artificial intelligence model. In this case, the medical image matching device may perform optimized matching based on the rotation and translation matrix values extracted by using the second registration coordinate points and the phantom lesion location coordinate points as inputs of the artificial intelligence model. For example, the medical image matching device may perform optimized matching using ICP. Therefore, since the medical image matching apparatus implements optimized matching using rotational and translational transformation matrix values in which the phantom lesion location coordinate points are reflected, error amplification of deep lesions can be reduced.

단계(S150)에서 의료 영상 정합 장치는 최종 정합된 결과물을 하나의 공간 좌표계에 배치하여 출력할 수 있다. 일 예로, 의료 영상 정합 장치는 실시간 의료 영상 데이터 좌표계에 제3정합 좌표점을 배치하고, 디스플레이 장치를 통해 영상으로 표시할 수 있다. In step S150, the medical image matching device may arrange and output the final matched result in one spatial coordinate system. For example, the medical image matching device may arrange a third matching coordinate point in the real-time medical image data coordinate system and display it as an image through a display device.

도4는 본 발명의 실시예에 따른 의료 영상 정합 장치가 제1정합 및 제2정합을 진행하는 방법을 구체적으로 도시하는 도면이다. 4 is a diagram specifically illustrating a method of performing first and second registration by a medical image registration apparatus according to an embodiment of the present invention.

도4에 도시된 바와 같이, 단계(S210)에서 의료 영상 정합 장치는 의료 영상 데이터로부터 표면 좌표 데이터인 표면 좌표점 세트를 획득할 수 있다. 일 예로, 의료 영상 데이터는 수술 전에 획득된 환자의 영상으로 CT, MRI 또는 초음파 등을 통해 촬영된 것일 수 있다. As shown in FIG. 4 , in step S210, the medical image matching device may acquire a set of surface coordinate points, which is surface coordinate data, from medical image data. For example, the medical image data may be an image of a patient acquired before surgery and captured through CT, MRI, or ultrasound.

또한, 의료 영상 정합 장치는 획득된 표면 좌표점 세트로부터 코스 정합을 위한 제1좌표점을 생성할 수 있다. 즉, 의료 영상 정합 장치는 정확도를 향상시키기 위하여 표면 좌표점 세트로부터 대략적으로 좌표점을 추출한다. Also, the medical image matching device may generate first coordinate points for course matching from the acquired surface coordinate point set. That is, the medical image matching device roughly extracts coordinate points from the surface coordinate point set in order to improve accuracy.

단계(S220)에서, 의료 영상 정합 장치는 환자 공간의 영상 데이터로부터 얼굴 표면 데이터를 추출할 수 있다. 구체적으로, 의료 영상 정합 장치는 코스 정합을 하기 위하여 환자 공간의 영상 데이터로부터 프로브가 센싱한 환자 공간의 얼굴 표면 좌표점을 추출하여 획득할 수 있다. 의료 영상 정합 장치는 프로브를 이용하여 프로브의 위치 정보를 나타내는 표면 좌표점을 획득할 수 있다. 의료 영상 정합 장치는 프로브가 접촉하거나 인접한 환자 얼굴 표면 일부의 표면 좌표점을 획득할 수 있다. 또한, 의료 영상 정합 장치는 획득한 표면 좌표점을 제2좌표점으로 생성할 수 있다. 일 예로, 제2좌표점은 환자의 이마, 코끝, 눈끝 및 이마 등을 접촉할 시 환자 공간의 얼굴 표면 좌표점을 포함할 수 있다.In operation S220, the medical image matching device may extract face surface data from image data of the patient's space. In detail, the medical image matching device may extract and obtain face surface coordinate points of the patient's space sensed by the probe from image data of the patient's space in order to perform course matching. The medical image matching device may obtain a surface coordinate point indicating location information of the probe using a probe. The medical image matching device may acquire surface coordinate points of a part of the patient's face surface that is in contact with or adjacent to the probe. Also, the medical image matching device may generate the acquired surface coordinate points as the second coordinate points. For example, the second coordinate point may include a face surface coordinate point in the patient's space when the patient's forehead, nose tip, eye tip, and forehead are contacted.

단계(S230)에서, 의료 영상 정합 장치는 제1좌표점을 제2좌표점과 코스 정합하여 코스 정합 좌표점을 생성할 수 있다. 또한, 의료 영상 정합 장치는 코스 정합을 하는 경우의 회전 및 병진 변환 행렬을 추출할 수 있다. 의료 영상 정합 장치는 초기에 코스 정합을 수행하므로 정확도를 향상시킬 수 있다. In step S230, the medical image matching device may generate a course matching coordinate point by course matching the first coordinate point with the second coordinate point. Also, the apparatus for matching medical images may extract rotational and translational transformation matrices in case of course matching. Since the medical image matching device initially performs course matching, accuracy may be improved.

단계(S240)에서, 의료 영상 정합 장치는 환자 공간의 얼굴 표면 좌표점을 코스 정합된 표면 좌표점으로 변환할 수 있다. 의료 영상 정합 장치는 추출된 회전 및 병진 변환 행렬을 이용하여 제1정합 좌표점을 생성할 수 있다. 여기서 환자 공간의 얼굴 표면 좌표점은 프로브의 위치 정보를 나타낸다. 프로브는 10초 내외의 시간동안 환자의 피부 표면을 따라 접촉 또는 근접한 상태로 이동하며 환자의 신체 표면에 대한 데이터를 수집한다. 일례로, 프로브는 10초 내지 20초의 시간 동안 데이터를 수집할 수 있다.In operation S240, the medical image matching device may convert the face surface coordinate points in the patient's space into the course-matched surface coordinate points. The medical image registration device may generate a first registration coordinate point using the extracted rotation and translation matrix. Here, the facial surface coordinate points in the patient's space represent the positional information of the probe. The probe moves along the patient's skin surface in a contact or proximity state for a time of about 10 seconds and collects data on the patient's body surface. In one example, the probe may collect data for a period of 10 to 20 seconds.

의료 영상 정합 장치는 추출된 코스 정합을 하는 경우의 회전 및 병진 변환 행렬을 기반으로 환자 공간의 얼굴 표면 좌표점과 코스 정합된 좌표점을 정합한다. 그리고, 의료 영상 정합 장치는 정합 결과물인 표면 좌표점을 제1정합 좌표점으로 하여 하나의 공간 좌표계에 배치할 수 있다. The medical image matching device matches the face surface coordinate points in the patient's space with the coordinate points that are course-matched based on the extracted rotational and translational transformation matrices in the case of course matching. Also, the medical image matching device may set surface coordinate points, which are matching results, as first matching coordinate points in one spatial coordinate system.

단계(S250)에서, 의료 영상 정합 장치는 제1정합 좌표점을 증강할 수 있다. 제1정합 좌표점을 증강하는 단계는 복수 회 반복 실시될 수 있다. 제1정합 좌표점은 5%씩 증강될 수 있다. 제1정합 좌표점을 5% 증강시키는 과정을 1회의 스텝으로 가정하면, 의료 영상 정합 장치는1회 이상의 스텝을 반복 실시할 수 있다. 의료 영상 정합 장치는 제한된 시간 내에서 획득된 제1정합 좌표점의 좌표점 수를 증강시키므로 정합 정확도를 높일 수 있다. In step S250, the medical image matching device may augment the first matching coordinate point. The step of augmenting the first registration coordinate point may be repeatedly performed a plurality of times. The first matching coordinate point may be augmented by 5%. Assuming that the process of augmenting the first registration coordinate point by 5% is one step, the medical image matching device may repeat one or more steps. The medical image matching device can increase matching accuracy by augmenting the number of coordinate points of the first matching coordinate points obtained within a limited time.

또한, 의료 영상 정합 장치는 증강된 제1정합 좌표점을 의료 영상 데이터의 표면 좌표점과 정합할 수 있다. 이 때, 의료 영상 정합 장치는 ICP알고리즘을 이용하여 정합할 수 있다. 또한, 의료 영상 정합 장치는 제 2정합을 진행하는 경우의 회전 및 병진 변환 행렬을 도출할 수 있다. Also, the medical image matching device may match the augmented first matching coordinate point with the surface coordinate point of the medical image data. In this case, the medical image matching device may perform matching using an ICP algorithm. Also, the apparatus for matching medical images may derive rotational and translational transformation matrices in the case of performing the second matching.

단계(S260)에서, 의료 영상 정합 장치는 표면 정합 오차 분석을 통해 정합 오차나 정합 정확도를 분석할 수 있다. 표면 정합 오차는 하나의 표면 좌표점 세트와 다른 표면 좌표점 세트 간 거리를 계산하고 이를 평균하여 획득된다. In step S260, the medical image matching apparatus may analyze a registration error or registration accuracy through surface registration error analysis. The surface registration error is obtained by calculating and averaging the distance between one set of surface coordinate points and another set of surface coordinate points.

또한, 의료 영상 정합 장치는 분석된 표면 정합 오차가 기 설정된 종료 조건 만족 여부를 판단할 수 있다. 이 때, 의료 영상 정합 장치는 표면 정합 오차가 종료 조건을 만족하지 않을 시, 단계(S250) 및 단계(S260)을 반복 실시할 수 있다. 즉, 의료 영상 정합 장치는 제1정합 좌표점을 재증강시키고 정합하는 단계 및 표면 정합 오차 판단 단계를 반복 실시할 수 있다. Also, the medical image matching apparatus may determine whether the analyzed surface registration error satisfies a preset end condition. In this case, the medical image matching device may repeatedly perform steps S250 and S260 when the surface registration error does not satisfy the end condition. That is, the apparatus for matching medical images may repeatedly perform the step of re-augmenting and matching the first matching coordinate points and the step of determining the surface matching error.

단계(S270)에서, 의료 영상 정합 장치는 표면 정합 오차가 기설정된 종료 조건을 만족하는 경우, 정합 결과로부터 환자 공간의 얼굴 표면 좌표점에 대응되는 의료 영상 데이터의 표면 좌표점과 최종 증강된 환자 공간의 얼굴 표면 좌표점을 추출할 수 있다. 추출된 결과물은 제2정합 좌표점을 의미한다.In step S270, the medical image matching device determines the surface coordinate points of the medical image data corresponding to the face surface coordinate points of the patient space and the final augmented patient space from the matching result when the surface matching error satisfies the preset end condition. It is possible to extract the face surface coordinate points of The extracted result means the second matching coordinate point.

도5는 본 발명의 실시예에 따른 인공 지능 모델을 구축하는 방법을 도시하는 도면이다. 5 is a diagram illustrating a method of building an artificial intelligence model according to an embodiment of the present invention.

먼저, 단계(S310)에서, 인공 지능 모델은 팬텀의 병변 위치 좌표점 및 환자 공간의 얼굴 표면 좌표점을 기반으로한 데이터 세트를 확보할 수 있다. 팬텀은 얼굴 모양 모형으로, 가상의 병변 구조물이 구비될 수 있다. 이 때, 팬텀의 병변 위치 좌표점은 가상의 병변 구조물에 임의로 지정된 병변 후보군을 의미한다. 일 예로, 팬텀의 병변 위치 좌표점은 팬텀을 촬영한 CT영상에서 추출된 좌표점을 포함할 수 있다. 또한, 인공 지능 모델은 프로브로부터 반복적인 실험으로 추출된 환자 공간의 얼굴 표면 좌표점을 획득할 수 있다. 후술하겠지만, 의료 영상 정합 장치는 인공 지능 모델이 팬텀의 병변 위치 좌표점을 추가적으로 포함함으로써 최적화된 정합을 구현할 수 있다. First, in step S310, the artificial intelligence model may secure a data set based on the coordinate points of the lesion location of the phantom and the coordinate points of the facial surface in the patient's space. The phantom is a facial model, and may include a virtual lesion structure. In this case, the coordinate points of the lesion location of the phantom refer to a lesion candidate group arbitrarily assigned to the virtual lesion structure. For example, the coordinate points of the location of the lesion of the phantom may include coordinate points extracted from a CT image of the phantom. In addition, the artificial intelligence model may acquire facial surface coordinate points in the patient's space extracted from the probe through repetitive experiments. As will be described later, the medical image matching device may implement optimized registration by additionally including the coordinate points of the lesion location of the phantom in the artificial intelligence model.

단계(S320)에서, 인공 지능 모델의 입력 및 출력이 설정될 수 있다. 일 예로, 입력 정보의 특징점은 환자 공간의 얼굴 표면 좌표점과 그 좌표점에 대응되는 의료 영상 데이터의 표면 좌표점으로 설정될 수 있다. 이 때, 좌표점은 3차원 좌표점으로, (x, y, z) 형태로 표시될 수 있다. In step S320, the input and output of the artificial intelligence model may be set. For example, the feature points of the input information may be set to the face surface coordinate points of the patient's space and the surface coordinate points of the medical image data corresponding to the coordinate points. In this case, the coordinate point is a 3D coordinate point and may be displayed in the form of (x, y, z).

또한, 인공 지능 모델 입력 정보의 특징점은 추가적으로 팬텀 내부에 있는 병변의 위치 정보인 병변 위치 좌표점이 포함될 수 있다. 여기서, 병변 위치 좌표점은 임의로 지정된 병변 후보군의 위치 좌표점과 팬텀을 촬영한 영상에서 병변 후보군에 대응되는 위치의 위치 좌표점을 포함할 수 있다. 이 때, 병변 위치 좌표점이 인공 지능 모델 입력 정보의 특징점으로 사용된다. In addition, feature points of the artificial intelligence model input information may additionally include lesion location coordinates, which are location information of lesions inside the phantom. Here, the lesion location coordinate point may include a location coordinate point of an arbitrarily designated lesion candidate group and a location coordinate point of a location corresponding to the lesion candidate group in the image obtained by capturing the phantom. At this time, the lesion location coordinates are used as feature points of artificial intelligence model input information.

한편, 인공 지능 모델의 출력 정보는 ICP 정합을 통하여 추출된 회전 및 병진 변환 행렬로 설정될 수 있다. Meanwhile, output information of the artificial intelligence model may be set to a rotation and translation matrix extracted through ICP matching.

단계(S330)에서, 인공 지능 모델은 학습과 테스트를 위하여 확보된 데이터 세트를 분할한다. 여기서, 학습 데이터 세트와 검증 데이터 세트를 분할함으로써 학습 데이터에서만 높은 예측력을 보이는 과적합(overfitting)을 방지할 수 있다.In step S330, the artificial intelligence model divides the secured data set for learning and testing. Here, overfitting, which shows high predictive power only in the training data, can be prevented by dividing the training data set and the verification data set.

또한, 단계(S330)는 인공 지능 모델의 학습 성능을 높이기 위하여 충분한 학습 데이터를 확보하도록 수행될 수 있다. 일 예로, 인공 지능 모델은 랜덤 노이즈를 추가하는 지터링(Jittering)과 데이터 세트의 데이터 분포가 일정하도록 변경하는 스케일(Scaling) 기법을 활용하여, 학습 데이터를 증강할 수 있다. In addition, step S330 may be performed to secure sufficient training data to increase the learning performance of the artificial intelligence model. For example, the artificial intelligence model may augment training data by utilizing a jittering technique in which random noise is added and a scaling technique in which a data distribution of a data set is changed to be constant.

단계(S340)에서, 인공 지능 모델은 추출된 특징점을 학습하여 회전 및 병진 변환 행렬을 추정할 수 있다. 예를 들어, 인공 지능 모델은 회전 및 병진 변환 행렬을 추정하기 위하여 데이터의 특징을 추출하여 학습하는 머신 러닝 모델을 사용할 수 있다. 이 때, 머신 러닝 모델은 LSTM(Long Short Term Memory)로 구현될 수 있다. LSTM 은 특징적인 값을 시간에 따라 스스로 학습하고 상호 연관성이 있는 시계열 데이터에 따라 예측하는 인공 지능 모델이다. 여기서, 인공 지능 모델은 정확도를 향상시키기 위하여 순방향뿐만 아니라 역방향의 결과까지 이용할 수 있는 Bi-LSTM(Bidirectional LSTM)으로 구현될 수 있다. In step S340, the artificial intelligence model may estimate a rotation and translation matrix by learning the extracted feature points. For example, the artificial intelligence model may use a machine learning model that learns by extracting features of data to estimate rotational and translational transformation matrices. In this case, the machine learning model may be implemented as Long Short Term Memory (LSTM). LSTM is an artificial intelligence model that self-learns characteristic values over time and predicts them based on correlated time-series data. Here, the artificial intelligence model may be implemented as Bi-LSTM (Bidirectional LSTM) that can use not only forward but also backward results to improve accuracy.

단계(S350)에서, 학습된 인공 지능 모델을 테스트할 수 있다. 학습 데이터 세트로 학습된 인공 지능 모델을 검증 데이터 세트를 이용하여 평가할 수 있다. 일 예로, 인공 지능 모델은 교차 검증(Cross validation)으로 테스트될 수 있다. 교차 검증은 과적합(Over fitting)을 방지하기 위하여 최적의 매개 변수를 찾기 위한 검증 방법이다. 인공 지능 모델이 교차 검증으로 테스트되는 경우, 학습 데이터 세트 중 일부를 검증 데이터 세트로 분할할 수 있다. 인공 지능 모델은 학습 데이터 세트 및 검증 데이터 세트를 부분적으로 번갈아 바꿔가며 여러 개의 학습 데이터 세트와 검증 데이터 세트를 만들고, 이로 인해 만들어진 각각의 데이터 세트에 대한 결과를 출력하여 인공 지능 모델을 검증하는 것에 활용할 수 있다. 또한, 인공 지능 모델은 분할된 검증 데이터 세트를 이용하여 최적화된 파라미터를 추정하고, 인공 지능 모델의 오차가 감소되도록 인공 지능 모델을 수정할 수 있다. In step S350, the learned artificial intelligence model may be tested. An artificial intelligence model trained with a training data set can be evaluated using a validation data set. For example, an artificial intelligence model may be tested by cross validation. Cross-validation is a verification method to find optimal parameters to prevent overfitting. When an AI model is tested with cross-validation, a portion of the training data set can be split into a validation data set. The artificial intelligence model partially alternates between the training data set and the verification data set to create multiple training data sets and verification data sets, and outputs the results for each data set created to be used to verify the artificial intelligence model. can In addition, the artificial intelligence model may estimate an optimized parameter using the divided verification data set, and modify the artificial intelligence model so that an error of the artificial intelligence model is reduced.

또한, 최종적으로 인공 지능 모델이 형성될 시, 인공 지능 모델은 테스트 데이터 세트를 활용하여 인공 지능 모델을 평가할 수 있다. In addition, when the artificial intelligence model is finally formed, the artificial intelligence model may evaluate the artificial intelligence model using the test data set.

도6은 본 발명의 실시예에 따른 인공 지능 모델의 학습을 위한 입력 정보를 도시하는 도면이다. 6 is a diagram illustrating input information for learning an artificial intelligence model according to an embodiment of the present invention.

도6에 도시된 바와 같이, 환자 공간의 얼굴 표면 좌표점은 (x, y, z) 좌표로 설정되고, 이에 대응되는 의료 영상 데이터의 표면 좌표점은 (x', y', z')로 설정될 수 있다. 즉, 입력 정보의 특징점은6개의 차원(dimension)으로 설정될 수 있다. 이 때, 의료 영상 데이터의 표면 좌표점의 길이가 150일 시, 입력 정보의 사이즈는 6 by 150으로 설정될 수 있다. As shown in FIG. 6, the face surface coordinate points in the patient space are set to (x, y, z) coordinates, and the surface coordinate points of the medical image data corresponding thereto are (x', y', z'). can be set. That is, the feature points of the input information may be set in six dimensions. In this case, when the length of the surface coordinate point of the medical image data is 150, the size of the input information may be set to 6 by 150.

또한, 추가적으로 팬텀의 병변 위치 좌표점을 팬텀을 촬영한 영상에서 추출할 수 있다. 여기서, 팬텀의 병변 위치 좌표점은 임의로 지정한 병변 후보군의 위치 좌표점과 팬텀을 촬영한 영상에서 병변 후보군에 대응되는 위치의 위치 좌표점을 포함할 수 있다. 이 때, 병변 위치 좌표점이 인공 지능 모델 입력 정보의 특징점으로 사용된다. In addition, coordinate points of the location of the lesion of the phantom may be additionally extracted from an image of the phantom. Here, the coordinate points of the lesion location of the phantom may include a location coordinate point of a randomly designated lesion candidate group and a location coordinate point of a location corresponding to the lesion candidate group in an image obtained by capturing the phantom. At this time, the lesion location coordinates are used as feature points of artificial intelligence model input information.

추출된 팬텀의 병변 위치 좌표점은 6개의 차원으로 구성되어 입력 정보에 추가될 수 있다. 마찬가지로 의료 영상 데이터의 표면 좌표점의 길이가 150일 시, 팬텀을 활용한 입력 정보의 사이즈는 6 by 150으로 설정될 수 있다. 따라서, 최종적으로 입력 정보의 사이즈는 6 by 300으로 설정될 수 있다. The extracted lesion location coordinates of the phantom consist of six dimensions and can be added to the input information. Similarly, when the length of the surface coordinate points of the medical image data is 150, the size of input information using the phantom may be set to 6 by 150. Accordingly, the final size of the input information may be set to 6 by 300.

도7은 본 발명의 실시예에 따른 인공 지능 모델의 Bi-LSTM 아키텍처를 도시하는 도면이다. 7 is a diagram showing the Bi-LSTM architecture of an artificial intelligence model according to an embodiment of the present invention.

먼저, LSTM은 RNN(순환 신경망, Recurrent neural network) 인공 지능 모델의 하나로, 연속적인 시계열 데이터에 적합하다. LSTM 아키텍처는 상호 연관성이 있는 시계열 데이터를 예측하는 인공 지능 모델로서, 데이터를 순차적으로 처리하는 순환 신경망 모델의 하나이다. 단기 기억 레이어(Shor term, hidden state)와 장기 기억을 담당하는 레이어(Long term, cell state)가 존재하여 시계열 데이터 예측에 높은 정확도를 갖는다. 또한, LSTM 아키텍처는 일반적으로First, LSTM is one of RNN (Recurrent Neural Network) artificial intelligence models and is suitable for continuous time series data. The LSTM architecture is an artificial intelligence model that predicts correlated time series data, and is one of the recurrent neural network models that sequentially process data. There is a short-term storage layer (Short term, hidden state) and a layer responsible for long-term storage (Long term, cell state), so it has high accuracy in predicting time series data. Also, LSTM architectures are usually

일 실시예에서, 표1은 LSTM 아키텍처의 학습 옵션 테이블이다. 표1및 도7에 도시된 바와 같이, 인공 지능 모델은 복수의 LSTM으로 Stacked LSTM을 구성할 수 있다. 또한, 인공 지능 모델은 정확도를 향상시키기 위하여 순방향뿐만 아니라 역방향의 결과까지 이용할 수 있는 Bi-LSTM(Bidirectional LSTM)으로 구현될 수 있다. Bi-LSTM의 레이어 1은 Bi-LSTM#1로 정의되고, Bi-LSTM의 레이어 2는 Bi-LSTM#2로 정의된다.In one embodiment, Table 1 is a table of learning options for an LSTM architecture. As shown in Table 1 and FIG. 7, the artificial intelligence model can configure a Stacked LSTM with a plurality of LSTMs. In addition, the artificial intelligence model can be implemented as a Bidirectional LSTM (Bidirectional LSTM) that can use not only forward but also backward results to improve accuracy. Layer 1 of Bi-LSTM is defined as Bi-LSTM#1, and layer 2 of Bi-LSTM is defined as Bi-LSTM#2.

한편, 인공 지능 모델에 팬텀의 병변 위치 좌표점 및 환자 공간의 얼굴 표면 좌표점을 기반으로한 데이터 세트를 입력할 수 있다. 일 예로, 환자 공간의 얼굴 표면 좌표점은 (x, y, z) 좌표로 설정되고, 이에 대응되는 의료 영상 데이터의 표면 좌표점은 (x', y', z')로 설정될 수 있다. 즉, 입력 정보는 6개의 차원(dimension)으로 설정될 수 있다.Meanwhile, a data set based on the coordinate points of the lesion location of the phantom and the coordinate points of the facial surface of the patient space may be input to the artificial intelligence model. For example, a face surface coordinate point in a patient space may be set to (x, y, z) coordinates, and a surface coordinate point of medical image data corresponding thereto may be set to (x', y', z'). That is, input information can be set in six dimensions.

또한, 인공 지능 모델의 Bi-LSTM#1와 Bi-LSTM#2에서 양방향 학습이 구현될 수 있다. 각 Bi-LSTM 레이어에서 출력된 결과값들은 연결 레이어(Concatenate layer)에서 합쳐질 수 있다. In addition, bidirectional learning can be implemented in Bi-LSTM#1 and Bi-LSTM#2 of the artificial intelligence model. Result values output from each Bi-LSTM layer may be combined in a concatenate layer.

또한, 연결 레이어에서 합쳐진 결과값들은 완전 연결 레이어(Fully connected layer)로 입력될 수 있다. 완전 연결 레이어는 1차원 배열의 형태로 평탄화된 행렬을 통해 분류를 결정하는 레이어이다. 즉, 완전 연결 레이어에 입력된 결과값 중에 일부 결과값을 추출할 수 있다. 여기서, 완전 연결 레이어는 과적합(Over fitting)을 방지하기 위하여 드롭 아웃(Drop out) 형태로 구현될 수 있다. 이 때, 드롭 아웃 비율은 0.2으로 진행될 수 있으며, 드롭 아웃 비율에 따라 다른 특정 결과값이 출력될 수 있다. 또한, 인공 지능 모델이 복잡할 경우 드롭 아웃 비율을 늘리고, 단순할 경우 드롭 아웃 비율을 낮추면서 조절할 수 있다. In addition, result values combined in the connection layer may be input to a fully connected layer. A fully connected layer is a layer that determines classification through a flattened matrix in the form of a one-dimensional array. That is, among the result values input to the fully connected layer, some result values may be extracted. Here, the fully connected layer may be implemented in a drop out form to prevent overfitting. At this time, the dropout ratio may proceed to 0.2, and other specific result values may be output according to the dropout ratio. In addition, if the artificial intelligence model is complex, the dropout rate can be increased, and if it is simple, the dropout rate can be adjusted by decreasing it.

그리고, 회귀 레이어(Regression layer)를 통해 회전 및 병진 변환 행렬값을 출력할 수 있다. 회귀 레이어는 종속 변수와 독립 변수간의 상관 관계를 예측하는 것이다. 또한, 회전 및 병진 변환 행렬값의 회전 행렬은 3 by 3(R) 차원이고 병진 행렬은 3 by 1 (T) 차원으로 출력될 수 있다. 따라서, 인공 지능 모델을 통해 출력되는 회전 및 병진 변환 행렬 값은 12개의 차원을 포함할 수 있다. In addition, rotation and translation matrix values may be output through a regression layer. The regression layer predicts the correlation between the dependent variable and the independent variable. In addition, the rotation matrix of the rotation and translation matrix values may be output in a 3 by 3 (R) dimension and the translation matrix in a 3 by 1 (T) dimension. Accordingly, the rotation and translation matrix values output through the artificial intelligence model may include 12 dimensions.

인공 지능 모델은 팬텀의 병변 위치 정보를 포함하여 최적화하기 때문에 출력된 회전 및 병진 변환 행렬이 심부 병변 오차의 증폭을 줄일 수 있는 방법으로 학습할 수 있다. Since the artificial intelligence model is optimized by including the phantom lesion location information, the output rotation and translation matrix can be learned in a way that can reduce the amplification of the deep lesion error.

LSTM 아키텍처의 학습 옵션 테이블Table of training options for LSTM architecture No.No. Type of parametersType of parameters Range of parametersRange of parameters Range of parametersRange of parameters 1One Number of hidden unitsNumber of hidden units [200,100][200,100] [100,50][100,50] 22 Maximum epochsMaximum epochs 100100 100100 33 Mini-batch sizeMini-batch size 6464 3232 44 Weight initializer functionWeight initializer function GlorotGlorot GlorotGlorot 55 SolverSolver AdamAdam AdamAdam 66 Drop out rateDrop out rate 0.20.2 0.20.2 77 Initial learning rateInitial learning rate 0.010.01 0.010.01 88 Gradient thresholdGradient threshold 22 22 99 Gradient threshold methodGradient threshold method Global-l2normGlobal-l2norm Global-l2normGlobal-l2norm 1010 L2RegularizationL2Regularization 1e^-51e^-5 1e^-61e^-6 1111 Sequence paddingSequence padding shortestshortest longestlongest 1212 Sequence output modeSequence output mode sequencesequence sequencesequence

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.본 발명의 범위는 후술하는 청구범위에 의하여 나타내어지며, 청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form. The scope of the present invention is set forth in the claims that follow. It is indicated by, and all changes or modified forms derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention.

110. 입력부
120. 좌표점 생성부
130. 증강부
140. 인공 지능 모델 저장부
150. 정합부
160. 출력부
110. Input unit
120. Coordinate point generator
130. Augmentation
140. Artificial intelligence model storage unit
150. Matching part
160. Output unit

Claims (12)

내시경 증강현실 정밀도 향상 및 심부 병변 오차 감소를 위하여 환자 공간의 영상 데이터와 의료 영상 데이터를 정밀 정합하는 의료 영상 정합 장치에 있어서,
상기 환자 공간의 영상 데이터와 상기 의료 영상 데이터를 수신하는 입력부;
상기 환자 공간의 영상 데이터와 상기 의료 영상 데이터를 기반으로 정밀 정합을 위한 회전 및 병진 변환 행렬 값을 추정하는 인공 지능 모델이 저장된 인공 지능 모델 저장부;
상기 환자 공간의 영상 데이터와 상기 의료 영상 데이터를 정밀 정합하는 정합부; 및
상기 환자 공간의 영상 데이터와 상기 의료 영상 데이터의 정합 결과물을 출력하는 출력부;를 포함하며
상기 정합부는 상기 환자 공간의 영상 데이터와 상기 의료 영상 데이터를 개략적으로 정합하여 제1정합 좌표점을 생성하는 제1정합부;
상기 제1정합 좌표점과 상기 의료 영상 데이터의 표면 좌표점을 정합하여 제2 정합 좌표점을 생성하는 제2정합부; 및
상기 제2정합 좌표점을 상기 인공 지능 모델의 입력으로 하여 추정된 상기 회전 및 병진 변환 행렬값을 기반으로 정밀 정합하는 제3정합부를 포함하는 것인 의료 영상 정합 장치.
A medical image matching device for precisely matching image data of a patient's space and medical image data in order to improve endoscopic augmented reality precision and reduce errors in deep lesions,
an input unit receiving image data of the patient's space and the medical image data;
an artificial intelligence model storage unit storing an artificial intelligence model for estimating a rotational and translational transformation matrix value for precision matching based on the image data of the patient's space and the medical image data;
a matching unit that precisely matches the image data of the patient's space and the medical image data; and
and an output unit outputting a matching result of the image data of the patient space and the medical image data.
The matching unit may include a first matching unit generating a first matching coordinate point by roughly matching the image data of the patient space and the medical image data;
a second matching unit generating a second matching coordinate point by matching the first matching coordinate point with the surface coordinate point of the medical image data; and
and a third matching unit for precision matching based on the rotation and translation matrix values estimated by taking the second matching coordinate point as an input of the artificial intelligence model.
제1항에 있어서,
상기 인공 지능 모델의 입력 정보 특징점은 상기 환자 공간의 얼굴 표면 좌표점과 상기 환자 공간의 얼굴 표면 좌표점에 대응되는 상기 의료 영상 데이터의 표면 좌표점을 포함하며, 6개의 차원(dimension)으로 설정되는 것인 의료 영상 정합 장치.
According to claim 1,
The input information feature points of the artificial intelligence model include face surface coordinate points in the patient space and surface coordinate points of the medical image data corresponding to the facial surface coordinate points in the patient space, and are set in six dimensions. A medical image matching device.
제2항에 있어서,
상기 인공 지능 모델은 팬텀의 병변 위치 좌표점를 기반으로한 데이터 세트를 더 확보하여 인공 지능 모델의 입력 특징점을 설정하고,
상기 병변 위치 좌표점을 기반으로한 인공 지능 모델의 입력 특징점은 가상의 병변 구조물에 임의로 지정한 병변 후보군의 위치 좌표점과 상기 병변 구조물을 촬영한 영상 데이터에서 상기 병변 후보군의 위치 정보와 대응되는 위치 좌표점을 포함하며, 6개의 차원(dimension)으로 설정되는 것인 의료 영상 정합 장치.
According to claim 2,
The artificial intelligence model further secures a data set based on the coordinates of the lesion location of the phantom to set input feature points of the artificial intelligence model,
The input feature points of the artificial intelligence model based on the lesion location coordinate points are the location coordinate points of the lesion candidate group arbitrarily designated in the virtual lesion structure and the location coordinates corresponding to the location information of the lesion candidate group in the image data obtained by photographing the lesion structure. A medical image matching device that includes points and is set in six dimensions.
제1항에 있어서,
상기 인공 지능 모델은 Bi-LSTM(Bidirectional LSTM) 아키텍처를 포함하며,
회귀 레이어 (Regression layer)를 이용하여 회전 및 병진 변환 행렬을 3X3 차원인 회전 변환 행렬과 3X1차원인 병진 변환 행렬으로 출력하는 것인 의료 영상 정합 장치.
According to claim 1,
The artificial intelligence model includes a Bidirectional LSTM (Bi-LSTM) architecture,
A medical image registration device that outputs a rotation and translation matrix as a 3X3-dimensional rotation matrix and a 3X1-dimensional translation matrix using a regression layer.
제1항에 있어서,
상기 제2정합부, 상기 인공 지능 모델 및 상기 제3정합부는 ICP(iterative closest point) 알고리즘을 이용하여 정합하는 것인 의료 영상 정합 장치.
According to claim 1,
The second matching unit, the artificial intelligence model, and the third matching unit are matched using an iterative closest point (ICP) algorithm.
내시경 증강현실 정밀도 향상 및 심부 병변 오차 감소를 위하여 환자 공간의 영상 데이터와 의료 영상 데이터를 정밀 정합 하는 의료 영상 정합 방법에 있어서,
a) 상기 환자 공간의 영상 데이터와 상기 의료 영상 데이터를 획득하는 단계;
b) 상기 환자 공간의 영상 데이터와 상기 의료 영상 데이터로부터 개략적으로 좌표점을 추출하여 정합하고, 개략적인 회전 및 병진 변환 행렬을 추출하는 단계
c) 상기 개략적으로 정합된 좌표점과 상기 환자 공간의 영상 데이터로부터 추출된 얼굴 표면 좌표점을 추출된 상기 개략적인 회전 및 병진 변환 행렬을 이용하여 제1정합하고 제1정합 좌표점을 생성하는 단계;
d) 상기 제1정합 데이터를 증강시키고, 증강된 제 1정합 좌표점을 상기 의료 영상 데이터로부터 추출된 표면 좌표점과 정합하여 제2정합 좌표점을 생성하는 단계;및
e) 상기 제2정합 좌표점을 상기 인공 지능 모델의 입력으로 하여 추정된 상기 회전 및 병진 변환 행렬값을 기반으로 정밀 정합하는 단계;를 포함하는 것인 의료 영상 정합 방법.
In the medical image matching method of precisely matching image data of patient space and medical image data to improve endoscopic augmented reality accuracy and reduce deep lesion errors,
a) acquiring image data of the patient's space and the medical image data;
b) roughly extracting and matching coordinate points from the image data of the patient space and the medical image data, and extracting a rough rotation and translation transformation matrix.
c) first matching the coarsely matched coordinate points and facial surface coordinate points extracted from the patient space image data using the extracted coarse rotation and translation matrix, and generating a first matching coordinate point; ;
d) augmenting the first registration data and generating a second registration coordinate point by matching the augmented first registration coordinate point with a surface coordinate point extracted from the medical image data; and
e) precision matching based on the rotation and translation matrix values estimated by taking the second registration coordinate point as an input of the artificial intelligence model;
제6항에 있어서,
상기 인공 지능 모델의 입력 정보 특징점은 상기 환자 공간의 얼굴 표면 좌표점과 상기 환자 공간의 얼굴 표면 좌표점에 대응되는 상기 의료 영상 데이터의 표면 좌표점을 포함하며, 6개의 차원(dimension)으로 설정되는 것인 의료 영상 정합 방법.
According to claim 6,
The input information feature points of the artificial intelligence model include face surface coordinate points in the patient space and surface coordinate points of the medical image data corresponding to the facial surface coordinate points in the patient space, and are set in six dimensions. A method for matching medical images.
제2항에 있어서,
상기 인공 지능 모델은 팬텀의 병변 위치 좌표점를 기반으로한 데이터 세트를 더 확보하여 인공 지능 모델의 입력 특징점을 설정하고,
상기 병변 위치 좌표점을 기반으로한 인공 지능 모델의 입력 특징점은 가상의 병변 구조물에 임의로 지정한 병변 후보군의 위치 좌표점과 상기 병변 구조물을 촬영한 영상 데이터에서 상기 병변 후보군의 위치 정보와 대응되는 위치 좌표점을 포함하며, 6개의 차원(dimension)으로 설정되는 것인 의료 영상 정합 방법.
According to claim 2,
The artificial intelligence model further secures a data set based on the coordinates of the lesion location of the phantom to set input feature points of the artificial intelligence model,
The input feature points of the artificial intelligence model based on the lesion location coordinate points are the location coordinate points of the lesion candidate group arbitrarily designated in the virtual lesion structure and the location coordinates corresponding to the location information of the lesion candidate group in the image data obtained by photographing the lesion structure. A medical image matching method that includes points and is set in six dimensions.
제6항에 있어서,
상기 인공 지능 모델은 Bi-LSTM(Bidirectional LSTM) 아키텍처를 포함하며,
회귀 레이어 (Regression layer)를 이용하여 회전 및 병진 변환 행렬을 3X3 차원인 회전 변환 행렬과 3X1차원인 병진 변환 행렬으로 출력하는 것인 의료 영상 정합 방법.
According to claim 6,
The artificial intelligence model includes a Bidirectional LSTM (Bi-LSTM) architecture,
A medical image matching method comprising outputting a rotational and translational transformation matrix as a 3X3-dimensional rotational transformation matrix and a 3X1-dimensional translational transformation matrix using a regression layer.
제6항에 있어서,
상기 d) 단계 및 상기e) 단계는 ICP(iterative closest point) 알고리즘을 이용하여 정합하는 것인 의료 영상 정합 방법.
According to claim 6,
Steps d) and steps e) perform matching using an iterative closest point (ICP) algorithm.
제6항에 있어서,
상기 d) 단계는 1회의 증강 시마다 상기 제1정합 좌표점을 5% 증강시키며,
상기 증강을 복수회 실시하는 것인 의료 영상 정합 방법.
According to claim 6,
Step d) augments the first matching coordinate point by 5% for each augmentation;
The method of matching medical images, wherein the augmentation is performed a plurality of times.
제11항에 있어서,
상기 d) 단계는 상기 1회의 증강이 끝날 때마다 표면 정합 오차를 분석하는 단계를 포함하며,
상기 표면 정합 오차 분석값이 기 설정된 종료 조건을 만족할 때 증강을 중단하는 것인 의료 영상 정합 방법.

According to claim 11,
The step d) includes analyzing a surface matching error after each augmentation is completed,
and stopping augmentation when the surface registration error analysis value satisfies a preset end condition.

KR1020210178639A 2021-12-14 2021-12-14 Medical image matching device for enhancing augment reality precision of endoscope and reducing deep target error and method of the same KR102644469B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210178639A KR102644469B1 (en) 2021-12-14 2021-12-14 Medical image matching device for enhancing augment reality precision of endoscope and reducing deep target error and method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210178639A KR102644469B1 (en) 2021-12-14 2021-12-14 Medical image matching device for enhancing augment reality precision of endoscope and reducing deep target error and method of the same

Publications (2)

Publication Number Publication Date
KR20230089889A true KR20230089889A (en) 2023-06-21
KR102644469B1 KR102644469B1 (en) 2024-03-08

Family

ID=86989831

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210178639A KR102644469B1 (en) 2021-12-14 2021-12-14 Medical image matching device for enhancing augment reality precision of endoscope and reducing deep target error and method of the same

Country Status (1)

Country Link
KR (1) KR102644469B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007011314A2 (en) * 2005-07-20 2007-01-25 Bracco Imaging S.P.A. Methods and systems for mapping a virtual model of an object to the object
CN111640143A (en) * 2020-04-12 2020-09-08 复旦大学 Nerve navigation rapid surface registration method and system based on PointNet

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007011314A2 (en) * 2005-07-20 2007-01-25 Bracco Imaging S.P.A. Methods and systems for mapping a virtual model of an object to the object
CN111640143A (en) * 2020-04-12 2020-09-08 复旦大学 Nerve navigation rapid surface registration method and system based on PointNet

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Yasuhiro Aoki 외 3인, PointNetLK: Robust & Efficient Point Cloud Registration using PointNet(2019) 1부.* *
최안렬 외 6인, A Novel Patient-to-Image Surface Registration Technique for ENT- and Neuro-Navigation Systems: Proper Point Set in Patient Space(2021.06.12.) 1부.* *

Also Published As

Publication number Publication date
KR102644469B1 (en) 2024-03-08

Similar Documents

Publication Publication Date Title
CN102727258B (en) Image processing apparatus, ultrasonic photographing system, and image processing method
CN110325141B (en) Image integration device and image integration method
KR101572487B1 (en) System and Method For Non-Invasive Patient-Image Registration
CN102762142B (en) The laser enhancing on 3D surface is rebuild
JP7046591B2 (en) Interactive anatomical mapping and quality estimation of anatomical mapping
JP6594133B2 (en) Endoscope position specifying device, operation method of endoscope position specifying device, and endoscope position specifying program
Wu et al. Three-dimensional modeling from endoscopic video using geometric constraints via feature positioning
US20090080742A1 (en) Image display device and image display program storage medium
EP3832599A1 (en) Device for providing 3d image registration and method therefor
US20170347989A1 (en) Medical apparatus, medical-image generating method, and recording medium on which medical-image generating program is recorded
JP2020014711A (en) Inspection support device, method, and program
KR102437616B1 (en) 3D image registration providing apparatus, image coordinate matching method and surface data acquisition method using the same
CN112741689A (en) Method and system for realizing navigation by using optical scanning component
KR102644469B1 (en) Medical image matching device for enhancing augment reality precision of endoscope and reducing deep target error and method of the same
KR20160057024A (en) Markerless 3D Object Tracking Apparatus and Method therefor
JP7409624B2 (en) Information processing device, information processing method, and program
US20220222840A1 (en) Control device, image processing method, and storage medium
US20220249174A1 (en) Surgical navigation system, information processing device and information processing method
Shevchenko et al. A high resolution bladder wall map: Feasibility study
KR20210150633A (en) System and method for measuring angle and depth of implant surgical instrument
KR20240064086A (en) Medical image matching device based on transfer learning and method of the same
CN110009666B (en) Method and device for establishing matching model in robot space registration
KR20220096157A (en) 3d image registration method based on markerless, method for tracking 3d object and apparatus implementing the same method
KR20210068189A (en) Method for determining lesion based on medical image
Sargent et al. Cross modality registration of video and magnetic tracker data for 3D appearance and structure modeling

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant