KR102233585B1 - Image registration apparatus and method using multiple candidate points - Google Patents

Image registration apparatus and method using multiple candidate points Download PDF

Info

Publication number
KR102233585B1
KR102233585B1 KR1020200023746A KR20200023746A KR102233585B1 KR 102233585 B1 KR102233585 B1 KR 102233585B1 KR 1020200023746 A KR1020200023746 A KR 1020200023746A KR 20200023746 A KR20200023746 A KR 20200023746A KR 102233585 B1 KR102233585 B1 KR 102233585B1
Authority
KR
South Korea
Prior art keywords
point
coordinate system
points
image processing
processing apparatus
Prior art date
Application number
KR1020200023746A
Other languages
Korean (ko)
Other versions
KR20200026851A (en
Inventor
박종현
최선홍
Original Assignee
(주)레벨소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)레벨소프트 filed Critical (주)레벨소프트
Priority to KR1020200023746A priority Critical patent/KR102233585B1/en
Publication of KR20200026851A publication Critical patent/KR20200026851A/en
Application granted granted Critical
Publication of KR102233585B1 publication Critical patent/KR102233585B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2074Interface software
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery

Abstract

대상체 상에서 센싱된 기준점을 이용하여 대상체의 적어도 일부를 나타내는 출력 영상 데이터를 생성하는 영상 처리 장치가 개시된다. 영상 처리 장치는 대상체 상에서 센싱된 복수의 지점을 제1 좌표계(coordinate system) 상에 정의하는, 제1 기준점 세트(fiducial points set)를 획득하고, 대상체에 대응하는 영상 데이터는 제2 좌표계에서 정의되고, 제1 기준점 세트가 나타내는 복수의 제1 기준점 중에서 어느 하나에 매핑(mapping)되는 제2 기준점을 기초로 복수의 후보 대응점을 획득하고, 제1 기준점 세트 및 복수의 후보 대응점을 기초로, 대상체 상에서 센싱된 지점의 제1 좌표계 상의 위치 정보를 제2 좌표계 상의 위치 정보로 변환하는 정합 파라미터를 결정하고, 결정된 정합 파라미터를 기초로 센서를 통해 센싱된 지점과 대상체 사이의 상대적인 위치(relative positions)를 나타내는 출력 영상 데이터를 생성하는 프로세서를 포함한다.Disclosed is an image processing apparatus that generates output image data representing at least a portion of an object by using a reference point sensed on an object. The image processing apparatus acquires a first fiducial points set, which defines a plurality of points sensed on an object on a first coordinate system, and image data corresponding to the object is defined in a second coordinate system. , A plurality of candidate correspondence points are obtained based on a second reference point mapped to any one of a plurality of first reference points indicated by the first reference point set, and on the object based on the first reference point set and the plurality of candidate correspondence points. Determines a matching parameter that converts position information on the first coordinate system of the sensed point into position information on the second coordinate system, and indicates the relative positions between the point sensed through the sensor and the object based on the determined matching parameter. And a processor that generates output image data.

Description

복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법 {IMAGE REGISTRATION APPARATUS AND METHOD USING MULTIPLE CANDIDATE POINTS}Image registration apparatus and method using a plurality of candidate correspondence points {IMAGE REGISTRATION APPARATUS AND METHOD USING MULTIPLE CANDIDATE POINTS}

본 개시는 영상 정합 장치 및 방법에 관한 것으로, 보다 상세하게는 하나의 기준점에 대응하는 복수의 후보 대응점을 사용하여 영상 데이터를 정합하는 장치 및 방법에 관한 것이다.The present disclosure relates to an image matching apparatus and method, and more particularly, to an apparatus and method for matching image data using a plurality of candidate correspondence points corresponding to one reference point.

수술 시 환자의 절개 부위를 최소화하는 최소 침습 수술이 널리 사용되고 있다. 최소 침습 수술은 절개 부위를 최소화하고 그에 따른 실혈(blood loss)과 회복기간을 최소화할 수 있는 장점이 있으나, 의사의 시야가 제한되어 일부 수술들의 경우 뇌수막 손상, 안구 손상 등의 위험 요인을 갖고 있다. 의사의 시야가 제한되는 최소 침습 수술의 단점을 극복하기 위한 도구의 하나로써, 의료용 항법 장치(또는, 수술 항법 장치)가 사용되고 있다. 의료용 항법 장치는 사전에 확보된 환자의 의료 영상을 기준으로 환자의 환부에 삽입된 기구의 위치 정보를 실시간으로 추적하여 제공한다. 또한, 이러한 의료용 항법 장치는 내시경과 결합하여 사용될 수도 있다.Minimally invasive surgery, which minimizes the patient's incision during surgery, is widely used. Minimally invasive surgery has the advantage of minimizing the incision site and minimizing blood loss and recovery period accordingly, but some surgeries have risk factors such as meningeal damage and eye damage due to the limited vision of the doctor. . As one of the tools for overcoming the shortcomings of minimally invasive surgery in which a doctor's field of view is limited, a medical navigation device (or a surgical navigation device) has been used. The medical navigation device provides real-time tracking of location information of an instrument inserted in a patient's affected part based on a previously secured medical image of a patient. In addition, such a medical navigation device may be used in combination with an endoscope.

의료용 항법 장치에서 삽입된 시술 기구의 실시간 위치 추적을 위해 광학식 또는 전자기식 위치 추적 장치가 사용될 수 있다. 시술 기구의 위치 추적을 위한 일 예로, 적외선 방출 장치와 패시브 형태의 이미지 센서를 포함하는 광학식 위치 추적 장치가 사용될 수 있다. 광학식 위치 추적 장치는 적외선 방출 장치를 통해 기준 광을 방사하고, 복수의 마커들에 의해 반사되는 이미지를 이미지 센서를 통해 수집한다. 해당 위치 추적 장치는 복수의 마커들의 위치를 기초로 시술 기구의 위치 정보를 획득할 수 있다. 한편, 시술 기구의 위치 추적을 위한 다른 예로, 자기장 생성기 및 전도성 금속 물체를 포함하는 전자기식 위치 추적 장치가 사용될 수 있다. 전자기식 위치 추적 장치는 자기장 생성기에 의해 생성된 자기장 내에서 전도성 금속 물체에 발생하는 맴돌이 전류를 측정하여 시술 기구의 위치 정보를 획득할 수 있다. 위치 추적 장치에서 시술 기구와 신체 부위의 위치 관계를 정확하게 표시하기 위해, 환자의 신체 부위에 대한 의료 데이터와 시술 기구간의 위치 관계를 정의하는 정합 과정이 필요할 수 있다.An optical or electromagnetic positioning device may be used for real-time positioning of a surgical instrument inserted in a medical navigation device. As an example for tracking the location of the surgical instrument, an optical location tracking device including an infrared emission device and a passive image sensor may be used. The optical position tracking device emits reference light through an infrared emission device, and collects images reflected by a plurality of markers through an image sensor. The corresponding location tracking device may acquire location information of a procedure device based on the locations of a plurality of markers. Meanwhile, as another example for tracking the location of the surgical instrument, an electromagnetic location tracking device including a magnetic field generator and a conductive metal object may be used. The electromagnetic position tracking device may obtain positional information of a surgical instrument by measuring an eddy current generated in a conductive metal object in a magnetic field generated by the magnetic field generator. In order to accurately display the positional relationship between the procedure device and the body part in the position tracking device, a registration process may be required to define the positional relationship between the medical data on the patient's body part and the procedure device.

도 1은 의료용 항법 장치의 출력 영상의 일 실시예를 도시한다. 의료용 항법 장치는 신체 부위에 대한 수평면(horizontal), 시상면(sagittal) 및 관상면(coronal)의 영상들 중 적어도 하나를 디스플레이 할 수 있다. 시술자(또는, 의사)는 각 영상들을 해석하여 시술 기구의 3차원적 위치를 판단하고, 인접한 위험 요소 등을 파악한다. 그러나 이러한 단면 영상들은 신체 부위 내에서의 시술 기구의 위치를 직관적으로 표현할 수 없다. 따라서, 복수의 단면 영상들을 대조하여 시술 기구의 정확한 위치를 판단하기 위해서 시술자의 숙련도가 필요할 뿐만 아니라 많은 시간이 소요될 수 있다. 또한, 시술 기구의 위치 파악을 위해 의료용 항법 장치의 모니터를 주시하는 시간이 길어질 경우, 전체적인 시술 기간이 길어져 시술자와 환자 모두의 피로를 증가시킬 수 있다.1 shows an embodiment of an output image of a medical navigation device. The medical navigation device may display at least one of images of a horizontal plane, a sagittal plane, and a coronal plane for a body part. The operator (or doctor) interprets each image to determine the three-dimensional position of the surgical instrument, and identifies adjacent risk factors. However, these cross-sectional images cannot intuitively express the position of the surgical instrument within the body part. Accordingly, in order to determine the exact position of the surgical instrument by comparing a plurality of cross-sectional images, not only the operator's skill is required, but it may take a lot of time. In addition, if the time to watch the monitor of the medical navigation device is prolonged to determine the location of the procedure device, the overall treatment period may be prolonged, thereby increasing the fatigue of both the operator and the patient.

공개특허공보 제10-2014-0105101호Unexamined Patent Publication No. 10-2014-0105101 일본 특허공보 특허 제5283157호Japanese Patent Publication No. 583157 일본 공개특허공보 특개2018-038609호Japanese Unexamined Patent Application Publication No. 2018-038609 일본 특허공보 특허 제5486182호Japanese Patent Publication No. 5461862

본 개시의 일 실시예에 따른 영상 처리 장치 및 방법은 대상체에 대응하는 출력 영상 데이터를 제공하는 것을 목적으로 한다. 구체적으로, 본 개시의 일 실시예에 따른 영상 처리 장치 및 방법은 대상체에 대응하는 영상 데이터를 기초로 정합된 출력 영상 데이터를 제공하는 것을 목적으로 한다. 또한, 본 개시의 일 실시예에 따른 영상 처리 장치 및 방법은 기준점 지정 시 발생하는 오차를 감소시켜 정합 오차를 개선시키는 것을 목적으로 한다.An image processing apparatus and method according to an embodiment of the present disclosure aims to provide output image data corresponding to an object. Specifically, an image processing apparatus and method according to an embodiment of the present disclosure aims to provide output image data matched based on image data corresponding to an object. In addition, an image processing apparatus and method according to an embodiment of the present disclosure aims to improve a matching error by reducing an error generated when specifying a reference point.

상기와 같은 과제를 해결하기 위한 본 개시의 실시예에 따르면, 대상체 상에서 센싱된 복수의 지점을 제1 좌표계(coordinate system) 상에 정의하는, 제1 기준점 세트(fiducial points set)를 획득하고, 상기 대상체에 대응하는 영상 데이터는 제2 좌표계에서 정의되고, 상기 제1 기준점 세트가 나타내는 복수의 제1 기준점 중에서 어느 하나에 매핑(mapping)되는 제2 기준점을 기초로 복수의 후보 대응점을 획득하고, 상기 제1 기준점 세트 및 상기 복수의 후보 대응점을 기초로, 상기 대상체 상에서 센싱된 지점의 상기 제1 좌표계 상의 위치 정보를 상기 제2 좌표계 상의 위치 정보로 변환하는 정합 파라미터를 결정하고, 상기 결정된 정합 파라미터를 기초로 센서를 통해 센싱된 지점과 상기 대상체 사이의 상대적인 위치(relative positions)를 나타내는 출력 영상 데이터를 생성하는 프로세서를 포함하는 영상 처리 장치를 제공할 수 있다.According to an embodiment of the present disclosure for solving the above problems, a first set of fiducial points, defining a plurality of points sensed on an object on a first coordinate system, is obtained, and the The image data corresponding to the object is defined in a second coordinate system, and a plurality of candidate correspondence points are obtained based on a second reference point mapped to any one of a plurality of first reference points indicated by the first reference point set, and the Based on a first set of reference points and the plurality of candidate corresponding points, a matching parameter for converting position information on the first coordinate system of a point sensed on the object to position information on the second coordinate system is determined, and the determined matching parameter is An image processing apparatus including a processor that generates output image data indicating relative positions between a point sensed through a sensor and the object as a basis may be provided.

또한 본 개시의 일 실시예에 따른 방법은, 대상체 상에서 센싱된 복수의 지점을 제1 좌표계 상에 정의하는, 제1 기준점 세트를 획득하는 단계, 상기 대상체에 대응하는 영상 데이터는 제2 좌표계에서 정의되고, 상기 제1 기준점 세트가 나타내는 복수의 제1 기준점 중에서 어느 하나에 매핑되는 제2 기준점을 기초로 복수의 후보 대응점을 획득하는 단계, 상기 제1 기준점 세트 및 상기 복수의 후보 대응점을 기초로, 상기 대상체 상에서 센싱된 지점의 상기 제1 좌표계 상의 위치 정보를 상기 제2 좌표계 상의 위치 정보로 변환하는 정합 파라미터를 결정하는 단계 및 상기 결정된 정합 파라미터를 기초로 센서를 통해 센싱된 지점과 상기 대상체 사이의 상대적인 위치를 나타내는 출력 영상 데이터를 생성하는 단계를 포함할 수 있다.In addition, the method according to an embodiment of the present disclosure includes: defining a plurality of points sensed on an object on a first coordinate system, obtaining a first set of reference points, and image data corresponding to the object is defined in a second coordinate system And obtaining a plurality of candidate correspondence points based on a second reference point mapped to any one of a plurality of first reference points indicated by the first reference point set, based on the first reference point set and the plurality of candidate correspondence points, Determining a matching parameter for converting position information on the first coordinate system of a point sensed on the object to position information on the second coordinate system, and between the point sensed through a sensor and the object based on the determined matching parameter It may include generating output image data indicating a relative position.

또 다른 측면에 따른 컴퓨터로 읽을 수 있는 기록매체는 상술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함할 수 있다. A computer-readable recording medium according to another aspect may include a recording medium recording a program for executing the above-described method on a computer.

본 개시의 일 실시예에 따른 영상 처리 장치 및 방법에 따르면, 기준점 지정 시 발생하는 오차를 감소시킬 수 있다. 또한, 본 개시의 일 실시예에 따른 영상 처리 장치 및 영상 처리 방법은 대상체 내에 삽입된 의료용 기기의 위치로 센싱된 지점의 위치를 정밀하게 나타내는 출력 영상 데이터를 제공할 수 있다.According to the image processing apparatus and method according to an exemplary embodiment of the present disclosure, an error occurring when a reference point is designated may be reduced. In addition, the image processing apparatus and image processing method according to an exemplary embodiment of the present disclosure may provide output image data accurately indicating a position of a point sensed as a position of a medical device inserted into an object.

도 1은 의료용 항법 장치의 출력 영상의 일 실시예를 도시한다.
도 2는 본 개시의 일 실시예에 따른 영상 처리 장치의 동작을 보여주는 개략도이다.
도 3은 본 개시의 일 실시예에 따른 기준점 지정 오차 및 기준점 정합 오차를 나타내는 도면이다.
도 4는 본 개시의 일 실시예에 따른 영상 처리 장치의 동작 방법을 도시하는 흐름도이다.
도 5는 본 개시의 일 실시예에 따라 생성된 출력 영상 데이터의 예시를 나타내는 도면이다.
도 6은 본 개시의 일 실시예에 따른 복수의 후보 대응점을 나타내는 도면이다.
도 7은 본 개시의 일 실시예에 따른 영상 처리 장치의 블록도이다.
1 shows an embodiment of an output image of a medical navigation device.
2 is a schematic diagram illustrating an operation of an image processing apparatus according to an exemplary embodiment of the present disclosure.
3 is a diagram illustrating a reference point designation error and a reference point matching error according to an embodiment of the present disclosure.
4 is a flowchart illustrating a method of operating an image processing apparatus according to an exemplary embodiment of the present disclosure.
5 is a diagram illustrating an example of output image data generated according to an embodiment of the present disclosure.
6 is a diagram illustrating a plurality of candidate correspondence points according to an embodiment of the present disclosure.
7 is a block diagram of an image processing apparatus according to an embodiment of the present disclosure.

본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.The terms used in the present specification have been selected as currently widely used general terms as possible while taking functions in the present disclosure into consideration, but this may vary according to the intention, custom, or the emergence of new technologies of technicians engaged in the art. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in the corresponding description. Therefore, it should be noted that the terms used in the present specification should be interpreted based on the actual meaning of the term and the entire contents of the present specification, not a simple name of the term.

명세서 전체에서, 어떤 구성이 다른 구성과 “연결”되어 있다고 할 때, 이는 “직접적으로 연결”되어 있는 경우 뿐 아니라, 그 중간에 다른 구성요소를 사이에 두고 “전기적으로 연결”되어 있는 경우도 포함한다. 또한 어떤 구성이 특정 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 이에 더하여, 특정 임계값을 기준으로 “이상” 또는 “이하”라는 한정 사항은 실시예에 따라 각각 “초과” 또는 “미만”으로 적절하게 대체될 수 있다.Throughout the specification, when a component is said to be “connected” with another component, this includes not only the case that it is “directly connected”, but also the case that it is “electrically connected” with another component in the middle. do. In addition, when a certain component "includes" a specific component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary. In addition, the limitations of "more" or "less than" based on a specific threshold value may be appropriately replaced with "excess" or "less than", respectively, depending on the embodiment.

이하, 각 도면을 참조로 본 개시의 실시예에 따른 영상 처리 장치 및 영상 처리 방법을 설명하도록 한다. 본 개시의 실시예에 따른 영상 처리 장치 및 영상 처리 방법은 인체 및 동물체를 포함하는 대상체에 대응하는 영상 데이터에 적용될 수 있다. 영상 데이터는 X-ray 영상, 컴퓨터 단층 촬영(Computed Tomography, CT) 영상, 양전자 방출 단층 촬영(Positron Emission Tomography, PET) 영상, 초음파 영상 및 자기 공명 영상(Magnetic Resonance Imaging, MRI)을 포함하며, 본 개시는 이에 한정되지 않는다. 예를 들어, 대상체에 대응하는 영상 데이터는 해당 대상체를 상기 다양한 촬영 방식으로 촬영하여 획득한 영상 데이터를 의미할 수 있다. 또한, 본 명세서에서 영상 데이터는 영상 자체 뿐만 아니라 영상을 렌더링하여 생성된 다양한 형태의 데이터를 포함하는 넓은 의미의 용어로 사용된다. 일 실시예에 따르면, 영상 데이터는 영상을 볼륨 렌더링한 데이터를 가리킬 수 있다. 또한, 영상 데이터는 2차원의 의료 영상들의 그룹으로 구성된 3차원 데이터 세트를 가리킬 수도 있다. 이와 같이 구성된 3차원 데이터 세트의 정규 격자 단위의 값을 복셀(voxel)이라고 한다. Hereinafter, an image processing apparatus and an image processing method according to an exemplary embodiment of the present disclosure will be described with reference to each drawing. The image processing apparatus and image processing method according to an exemplary embodiment of the present disclosure may be applied to image data corresponding to an object including a human body and an animal body. Image data includes X-ray images, computed tomography (CT) images, positron emission tomography (PET) images, ultrasound images, and magnetic resonance imaging (MRI). The disclosure is not limited thereto. For example, image data corresponding to an object may mean image data obtained by photographing a corresponding object using the various photographing methods. In addition, in the present specification, image data is used in a broad sense including not only the image itself, but also various types of data generated by rendering the image. According to an embodiment, the image data may refer to data obtained by volume-rendering an image. Also, the image data may refer to a 3D data set composed of a group of 2D medical images. The value of the regular grid unit of the 3D data set constructed as described above is called a voxel.

본 개시의 일 실시예에 따른 영상 처리 장치 및 영상 처리 방법은 센서를 통해 센싱된 지점과 대상체 사이의 상대적인 위치를 나타내는 출력 영상 데이터를 제공할 수 있다. 예를 들어, 영상 처리 장치는 대상체에 삽입된 의료용 기기의 위치를 사전에 획득한 대상체의 영상 데이터 상에 표시할 수 있다. 이를 통해, 시술자는 출력 영상에 표시되는 의료용 기기의 위치를 이용하여 대상체 내에서의 의료용 기기의 위치를 파악하고 시술에 있어 인접한 위험 요소를 파악할 수 있다.The image processing apparatus and image processing method according to an exemplary embodiment of the present disclosure may provide output image data indicating a relative position between a point sensed through a sensor and an object. For example, the image processing apparatus may display the position of a medical device inserted in the object on image data of the object obtained in advance. Through this, the operator can grasp the position of the medical device in the object by using the position of the medical device displayed on the output image and identify the adjacent risk factors in the procedure.

상기와 같이, 대상체에 대응하는 영상 데이터 상에 의료용 기기의 위치를 표시하려는 경우, 영상 처리 장치는 대상체 상에서 의료용 기기의 위치로 센싱된 지점의 위치 정보를 영상 데이터 상의 위치 정보로 변환해야 할 수 있다. 센서를 통해 센싱된 지점의 위치 정보는 영상 데이터를 나타내는 좌표계와 상이한 좌표계를 통해 정의될 수 있기 때문이다. 이때, 영상 처리 장치는 제1 좌표계에서 정의되는 지점의 위치 정보를 제2 좌표계에서 정의되는 위치 정보로 정합(registration)할 수 있다. 여기에서, 정합이란 서로 다른 좌표 시스템 상에서 정의된 위치 정보 사이의 관계를 이용하여 하나의 좌표 시스템으로 조정(align)하는 것을 의미할 수 있다. 제1 좌표계는 대상체 상에서 센싱된 지점의 위치 정보를 나타내는 좌표계일 수 있다. 또한, 제2 좌표계는 대상체에 대응하는 영상 데이터 상의 지점을 나타내는 좌표계일 수 있다. 예를 들어, 영상 처리 장치는 대상체 상에서 의료용 기기의 위치로 센싱된 지점의 위치를 나타내는 제1 좌표계 상의 위치 정보를 제2 좌표계 상의 위치 정보로 정합하여, 대상체에 대응하는 영상 데이터 상에서 의료용 기기의 위치를 표시할 수 있다. As described above, when a position of a medical device is to be displayed on image data corresponding to an object, the image processing apparatus may need to convert position information of a point sensed as the position of the medical device on the object into position information on the image data. . This is because the location information of the point sensed through the sensor can be defined through a coordinate system different from the coordinate system representing the image data. In this case, the image processing apparatus may register location information of a point defined in the first coordinate system with location information defined in the second coordinate system. Here, registration may mean aligning with one coordinate system by using a relationship between position information defined on different coordinate systems. The first coordinate system may be a coordinate system indicating location information of a point sensed on the object. Also, the second coordinate system may be a coordinate system indicating a point on image data corresponding to an object. For example, the image processing apparatus may match position information on a first coordinate system indicating a position of a point sensed as a position of a medical device on an object with position information on a second coordinate system, and the position of the medical device on the image data corresponding to the object. Can be displayed.

이하에서는, 본 개시의 일 실시예에 따른 영상 처리 장치가 센서를 통해 센싱된 지점의 위치를 나타내는 제1 좌표계(coordinate system)와 대상체에 대응하는 영상 데이터를 나타내는 제2 좌표계를 정합하는 방법에 대해 도 2를 참조하여 설명한다. 도 2는 본 개시의 일 실시예에 따른 영상 처리 장치(100)의 동작을 보여주는 개략도이다.Hereinafter, a method of matching a first coordinate system indicating a position of a point sensed through a sensor and a second coordinate system indicating image data corresponding to an object by the image processing apparatus according to an embodiment of the present disclosure will be described. This will be described with reference to FIG. 2. 2 is a schematic diagram showing an operation of the image processing apparatus 100 according to an exemplary embodiment of the present disclosure.

일 실시예에 따라, 영상 처리 장치(100)는 점 기반 정합(point-based registration)을 이용하여 제1 좌표계와 제2 좌표계를 정합할 수 있다. 여기에서, 점 기반 정합이란, 서로 다른 좌표계에서 각각 정의되는 기준점 세트(fiducial points set)를 이용하여 서로 다른 좌표계를 정합하는 것을 의미할 수 있다. According to an embodiment, the image processing apparatus 100 may register the first coordinate system and the second coordinate system using point-based registration. Here, the point-based matching may mean matching different coordinate systems using fiducial points sets that are respectively defined in different coordinate systems.

예를 들어, 영상 처리 장치(100)는 대상체 상에서 센싱된 제1 기준점 세트 및 대상체에 대응하는 영상 데이터 상에서 지정된 제2 기준점 세트를 이용하여 제1 좌표계와 제2 좌표계를 정합할 수 있다. 이때, 제1 기준점 세트가 포함하는 복수의 기준점과 제2 기준점 세트가 포함하는 복수의 기준점은 서로 일대일 매핑(mapping) 관계에 있을 수 있다. 또한, 기준점(fiducial point)은 점 기반 정합을 통해 서로 다른 좌표계를 정합하기 위해 이용되는 점을 의미할 수 있다.For example, the image processing apparatus 100 may match the first coordinate system and the second coordinate system using a first set of reference points sensed on the object and a second set of reference points designated on image data corresponding to the object. In this case, a plurality of reference points included in the first reference point set and a plurality of reference points included in the second reference point set may have a one-to-one mapping relationship with each other. In addition, a fiducial point may mean a point used to match different coordinate systems through point-based registration.

도 2의 실시예에서, 영상 처리 장치(100)는 대상체(300) 상에서 센싱된 복수의 기준점(21, 22, 23)을 포함하는 제1 기준점 세트를 획득할 수 있다. 여기에서, 제1 기준점 세트는 신 포인트 세트(Scene point set)로 지칭될 수 있다. 또한, 신 포인트 세트는 환자 랜드마크(patient landmark)를 포함할 수 있다. 구체적으로, 제1 기준점 세트가 포함하는 제1 기준점(21), 제2 기준점(22), 제3 기준점(23)은 제1 좌표계 상의 3차원 좌표일 수 있다. 제1 좌표계는 대상체 상에서 센싱된 지점의 위치 정보를 나타내는 좌표 시스템일 수 있다. 또한, 제1 기준점(21), 제2 기준점(22), 제3 기준점(23)은 위치 추적 장치(200)에 의해 대상체(300) 상에서 센싱된 각각의 지점의 위치 정보를 나타낼 수 있다. 도 2에 도시된 바와 같이, 영상 처리 장치(100)는 위치 추적 장치(200)로부터 제1 기준점(21), 제2 기준점(22), 제3 기준점(23)을 수신할 수 있다. 예를 들어, 영상 처리 장치(100)는 위치 추적 장치(200)로부터 위치 추적 장치(200)를 통한 사용자 입력에 기초하여 지정된 제1 기준점(21), 제2 기준점(22), 제3 기준점(23)을 획득할 수 있다.In the embodiment of FIG. 2, the image processing apparatus 100 may acquire a first set of reference points including a plurality of reference points 21, 22, and 23 sensed on the object 300. Here, the first reference point set may be referred to as a scene point set. Also, the scene point set may include a patient landmark. Specifically, the first reference point 21, the second reference point 22, and the third reference point 23 included in the first reference point set may be 3D coordinates on the first coordinate system. The first coordinate system may be a coordinate system indicating position information of a point sensed on the object. In addition, the first reference point 21, the second reference point 22, and the third reference point 23 may represent location information of each point sensed on the object 300 by the location tracking device 200. 2, the image processing apparatus 100 may receive a first reference point 21, a second reference point 22, and a third reference point 23 from the location tracking device 200. For example, the image processing apparatus 100 may include a first reference point 21, a second reference point 22, and a third reference point ( 23) can be obtained.

또한, 영상 처리 장치(100)는 대상체에 대응하는 영상 데이터(400) 상에서 지정된 복수의 기준점(11, 12, 13)을 포함하는 제2 기준점 세트를 획득할 수 있다. 여기에서, 제2 기준점 세트는 모델 포인트 세트(model point set)로 지칭될 수 있다. 또한, 모델 포인트 세트는 이미지 랜드마크(image landmark)를 포함할 수 있다. 구체적으로, 제2 기준점 세트가 포함하는 제4 기준점(11), 제5 기준점(12), 제6 기준점(13)은 제2 좌표계 상의 3차원 좌표일 수 있다. 제2 좌표계는 대상체에 대응하는 영상 데이터를 나타내는 좌표 시스템일 수 있다. 또한, 영상 처리 장치(100)는 사용자 입력에 기초하여 제4 기준점(11), 제5 기준점(12), 제6 기준점(13)을 획득할 수 있다. 구체적으로, 영상 처리 장치(100)는 CT 등의 3D 영상 데이터에서 가시화(Visualization) 소프트웨어를 사용하여 지정된 제2 기준점 세트를 획득할 수 있다. Also, the image processing apparatus 100 may obtain a second set of reference points including a plurality of reference points 11, 12, and 13 designated on the image data 400 corresponding to the object. Here, the second reference point set may be referred to as a model point set. Additionally, the set of model points may include image landmarks. Specifically, the fourth reference point 11, the fifth reference point 12, and the sixth reference point 13 included in the second reference point set may be 3D coordinates on the second coordinate system. The second coordinate system may be a coordinate system representing image data corresponding to an object. Also, the image processing apparatus 100 may acquire the fourth reference point 11, the fifth reference point 12, and the sixth reference point 13 based on a user input. Specifically, the image processing apparatus 100 may acquire a designated second reference point set from 3D image data such as CT using visualization software.

다음으로, 영상 처리 장치(100)는 제1 기준점 세트 및 제2 기준점 세트를 기초로 정합 파라미터(registration parameter)를 획득할 수 있다. 예를 들어, 정합 파라미터는 센서를 통해 센싱된 지점의 제1 좌표계 상의 위치 정보를 제2 좌표계 상의 위치 정보로 변환하는 제1 파라미터일 수 있다. 또는 정합 파라미터는 제2 좌표계 상의 위치 정보를 제1 좌표계 상의 위치 정보로 변환하는 제2 파라미터일 수도 있다. 이때, 제1 파라미터와 제2 파라미터는 역수 관계일 수 있다. 본 개시의 이하에서, 정합 파라미터는 설명의 편의를 위해 제1 파라미터로 가정하여 설명될 수 있으며, 이에 제한되는 것은 아니다.Next, the image processing apparatus 100 may obtain a registration parameter based on the first reference point set and the second reference point set. For example, the matching parameter may be a first parameter that converts position information on a first coordinate system of a point sensed through a sensor into position information on a second coordinate system. Alternatively, the matching parameter may be a second parameter for converting position information on the second coordinate system into position information on the first coordinate system. In this case, the first parameter and the second parameter may have an inverse relationship. In the following of the present disclosure, the matching parameter may be described on the assumption that it is a first parameter for convenience of description, but is not limited thereto.

도 2의 실시예에서, 제1 기준점(21)은 제4 기준점(11)에, 제2 기준점(22)은 제5 기준점(12)에, 제3 기준점(23)은 제6 기준점(13)에 각각 매핑(mapping)된다. 본 개시에서, 매핑 관계에 있는 한 쌍의 기준점은 페어링된 기준점(paired fiducial points)으로 지칭될 수 있다. 영상 처리 장치(100)는 복수의 페어링된 기준점 사이의 위치 관계를 기초로 정합 파라미터를 획득할 수 있다. 영상 처리 장치(100)는 제1 좌표계 상의 제1 기준점(21), 제2 기준점(22), 제3 기준점(23)을 제2 좌표계 상의 점으로 변환할 수 있다. 예를 들어, 영상 처리 장치(100)는 제1 좌표계 상의 제1 기준점 세트를 회전 및 평행 이동하여, 제2 좌표계 상의 점으로 변환할 수 있다. In the embodiment of FIG. 2, the first reference point 21 is at the fourth reference point 11, the second reference point 22 is at the fifth reference point 12, and the third reference point 23 is at the sixth reference point 13. Each is mapped to. In the present disclosure, a pair of reference points in a mapping relationship may be referred to as paired fiducial points. The image processing apparatus 100 may obtain a matching parameter based on a positional relationship between a plurality of paired reference points. The image processing apparatus 100 may convert the first reference point 21, the second reference point 22, and the third reference point 23 on the first coordinate system into a point on the second coordinate system. For example, the image processing apparatus 100 may rotate and translate a first reference point set on the first coordinate system into a point on the second coordinate system by rotating and moving it in parallel.

또한, 영상 처리 장치(100)는 변환된 제1 기준점(21), 제2 기준점(22), 제3 기준점(23)과 매핑 관계에 있는 제4 기준점(11), 제5 기준점(12), 제6 기준점(13) 사이의 오차를 계산할 수 있다. 이때, 변환 후 페어링된 기준점 사이의 오차는 기준점 정합 오차(fiducial registration error, FRE) 또는 정합 오차로 지칭될 수 있다. 영상 처리 장치(100)는 정합 오차를 최적화하는 정합 파라미터를 획득할 수 있다. 구체적으로, 영상 처리 장치(100)는 변환된 제1 기준점(21)과 제4 기준점(11) 사이의 거리, 제2 기준점(22)과 제5 기준점(12) 사이의 거리 및 제3 기준점(23)과 제6 기준점(13) 사이의 거리를 기초로 정합 오차를 결정할 수 있다. 또한, 영상 처리 장치(100)는 정합 오차를 기초로 정합 파라미터의 갱신 여부를 결정할 수 있다. 예를 들어, 기준점 정합 오차가 수렴하는 경우, 영상 처리 장치(100)는 정합 파라미터를 갱신하지 않을 수 있다. 이 경우, 영상 처리 장치(100)는 결정된 정합 파라미터를 기초로 전술한 출력 영상 데이터를 생성할 수 있다. 한편, 기준점 정합 오차가 수렴하지 않는 경우, 영상 처리 장치(100)는 정합 파라미터를 갱신할 수 있다. In addition, the image processing apparatus 100 includes the converted first reference point 21, the second reference point 22, and the fourth reference point 11, the fifth reference point 12, which are in a mapping relationship with the third reference point 23. An error between the sixth reference points 13 can be calculated. In this case, the error between the paired reference points after conversion may be referred to as a fiducial registration error (FRE) or a matching error. The image processing apparatus 100 may obtain a matching parameter that optimizes a matching error. Specifically, the image processing apparatus 100 includes the converted distance between the first reference point 21 and the fourth reference point 11, the distance between the second reference point 22 and the fifth reference point 12, and a third reference point ( The matching error may be determined based on the distance between 23) and the sixth reference point 13. Also, the image processing apparatus 100 may determine whether to update the matching parameter based on the matching error. For example, when the reference point matching error converges, the image processing apparatus 100 may not update the matching parameter. In this case, the image processing apparatus 100 may generate the above-described output image data based on the determined matching parameter. Meanwhile, when the reference point matching error does not converge, the image processing apparatus 100 may update the matching parameter.

영상 처리 장치(100)는 정합 파라미터를 획득하기 위해 기준점 정합 오차를 최적화하는 다양한 최적화 알고리즘을 이용할 수 있다. 구체적으로, 영상 처리 장치(100)는 반복 최근점(iterative closest points, ICP) 방법을 이용할 수 있다. ICP 방법은 페어링된 기준점 사이의 거리의 총합을 최소화시키는 정합 파라미터를 구하는 최적화 알고리즘이다. 영상 처리 장치(100)는 기준점 정합 오차가 기 설정된 문턱치(threshold) 이하가 될 때까지 정합 파라미터를 갱신하는 ICP 방법을 통해 정합 파라미터를 획득할 수 있다.The image processing apparatus 100 may use various optimization algorithms for optimizing a reference point matching error in order to obtain a matching parameter. Specifically, the image processing apparatus 100 may use an iterative closest points (ICP) method. The ICP method is an optimization algorithm that obtains a matching parameter that minimizes the sum of the distances between the paired reference points. The image processing apparatus 100 may obtain the matching parameter through an ICP method of updating the matching parameter until the reference point matching error becomes less than or equal to a preset threshold.

한편, 도 2의 실시예에서, 영상 처리 장치(100)는 페어링된 3쌍의 기준점을 기초로 제1 좌표계와 제2 좌표계를 정합하는 것으로 설명하였으나, 본 개시가 이에 제한되는 것은 아니다. 예를 들어, 영상 처리 장치(100)는 도 2에 도시된 6쌍의 기준점을 기초로 제1 좌표계와 제2 좌표계를 정합할 수도 있다.Meanwhile, in the embodiment of FIG. 2, it has been described that the image processing apparatus 100 matches the first coordinate system and the second coordinate system based on the paired three pairs of reference points, but the present disclosure is not limited thereto. For example, the image processing apparatus 100 may match the first coordinate system and the second coordinate system based on the six pairs of reference points shown in FIG. 2.

전술한 바와 같이, 영상 처리 장치(100)는 위치 추적 장치(200)로부터 제1 기준점 세트를 수신할 수 있다. 이때, 위치 추적 장치(200)는 대상체(300) 상에서 특정 위치를 센싱하는 프로브(probe)를 포함할 수 있다. 위치 추적 장치(200)는 대상체(300) 상에서 특정한 하나의 지점(point)에 접촉된 프로브의 위치를 나타내는 위치 정보를 생성할 수 있다. 또한, 위치 추적 장치(200)는 생성된 위치 정보를 영상 처리 장치(100)로 전송할 수 있다. 위치 추적 장치(200)는 영상 처리 장치(100)와 연결된 유/무선 인터페이스를 통해 생성된 위치 정보를 영상 처리 장치(100)로 전송할 수 있다. As described above, the image processing apparatus 100 may receive the first reference point set from the location tracking apparatus 200. In this case, the location tracking device 200 may include a probe that senses a specific location on the object 300. The location tracking device 200 may generate location information indicating a location of a probe that is in contact with a specific point on the object 300. Also, the location tracking device 200 may transmit the generated location information to the image processing device 100. The location tracking device 200 may transmit location information generated through a wired/wireless interface connected to the image processing device 100 to the image processing device 100.

본 개시의 일 실시예에 따른 위치 추적 장치(200)는 대상체(300)에 삽입되는 의료용 기기를 포함할 수도 있다. 위치 추적 장치(200)는 다양한 종류의 시술 기능을 포함할 수 있다. 위치 추적 장치(200)는 광학식 위치 추적 방법 또는 전자기식 위치 추적 방법을 사용하여 센싱된 지점의 위치 정보를 생성할 수 있으나, 본 발명은 이에 한정되지 않는다. 구체적으로, 위치 추적 장치(200)는 자기 추적 시스템을 포함할 수 있다. 이때, 위치 추적 장치(200)는 자기 추적 시스템에서 정의되는 좌표계에서 하나의 접촉 점의 위치를 나타내는 위치 정보를 생성할 수 있다. 또한, 위치 추적 장치(200)는 자기장을 발생시키는 자기장 생성부 및 대상체 상에 접촉하는 프로브를 포함할 수 있다. 위치 추적 장치(200)는 자기장 생성부에 의해 생성된 자기장 내에서 대상체(300)에 접촉된 프로브에서 발생하는 맴돌이 전류를 측정하여 대상체(300)와 접촉된 지점의 위치 정보를 생성할 수 있다. The location tracking apparatus 200 according to an embodiment of the present disclosure may include a medical device inserted into the object 300. The location tracking device 200 may include various types of treatment functions. The location tracking device 200 may generate location information of a sensed point using an optical location tracking method or an electromagnetic location tracking method, but the present invention is not limited thereto. Specifically, the location tracking device 200 may include a magnetic tracking system. In this case, the location tracking device 200 may generate location information indicating the location of one contact point in a coordinate system defined in the magnetic tracking system. In addition, the location tracking apparatus 200 may include a magnetic field generator that generates a magnetic field and a probe that contacts the object. The location tracking device 200 may generate location information of a point in contact with the object 300 by measuring an eddy current generated by a probe contacting the object 300 within a magnetic field generated by the magnetic field generator.

한편, 도 2에서 위치 추적 장치(200)는 영상 처리 장치(100)와 별도의 장치인 것으로 설명하였으나, 이에 제한되는 것은 아니다. 예를 들어, 영상 처리 장치(100)는 위치 추적 기능을 탑재할 수 있다. 구체적으로 영상 처리 장치(100)는 위치 추적 기능을 이용하여 대상체 상에서 센싱되는 제1 기준점 세트를 획득할 수도 있다.Meanwhile, in FIG. 2, it has been described that the location tracking device 200 is a device separate from the image processing device 100, but is not limited thereto. For example, the image processing apparatus 100 may be equipped with a location tracking function. In more detail, the image processing apparatus 100 may acquire a first set of reference points sensed on the object by using a location tracking function.

전술한 바와 같이, 대상체에 대응하는 영상 데이터 상에 대상체에 삽입된 의료용 기기의 위치를 표시하려는 경우, 영상 처리 장치(100)는 점 기반 정합을 이용할 수 있다. 이때, 사용자가 정합에 이용되는 기준점을 지정하면서 발생하는 오차(error)로 인해 의료용 기기의 위치가 실제와 다르게 표시될 수 있다. 정합에 이용되는 기준점을 지정하면서 발생하는 오차를 기준점 지정 오차(fiducial localization error, FLE)라고 지칭할 수 있다.As described above, when a position of a medical device inserted into an object is to be displayed on image data corresponding to the object, the image processing apparatus 100 may use point-based registration. In this case, the position of the medical device may be displayed differently from the actual one due to an error occurring while the user designates a reference point used for registration. An error that occurs while designating a reference point used for matching may be referred to as a fiducial localization error (FLE).

도 3은 본 개시의 일 실시예에 따른 기준점 지정 오차 및 기준점 정합 오차를 나타내는 도면이다. 도 3의 블록 31을 참조하면, 영상 처리 장치(100)가 사용자 입력에 기초하여 기준점 세트를 획득하는 경우, 사용자가 지정한 기준점 세트(실선으로 표시된 원)는 실제로 지정되었어야 하는 기준점 세트(점선으로 표시된 원)와 다를 수 있다. 예를 들어, 대상체에 대응하는 영상 데이터 상에서 사용자에 의해 지정된 제2 기준점은 대상체 상에서 센싱된 제1 기준점과 대상체를 기준으로 일치하는 지점이 아닐 수 있다. 반대로, 영상 데이터 상의 2기준점이 미리 지정된 경우, 대상체 상에서 센싱된 제1 기준점은 제2 기준점과 일치하는 지점이 아닐 수 있다. 이러한 기준점 지정 오차로 인해, 도 3의 블록 32에서와 같이 정합 오차가 발생할 수 있다.3 is a diagram illustrating a reference point designation error and a reference point matching error according to an embodiment of the present disclosure. Referring to block 31 of FIG. 3, when the image processing apparatus 100 acquires a reference point set based on a user input, the reference point set (circle indicated by a solid line) designated by the user is actually a reference point set (dotted line) It may be different from the marked circle). For example, the second reference point designated by the user on image data corresponding to the object may not be a point coincident with the first reference point sensed on the object based on the object. Conversely, when two reference points on the image data are previously designated, the first reference point sensed on the object may not be a point coincident with the second reference point. Due to this reference point designation error, a matching error may occur as in block 32 of FIG. 3.

도 3의 블록 32는 앞서 설명한 기준점 정합 오차(FRE)를 나타낸다. 블록 32의 'x'는 제1 좌표계 상의 기준점을 제2 좌표계 상의 점으로 변환된 변환점을 나타낸다. 예를 들어, 영상 처리 장치(100)가 사용자 입력에 기초하여 전술한 제1 기준점 세트 및/또는 제2 기준점 세트를 획득하는 경우, 영상 처리 장치(100)는 기준점 지정 시 발생한 오류가 반영된 정합 파라미터를 획득할 수 있다. 영상 데이터 상의 의료용 기기의 위치가 실제 대상체 내에서의 위치와 다르게 표시되는 경우, 시술 오류가 발생하거나 시술 시간이 지연될 수 있다.Block 32 of FIG. 3 represents the reference point matching error FRE described above. 'X' of block 32 represents a transformed point in which the reference point on the first coordinate system is converted into a point on the second coordinate system. For example, when the image processing apparatus 100 acquires the above-described first reference point set and/or the second reference point set based on a user input, the image processing apparatus 100 is a matching parameter reflecting an error occurring when designating a reference point. Can be obtained. If the position of the medical device on the image data is displayed differently from the position in the actual object, a procedure error may occur or a procedure time may be delayed.

본 개시의 일 실시예에 따라, 영상 처리 장치(100)는 대상체 상에서 센싱된 제1 좌표계 상의 하나의 기준점에 매핑되는 복수의 후보 대응점을 이용하여 제1 좌표계와 제2 좌표계를 정합할 수 있다. 이때, 복수의 후보 대응점은 제2 좌표계에서 정의되는 기준점일 수 있다. 또한, 복수의 후보 대응점은 영상 데이터에 대한 사용자 입력을 기초로 지정된 기준점 외에 기준점에 인접하는 적어도 하나의 대응점을 더 포함할 수 있다. 즉, 대상체 상에서 센싱된 각각의 기준점은 적어도 둘 이상의 후보 대응점과 매핑될 수 있다. 이를 통해, 영상 처리 장치(100)는 기준점 지정 오차를 줄일 수 있다.According to an embodiment of the present disclosure, the image processing apparatus 100 may match the first coordinate system and the second coordinate system using a plurality of candidate correspondence points mapped to one reference point on the first coordinate system sensed on the object. In this case, the plurality of candidate correspondence points may be reference points defined in the second coordinate system. In addition, the plurality of candidate correspondence points may further include at least one correspondence point adjacent to the reference point in addition to a reference point designated based on a user input for image data. That is, each reference point sensed on the object may be mapped to at least two or more candidate correspondence points. Through this, the image processing apparatus 100 may reduce a reference point designation error.

이하에서는, 본 개시의 일 실시예에 따른 영상 처리 장치(100)가 복수의 후보 대응점을 이용하여 정합 파라미터를 획득하는 방법에 대해 도 4를 참조하여 설명한다. 도 4는 본 개시의 일 실시예에 따른 영상 처리 장치(100)의 동작 방법을 도시하는 흐름도이다. 도 4는 영상 처리 장치(100)의 동작을 단계 별로 나누어 도시하고 있으나, 본 개시는 이에 제한되지 않는다. 예를 들어, 도 4에 개시된 영상 처리 장치(100)의 각각의 단계별 동작은 오버랩되거나 병렬적으로 수행될 수 있다. 또한, 영상 처리 장치(100)는 도 4에 개시된 순서와 다른 순서로 각각의 단계별 동작을 수행할 수도 있다.Hereinafter, a method of obtaining a matching parameter by using a plurality of candidate correspondence points by the image processing apparatus 100 according to an embodiment of the present disclosure will be described with reference to FIG. 4. 4 is a flowchart illustrating a method of operating the image processing apparatus 100 according to an exemplary embodiment of the present disclosure. 4 illustrates the operation of the image processing apparatus 100 divided by stages, but the present disclosure is not limited thereto. For example, each step-by-step operation of the image processing apparatus 100 disclosed in FIG. 4 may overlap or be performed in parallel. In addition, the image processing apparatus 100 may perform each step-by-step operation in an order different from the order disclosed in FIG. 4.

단계 S402에서, 영상 처리 장치(100)는 대상체 상에서 센싱된 복수의 지점을 제1 좌표계 상에 정의하는 제1 기준점 세트를 획득할 수 있다. 여기에서, 제1 좌표계는 도 2를 통해 설명한 바와 같이 대상체 상에서 센싱된 지점의 위치를 나타내는 좌표 시스템일 수 있다. 즉, 제1 좌표계는 물리적인 공간에서 센싱된 지점의 위치를 나타내는 좌표 시스템일 수 있다. 구체적으로, 영상 처리 장치(100)는 도 2에서 설명된 위치 추적 장치(200)로부터 제1 기준점 세트를 수신할 수 있다. In step S402, the image processing apparatus 100 may obtain a first set of reference points defining a plurality of points sensed on the object on the first coordinate system. Here, the first coordinate system may be a coordinate system indicating the position of a point sensed on the object as described with reference to FIG. 2. That is, the first coordinate system may be a coordinate system indicating a position of a point sensed in a physical space. Specifically, the image processing apparatus 100 may receive a first set of reference points from the location tracking apparatus 200 described in FIG. 2.

단계 S404에서, 영상 처리 장치(100)는 제2 좌표계 상의 복수의 후보 대응점을 획득할 수 있다. 여기에서, 제2 좌표계는 도 2를 통해 설명한 바와 같이 대상체에 대응하는 영상 데이터를 나타내는 좌표 시스템일 수 있다. 일 실시예에 따라, 영상 처리 장치(100)는 제1 기준점 세트가 나타내는 복수의 제1 기준점 중에서 어느 하나에 매핑되는 제2 기준점을 기초로 복수의 후보 대응점을 획득할 수 있다. 제2 기준점은 제2 좌표계 상의 기준점일 수 있다. 이때, 복수의 후보 대응점은 하나의 제2 기준점 및 하나의 제2 기준점에 인접한 적어도 하나의 대응점을 포함할 수 있다. 구체적으로, 복수의 제2 기준점 각각에 인접한 대응점은 대상체에 대응하는 영상 데이터에서 대상체의 표면(surface)에 위치된 좌표 중에서, 제2 기준점으로부터 기 설정된 영역 내에 포함되는 적어도 하나의 좌표일 수 있다. 복수의 제2 기준점 각각에 인접한 대응점은 제2 기준점과 등위면(iso-surface) 상에 위치된 좌표일 수 있다. 예를 들어, 복수의 제2 기준점 중 어느 하나가 환자의 눈꼬리 지점을 나타내는 경우, 영상 처리 장치(100)는 환자의 피부면에 위치하는 좌표 중에서, 눈꼬리 지점을 중심으로 일정 거리 내에 위치하는 적어도 하나의 좌표일 수 있다. 예를 들어, 영상 처리 장치(100)는 복수의 제1 기준점 각각과 일대일 매핑 관계에 있는 복수의 제2 기준점을 획득할 수 있다. 이 경우, 영상 처리 장치(100)는 복수의 제2 기준점 별로 복수의 제2 기준점 각각에 대한 적어도 하나의 대응점을 획득할 수 있다. 또한, 복수의 제2 기준점은 영상 데이터 상에 기 지정된 점일 수 있다. 또는 복수의 제2 기준점은 영상 데이터에 대한 사용자 입력을 기초로 지정된 점일 수 있다.In step S404, the image processing apparatus 100 may acquire a plurality of candidate correspondence points on the second coordinate system. Here, the second coordinate system may be a coordinate system representing image data corresponding to an object as described with reference to FIG. 2. According to an embodiment, the image processing apparatus 100 may acquire a plurality of candidate correspondence points based on a second reference point mapped to any one of a plurality of first reference points indicated by the first reference point set. The second reference point may be a reference point on the second coordinate system. In this case, the plurality of candidate correspondence points may include one second reference point and at least one correspondence point adjacent to the one second reference point. Specifically, the corresponding point adjacent to each of the plurality of second reference points may be at least one coordinate included in a preset area from the second reference point among coordinates located on the surface of the object in image data corresponding to the object. Corresponding points adjacent to each of the plurality of second reference points may be coordinates located on the second reference point and the iso-surface. For example, when any one of the plurality of second reference points represents the eyetail point of the patient, the image processing apparatus 100 may at least one of the coordinates located on the skin surface of the patient within a predetermined distance from the eyetail point. May be the coordinates of. For example, the image processing apparatus 100 may acquire a plurality of second reference points having a one-to-one mapping relationship with each of the plurality of first reference points. In this case, the image processing apparatus 100 may obtain at least one corresponding point for each of the plurality of second reference points for each of the plurality of second reference points. Also, the plurality of second reference points may be points previously designated on the image data. Alternatively, the plurality of second reference points may be points designated based on a user input for image data.

일 실시예에 따라, 영상 처리 장치(100)는 사용자 입력을 기초로 복수의 제2 기준점을 획득할 수 있다. 예를 들어, 영상 처리 장치(100)는 영상 데이터를 기준으로 하는 사용자 입력을 기초로 복수의 제2 기준점을 획득할 수 있다. 영상 처리 장치(100)는 사용자 입력을 기초로 영상 데이터 상에 지정된 복수의 점을 획득할 수 있다. 이때, 영상 처리 장치(100)는 복수의 점 각각을 복수의 제1 기준점 각각에 매핑시킬 수 있다. 영상 처리 장치(100)는 복수의 제1 기준점을 인덱싱(indexing)하고, 복수의 제1 기준점 각각에 대해 할당된 인덱스(index) 정보를 사용자에게 제공할 수 있다. 이때, 영상 처리 장치(100)는 인덱스 정보 및 사용자 입력을 기초로 영상 데이터 상에 지정된 복수의 점 각각을 복수의 제1 기준점 각각에 매핑시켜 복수의 제2 기준점을 획득할 수 있다. 구체적으로 인덱스는 기 설정된 기준점의 개수를 기초로 설정된 정수일 수 있다. 또는 인덱스는 대상체 상에서 해당 지점에 대응하는 특징을 나타내는 텍스트일 수 있다. 예를 들어, 영상 처리 장치(100)는 기준점을 매핑하기 위해 'eyeLeftOuter', 'eyeLeftInner', 'NoseTip', 'mouthRight'와 같은 인덱스를 이용할 수 있다.According to an embodiment, the image processing apparatus 100 may acquire a plurality of second reference points based on a user input. For example, the image processing apparatus 100 may acquire a plurality of second reference points based on a user input based on image data. The image processing apparatus 100 may acquire a plurality of points designated on the image data based on a user input. In this case, the image processing apparatus 100 may map each of the plurality of points to each of the plurality of first reference points. The image processing apparatus 100 may index a plurality of first reference points and provide index information allocated for each of the plurality of first reference points to a user. In this case, the image processing apparatus 100 may obtain a plurality of second reference points by mapping each of the plurality of points designated on the image data to each of the plurality of first reference points based on the index information and the user input. Specifically, the index may be an integer set based on the number of preset reference points. Alternatively, the index may be text indicating a feature corresponding to a corresponding point on the object. For example, the image processing apparatus 100 may use indexes such as'eyeLeftOuter','eyeLeftInner','NoseTip', and'mouthRight' to map the reference point.

또한, 영상 처리 장치(100)는 복수의 제2 기준점 각각을 기초로 복수의 후보 대응점을 획득할 수 있다. 예를 들어, 하나의 제1 기준점은, 하나의 제2 기준점 및 제2 기준점을 기준으로 기 설정된 거리 이내에 위치하는 적어도 하나의 대응점과 매핑될 수 있다. 일 실시예에 따라, 영상 데이터에서 대상체의 우측 눈꼬리에 위치한 좌표가 제2 기준점으로 지정되는 경우, 영상 처리 장치(100)는 주변의 3차원 좌표 K개를 후보 대응점으로 획득할 수 있다. 예를 들어, 제1 기준점 세트가 N개의 제1 기준점을 포함하는 경우, 영상 처리 장치(100)는 영상 데이터 상에서 N개의 제1 기준점에 각각 매핑되는 K개의 후보 대응점을 획득할 수 있다. 즉, 영상 처리 장치(100)는 제2 좌표계에서 정의되는 총 KxN개의 후보 대응점을 사용하여 제1 좌표계과 제2 좌표계를 정합할 수 있다. 예를 들어, 후보 대응점 개수가 4개이고, 대상체 상에서 센싱된 기준점의 개수가 4개인 경우, 전체 후보 대응점의 개수는 16개일 수 있다. 이때, 후보 대응점 개수는 사용자 입력을 기초로 설정된 값이거나 디폴트(default) 값일 수 있다. 영상 처리 장치(100)가 제2 기준점에 인접한 대응점을 획득하는 방법에 관해서는 도 6에서 상세히 설명한다.Also, the image processing apparatus 100 may acquire a plurality of candidate correspondence points based on each of the plurality of second reference points. For example, one first reference point may be mapped with one second reference point and at least one corresponding point located within a preset distance based on the second reference point. According to an embodiment, when coordinates located at the right edge of the object in the image data are designated as the second reference point, the image processing apparatus 100 may acquire K surrounding 3D coordinates as candidate corresponding points. For example, when the first reference point set includes N first reference points, the image processing apparatus 100 may obtain K candidate corresponding points each mapped to the N first reference points on the image data. That is, the image processing apparatus 100 may match the first coordinate system and the second coordinate system using a total of KxN candidate correspondence points defined in the second coordinate system. For example, when the number of candidate correspondence points is 4 and the number of reference points sensed on the object is 4, the total number of candidate correspondence points may be 16. In this case, the number of candidate correspondence points may be a value set based on a user input or a default value. A method of obtaining a corresponding point adjacent to the second reference point by the image processing apparatus 100 will be described in detail with reference to FIG. 6.

전술한 방법을 통해, 영상 처리 장치(100)는 사용자의 입력을 기초로 지정된 기준점 외에 추가적인 3D 좌표를 좌표계 정합을 위한 기준점으로 사용할 수 있다. 이를 통해, 영상 처리 장치(100)는 기준점 지정 시 발생하는 오차를 감소시킬 수 있다.Through the above-described method, the image processing apparatus 100 may use additional 3D coordinates as a reference point for matching a coordinate system in addition to a reference point designated based on a user's input. Through this, the image processing apparatus 100 may reduce an error that occurs when designating a reference point.

단계 S406에서, 영상 처리 장치(100)는 제1 기준점 세트 및 후보 대응점을 기초로 정합 파라미터를 결정할 수 있다. 예를 들어, 영상 처리 장치(100)는 복수의 페어링된 기준점을 기초로 초기 정합 파라미터를 결정할 수 있다. 이때, 페어링된 기준점은 복수의 제1 기준점 및 복수의 제2 기준점 중에서 매핑 관계에 있는 한 쌍의 제1 기준점 및 제2 기준점을 나타낼 수 있다. 영상 처리 장치(100)는 초기 정합 파라미터를 기초로 복수의 제1 기준점을 제2 좌표계 상의 복수의 변환점(transfomred points)으로 변환할 수 있다. In step S406, the image processing apparatus 100 may determine a matching parameter based on the first reference point set and the candidate corresponding point. For example, the image processing apparatus 100 may determine an initial matching parameter based on a plurality of paired reference points. In this case, the paired reference point may represent a pair of first and second reference points in a mapping relationship among the plurality of first reference points and the plurality of second reference points. The image processing apparatus 100 may convert a plurality of first reference points into a plurality of transformed points on a second coordinate system based on the initial matching parameter.

또한, 영상 처리 장치(100)는 복수의 변환점과 복수의 후보 대응점 사이의 정합 오차를 기초로 정합 파라미터의 갱신 여부를 결정할 수 있다. 여기에서, 정합 오차는 복수의 변환점 각각에 대해, 하나의 변환점과 하나의 변환점에 매핑되는 복수의 후보 대응점 사이의 거리를 산정한 결과에 기초하여 결정될 수 있다. 이때, 하나의 변환점과 복수의 후보 대응점 사이의 매핑 관계는 제1 좌표계 상의 제1 기준점과 제2 좌표계 상의 제2 기준점 사이의 매핑 관계를 기초로 결정될 수 있다. 예를 들어, 제1 변환점이 복수의 제1 기준점 중에서 하나의 특정 제1 기준점으로부터 변환된 것이고, 제1 후보 대응점 및 제2 후보 대응점이 하나의 특정 제1 기준점에 매핑되는 제2 기준점을 기초로 획득된 경우, 제1 후보 대응점 및 제2 후보 대응점은 제1 변환점에 매핑될 수 있다.Also, the image processing apparatus 100 may determine whether to update a matching parameter based on a matching error between a plurality of transform points and a plurality of candidate correspondence points. Here, the matching error may be determined based on a result of calculating a distance between one transform point and a plurality of candidate correspondence points mapped to one transform point for each of the plurality of transform points. In this case, a mapping relationship between one transform point and a plurality of candidate correspondence points may be determined based on a mapping relationship between the first reference point on the first coordinate system and the second reference point on the second coordinate system. For example, a first conversion point is converted from one specific first reference point among a plurality of first reference points, and a first candidate correspondence point and a second candidate correspondence point are mapped to one specific first reference point. When obtained, the first candidate correspondence point and the second candidate correspondence point may be mapped to the first transformation point.

구체적으로, 각각의 변환점에 매핑된 후보 대응점이 2개인 경우, 영상 처리 장치(100)는 제1 변환점에 매핑된 제1 후보 대응점과 제1 변환점 사이의 거리 및 제1 변환점에 매핑된 제2 후보 대응점과 제1 변환점 사이의 거리를 기초로 정합 오차를 결정할 수 있다. 또한, 영상 처리 장치(100)는 제2 변환점에 매핑된 제3 후보 대응점과 제2 변환점 사이의 거리 및 제2 변환점에 매핑된 제4 후보 대응점과 제2 변환점 사이의 거리를 기초로 정합 오차를 결정할 수 있다. Specifically, when there are two candidate correspondence points mapped to each transformation point, the image processing apparatus 100 includes a distance between the first candidate correspondence point mapped to the first transformation point and the first transformation point, and the second candidate mapped to the first transformation point. The matching error may be determined based on the distance between the corresponding point and the first transform point. In addition, the image processing apparatus 100 calculates a matching error based on the distance between the third candidate correspondence point and the second transformation point mapped to the second transformation point, and the distance between the fourth candidate correspondence point and the second transformation point mapped to the second transformation point. You can decide.

예를 들어, 영상 처리 장치(100)는 제1 변환점에 매핑된 제1 후보 대응점과 제2 후보 대응점 중에서, 제1 변환점과의 거리가 더 가까운 제1 후보 대응점을 획득할 수 있다. 또한, 영상 처리 장치(100)는 제2 변환점에 매핑된 제3 후보 대응점과 제4 후보 대응점 중에서, 제2 변환점과의 거리가 더 가까운 제4 후보 대응점을 획득할 수 있다. 영상 처리 장치(100)는 제1 변환점과 제1 후보 대응점 사이의 거리 및 제2 변환점과 제4 후보 대응점 사이의 거리를 기초로 정합 오차를 결정할 수 있다. 이러한 방법으로, 영상 처리 장치(100)는 정합 오차를 최소화 시키는 후보 대응점 세트를 획득할 수 있다. 이때, 후보 대응점 세트는 변환점 별로 매핑된 복수의 후보 대응점 중에서 선택된 후보 대응점을 포함할 수 있다.For example, the image processing apparatus 100 may obtain a first candidate correspondence point having a closer distance to the first transform point from among the first candidate correspondence point and the second candidate correspondence point mapped to the first transform point. Also, the image processing apparatus 100 may obtain a fourth candidate correspondence point having a closer distance to the second transform point from among the third candidate correspondence point and the fourth candidate correspondence point mapped to the second transform point. The image processing apparatus 100 may determine a matching error based on a distance between the first transform point and the first candidate correspondence point and the distance between the second transform point and the fourth candidate correspondence point. In this way, the image processing apparatus 100 may obtain a set of candidate correspondence points for minimizing the matching error. In this case, the candidate correspondence point set may include a candidate correspondence point selected from among a plurality of candidate correspondence points mapped for each transformation point.

일 실시예에 따라, 정합 오차가 수렴하는 경우, 영상 처리 장치(100)는 정합 파라미터를 갱신하지 않을 수 있다. 이때, 영상 처리 장치(100)는 해당 라운드(round)에서의 정합 파라미터를 기초로 출력 영상 데이터를 생성할 수 있다. 구체적으로, 영상 처리 장치(100)는 이전 루프(loop)에서의 제1 정합 오차와 현재 루프에서의 제2 정합 오차 사이의 차이를 기 설정된 문턱치(threshold)와 비교할 수 있다. 영상 처리 장치(100)는 제1 정합 오차와 제2 정합 오차 사이의 차이가 기 설정된 문턱치 보다 작은 경우, 정합 오차가 수렴하는 것으로 판단할 수 있다. 반면, 정합 오차가 수렴하지 않는 경우, 영상 처리 장치(100)는 정합 파라미터를 갱신할 수 있다. 영상 처리 장치(100)는 복수의 제1 기준점을 변환점으로 갱신할 수 있다. 또한, 영상 처리 장치(100)는 정합 오차가 수렴할 때까지, 전술한 동작을 반복할 수 있다. According to an embodiment, when the matching error converges, the image processing apparatus 100 may not update the matching parameter. In this case, the image processing apparatus 100 may generate output image data based on a matching parameter in a corresponding round. Specifically, the image processing apparatus 100 may compare a difference between a first matching error in a previous loop and a second matching error in a current loop with a preset threshold. When the difference between the first matching error and the second matching error is smaller than a preset threshold, the image processing apparatus 100 may determine that the matching error converges. On the other hand, when the matching error does not converge, the image processing apparatus 100 may update the matching parameter. The image processing apparatus 100 may update a plurality of first reference points as transform points. In addition, the image processing apparatus 100 may repeat the above-described operation until the matching error converges.

일 실시예에 따라, 정합 파라미터는 제1 좌표계 상의 위치 정보를 회전 이동시키는 로테이션 매트릭스(rotation matrix, 이하 'R') 및 제1 좌표계 상의 위치 정보를 평행 이동시키는 트랜스레이션 매트릭스(translation matrix, 이하 'T')를 포함할 수 있다. 영상 처리 장치(100)는 제1 기준점 세트 및 복수의 후보 대응점을 기초로 로테이션 매트릭스 및 트랜스레이션 매트릭스를 결정할 수 있다.According to an embodiment, the matching parameter is a rotation matrix (hereinafter referred to as'R') for rotating and moving position information on the first coordinate system and a translation matrix (hereinafter referred to as'R') for moving position information on the first coordinate system in parallel. T') may be included. The image processing apparatus 100 may determine a rotation matrix and a translation matrix based on the first set of reference points and a plurality of candidate corresponding points.

일 실시예에서, 복수의 제1 기준점의 개수가 N개 이고, 복수의 제1 기준점 중에서 어느 하나에 매핑되는 복수의 후보 대응점의 개수는 K개일 수 있다. 이때, 영상 처리 장치(100)는 로테이션 매트릭스 및 트랜스레이션 매트릭스를 기초로 복수의 제1 기준점을 제2 좌표계에서 정의되는 N개의 변환점으로 변환할 수 있다. 또한, 영상 처리 장치(100)는 복수의 변환점 각각과 복수의 변환점 각각에 매핑된 후보 대응점 사이의 거리를 기초로 정합 오차를 산정할 수 있다. 예를 들어, 영상 처리 장치(100)는 N개의 변환점 각각에 대해, 상기 N개의 변환점 중에서 어느 하나의 변환점과 어느 하나의 변환점에 매핑되는 K개의 후보 대응점 사이의 거리를 계산할 수 있다. 영상 처리 장치(100)는 계산 결과를 기초로, N개의 변환점과 (N x K)개의 복수의 후보 대응점 사이의 정합 오차를 산정할 수 있다. In an embodiment, the number of first reference points may be N, and the number of candidate correspondence points mapped to any one of the plurality of first reference points may be K. In this case, the image processing apparatus 100 may convert the plurality of first reference points into N transform points defined in the second coordinate system based on the rotation matrix and the translation matrix. Also, the image processing apparatus 100 may calculate a matching error based on a distance between each of the plurality of transformation points and the candidate corresponding points mapped to each of the plurality of transformation points. For example, for each of the N transform points, the image processing apparatus 100 may calculate a distance between any one of the N transform points and K candidate correspondence points mapped to any one of the N transform points. The image processing apparatus 100 may calculate a matching error between N transform points and a plurality of (N x K) candidate correspondence points based on the calculation result.

또한, 영상 처리 장치(100)는 산정된 정합 오차를 기초로 로테이션 매트릭스 및 트랜스레이션 매트릭스를 갱신할 수 있다. 이때, 영상 처리 장치(100)는 정합 파라미터의 갱신과 관련하여 앞서 설명한 방법으로 로테이션 매트릭스 및 트랜스레이션 매트릭스를 갱신할 수 있다. Also, the image processing apparatus 100 may update the rotation matrix and the translation matrix based on the calculated matching error. In this case, the image processing apparatus 100 may update the rotation matrix and the translation matrix in the manner described above in connection with the update of the matching parameter.

구체적으로, 영상 처리 장치(100)는 수학식 1에 기초하여 획득되는 정합 오차를 기초로 로테이션 매트릭스 및 트랜스레이션 매트릭스를 결정할 수 있다. Specifically, the image processing apparatus 100 may determine a rotation matrix and a translation matrix based on a matching error obtained based on Equation 1.

Figure 112020020432344-pat00001
Figure 112020020432344-pat00001

상기 수학식 1에서, N은 복수의 제1 기준점의 개수를 나타내고, K는 N개의 제1 기준점 중에서 어느 하나에 매핑되는 복수의 후보 대응점의 개수를 나타내고,

Figure 112020020432344-pat00002
는 복수의 제1 기준점 중에서 i번째 제1 기준점을 나타내고,
Figure 112020020432344-pat00003
는 i번째 제1 기준점에 매핑되는 복수의 후보 대응점 중에서 k번째 후보 대응점을 나타낼 수 있다. 또한, 수학식 1에서 min(x)는 함수 'x'의 최소값을 나타낼 수 있다. 또한,
Figure 112020020432344-pat00004
는 상기 i번째 제1 기준점에 로테이션 매트릭스를 적용하여 획득한 결과 값을 나타내고,
Figure 112020020432344-pat00005
는 트랜스레이션 매트릭스를 나타낼 수 있다.In Equation 1, N denotes the number of a plurality of first reference points, K denotes the number of a plurality of candidate correspondence points mapped to any one of the N first reference points,
Figure 112020020432344-pat00002
Represents the i-th first reference point among a plurality of first reference points,
Figure 112020020432344-pat00003
May represent a k-th candidate correspondence point among a plurality of candidate correspondence points mapped to the i-th first reference point. In addition, in Equation 1, min(x) may represent the minimum value of the function'x'. Also,
Figure 112020020432344-pat00004
Represents a result value obtained by applying a rotation matrix to the i-th first reference point,
Figure 112020020432344-pat00005
May represent a translation matrix.

구체적으로, 영상 처리 장치(100)는 수학식 1에서 i번째 기준점에 매핑되는 K개의 후보 대응점 중에서 i번째 제1 기준점으로부터 변환된 변환점과 거리가 가장 가까운

Figure 112020020432344-pat00006
를 결정할 수 있다. 또한, 영상 처리 장치(100)는 결정된
Figure 112020020432344-pat00007
및 수학식 1을 기초로 정합 오차를 획득할 수 있다. 또한, 영상 처리 장치(100)는 전술한 방법으로 정합 오차가 수렴할 때 까지
Figure 112020020432344-pat00008
, 로테이션 매트릭스, 및 트랜스레이션 매트릭스를 갱신할 수 있다. 또한, 영상 처리 장치(100)는 정합 오차가 수렴하는 경우, 해당 라운드에서의
Figure 112020020432344-pat00009
, 로테이션 매트릭스 및 트랜스레이션 매트릭스를 기초로 출력 영상 데이터를 생성할 수 있다.단계 S408에서, 영상 처리 장치(100)는 정합 파라미터를 기초로 출력 영상 데이터 생성할 수 있다. 예를 들어, 영상 처리 장치(100)는 정합 파라미터를 기초로 센서를 통해 센싱된 지점과 대상체 사이의 상대적인 위치(relative positions)를 나타내는 출력 영상 데이터를 생성할 수 있다. 이때, 영상 처리 장치(100)는 센서를 통해 센싱된 지점을 제1 좌표계 상에 정의하는 좌표를 획득할 수 있다. 또한, 영상 처리 장치(100)는 단계 S406에서 획득한 정합 파라미터를 기초로 센서를 통해 센싱된 지점과 대상체 사이의 상대적인 위치를 영상 데이터 상에 표시할 수 있다. 예를 들어, 영상 처리 장치(100)는 위치 추적 장치(200)에서 센싱된 좌표를 영상 데이터 상의 제2 좌표계 상의 점으로 표시할 수 있다.Specifically, the image processing apparatus 100 has the closest distance to the transformed point converted from the i-th first reference point among K candidate correspondence points mapped to the i-th reference point in Equation 1
Figure 112020020432344-pat00006
Can be determined. In addition, the image processing device 100 is
Figure 112020020432344-pat00007
And a matching error may be obtained based on Equation 1. In addition, the image processing apparatus 100 is used until the matching error converges in the above-described method.
Figure 112020020432344-pat00008
, Rotation matrix, and translation matrix can be updated. In addition, when the matching error converges, the image processing apparatus 100
Figure 112020020432344-pat00009
The output image data may be generated based on the rotation matrix and the translation matrix. In step S408, the image processing apparatus 100 may generate the output image data based on the matching parameter. For example, the image processing apparatus 100 may generate output image data indicating relative positions between a point sensed through a sensor and an object based on the matching parameter. In this case, the image processing apparatus 100 may acquire coordinates that define a point sensed through the sensor on the first coordinate system. Also, the image processing apparatus 100 may display a relative position between a point sensed through a sensor and an object on the image data based on the matching parameter acquired in step S406. For example, the image processing apparatus 100 may display coordinates sensed by the location tracking apparatus 200 as points on the second coordinate system on the image data.

일 실시예에 따라, 영상 처리 장치(100)는 정합 결과를 적용하여 대상체 내에 삽입된 의료용 기기의 위치를 영상 데이터 상에 표시할 수 있다. 영상 처리 장치(100)는 대상체 내에서 대상체에 삽입된 의료용 기기의 위치로 센싱된 지점의 위치 정보를 획득할 수 있다. 또한, 영상 처리 장치(100)는 위치 정보 및 정합 파라미터를 기초로, 대상체에 삽입된 의료용 기기의 위치를 나타내는 마커(marker)를 포함하는 출력 영상 데이터를 생성할 수 있다.According to an embodiment, the image processing apparatus 100 may apply the matching result to display the position of the medical device inserted into the object on the image data. The image processing apparatus 100 may acquire location information of a point sensed as a location of a medical device inserted into the object within the object. Also, the image processing apparatus 100 may generate output image data including a marker indicating the location of a medical device inserted into the object based on the location information and the matching parameter.

구체적으로, 도 5에서와 같이, 영상 처리 장치(100)는 영상 가이드 시술(Image Guided Surgery) 환경에서 사전 획득한 환자 영상(CT 등)에 대상체 내에 삽입된 의료용 기기의 위치를 표시할 수 있다. 예를 들어, 영상 처리 장치(100)는 대상체 내에 삽입된 의료용 기기의 위치를 특정 속성을 가지는 도형으로 표시할 수 있다. 이때, 특정 속성은 도형의 크기, 색, 패턴과 같이 의료용 기기의 위치를 나타내는 방법을 의미할 수 있다.Specifically, as shown in FIG. 5, the image processing apparatus 100 may display the position of a medical device inserted in the object on a patient image (such as CT) previously acquired in an image guided surgery environment. For example, the image processing apparatus 100 may display a location of a medical device inserted in an object as a figure having specific properties. In this case, the specific attribute may mean a method of indicating the location of the medical device, such as the size, color, and pattern of a figure.

이하에서는, 본 개시의 일 실시예에 따른 영상 처리 장치(100)가 후보 대응점을 획득하는 방법에 관하여 도 6을 참조하여 설명한다. Hereinafter, a method of obtaining a candidate correspondence point by the image processing apparatus 100 according to an embodiment of the present disclosure will be described with reference to FIG. 6.

일 실시예에 따라, 영상 처리 장치(100)는 후보 대응점의 개수를 나타내는 후보 대응점 개수 정보를 기초로 복수의 후보 대응점을 획득할 수 있다. 여기에서, 후보 대응점 개수 정보는 대상체 상에서 센싱된 하나의 기준점에 대응하는 후보 대응점의 개수를 나타낼 수 있다. 예를 들어, 영상 처리 장치(100)는 대상체에 대응하는 영상 데이터와 관련된 정보를 기초로 후보 대응점 개수를 결정할 수 있다. 이때, 영상 데이터와 관련된 정보는 영상 데이터의 해상도, 영상 데이터의 이미지 사이즈, 영상 데이터의 압축 방식 중 적어도 하나를 포함할 수 있으며, 이에 제한되지 않는다. 예를 들어, 영상 처리 장치(100)는 영상 데이터의 해상도를 기초로 후보 대응점 개수를 결정할 수 있다. 영상 데이터의 해상도가 낮을수록 기준점 지정 오차가 클 수 있기 때문이다. According to an embodiment, the image processing apparatus 100 may acquire a plurality of candidate correspondence points based on information on the number of candidate correspondence points indicating the number of candidate correspondence points. Here, the information on the number of candidate correspondence points may indicate the number of candidate correspondence points corresponding to one reference point sensed on the object. For example, the image processing apparatus 100 may determine the number of candidate correspondence points based on information related to image data corresponding to an object. In this case, the information related to the image data may include at least one of a resolution of the image data, an image size of the image data, and a compression method of the image data, but is not limited thereto. For example, the image processing apparatus 100 may determine the number of candidate correspondence points based on the resolution of the image data. This is because the lower the resolution of the image data, the larger the reference point designation error may be.

또한, 영상 처리 장치(100)는 영상 처리 장치(100)의 정합 프로세싱 성능을 기초로 후보 대응점 개수를 결정할 수 있다. 후보 대응점의 개수가 증가할수록 정합 프로세싱을 위한 연산량이 증가할 수 있기 때문이다. 여기에서, 영상 처리 장치(100)의 정합 프로세싱 성능은 영상 처리 장치(100)가 포함하는 프로세서의 처리 속도를 포함할 수 있다. 정합 프로세싱을 위한 연산에 할당 가능한 자원은 프로세서의 처리 속도에 따라 제한될 수 있기 때문이다. 또한, 정합 프로세싱 성능은 프로세서가 이용하는 정합 알고리즘에 따라 달라질 수도 있다. 또한, 영상 처리 장치(100)의 정합 프로세싱 성능은 영상 처리 장치(100)가 포함하는 메모리 또는 GPU의 연산 능력을 포함할 수도 있다. 일 실시예에 따라, 영상 처리 장치(100)는 영상 처리 장치(100)가 포함하는 프로세서의 연산 능력을 기초로 정합에 이용되는 전체 후보 대응점의 개수를 결정할 수 있다. 이 경우, 영상 처리 장치(100)는 페어링된 기준점의 개수를 기초로 하나의 페어링된 기준점에게 할당 가능한 후보 대응점 개수를 결정할 수 있다. 전술한 바와 같이, 페어링된 기준점의 개수는 대상체에 대응하는 영상 데이터의 해상도에 따라 결정될 수 있다. Also, the image processing apparatus 100 may determine the number of candidate correspondence points based on the matching processing performance of the image processing apparatus 100. This is because, as the number of candidate correspondence points increases, the amount of computation for matching processing may increase. Here, the matching processing performance of the image processing apparatus 100 may include a processing speed of a processor included in the image processing apparatus 100. This is because the resources that can be allocated to an operation for matching processing may be limited according to the processing speed of the processor. In addition, the matching processing performance may vary depending on the matching algorithm used by the processor. In addition, the matching processing performance of the image processing apparatus 100 may include a memory included in the image processing apparatus 100 or a computing power of a GPU. According to an embodiment, the image processing apparatus 100 may determine the number of all candidate correspondence points used for matching based on the computing power of a processor included in the image processing apparatus 100. In this case, the image processing apparatus 100 may determine the number of candidate correspondence points that can be allocated to one paired reference point based on the number of paired reference points. As described above, the number of paired reference points may be determined according to the resolution of image data corresponding to the object.

도 6은 본 개시의 일 실시예에 따른 복수의 후보 대응점을 나타내는 도면이다. 도 6에서, 'x'는 변환점을 나타내고, 각각의 변환점에 매핑되는 'o'는 복수의 후보 대응점을 나타낸다. 도 6은, 대상체에 대응하는 영상 데이터를 나타내는 제2 좌표계(60) 상에서 각각의 변환점과 복수의 후보 대응점 사이의 관계를 나타낸다. 도 6은, 대상체 상에서 센싱된 제1 좌표계 상의 기준점의 개수가 '3'이고, 후보 대응점의 개수가 '5'인 경우이며, 본 개시가 이에 제한되는 것은 아니다. 또한, 도 6에서, 각각의 점들은 제1 그룹(61), 제2 그룹(62), 제3 그룹(63)으로 구분될 수 있다.6 is a diagram illustrating a plurality of candidate correspondence points according to an embodiment of the present disclosure. In FIG. 6,'x' denotes a transform point, and'o' mapped to each transform point denotes a plurality of candidate correspondence points. 6 shows a relationship between each transform point and a plurality of candidate correspondence points on a second coordinate system 60 representing image data corresponding to an object. 6 illustrates a case where the number of reference points on the first coordinate system sensed on the object is '3' and the number of candidate correspondence points is '5', and the present disclosure is not limited thereto. In addition, in FIG. 6, each of the dots may be divided into a first group 61, a second group 62, and a third group 63.

도 6의 실시예에서, 영상 처리 장치(100)는 후보 대응점 개수 정보에 기초하여, 제1 좌표계 상의 복수의 기준점 각각에 매핑되는 복수의 후보 대응점을 획득할 수 있다. 제1 그룹(61), 제2 그룹(62), 제3 그룹(63) 각각에서 실선으로 표시된 'o'는 제2 좌표계(60) 상에서 사용자에 의해 지정되거나 대상체의 특징점을 기초로 기 지정된 기준점일 수 있다. 이하에는, 설명의 편의를 위해 제1 그룹(61), 제2 그룹(62), 제3 그룹(63) 각각에서 실선으로 표시된 'o'를 제1 지정점(601), 제2 지정점(602) 및 제3 지정점(603)으로 지칭한다.In the embodiment of FIG. 6, the image processing apparatus 100 may acquire a plurality of candidate correspondence points mapped to each of a plurality of reference points on the first coordinate system based on information on the number of candidate correspondence points. In each of the first group 61, the second group 62, and the third group 63, an'o' indicated by a solid line is a reference point designated by a user on the second coordinate system 60 or pre-designated based on the feature points of the object. Can be Hereinafter, for convenience of description,'o' indicated by a solid line in each of the first group 61, the second group 62, and the third group 63 is designated as the first designated point 601 and the second designated point 602. And a third designated point 603.

일 실시예에 따라, 영상 처리 장치(100)는 제2 좌표계(60)에서 지정점의 위치로부터 기 설정된 영역을 기초로 복수의 후보 대응점을 획득할 수 있다. 예를 들어, 도 6에서 제1 지정점(601)은 제2 좌표계(60) 상에서 사용자에 의해 지정된 점일 수 있다. 이때, 영상 처리 장치(100)는 제1 지정점(601)을 기준으로 기 설정된 영역 내에 위치하는 제1 그룹(61) 내의 4개의 대응점을 획득할 수 있다. 또한, 영상 처리 장치(100)는 제1 지정점(601) 및 4개의 대응점을 포함하는 5개의 후보 대응점을 획득할 수 있다. According to an embodiment, the image processing apparatus 100 may acquire a plurality of candidate corresponding points based on a preset area from the location of the specified point in the second coordinate system 60. For example, in FIG. 6, the first designated point 601 may be a point designated by the user on the second coordinate system 60. In this case, the image processing apparatus 100 may acquire four corresponding points in the first group 61 located within a preset area based on the first designated point 601. Also, the image processing apparatus 100 may acquire five candidate correspondence points including the first designated point 601 and four corresponding points.

일 실시예에 따라, 기 설정된 영역은 도 6에서와 같이 하나의 지정점을 기준으로 기 설정된 거리를 반지름으로 하는 원(circle) 또는 구(sphere)일 수 있다. 구체적으로, 기 설정된 영역은 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 기준으로, 하나의 지정점으로부터 기 설정된 거리 이내의 영역일 수 있다. 영상 처리 장치(100)는 하나의 지정점을 기준으로 기 설정된 거리 이내의 영역을 기초로 복수의 후보 대응점을 획득할 수 있다.According to an embodiment, the preset area may be a circle or a sphere having a radius of a preset distance based on one designated point as shown in FIG. 6. Specifically, the preset area may be an area within a preset distance from one designated point based on at least one of a horizontal plane, a sagittal plane, and a coronal plane of the image data. The image processing apparatus 100 may acquire a plurality of candidate corresponding points based on an area within a preset distance based on one designated point.

일 실시예에 따라, 기 설정된 거리는 복수의 지정점 중에서 적어도 두개의 지정점 사이의 거리에 기초하여 결정될 수 있다. 예를 들어, 기 설정된 거리는 적어도 제1 지정점(601)과 제2 지정점(602) 사이의 거리를 기초로 결정될 수 있다. 영상 처리 장치(100)는 제1 지정점(601)을 기준으로 적어도 제1 지정점(601)과 제2 지정점(602) 사이의 거리 보다 짧은 거리 이내의 영역에 위치하는 복수의 후보 대응점을 획득할 수 있다. 기준점 지정 시, 지정점 사이의 거리보다 짧은 거리 이내에서 기준점 지정 오차가 발생할 수 있기 때문이다. 또한, 기 설정된 거리는 대상체에 대응하는 영상 데이터와 관련된 정보를 기초로 결정될 수도 있다. 예를 들어, 기 설정된 거리는 영상 데이터의 이미지 사이즈를 기초로 결정된 거리일 수 있다. 영상 데이터의 이미지 사이즈에 따라 기준점 지정 오차의 범위가 달라질 수 있기 때문이다.According to an embodiment, the preset distance may be determined based on a distance between at least two designated points among a plurality of designated points. For example, the preset distance may be determined based on at least a distance between the first and second designated points 601 and 602. The image processing apparatus 100 may acquire a plurality of candidate correspondence points located in an area within a distance shorter than the distance between the first and second designated points 601 and 602 based on the first designated point 601. have. This is because, when designating a reference point, errors in designating a reference point may occur within a distance shorter than the distance between the designated points. Also, the preset distance may be determined based on information related to image data corresponding to the object. For example, the preset distance may be a distance determined based on an image size of image data. This is because the range of the reference point designation error may vary depending on the image size of the image data.

일 실시예에 따라, 영상 처리 장치(100)는 하나의 지정점을 기초로 일정한 거리에 위치하는 복수의 대응점을 획득할 수 있다. 예를 들어, 영상 처리 장치(100)는 영상 데이터의 수평면, 시상면 및 관상면 각각을 기준으로 하나의 지정점으로부터 기 설정된 동일한 거리에 위치하는 복수의 대응점을 획득할 수 있다. 또한, 영상 처리 장치(100)는 하나의 지정점을 기준으로 제2 좌표계(60)에서 표현 가능한 최소 단위 거리를 기초로 복수의 후보 대응점을 획득할 수도 있다. 예를 들어, 도 6에서 제1 지정점(601)을 중심으로 인접한 4개의 점은 제1 지정점(601)으로부터 최소 단위 거리에 위치된 4개의 좌표를 나타낼 수 있다. 또한, 복수의 후보 대응점은 대상체에 대응하는 영상 데이터 상에서 대상체의 표면을 나타내는 복수의 좌표 중에서 선택된 대응점을 포함할 수 있다. 이때, 대상체의 표면은 제1 지정점(601)의 등위면을 의미할 수 있다.예를 들어, 영상 처리 장치(100)는 영상 데이터 상에서 대상체의 표면을 나타내는 복수의 점 중에서, 하나의 지정점으로부터 기 설정된 거리 이내의 영역을 기초로 복수의 후보 대응점을 획득할 수 있다. 도 6에서, 제2 좌표계(60)는 설명의 편의를 위해 2차원 평면으로 표현하였으나, 본 개시가 이에 제한되는 것은 아니다. 예를 들어, 제2 좌표계(60)는 3차원 좌표 공간일 수 있다.According to an exemplary embodiment, the image processing apparatus 100 may acquire a plurality of corresponding points positioned at a predetermined distance based on one designated point. For example, the image processing apparatus 100 may acquire a plurality of corresponding points located at the same predetermined distance from one designated point based on each of the horizontal plane, the sagittal plane, and the coronal plane of the image data. Also, the image processing apparatus 100 may acquire a plurality of candidate corresponding points based on a minimum unit distance that can be expressed in the second coordinate system 60 based on one designated point. For example, in FIG. 6, four points adjacent to the first designated point 601 may represent four coordinates located at a minimum unit distance from the first designated point 601. In addition, the plurality of candidate correspondence points may include a correspondence point selected from among a plurality of coordinates representing the surface of the object on image data corresponding to the object. In this case, the surface of the object may mean an isoplanar surface of the first designated point 601. For example, the image processing apparatus 100 may be configured from one designated point among a plurality of points representing the surface of the object on the image data. A plurality of candidate correspondence points may be obtained based on an area within a set distance. In FIG. 6, the second coordinate system 60 is expressed as a two-dimensional plane for convenience of description, but the present disclosure is not limited thereto. For example, the second coordinate system 60 may be a three-dimensional coordinate space.

본 개시의 일 실시예에 따라, 영상 처리 장치(100)는 전술한 방법을 통해 획득한 복수의 후보 대응점을 이용하여 기준점 지정 오차(FLE)를 감소시킬 수 있다. 이를 통해, 영상 처리 장치(100)는 대상체 내에 삽입된 의료용 기기의 위치를 영상 데이터 상의 가상의 공간에 정밀하게 표시하는 정합 성능을 개선시킬 수 있다. 예를 들어, 도 6을 참조하면, 제1 그룹에서 제1 변환점은 제1 지정점(601)을 기준으로 왼쪽에 위치된 제1 대응점과 가장 가까운 거리에 있다. 또한, 제2 그룹에서 제2 변환점은 제2 지정점(602)을 기준으로 아래쪽에 위치된 제2 대응점과 가장 가까운 거리에 있다. 또한, 제3 그룹에서 제3 변환점은 제3 지정점(603)과 가장 가까운 거리에 있다. 이와 같이, 복수의 제1 기준점 각각에 대해 동일한 정합 파라미터를 적용하여 변환된 제1 내지 제3 변환점 각각은 제1 내지 제3 변환점 각각에 매핑되는 제1 내지 제3 지정점(601, 602, 603)과 가장 가까운 거리에 위치하지 않을 수 있다. 이에 따라, 영상 처리 장치(100)는 복수의 후보 대응점을 이용하여 기준점 지정 오차(FLE)를 감소시킬 수 있다.According to an embodiment of the present disclosure, the image processing apparatus 100 may reduce a reference point designation error FLE by using a plurality of candidate correspondence points acquired through the above-described method. Through this, the image processing apparatus 100 may improve matching performance of accurately displaying the position of the medical device inserted in the object in a virtual space on the image data. For example, referring to FIG. 6, in the first group, the first transformed point is at the closest distance to the first corresponding point located on the left side of the first designated point 601. In addition, the second transformation point in the second group is at the closest distance to the second corresponding point located below the second designated point 602. In addition, in the third group, the third conversion point is at the closest distance to the third designated point 603. In this way, each of the first to third conversion points converted by applying the same matching parameter to each of the plurality of first reference points is the first to third designated points 601, 602, and 603 that are mapped to each of the first to third conversion points. It may not be located at the closest distance to the. Accordingly, the image processing apparatus 100 may reduce the reference point designation error FLE by using a plurality of candidate corresponding points.

한편, 본 개시의 다른 일 실시예에 따라, 영상 처리 장치(100)는 대상체에 대해 미리 결정된 특징점(feature points)을 기준으로 페어링된 기준점을 획득할 수도 있다. 예를 들어, 도 4의 단계 S402 및 단계 S404에서, 영상 처리 장치(100)는 기 설정된 특징점을 기초로 제1 및 제2 좌표계 각각에서 기준점을 획득할 수 있다. 이때, 기 설정된 특징점은 영상 데이터의 복셀 값을 기초로 기 지정된 점일 수 있다. 예를 들어, 영상 처리 장치(100)는 영상 데이터에 포함된 복셀 값을 기초로 영상 데이터 상의 대상체의 특징점을 추출할 수 있다. 영상 처리 장치(100)는 추출된 특징점을 기초로 복수의 제2 기준점을 획득할 수 있다. 이 경우, 영상 처리 장치(100)는 획득된 복수의 제2 기준점을 출력 장치를 통해 디스플레이할 수 있다. 이를 통해, 영상 처리 장치(100)는 복수의 제1 기준점을 지정하는 사용자 입력을 가이드할 수 있다. 영상 처리 장치(100)는 가이드에 따라 사용자 입력에 기초하여 지정된 복수의 제1 기준점을 획득할 수 있다. 또한, 영상 처리 장치(100)는 도 4의 단계 S404에서 설명한 방법으로 복수의 후보 대응점을 획득할 수 있다.Meanwhile, according to another embodiment of the present disclosure, the image processing apparatus 100 may obtain a reference point paired based on feature points predetermined for an object. For example, in steps S402 and S404 of FIG. 4, the image processing apparatus 100 may acquire a reference point in each of the first and second coordinate systems based on a preset feature point. In this case, the preset feature point may be a point previously designated based on a voxel value of the image data. For example, the image processing apparatus 100 may extract a feature point of an object in the image data based on a voxel value included in the image data. The image processing apparatus 100 may acquire a plurality of second reference points based on the extracted feature points. In this case, the image processing apparatus 100 may display a plurality of acquired second reference points through the output device. Through this, the image processing apparatus 100 may guide a user input for designating a plurality of first reference points. The image processing apparatus 100 may acquire a plurality of designated first reference points based on a user input according to the guide. Also, the image processing apparatus 100 may acquire a plurality of candidate correspondence points by the method described in step S404 of FIG. 4.

이하에서는, 본 개시의 일 실시예에 따른 영상 처리 장치(100)의 구성에 관하여 도 7을 참조하여 설명한다. 도 7은 본 개시의 일 실시예에 따른 영상 처리 장치(100)의 블록도이다. 도 7에 도시된 바와 같이, 본 개시의 일 실시예에 따른 영상 처리 장치(100)는 프로세서(110), 입력부(120) 및 출력부(130)를 포함할 수 있다. 그러나, 도 7에 도시된 구성 요소 모두가 영상 처리 장치(100)의 필수 구성 요소인 것은 아니다. 예를 들어, 영상 처리 장치(100)는 도 7에 도시되지 않은 구성 요소를 추가로 포함할 수 있다. 뿐만 아니라 도 7에 도시된 영상 처리 장치(100)의 구성 요소 중 적어도 일부가 생략될 수도 있다.Hereinafter, a configuration of the image processing apparatus 100 according to an embodiment of the present disclosure will be described with reference to FIG. 7. 7 is a block diagram of an image processing apparatus 100 according to an exemplary embodiment of the present disclosure. As shown in FIG. 7, the image processing apparatus 100 according to an exemplary embodiment of the present disclosure may include a processor 110, an input unit 120, and an output unit 130. However, not all of the components shown in FIG. 7 are essential components of the image processing apparatus 100. For example, the image processing apparatus 100 may additionally include a component not shown in FIG. 7. In addition, at least some of the components of the image processing apparatus 100 illustrated in FIG. 7 may be omitted.

일 실시예에 따라, 입력부(120)는 영상 처리 장치(100)에 대한 사용자 입력을 수신하기 위한 인터페이스를 포함할 수 있다. 예를 들어, 입력부(120)는 영상 데이터 상의 기준점을 지정하는 사용자의 입력을 수신할 수 있다. 예를 들어, 입력부(120)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등을 포함할 수 있다. 또한, 입력부(120)는 대상체에 대응하는 영상 데이터를 수신할 수도 있다. 예를 들어, 입력부(120)는 키보드, 마우스, 카메라, 마이크, 포인터, USB, 외부 장치와의 연결 포트를 포함할 수 있으며, 본 개시는 이에 한정되지 않는다. According to an embodiment, the input unit 120 may include an interface for receiving a user input for the image processing apparatus 100. For example, the input unit 120 may receive an input from a user specifying a reference point on the image data. For example, the input unit 120 includes a key pad, a dome switch, and a touch pad (contact type capacitance method, pressure type resistive film method, infrared detection method, surface ultrasonic conduction method, integral tension type). Measurement method, piezo effect method, etc.), a jog wheel, a jog switch, and the like. Also, the input unit 120 may receive image data corresponding to an object. For example, the input unit 120 may include a keyboard, a mouse, a camera, a microphone, a pointer, a USB, and a connection port for an external device, but the present disclosure is not limited thereto.

일 실시예에 따라, 출력부(130)는 후술할 프로세서(110)에서 생성된 출력 영상 데이터를 출력할 수 있다. 예를 들어, 출력부(130)는 생성된 영상 데이터를 출력하는 디스플레이를 포함할 수 있다. 또한, 출력부(130)는 오디오 신호 또는 징도 신호를 출력할 수 있다. 출력부(130)는 영상 처리 장치(100)가 아닌 외부의 비디오/ 오디오 출력 장치를 통해 출력 영상 데이터를 출력하기 위한 유/무선 포트를 포함할 수 있다. 이때, 출력부(130)는 유/무선 포트를 통해 외부의 비디오/ 오디오 출력 장치와 연결될 수 있다. 또한, 출력부(130)는 입력부(120)로부터 수신된 영상 데이터 상에, 대상체 내에 삽입된 의료용 기기의 위치를 나타내는 출력 영상 데이터를 출력할 수 있다.According to an embodiment, the output unit 130 may output output image data generated by the processor 110 to be described later. For example, the output unit 130 may include a display that outputs the generated image data. In addition, the output unit 130 may output an audio signal or a sound signal. The output unit 130 may include a wired/wireless port for outputting output image data through an external video/audio output device other than the image processing apparatus 100. In this case, the output unit 130 may be connected to an external video/audio output device through a wired/wireless port. Also, the output unit 130 may output output image data indicating the location of a medical device inserted into the object on the image data received from the input unit 120.

일 실시예에 따라, 프로세서(110)는 하나 이상의 프로세서를 구비하여, 영상 처리 장치(100)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(110)는 적어도 하나의 프로그램들을 실행함으로써 도 2 내지 도 6을 통해 전술한 영상 처리 장치(100)의 동작을 수행할 수 있다. 프로세서(110)는 대상체 상에서 센싱된 기준점을 이용하여 대상체를 포함하는 출력 영상 데이터를 생성할 수 있다. 프로세서(110)는 대상체에 대응하는 영상 데이터 및 정합 파라미터를 기초로 출력 영상 데이터를 생성할 수 있다.According to an embodiment, the processor 110 may include one or more processors to control the overall operation of the image processing apparatus 100. For example, the processor 110 may perform the operation of the image processing apparatus 100 described above with reference to FIGS. 2 to 6 by executing at least one program. The processor 110 may generate output image data including the object by using a reference point sensed on the object. The processor 110 may generate output image data based on image data corresponding to an object and a matching parameter.

일 실시예에 따라, 프로세서(110)는 대상체에 대응하는 영상 데이터를 기초로 출력 영상 데이터를 생성할 수 있다. 이때, 프로세서(110)는 대상체에 대응하는 영상 데이터를 획득할 수 있다. 예를 들어, 프로세서(110)는 영상 처리 장치(100) 내의 메모리(미도시)에 저장된 영상 데이터를 이용할 수 있다. 또는 프로세서(110)는 통신부(미도시)를 통해 외부의 장치로부터 대상체에 대응하는 영상 데이터를 수신할 수도 있다. 또는 프로세서(110)는 입력부(120)를 통해 영상 데이터를 수신할 수도 있다. 또한, 프로세서(110)는 대상체에 대응하는 복수의 영상 데이터를 획득할 수도 있다. 예를 들어, 프로세서(110)는 대상체에 대응하는 수평면(horizontal), 시상면(sagittal) 및 관상면(coronal)의 영상들 중 적어도 하나를 획득할 수 있다. 대상체에 대응하는 영상 데이터가 복수인 경우, 프로세서(110)는 사용자 입력에 기초하여 복수의 영상 데이터 중 적어도 하나를 처리 대상으로 결정할 수 있다. 또한, 프로세서(110)는 복수의 2차원 영상을 3차원 샘플 데이터 세트에 투영하는 볼륨 렌더링을 이용하여 처리 대상이 되는 영상 데이터를 생성할 수도 있다.According to an embodiment, the processor 110 may generate output image data based on image data corresponding to an object. In this case, the processor 110 may acquire image data corresponding to the object. For example, the processor 110 may use image data stored in a memory (not shown) in the image processing apparatus 100. Alternatively, the processor 110 may receive image data corresponding to an object from an external device through a communication unit (not shown). Alternatively, the processor 110 may receive image data through the input unit 120. Also, the processor 110 may acquire a plurality of image data corresponding to an object. For example, the processor 110 may acquire at least one of images of a horizontal plane, a sagittal plane, and a coronal plane corresponding to the object. When there are a plurality of image data corresponding to an object, the processor 110 may determine at least one of the plurality of image data as a processing target based on a user input. In addition, the processor 110 may generate image data to be processed using volume rendering in which a plurality of 2D images are projected onto a 3D sample data set.

일부 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다.Some embodiments may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media may be any available media that can be accessed by a computer, and may include both volatile and nonvolatile media, removable and non-removable media. Further, the computer-readable medium may include a computer storage medium. Computer storage media may include both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

또한, 본 명세서에서, ““부””는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다.In addition, in the present specification, the “unit” may be a hardware component such as a processor or a circuit, and/or a software component executed by a hardware configuration such as a processor.

전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present disclosure is for illustrative purposes only, and those of ordinary skill in the art to which the present disclosure pertains will be able to understand that it is possible to easily transform it into other specific forms without changing the technical spirit or essential features of the present disclosure. will be. Therefore, it should be understood that the embodiments described above are illustrative and non-limiting in all respects. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 개시의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present disclosure is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present disclosure. do.

Claims (13)

대상체에 사용되는 의료용 기기의 제1 좌표계를 상기 대상체의 영상 데이터의 제2 좌표계와 정합하기 위한 영상 처리 장치에 있어서,
상기 대상체 상에서 센싱된 상기 제1 좌표계의 복수의 제1 기준점들의 세트를 획득하고;
상기 제1 좌표계의 점을 상기 제2 좌표계의 점으로 변환하는 정합 파라미터에 기초하여 상기 제1 기준점들 각각을 상기 제2 좌표계의 변환점으로 변환하고;
상기 제1 기준점들 각각에 대응하는 상기 영상 데이터의 복수의 후보 대응점들을 획득하되, 상기 복수의 후보 대응점들은 상기 제1 기준점에 대해 설정된 상기 영상 데이터의 제2 기준점에 기초하여 획득됨;
상기 제1 기준점의 변환점과 상기 복수의 후보 대응점들 사이의 정합 오차를 기초로 상기 정합 파라미터를 갱신하고;
상기 갱신된 정합 파라미터를 이용하여 상기 제1 좌표계를 상기 제2 좌표계와 정합하는,
프로세서를 포함하되,
상기 정합 파라미터는 상기 제1 좌표계의 점을 회전 이동시키는 로테이션 매트릭스(rotation matrix) 및 상기 제1 좌표계의 점을 평행 이동 시키는 트랜스레이션 매트릭스(translation matrix)를 포함하며,
상기 정합 오차는 다음 수학식에 기초하여 결정되고,
Figure 112020097892124-pat00032

상기 수학식에서 Rot()는 상기 로테이션 매트릭스, Trans는 상기 트랜스레이션 매트릭스를 나타내고,
Figure 112020097892124-pat00033
Figure 112020097892124-pat00034
의 최소값을 나타내며,
N은 상기 복수의 제1 기준점들의 개수, K는 상기 복수의 제1 기준점들 중 어느 하나에 대응하는 복수의 후보 대응점들의 개수,
Figure 112020097892124-pat00035
는 상기 복수의 제1 기준점들 중에서 i번째 제1 기준점,
Figure 112020097892124-pat00036
는 상기 i번째 제1 기준점에 대응하는 상기 복수의 후보 대응점들 중에서 k번째 후보 대응점을 나타내고, 상기 i번째 제1 기준점
Figure 112020097892124-pat00037
의 변환점은
Figure 112020097892124-pat00038
+
Figure 112020097892124-pat00039
로 표현되는 영상 처리 장치.
An image processing apparatus for matching a first coordinate system of a medical device used for an object with a second coordinate system of image data of the object,
Acquiring a set of a plurality of first reference points of the first coordinate system sensed on the object;
Converting each of the first reference points into a conversion point of the second coordinate system based on a matching parameter that converts a point of the first coordinate system to a point of the second coordinate system;
Obtaining a plurality of candidate correspondence points of the image data corresponding to each of the first reference points, wherein the plurality of candidate correspondence points are obtained based on a second reference point of the image data set for the first reference point;
Updating the matching parameter based on a matching error between the converted point of the first reference point and the plurality of candidate corresponding points;
Matching the first coordinate system with the second coordinate system using the updated matching parameter,
Including a processor,
The matching parameter includes a rotation matrix for rotating and moving a point of the first coordinate system and a translation matrix for moving a point of the first coordinate system in parallel,
The matching error is determined based on the following equation,
Figure 112020097892124-pat00032

In the above equation, Rot() denotes the rotation matrix, Trans denotes the translation matrix,
Figure 112020097892124-pat00033
silver
Figure 112020097892124-pat00034
Represents the minimum value of,
N is the number of the plurality of first reference points, K is the number of candidate correspondence points corresponding to any one of the plurality of first reference points,
Figure 112020097892124-pat00035
Is the i-th first reference point among the plurality of first reference points,
Figure 112020097892124-pat00036
Denotes a k-th candidate correspondence point among the plurality of candidate correspondence points corresponding to the i-th first reference point, and the i-th first reference point
Figure 112020097892124-pat00037
The conversion point of
Figure 112020097892124-pat00038
+
Figure 112020097892124-pat00039
An image processing device represented by.
삭제delete 제1 항에 있어서,
상기 프로세서는, 상기 수학식의 정합 오차를 최소화하는, 상기 제1 기준점들의 세트에 대응하는 후보 대응점들의 세트에 기초하여 상기 정합 파라미터를 갱신하는 영상 처리 장치.
The method of claim 1,
The processor updates the matching parameter based on a set of candidate correspondence points corresponding to the set of first reference points, which minimizes a matching error of the equation.
제3 항에 있어서,
상기 프로세서는, 상기 정합 오차가 기 설정된 임계값 이하가 될 때까지 상기 정합 파라미터를 갱신하는 영상 처리 장치.
The method of claim 3,
The processor updates the matching parameter until the matching error becomes less than or equal to a preset threshold.
제1 항에 있어서,
상기 후보 대응점은 상기 영상 데이터의 제2 기준점과 등위면(iso-surface) 상에서 기 설정된 거리 이내에 위치한 점을 포함하는 영상 처리 장치.
The method of claim 1,
The candidate correspondence point includes a point located within a preset distance on an iso-surface with a second reference point of the image data.
제1 항에 있어서,
상기 프로세서는, 상기 영상 데이터의 해상도를 기초로 각각의 제1 기준점에 대응하는 후보 대응점들의 개수를 결정하는 영상 처리 장치.
The method of claim 1,
The processor determines the number of candidate correspondence points corresponding to each first reference point based on the resolution of the image data.
제1 항에 있어서,
상기 프로세서는, 상기 프로세서의 정합 프로세싱 성능을 기초로 각각의 제1 기준점에 대응하는 후보 대응점들의 개수를 결정하는 영상 처리 장치.
The method of claim 1,
The processor determines the number of candidate correspondence points corresponding to each first reference point based on the matching processing performance of the processor.
제1 항에 있어서,
상기 프로세서는, 상기 제1 좌표계 상의 상기 의료용 기기의 위치에 대응하는 상기 제2 좌표계 상의 위치에 기초하여 생성된 상기 영상 데이터의 출력 영상을 출력하는 영상 처리 장치.
The method of claim 1,
The processor outputs an output image of the image data generated based on a position in the second coordinate system corresponding to the position of the medical device in the first coordinate system.
제1 항에 있어서,
상기 프로세서는, 상기 제1 좌표계 상의 상기 의료용 기기의 위치에 대응하는 상기 제2 좌표계 상의 위치를 상기 영상 데이터의 출력 영상에서 표시하는 영상 처리 장치.
The method of claim 1,
The processor is an image processing apparatus that displays a position in the second coordinate system corresponding to the position of the medical device in the first coordinate system in the output image of the image data.
대상체에 사용되는 의료용 기기의 제1 좌표계를 상기 대상체의 영상 데이터의 제2 좌표계와 정합하기 위한 영상 처리 장치의 영상 처리 방법에 있어서,
상기 대상체 상에서 센싱된 상기 제1 좌표계의 복수의 제1 기준점들의 세트를 획득하는 단계;
상기 제1 좌표계의 점을 상기 제2 좌표계의 점으로 변환하는 정합 파라미터에 기초하여 상기 제1 기준점들 각각을 상기 제2 좌표계의 변환점으로 변환하는 단계;
상기 제1 기준점들 각각에 대응하는 상기 영상 데이터의 복수의 후보 대응점들을 획득하는 단계, 상기 복수의 후보 대응점들은 상기 제1 기준점에 대해 설정된 상기 영상 데이터의 제2 기준점에 기초하여 획득됨;
상기 제1 기준점의 변환점과 상기 복수의 후보 대응점들 사이의 정합 오차를 기초로 상기 정합 파라미터를 갱신하는 단계; 및
상기 갱신된 정합 파라미터를 이용하여 상기 제1 좌표계를 상기 제2 좌표계와 정합하는 단계를 포함하되,
상기 정합 파라미터는 상기 제1 좌표계의 점을 회전 이동시키는 로테이션 매트릭스(rotation matrix) 및 상기 제1 좌표계의 점을 평행 이동 시키는 트랜스레이션 매트릭스(translation matrix)를 포함하며,
상기 정합 오차는 다음 수학식에 기초하여 결정되고,
Figure 112020097892124-pat00040

상기 수학식에서 Rot()는 상기 로테이션 매트릭스, Trans는 상기 트랜스레이션 매트릭스를 나타내고,
Figure 112020097892124-pat00041
Figure 112020097892124-pat00042
의 최소값을 나타내며,
N은 상기 복수의 제1 기준점들의 개수, K는 상기 복수의 제1 기준점들 중 어느 하나에 대응하는 복수의 후보 대응점들의 개수,
Figure 112020097892124-pat00043
는 상기 복수의 제1 기준점들 중에서 i번째 제1 기준점,
Figure 112020097892124-pat00044
는 상기 i번째 제1 기준점에 대응하는 상기 복수의 후보 대응점들 중에서 k번째 후보 대응점을 나타내고, 상기 i번째 제1 기준점
Figure 112020097892124-pat00045
의 변환점은
Figure 112020097892124-pat00046
+
Figure 112020097892124-pat00047
로 표현되는 영상 처리 방법.
In the image processing method of an image processing apparatus for matching a first coordinate system of a medical device used for an object with a second coordinate system of image data of the object,
Obtaining a set of a plurality of first reference points of the first coordinate system sensed on the object;
Converting each of the first reference points into a conversion point of the second coordinate system based on a matching parameter that converts a point of the first coordinate system to a point of the second coordinate system;
Obtaining a plurality of candidate correspondence points of the image data corresponding to each of the first reference points, the plurality of candidate correspondence points being obtained based on a second reference point of the image data set for the first reference point;
Updating the matching parameter based on a matching error between the converted point of the first reference point and the plurality of candidate corresponding points; And
Including the step of matching the first coordinate system with the second coordinate system using the updated matching parameter,
The matching parameter includes a rotation matrix for rotating and moving a point of the first coordinate system and a translation matrix for moving a point of the first coordinate system in parallel,
The matching error is determined based on the following equation,
Figure 112020097892124-pat00040

In the above equation, Rot() denotes the rotation matrix, Trans denotes the translation matrix,
Figure 112020097892124-pat00041
silver
Figure 112020097892124-pat00042
Represents the minimum value of,
N is the number of the plurality of first reference points, K is the number of candidate correspondence points corresponding to any one of the plurality of first reference points,
Figure 112020097892124-pat00043
Is the i-th first reference point among the plurality of first reference points,
Figure 112020097892124-pat00044
Denotes a k-th candidate correspondence point among the plurality of candidate correspondence points corresponding to the i-th first reference point, and the i-th first reference point
Figure 112020097892124-pat00045
The conversion point of
Figure 112020097892124-pat00046
+
Figure 112020097892124-pat00047
Image processing method expressed as.
제 10 항의 방법을 컴퓨터에서 실행시키는 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.A computer-readable recording medium in which a program for executing the method of claim 10 on a computer is recorded. 삭제delete 삭제delete
KR1020200023746A 2020-02-26 2020-02-26 Image registration apparatus and method using multiple candidate points KR102233585B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200023746A KR102233585B1 (en) 2020-02-26 2020-02-26 Image registration apparatus and method using multiple candidate points

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200023746A KR102233585B1 (en) 2020-02-26 2020-02-26 Image registration apparatus and method using multiple candidate points

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180034330A Division KR102084256B1 (en) 2018-03-26 2018-03-26 Image registration apparatus and method using multiple candidate points

Publications (2)

Publication Number Publication Date
KR20200026851A KR20200026851A (en) 2020-03-11
KR102233585B1 true KR102233585B1 (en) 2021-03-30

Family

ID=69810107

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200023746A KR102233585B1 (en) 2020-02-26 2020-02-26 Image registration apparatus and method using multiple candidate points

Country Status (1)

Country Link
KR (1) KR102233585B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230107982A (en) 2022-01-10 2023-07-18 성균관대학교산학협력단 Artificial intelligence-based initial registration apparatus and method for surgical navigation

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102378114B1 (en) * 2020-04-01 2022-03-24 고려대학교 산학협력단 Method and apparatus for surgical guide using augmented reality
KR102394921B1 (en) * 2021-02-26 2022-05-06 가톨릭관동대학교산학협력단 Apparatus and method for matching medical images
CN113616350B (en) * 2021-07-16 2022-04-19 元化智能科技(深圳)有限公司 Verification method and device for selected positions of marking points, terminal equipment and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5283157B2 (en) * 2007-03-20 2013-09-04 国立大学法人静岡大学 Surgery support information display device, surgery support information display method, and surgery support information display program
JP5486182B2 (en) * 2008-12-05 2014-05-07 キヤノン株式会社 Information processing apparatus and information processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5486182A (en) 1991-11-05 1996-01-23 Wilk & Nakao Medical Technology Inc. Polyp retrieval assembly with separable web member
US5283157A (en) 1993-03-22 1994-02-01 Minnesota Mining And Manufacturing Company Diffusion transfer printing plate
KR102094502B1 (en) 2013-02-21 2020-03-30 삼성전자주식회사 Method and Apparatus for performing registraton of medical images
JP6886260B2 (en) 2016-09-07 2021-06-16 キヤノン株式会社 Image processing equipment, its control method, and programs

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5283157B2 (en) * 2007-03-20 2013-09-04 国立大学法人静岡大学 Surgery support information display device, surgery support information display method, and surgery support information display program
JP5486182B2 (en) * 2008-12-05 2014-05-07 キヤノン株式会社 Information processing apparatus and information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230107982A (en) 2022-01-10 2023-07-18 성균관대학교산학협력단 Artificial intelligence-based initial registration apparatus and method for surgical navigation

Also Published As

Publication number Publication date
KR20200026851A (en) 2020-03-11

Similar Documents

Publication Publication Date Title
KR102233585B1 (en) Image registration apparatus and method using multiple candidate points
US11759261B2 (en) Augmented reality pre-registration
JP6159030B2 (en) A computer-implemented technique for determining coordinate transformations for surgical navigation
US20230016227A1 (en) Medical augmented reality navigation
EP2637593B1 (en) Visualization of anatomical data by augmented reality
US10881353B2 (en) Machine-guided imaging techniques
CN107106241B (en) System for navigating to surgical instruments
EP2951779B1 (en) Three-dimensional image segmentation based on a two-dimensional image information
US11961193B2 (en) Method for controlling a display, computer program and mixed reality display device
KR101993384B1 (en) Method, Apparatus and system for correcting medical image by patient's pose variation
KR102056436B1 (en) Medical navigation system and the method thereof
KR102084256B1 (en) Image registration apparatus and method using multiple candidate points
KR100346363B1 (en) Method and apparatus for 3d image data reconstruction by automatic medical image segmentation and image guided surgery system using the same
CN116047412B (en) Artifact coordinate removal method of marker and related device
KR20160057024A (en) Markerless 3D Object Tracking Apparatus and Method therefor
US20220370147A1 (en) Technique of Providing User Guidance For Obtaining A Registration Between Patient Image Data And A Surgical Tracking System
KR102184001B1 (en) Medical image registration apparatus and method for surgical navigation
EP3944254A1 (en) System for displaying an augmented reality and method for generating an augmented reality
EP3703012A1 (en) Map of body cavity
US20230237711A1 (en) Augmenting a medical image with an intelligent ruler
US20230030273A1 (en) System for Monitoring a Clinical Scenario
US20140309476A1 (en) Ct atlas of musculoskeletal anatomy to guide treatment of sarcoma
CN116725663A (en) Method and related device for determining coordinates
CN116509543A (en) Composite surgical navigation device, method and system
CN115120345A (en) Navigation positioning method, device, computer equipment and storage medium

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant