KR20140045653A - Recognition appartus for noncontact marker, apparatus and method for image registration based on noncontact marker - Google Patents

Recognition appartus for noncontact marker, apparatus and method for image registration based on noncontact marker Download PDF

Info

Publication number
KR20140045653A
KR20140045653A KR1020120111640A KR20120111640A KR20140045653A KR 20140045653 A KR20140045653 A KR 20140045653A KR 1020120111640 A KR1020120111640 A KR 1020120111640A KR 20120111640 A KR20120111640 A KR 20120111640A KR 20140045653 A KR20140045653 A KR 20140045653A
Authority
KR
South Korea
Prior art keywords
image
camera
contact
wavelength band
wavelength
Prior art date
Application number
KR1020120111640A
Other languages
Korean (ko)
Inventor
김석기
김태윤
김광기
김석원
Original Assignee
국립암센터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국립암센터 filed Critical 국립암센터
Priority to KR1020120111640A priority Critical patent/KR20140045653A/en
Publication of KR20140045653A publication Critical patent/KR20140045653A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Abstract

An apparatus for recognizing a non-contact marker comprises a light source which marks for at least one point of an object so that the point becomes at least one non-contact marker by radiating a light of a first wavelength band or a second wavelength band; a first camera for shooting a first image of the object including the non-contact marker in the first wavelength band; and a second camera for shooting a second image of the object including the non-contact marker in the second wavelength band. [Reference numerals] (100) Light source; (200) First camera; (300) Second camera; (400) Image matching apparatus; (600) Output apparatus

Description

비접촉성 마커 인식장치, 비접촉성 마커 기반 영상정합장치 및 방법{RECOGNITION APPARTUS FOR NONCONTACT MARKER, APPARATUS AND METHOD FOR IMAGE REGISTRATION BASED ON NONCONTACT MARKER}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a non-contact marker recognition apparatus, a non-contact marker-based image registration apparatus,

본 발명은 비접촉성 마커 인식장치, 비접촉성 마커 기반 영상정합장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a non-contact marker recognition apparatus, an non-contact marker based image registration apparatus and a method.

최근 수술 기술의 발전에 따라, 환자의 인체 내부를 CT, MRI 등에 의해 취합된 정보를 통하여 모니터에 재현할 수 있게 되었다. 환자의 인체 내부를 3 차원으로 모델링하여 진료 계획, 수술 계획 및 시술을 위한 정보를 제공하며, 신경이나 척추 등 인체 중요 부위와 환부의 위치, 모양, 임플란트 삽입 위치 등을 상세하게 확인할 수 있다.Recently, with the development of surgical technique, it has become possible to reproduce the inside of the patient's body through the information gathered by CT, MRI and the like. The patient's internal body is modeled in three dimensions to provide information for the treatment plan, operation plan and procedure, and the location, shape, and insertion position of the implant, such as nerves or vertebrae, can be confirmed.

이러한 경우 특정 신체 위치를 확인하기 위해 여러 가지 표시 방법(단추, 적외선발광물질, 잉크, 형광물질 등)을 사용하여 신체상 위치를 표시할 수 있고 이러한 표시를 기초로 각기 다른 영상을 서로 정합할 수 있다. 그러나 이러한 표시 방법의 경우 환자와의 접촉으로 인한 감염, 시술자의 시야 방해 및 작업 방해를 유발할 수 있다.In this case, the body position can be displayed using various display methods (buttons, infrared emitters, inks, fluorescent materials, etc.) to identify specific body positions and different images can be matched to each other based on these displays . However, such a display method can cause infection due to contact with the patient, obstruction of the operator's view, and obstruction of the operation.

또한, 환자를 수술하기 위해 시술자가 환자의 신체상 수술 위치에 격자를 직접 그려서 참조하거나, 임의의 부착물 또는 표시 수단을 사용하는 경우, 환자와의 접촉으로 인한 감염, 시술자의 시야를 방해 및 부착물 자체가 작업에 방해가 되는 경우가 있다.In addition, when a practitioner directly refers to a lattice on a patient's surgical site in order to perform a surgery, or when an arbitrary attachment or display means is used, infection due to contact with the patient, interference with the operator's view, Sometimes the work is interrupted.

한국등록특허 제10-0542370호Korea Patent No. 10-0542370

본 발명의 일부 실시예는, 레이저 광원 자체가 비접촉성 마커가 되도록 함으로써, 환자의 신체에 격자를 그리거나, 형광 물질을 입힌 부착물을 부착하지 않고도, 비접촉성 마커가 마킹된 영상을 이용하여 수술 부위를 확인할 수 있는 접촉성 마커 인식장치, 비접촉성 마커 기반 영상정합장치 및 방법을 제공하는 데 목적이 있다.Some embodiments of the present invention allow the laser light source itself to be a non-contact marker so that the lasers can be painted on the body of the patient or the non-contact markers can be applied to the surgical site A non-contact marker-based image registration device, and a non-contact marker-based image registration device.

또한, 본 발명의 일부 실시예는, 육안으로는 보이지 않는 특정 적외선 파장대의 레이저 광원을 비접촉성 마커로 이용하고, 수술중 환자의 위치 변화에도 재위치정합(Re-Positioning)이 가능함으로써, 시술자의 시야를 방해하지 않으면서도 감염의 경로를 최소화할 수 있는 접촉성 마커 인식장치, 비접촉성 마커 기반 영상정합장치 및 방법을 제공하는 데 목적이 있다.Further, in some embodiments of the present invention, a laser light source of a specific infrared wavelength band not visible to the naked eye is used as a non-contact marker, and repositioning is possible even when the position of the patient is changed during surgery, There is provided a contact marker recognition apparatus, a contactless marker-based image registration apparatus, and a method capable of minimizing the path of an infection without disturbing the field of view.

또한, 본 발명의 일부 실시예는, 꼭지점(Edge) 방향 정보를 이용하지 않고 소수의 비접촉성 마커만을 추적함으로써, 패턴 인식의 원근변환에서 계산량을 줄일 수 있어 실시간으로 비접촉성 마커를 추적할 수 있는 접촉성 마커 인식장치, 비접촉성 마커 기반 영상정합장치 및 방법을 제공하는 데 목적이 있다.In addition, some embodiments of the present invention can reduce the amount of calculation in the perspective transformation of pattern recognition by tracking only a small number of non-contact markers without using the direction information of the edge direction, A contact marker recognition device, a non-contact marker based image registration device, and a method.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 비접촉성 마커 인식장치는, 제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 광원, 상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 제 1 카메라, 및 상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 제 2 카메라를 포함하는 것을 특징으로 한다.As a technical means for achieving the above technical object, the non-contact marker recognition apparatus according to the first aspect of the present invention is characterized in that at least one point of the object is irradiated with light of the first wavelength band or the second wavelength band, A first camera for capturing a first image of the object including the non-contact markers in the first wavelength band, and a second camera for capturing the non-contact markers in the second wavelength band, And a second camera for capturing a second image of the object including the object.

본 발명의 제 2 측면에 따른 비접촉성 마커 기반 영상정합장치는, 제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 광원, 상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 제 1 카메라, 상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 제 2 카메라, 및 상기 제 1 카메라 및 제 2 카메라로부터 촬영된 상기 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합하는 영상 정합기를 포함하는 것을 특징으로 한다.According to a second aspect of the present invention, there is provided an apparatus for aligning an image based on non-contact markers, the method comprising: marking at least one point of an object by irradiating light of a first wavelength band or a second wavelength band, A first camera for capturing a first image of the object including the non-contact markers in the first wavelength band, a second camera for capturing a second image of the object including the non-contact markers in the second wavelength band, 2 camera, and an image matching unit for perspectively transforming and matching the first image and the second image photographed by the first camera and the second camera.

본 발명의 제 3 측면에 따른 비접촉성 마커 기반 영상정합방법은, 제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 단계, 상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 단계, 상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 단계, 및 상기 촬영된 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합하는 단계를 포함하는 것을 특징으로 한다.The non-contact marker-based image matching method according to the third aspect of the present invention is a method of marking an object by irradiating light of a first wavelength band or a second wavelength band so that at least one point of the object becomes at least one non-contact marker, Photographing a first image of the object including the non-contact markers in the first wavelength band, taking a second image of the object including the non-contact markers in the second wavelength band, and And performing Perspective Transform on the photographed first image and the second image to match each other.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 환자의 신체에 격자를 그리거나, 형광 물질을 입힌 부착물을 부착하지 않고도, 비접촉성 마커가 마킹된 영상을 이용하여 수술 부위를 확인할 수 있고, 꼭지점(Edge) 방향 정보를 이용하지 않고 소수의 비접촉성 마커만을 추적함으로써, 패턴 인식의 원근변환에서 계산량을 줄일 수 있어 실시간으로 비접촉성 마커를 추적할 수 있는 비접촉성 마커 인식장치, 비접촉성 마커 기반 영상정합장치 및 방법을 제공할 수 있다.According to any one of the above-mentioned objects of the present invention, it is possible to identify a surgical site using an image marked with a non-contact marker without drawing a lattice on a patient's body or attaching a fluorescent substance- Non-contact marker recognition device that can track non-contact markers in real time by reducing calculation amount in perspective conversion of pattern recognition by tracking only a small number of non-contact markers without using vertex direction information, An image matching apparatus and method can be provided.

도 1은 본 발명의 일 실시예에 따른 비접촉성 마커 기반 영상정합장치를 설명하기 위한 구성도이다.
도 2는 본 발명의 다른 실시예에 따른 비접촉성 마커 기반 영상정합장치를 설명하기 위한 구성도이다.
도 3은 도 1 및 도 2의 비접촉성 마커의 광원과 파장 분포도를 설명하기 위한 도면이다.
도 4는 도 1 및 도 2의 비접촉성 마커의 제 1 영상 및 제 2 영상을 설명하기 위한 도면이다.
도 5는 도 1 및 도 2의 영상 정합기에서 실행되는 원근 변환의 개념을 설명하기 위한 도면이다.
도 6은 도 1 및 도 2의 비접촉성 마커 기반 영상정합장치에서 출력된 화면을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 비접촉성 마커 기반 영상정합방법을 설명하기 위한 순서도이다.
1 is a block diagram illustrating a non-contact marker based image matching apparatus according to an exemplary embodiment of the present invention.
2 is a block diagram illustrating a non-contact marker based image matching apparatus according to another embodiment of the present invention.
Fig. 3 is a view for explaining a light source and a wavelength distribution diagram of the non-contact markers of Figs. 1 and 2. Fig.
FIG. 4 is a view for explaining a first image and a second image of the non-contact markers of FIGS. 1 and 2. FIG.
Fig. 5 is a diagram for explaining the concept of perspective transformation executed in the image matching device of Figs. 1 and 2. Fig.
FIG. 6 is a view for explaining a screen output from the non-contact marker based image matching apparatus of FIGS. 1 and 2. FIG.
FIG. 7 is a flowchart illustrating a non-contact marker-based image matching method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명의 실시예를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the embodiments of the present invention in the drawings, parts not related to the description are omitted, and like parts are denoted by similar reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "including" an element, it is to be understood that the element may include other elements as well as other elements, And does not preclude the presence or addition of one or more other features, integers, steps, operations, components, parts, or combinations thereof.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 실시될 수도 있고 실질적으로 동시에 실시될 수도 있으며 반대의 순서대로 실시될 수도 있다.The terms "first "," second ", and the like are intended to distinguish one element from another, and the scope of the right should not be limited by these terms. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. In each step, the identification code is used for convenience of explanation, and the identification code does not describe the order of the steps, and each step may be performed differently from the stated order unless clearly specified in the context. have. That is, each of the steps may be performed in the same order as described, or may be performed substantially concurrently or in the reverse order.

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 비접촉성 마커 기반 영상정합장치를 설명하기 위한 구성도이고, 도 2는 본 발명의 다른 실시예에 따른 비접촉성 마커 기반 영상정합장치를 설명하기 위한 구성도이다. 도 1 및 도 2에 도시된 광원(100), 제 1 카메라(200), 제 2 카메라(300), 영상 정합기(400), 광학기(500) 및 출력 장치(600)는 설명의 편의를 위해 예시된 것에 불과하므로, 본원의 기기가 도 1 및 도 2에 도시된 것들로 한정 해석되는 것은 아니다.FIG. 1 is a block diagram illustrating a non-contact marker based image matching apparatus according to an exemplary embodiment of the present invention. FIG. 2 is a block diagram illustrating a non-contact marker based image matching apparatus according to another exemplary embodiment of the present invention. to be. The light source 100, the first camera 200, the second camera 300, the image matching device 400, the optical device 500, and the output device 600 shown in FIGS. And therefore, the apparatus of the present application is not limited to those shown in Figs. 1 and 2. Fig.

본 발명의 비접촉성 마커 기반 영상정합장치(1)는 단일 파장을 사용하는 경우는 도 1에서 설명하고, 다중 파장을 사용하는 경우는 도 2에서 설명하기로 한다. 이때, 설명의 편의를 위해 단일 파장과 다중 파장을 사용하는 경우를 나누어 놓았으나, 단일 파장의 경우는 도 1의 구성, 다중 파장의 경우는 도 2의 구성으로 고정되어야 하는 것은 아니다.The non-contact marker based image matching apparatus 1 of the present invention will be described with reference to FIG. 1 when a single wavelength is used, and FIG. 2 when multiple wavelengths are used. For convenience of description, the case of using a single wavelength and multiple wavelengths is divided, but the case of a single wavelength is not limited to the configuration of FIG. 1, and the case of multiple wavelengths should not be fixed to the configuration of FIG.

도 1을 참조하면, 광원(100), 제 1 카메라(200), 제 2 카메라(300)는 비접촉성 마커 인식장치를 구성할 수 있고, 비접촉성 마커 기반 영상정합장치(1)는 광원(100), 제 1 카메라(200), 제 2 카메라(300), 영상 정합기(400)를 포함할 수 있다.1, the light source 100, the first camera 200, and the second camera 300 may constitute a non-contact marker recognition device. The non-contact marker based image registration device 1 includes a light source 100 A first camera 200, a second camera 300, and an image matcher 400. The first camera 200 may include a first camera 200, a second camera 300,

광원(100)은 제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)할 수 있다. The light source 100 may mark the at least one point of the object to be at least one non-contact marker by illuminating the light in the first wavelength band or the second wavelength band.

이때, 본 발명의 광원(100)은 레이저로 피부를 직접 태닝(Tanning)하여 태닝된 영역을 마커로 이용하는 방식과는 구별된다. 즉, 태닝을 하여 마커로 이용하게 되면 환자의 신체에 직접적인 마커를 남기게 되고, 환자의 미관상 거부감을 줄 수도 있으며 2차적인 감염의 가능성도 존재하기 때문이다.At this time, the light source 100 of the present invention is distinguished from a method of using a tanned region as a marker by directly tanning the skin with a laser. In other words, when used as a marker, the markers are left on the patient's body, which may cause the patient's aesthetic rejection and the possibility of secondary infection.

따라서, 본 발명의 일 실시예는 태닝 방식과 달리 광원(100)이 빛을 객체에 조사하고, 제 1 카메라(200)와 제 2 카메라(300)가 빛이 조사된 객체의 영상을 입력받으면, 영상 정합기(400)의 알고리즘을 통하여 객체에 조사된 빛을 마커로 인식하는 간접적인 방식을 이용한다.Therefore, unlike the tanning method, when the light source 100 irradiates light to an object, and the first camera 200 and the second camera 300 receive an image of a light-irradiated object, An indirect method of recognizing the light irradiated to the object as a marker through the algorithm of the image matching device 400 is used.

이때, 제 1 파장 대역 또는 제 2 파장 대역은 가시광선 파장 또는 적외선 파장일 수 있다. 예를 들어, 광원(100)은 도 1에 도시된 바와 같이, 4 개일 수 있으며, 50mV의 808nm 대역의 비 가시광선 파장을 이용할 수 있다. 이때, 비 가시광선 파장은 육안으로 식별이 거의 불가능하므로, 시술자에게 방해를 주지는 않지만, 제 1 카메라(200), 제 2 카메라(300) 중 어느 하나로 인식 및 촬영은 가능하다.In this case, the first wavelength band or the second wavelength band may be a visible light wavelength or an infrared wavelength. For example, the light source 100 may be four as shown in FIG. 1, and an invisible light wavelength of 808 nm band of 50 mV may be used. At this time, since the invisible light wavelength can not be discriminated by the naked eye, it can be recognized and photographed by any one of the first camera 200 and the second camera 300, though it does not disturb the practitioner.

광원(100)은 레이저 광원(Laser Light Source)일 수 있다. 또한, 광원(100)은 가시광선 파장 또는 적외선 파장의 단일 파장 광원일 수 있다. 이때, 광원(100)은 형광 물질의 마커(Real-marker)와는 달리, 광원(100) 자체가 인식되기 때문에, 형광 물질의 특성과 같이 여기 파장(Excitation Wavelength)과 방출 파장(Emission Wavelength)이 다름은 고려할 필요는 없다. 다만, 광원(100)에 의해 방출된 파장은 신체에 흡수되고 그 일부가 방출(Emission)되기 때문에, 신체가 흡수하는 만큼의 파장은 고려될 수 있다.The light source 100 may be a laser light source. Further, the light source 100 may be a single wavelength light source of a visible light wavelength or an infrared light wavelength. Since the light source 100 recognizes the light source 100 differently from the marker of the fluorescent material, the excitation wavelength and the emission wavelength of the light source 100 are different from each other, Need not be considered. However, since the wavelength emitted by the light source 100 is absorbed by the body and a part thereof is emitted, a wavelength as much as the body absorbs can be considered.

제 1 카메라(200)는 제 1 파장 대역에서 비접촉성 마커를 포함한 객체의 제 1 영상을 촬영할 수 있다. 이때, 비접촉성 마커는 광원(100)으로 인해 생성된 가시광선 비접촉성 마커와 적외선 비접촉성 마커 중 가시광선 비접촉성 마커일 수 있다. 또한, 제 1 카메라(200)는 광원(100)으로 인해 생성된 비접촉성 마커 중 가시광선 비접촉성 마커를 촬영할 수 있다. 또한, 예를 들어, 제 1 카메라(200)는 가시광선 파장을 촬영할 수 있는 가시광선 영역 카메라일 수 있다. 이때, 제 1 카메라(200)는 컬러 보정 필터를 포함할 수 있다. 예를 들어, 제 1 카메라(200)가 가시광선 영역 카메라이고, 제 2 카메라(300)가 적외선 영역 카메라일 경우, 적외선 영역에서 촬영한 제 2 영상과의 분리율을 향상시키기 위해 컬러 보정 필터를 장착할 수 있다. The first camera 200 can take a first image of the object including the non-contact markers in the first wavelength band. At this time, the non-contact marker may be a visible light non-contact marker generated by the light source 100 and a visible light non-contact marker among the infrared non-contact marker. In addition, the first camera 200 can take a visible light non-contact marker among the non-contact markers generated by the light source 100. Also, for example, the first camera 200 may be a visible light area camera capable of photographing a visible light wavelength. At this time, the first camera 200 may include a color correction filter. For example, when the first camera 200 is a visible light region camera and the second camera 300 is an infrared region camera, a color correction filter is mounted to improve the separation rate from the second image captured in the infrared region can do.

제 2 카메라(300)는 제 2 파장 대역에서 비접촉성 마커를 포함한 객체의 제 2 영상을 촬영할 수 있다. 이때, 비접촉성 마커는 광원(100)으로 인해 생성된 가시광선 비접촉성 마커와 적외선 비접촉성 마커 중 적외선 비접촉성 마커일 수 있다. 또한, 제 2 카메라(300)는 광원(100)으로 인해 생성된 비접촉성 마커 중 적외선 비접촉성 마커를 촬영할 수 있다. 또한, 예를 들어, 제 2 카메라(300)는 적외선 파장을 촬영할 수 있는 적외선 영역 카메라일 수 있다. 이때, 제 2 카메라(300)는 적외선 통과 필터를 포함할 수 있다. 예를 들어, 제 2 카메라(300)가 적외선 영역 카메라이고, 제 1 카메라(200)가 가시광선 영역 카메라일 경우, 가시광선 영역에서 촬영한 제 1 영상과의 분리율을 향상시키기 위해 적외선 통과 필터를 장착할 수 있다. The second camera 300 may capture a second image of the object including the non-contact markers in the second wavelength band. In this case, the non-contact markers may be visible light non-contact markers generated by the light source 100 and infrared non-contact markers among the infrared non-contact markers. In addition, the second camera 300 can photograph the infrared non-contact markers among the non-contact markers generated by the light source 100. Also, for example, the second camera 300 may be an infrared region camera capable of photographing an infrared wavelength. At this time, the second camera 300 may include an infrared ray pass filter. For example, when the second camera 300 is an infrared region camera and the first camera 200 is a visible light region camera, an infrared pass filter is provided to improve the separation rate from the first image photographed in the visible light region Can be mounted.

영상 정합기(400)는 제 1 카메라(200) 및 제 2 카메라(300)로부터 촬영된 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합할 수 있다. 영상 정합기(400)는 제 1 카메라(200)로부터 촬영된 제 1 영상과 제 2 카메라(300)로부터 촬영된 제 2 영상을 이진화 및 필터링하는 전처리 과정을 수행할 수 있다. 예를 들어, 노이즈 등의 불필요한 아티팩트(Artifact)를 제거할 수 있다. 이때, 아티팩트란, 모니터에 나타나는 모든 영상을 포함한 모든 종류의 컴퓨터 그래픽에서 보고 싶지 않은 부분일 수 있다. 이는, 원본 영상의 일부가 아닌 빗나간 화소들의 모임일 수 있다.The image matching device 400 can perform perspective transformation of the first image and the second image captured by the first camera 200 and the second camera 300 to perform a perspective transformation. The image matching device 400 may perform a preprocessing process of binarizing and filtering the first image captured by the first camera 200 and the second image captured by the second camera 300. [ For example, unnecessary artifacts such as noise can be removed. At this time, the artifact may be a part that is not desired to be seen in all kinds of computer graphics including all the images appearing on the monitor. This may be a collection of stray pixels that are not part of the original image.

또한, 영상 정합기(400)는 적어도 하나의 비접촉성 마커의 경계선을 검출하고, 중심 모멘트(Moment)를 계산하는 추적 과정을 수행할 수 있다. 예를 들어, 실시간 추적 과정으로 인해 수술중 환자의 위치 변화에도 재위치정합(Re-Positioning)이 가능할 수 있다. 이는, 꼭지점(Edge) 추출 및 방향 정보 계산을 위한 반복 과정이 생략됨으로써, 연산량이 줄어들기 때문에 실시간으로 비접촉성 마커를 추적할 수 있다.In addition, the image matching device 400 may perform a tracking process of detecting a boundary line of at least one non-contact marker and calculating a center moment. For example, the real-time tracking process may be able to re-position the patient's position during surgery. This eliminates an iterative process for edge extraction and direction information calculation, thereby reducing non-contact markers in real time because the amount of computation is reduced.

일반적으로 수술 중 환자의 움직임은 거의 발생하지 않으나, 수술 중 내부 또는 외부 요인으로 인하여 환자의 움직임이 발생하는 경우, 제 1 카메라(200) 또는 제 2 카메라(300)에서 촬영하는 입력 영상의 광축 변화가 발생하므로, 광축을 다시 맞추기 위해서는 재위치 정합이 요구된다.In general, the motion of the patient during surgery is scarcely generated. However, when the motion of the patient occurs due to internal or external factors during surgery, the change of the optical axis of the input image captured by the first camera 200 or the second camera 300 Therefore, re-positioning is required to re-align the optical axis.

본 발명에 따른 영상 정합기(400)에서는 마커 추적 및 중심 모멘트 계산이 실시간으로 이루어지므로, 수술 중 환자의 움직임으로 인하여 위치 변화가 발생하는 경우에도 새로운 위치에서 자동으로 위치 정합을 수행할 수 있다. 따라서, 환자의 움직임으로 인해 발생하는 특정 카메라의 광축 변화 문제에도 카메라 자체의 하드웨어적인 조정없이 즉각적으로 대응할 수 있다.In the image matching device 400 according to the present invention, since the marker tracking and the calculation of the center moment are performed in real time, the position matching can be performed automatically at a new position even when the positional change occurs due to the motion of the patient during surgery. Therefore, the problem of the change of the optical axis of the specific camera caused by the motion of the patient can be immediately responded to without the hardware adjustment of the camera itself.

또한, 영상 정합기(400)는 제 1 카메라(200)로부터 촬영된 제 1 영상 및 제 2 카메라(300)로부터 촬영된 제 2 영상의 적어도 하나의 비접촉성 마커의 중심점을 참조점으로 등록하고, 원근 변환(Perspective Transform)을 하여 정합 과정을 수행할 수 있다. 이때, 복잡한 특징점 추출 과정이 없기 때문에, 그 연산량은 최소화될 수 있다. 이때, 중심점은 실시간으로 갱신될 수 있다.Also, the image matching device 400 registers the center point of at least one non-contact marker of the first image photographed by the first camera 200 and the second image photographed by the second camera 300 as reference points, Perspective transformation can be performed to perform the matching process. At this time, since there is no complicated feature point extraction process, the amount of computation can be minimized. At this time, the center point can be updated in real time.

최종적으로, 영상 정합기(400)는 제 1 영상 및 제 2 영상 중 가시광선 영역에서 촬영된 영상을 베이스 영상으로, 적외선 영역에서 촬영된 영상을 타겟 영상으로 설정할 수 있다. 이때, 원근 변환 결과인 변환 행렬(이동, 크기, 회전)을 이용하여 정합이 이루어진다.Finally, the image matching device 400 can set an image photographed in the visible light region as a base image and an image photographed in the infrared region as a target image, among the first image and the second image. At this time, matching is performed using a transformation matrix (movement, size, rotation) which is a result of perspective transformation.

비접촉성 마커 기반 영상정합장치(1)는 출력 장치(600)를 더 포함할 수 있다. 이때, 출력 장치(600)로는 최종 위치 정합 결과가 디스플레이될 수 있다.The non-contact marker based image matching device 1 may further include an output device 600. At this time, the final position matching result can be displayed on the output device 600. [

도 2를 참조하면, 광원(100), 제 1 카메라(200), 제 2 카메라(300), 광학기(500)는 비접촉성 마커 인식장치를 구성할 수 있고, 비접촉성 마커 기반 영상정합장치(1)는 광원(100), 제 1 카메라(200), 제 2 카메라(300), 영상 정합기(400), 광학기(500)를 포함할 수 있다.Referring to FIG. 2, the light source 100, the first camera 200, the second camera 300, and the optical device 500 may constitute a non-contact marker recognition device, and may include a non-contact marker based image registration device 1 may include a light source 100, a first camera 200, a second camera 300, an image matching device 400, and an optical device 500.

광원(100)은 제 1 파장 대역 내지 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)할 수 있다. 이때, 제 1 파장 대역 내지 제 2 파장 대역은 가시광선 파장 내지 적외선 파장일 수 있다. 예를 들어, 광원(100)은 도 1에 도시된 바와 같이, 4 개일 수 있으며, 50mV의 808nm 대역의 비 가시광선 파장을 이용할 수 있다. 이때, 비 가시광선 파장은 육안으로 식별이 거의 불가능하므로, 시술자에게 방해를 주지는 않지만, 제 1 카메라(200), 제 2 카메라(300) 중 어느 하나로 인식 및 촬영은 가능하다.The light source 100 may mark the at least one point of the object to be at least one non-contact marker by illuminating the light of the first wavelength band to the second wavelength band. At this time, the first wavelength band to the second wavelength band may be a visible light wavelength or an infrared wavelength. For example, the light source 100 may be four as shown in FIG. 1, and an invisible light wavelength of 808 nm band of 50 mV may be used. At this time, since the invisible light wavelength can not be discriminated by the naked eye, it can be recognized and photographed by any one of the first camera 200 and the second camera 300, though it does not disturb the practitioner.

광원(100)은 레이저 광원(Laser Light Source)일 수 있다. 또한, 광원(100)은 가시광선 파장 내지 적외선 파장의 다중파장 광원일 수 있다. 이때, 광원(100)은 형광 물질의 마커(Real-marker)와는 달리, 광원(100) 자체가 인식되기 때문에, 형광 물질의 특성과 같이 여기 파장(Excitation Wavelength)과 방출 파장(Emission Wavelength)이 다름은 고려할 필요는 없다. 다만, 광원(100)에 의해 방출된 파장은 신체에 흡수되고 그 일부가 방출(Emission)되기 때문에, 신체가 흡수하는 만큼의 파장은 고려될 수 있다.The light source 100 may be a laser light source. In addition, the light source 100 may be a multi-wavelength light source of a visible light wavelength to an infrared light wavelength. Since the light source 100 recognizes the light source 100 differently from the marker of the fluorescent material, the excitation wavelength and the emission wavelength of the light source 100 are different from each other, Need not be considered. However, since the wavelength emitted by the light source 100 is absorbed by the body and a part thereof is emitted, a wavelength as much as the body absorbs can be considered.

제 1 카메라(200)는 제 1 파장 대역에서 비접촉성 마커를 포함한 객체의 제 1 영상을 촬영할 수 있다. 이때, 비접촉성 마커는 광원(100)으로 인해 생성된 가시광선 비접촉성 마커와 적외선 비접촉성 마커 중 가시광선 비접촉성 마커일 수 있다. 또한, 제 1 카메라(200)는 광원(100)으로 인해 생성된 비접촉성 마커 중 가시광선 비접촉성 마커를 촬영할 수 있다. 또한, 예를 들어, 제 1 카메라(200)는 가시광선 파장을 촬영할 수 있는 가시광선 영역 카메라일 수 있다. 이때, 제 1 카메라(200)는 컬러 보정 필터를 포함할 수 있다. 예를 들어, 제 1 카메라(200)가 가시광선 영역 카메라이고, 제 2 카메라(300)가 적외선 영역 카메라일 경우, 적외선 영역에서 촬영한 제 2 영상과의 분리율을 향상시키기 위해 컬러 보정 필터를 장착할 수 있다. The first camera 200 can take a first image of the object including the non-contact markers in the first wavelength band. At this time, the non-contact marker may be a visible light non-contact marker generated by the light source 100 and a visible light non-contact marker among the infrared non-contact marker. In addition, the first camera 200 can take a visible light non-contact marker among the non-contact markers generated by the light source 100. Also, for example, the first camera 200 may be a visible light area camera capable of photographing a visible light wavelength. At this time, the first camera 200 may include a color correction filter. For example, when the first camera 200 is a visible light region camera and the second camera 300 is an infrared region camera, a color correction filter is mounted to improve the separation rate from the second image captured in the infrared region can do.

제 2 카메라(300)는 제 2 파장 대역에서 비접촉성 마커를 포함한 객체의 제 2 영상을 촬영할 수 있다. 이때, 비접촉성 마커는 광원(100)으로 인해 생성된 가시광선 비접촉성 마커와 적외선 비접촉성 마커 중 적외선 비접촉성 마커일 수 있다. 또한, 제 2 카메라(300)는 광원(100)으로 인해 생성된 비접촉성 마커 중 적외선 비접촉성 마커를 촬영할 수 있다. 또한, 예를 들어, 제 2 카메라(300)는 적외선 파장을 촬영할 수 있는 적외선 영역 카메라일 수 있다. 이때, 제 2 카메라(300)는 적외선 통과 필터를 포함할 수 있다. 예를 들어, 제 2 카메라(300)가 적외선 영역 카메라이고, 제 1 카메라(200)가 가시광선 영역 카메라일 경우, 가시광선 영역에서 촬영한 제 1 영상과의 분리율을 향상시키기 위해 적외선 통과 필터를 장착할 수 있다. The second camera 300 may capture a second image of the object including the non-contact markers in the second wavelength band. In this case, the non-contact markers may be visible light non-contact markers generated by the light source 100 and infrared non-contact markers among the infrared non-contact markers. In addition, the second camera 300 can photograph the infrared non-contact markers among the non-contact markers generated by the light source 100. Also, for example, the second camera 300 may be an infrared region camera capable of photographing an infrared wavelength. At this time, the second camera 300 may include an infrared ray pass filter. For example, when the second camera 300 is an infrared region camera and the first camera 200 is a visible light region camera, an infrared pass filter is provided to improve the separation rate from the first image photographed in the visible light region Can be mounted.

광학기(500)는 제 1 카메라(200)와 제 2 카메라(300)의 광축을 일치시키기 위하여 구비될 수 있다. 이때, 광학기(500)는 반투과경(Dichroic Mirror) 또는 프리즘일 수 있다. 이때, 반투과경은 굴절률이 다른 물질이 많은 박층으로 이루어지는 반사경일 수 있다. 일정 파장 대역의 빛은 반사하고, 다른 대역의 빛은 모두 투과하는 반사경일 수 있다. 선택 반사하는 빛의 파장 범위를 재료나 두께의 구조에 의해 가감할 수 있는 반사경일 수 있다.The optical device 500 may be provided to align the optical axes of the first camera 200 and the second camera 300. At this time, the optical device 500 may be a Dichroic mirror or a prism. At this time, the semi-transmissive surface may be a reflector formed of a thin layer having many different refractive indices. It may be a reflector that reflects light in a certain wavelength band and transmits light in another band. The reflector may be a reflector capable of adding or subtracting the wavelength range of the selectively reflected light by the material or the structure of the thickness.

영상 정합기(400)는 제 1 카메라(200) 및 제 2 카메라(300)로부터 촬영된 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합할 수 있다. 영상 정합기(400)는 제 1 카메라(200)로부터 촬영된 제 1 영상과 제 2 카메라(300)로부터 촬영된 제 2 영상을 이진화 및 필터링하는 전처리 과정을 수행할 수 있다. 예를 들어, 노이즈 등의 불필요한 아티팩트(Artifact)를 제거할 수 있다. 이때, 아티팩트란, 모니터에 나타나는 모든 영상을 포함한 모든 종류의 컴퓨터 그래픽에서 보고 싶지 않은 부분일 수 있다. 이는, 원본 영상의 일부가 아닌 빗나간 화소들의 모임일 수 있다. 또한, 영상 정합기(400)는 광학기(500)를 통해 좌우 반전된 영상을 보정하는 전처리 과정을 더 수행할 수도 있다.The image matching device 400 can perform perspective transformation of the first image and the second image captured by the first camera 200 and the second camera 300 to perform a perspective transformation. The image matching device 400 may perform a preprocessing process of binarizing and filtering the first image captured by the first camera 200 and the second image captured by the second camera 300. [ For example, unnecessary artifacts such as noise can be removed. At this time, the artifact may be a part that is not desired to be seen in all kinds of computer graphics including all the images appearing on the monitor. This may be a collection of stray pixels that are not part of the original image. The image matching device 400 may further perform a preprocessing process of correcting the left and right inverted images through the optical device 500. [

또한, 영상 정합기(400)는 적어도 하나의 비접촉성 마커의 경계선을 검출하고, 중심 모멘트(Moment)를 계산하는 추적 과정을 수행할 수 있다. 예를 들어, 실시간 추적 과정으로 인해 수술중 환자의 위치 변화에도 재위치정합(Re-Positioning)이 가능할 수 있다. 이는, 꼭지점(Edge) 추출 및 방향 정보 계산을 위한 반복 과정이 생략됨으로써, 연산량이 줄어들기 때문에 실시간으로 비접촉성 마커를 추적할 수 있다.In addition, the image matching device 400 may perform a tracking process of detecting a boundary line of at least one non-contact marker and calculating a center moment. For example, the real-time tracking process may be able to re-position the patient's position during surgery. This eliminates an iterative process for edge extraction and direction information calculation, thereby reducing non-contact markers in real time because the amount of computation is reduced.

또한, 영상 정합기(400)는 제 1 카메라(200)로부터 촬영된 제 1 영상 및 제 2 카메라(300)로부터 촬영된 제 2 영상의 적어도 하나의 비접촉성 마커의 중심점을 참조점으로 등록하고, 원근 변환(Perspective Transform)을 하여 정합 과정을 수행할 수 있다. 이때, 복잡한 특징점 추출 과정이 없기 때문에, 그 연산량은 최소화될 수 있다. 이때, 중심점은 실시간으로 갱신될 수 있다.Also, the image matching device 400 registers the center point of at least one non-contact marker of the first image photographed by the first camera 200 and the second image photographed by the second camera 300 as reference points, Perspective transformation can be performed to perform the matching process. At this time, since there is no complicated feature point extraction process, the amount of computation can be minimized. At this time, the center point can be updated in real time.

최종적으로, 영상 정합기(400)는 제 1 영상 및 제 2 영상 중 가시광선 영역에서 촬영된 영상을 베이스 영상으로, 적외선 영역에서 촬영된 영상을 타겟 영상으로 설정할 수 있다. 이때, 원근 변환 결과인 변환 행렬(이동, 크기, 회전)을 이용하여 정합이 이루어진다.Finally, the image matching device 400 can set an image photographed in the visible light region as a base image and an image photographed in the infrared region as a target image, among the first image and the second image. At this time, matching is performed using a transformation matrix (movement, size, rotation) which is a result of perspective transformation.

비접촉성 마커 기반 영상정합장치(1)는 출력 장치(600)를 더 포함할 수 있다. 이때, 출력 장치(600)로는 최종 위치 정합 결과가 디스플레이될 수 있다.The non-contact marker based image matching device 1 may further include an output device 600. At this time, the final position matching result can be displayed on the output device 600. [

도 3은 도 1 및 도 2의 비접촉성 마커의 광원과 파장 분포도를 설명하기 위한 도면이다. (a)를 보면, 808nm 대역의 레이저 광원을 도시하고, (b)를 보면, 가시광선 영역 카메라에서 CCD(Charge Coupled Device) 센서의 파장에 따른 광감도를 나타낸다. (b)의 그래프를 보면, 약 808 nm 대역의 파장(Wavelength)에서 임펄스 형태로 광감도(Intensity) 그래프가 출력된 것을 알 수 있다. 이때, 약 780 nm까지가 가시광선 영역이지만, 808 nm 대역도 가시광선 영역 카메라로 촬영이 가능하므로, 시술자에게는 보이지 않아 방해 요소로 작용되지 않으면서도, 비접촉성 마커로써 가시광선 영역 카메라로 촬영될 수 있다.Fig. 3 is a view for explaining a light source and a wavelength distribution diagram of the non-contact markers of Figs. 1 and 2. Fig. (a) shows a laser light source of 808 nm band, and (b) shows a photosensitivity according to the wavelength of a CCD (Charge Coupled Device) sensor in a visible light region camera. (b), it can be seen that an intensity graph is output in the form of an impulse at a wavelength of about 808 nm. At this time, although the visible light region is up to about 780 nm, the 808 nm region can be photographed with a visible light region camera, so that it can be photographed with a visible light region camera as a non-contact marker, have.

도 4는 도 1 및 도 2의 비접촉성 마커의 제 1 영상 및 제 2 영상을 설명하기 위한 도면이다. 도 4a를 참조하면, 동일한 부위를 촬영한 (a) 가시광선 영역 카메라의 영상, (b) 적외선 영역 카메라의 영상을 볼 수 있다.FIG. 4 is a view for explaining a first image and a second image of the non-contact markers of FIGS. 1 and 2. FIG. Referring to FIG. 4A, the image of the visible region camera (a) and the image of the infrared region camera (b) can be seen.

다수의 장치를 적용하더라도, 적외선 영역 카메라와 가시광선 영역 카메라로 입력되는 영상의 크기와 각도는 상이할 수 있다. 특히, 거리에 따라 크기와 각도 등의 차이가 커지기 때문에, 두 영상의 차이는 항상 일정하지 않을 수 있다. 또한, 각 카메라는 특성이 다르기 때문에, 각 카메라 마다 설치하는 필터, 렌즈의 굴절률 차이, 줌 정도의 차이 등으로 두 영상을 고정된 변환식을 이용하여 실시간으로 정합할 수는 없다.Even when a plurality of apparatuses are applied, the size and angle of an image input to the infrared region camera and the visible region region camera may differ. Particularly, since the difference in size and angle becomes larger depending on the distance, the difference between the two images may not always be constant. In addition, since each camera has different characteristics, it is not possible to match two images in real time using a fixed conversion formula due to differences in the refractive index of the lens, the degree of zoom, and the like.

도 4b를 참조하면, 종래 시스템에서 사용되는 조정 과정을 설명하기 위한 도면이다. 즉, 기존의 일반적인 영상 시스템에서는 거리에 따른 왜곡 보정을 위해, 환자와의 거리를 측정하고, 행렬 계산을 한 후, 체스 보드와 같은 인위적인 패턴을 이용하여 왜곡을 보정하는 조정 과정(Calibration)이 반드시 필요하였다. 또한, 하드웨어적으로 텔레센트릭(Telecentric) 렌즈 등 별도의 디바이스를 장착하여 왜곡을 최소화하는 방법도 있으나, 피사체의 크기가 렌즈의 직경보다 반드시 작아야 한다는 제약 사항이 있었다. 따라서, 이러한 기존의 접근 방법은 다양한 시점과 거리에서 촬영이 실시간으로 빈번하게 이루어져야 하는 수술 환경에서는 그 특성상 적용이 불가능하다.Referring to FIG. 4B, there is shown an adjustment process used in a conventional system. That is, in the conventional general image system, in order to correct the distortion according to the distance, it is necessary to calibrate the distortion by calibrating the distances to the patient, calculating the matrix, and correcting distortion using artificial patterns such as chess board . There is also a method of minimizing distortion by installing a separate device such as a telecentric lens in hardware, but there is a restriction that the size of the subject must be smaller than the diameter of the lens. Therefore, this conventional approach is not applicable to the characteristics of the surgical environment in which shooting at various viewpoints and distances should be frequently performed in real time.

본 발명의 일 실시예에 따른 비접촉성 마커 기반 영상정합장치(1)는 카메라와 렌즈는 동일한 특성을 가질 수 없어 동일한 광축을 맞추어도 거리나 각도가 달라지면 정합 패러미터가 달라지므로, 하드웨어적으로 고정된 틀을 이용하는 경우 정합 에러가 발생할 수 있는 문제점을 제거하고, 정밀도가 거리나 각도 등에 관계없이 항상 유지되고, 초기 캘리브레이션도 영상 정합기를 통해 보정할 수 있다.In the non-contact marker based image matching device 1 according to the embodiment of the present invention, since the camera and the lens can not have the same characteristics, the matching parameters are different when the distance and the angle are changed even if the same optical axis is aligned. When the frame is used, the problem that the registration error may occur is eliminated, the accuracy is always maintained regardless of the distance or the angle, and the initial calibration can be corrected through the image matching device.

또한, 본 발명의 일 실시예에 따른 비접촉성 마커 기반 영상정합장치(1)는 복잡한 광학계를 사용하지 않고, 1 개의 광학기만을 이용함으로써 미약한 광신호의 소실 또는 약화를 제거할 수 있고, 실시간으로 비접촉성 마커를 추적할 수 있다.In addition, the non-contact marker-based image matching apparatus 1 according to the embodiment of the present invention can eliminate the loss or weakening of a weak optical signal by using only one optical element without using a complicated optical system, The non-contact markers can be traced.

도 5는 도 1 및 도 2의 영상 정합기에서 실행되는 원근 변환의 개념을 설명하기 위한 도면이다.Fig. 5 is a diagram for explaining the concept of perspective transformation executed in the image matching device of Figs. 1 and 2. Fig.

우선, 선형 대수학(Linear Algebra)에서 벡터를 행백터(Row Vector)또는 열백터(Column Vector)의 형태로 표시할 수 있고, 행벡터에서는 좌우로, 열벡터에서는 상하로 나열할 수 있다. 이때, 물체의 이동, 회전, 크기조절 등의 작업을 기하변환(Geometric Transformation), 변환(Transformation)이라 한다.First, in a linear algebra, a vector can be displayed in the form of a row vector or a column vector, and left and right in a row vector, and up and down in a column vector. At this time, operations such as movement, rotation, and size adjustment of an object are referred to as geometric transformation and transformation.

첫 번째로, 이동변환(Translational Transformation)은 강체(Rigid Body)를 이동하면 정점은 동일한 양만큼 움직인다는 것이다. 2차원 이동을 생각해보면 x,y값에 이동한 값 T 만큼 더해주면 된다. 하지만 그래픽에서는 이러한 덧셈 표현은 일체 사용되지 않는다. 회전, 크기 조절등 모든 종류의 변환이 행렬의 곱셈으로 표시되고 따라서 그래픽 하드웨어도 행렬의 곱셈에 최적화되어있다. 이때, 다각형을 이동하려면 그 다각형을 구성하는 정점들에 대해서만 변환을 가하면 된다. 이렇게 함으로써 이동변환의 연산속도를 높일 수 있다.First, translational transformations move the rigid body so that vertices move by the same amount. Considering the two-dimensional movement, it is enough to add the moved value T to the x and y values. In graphics, however, these addition expressions are not used at all. Rotation, scaling, and so on are all represented as multiplications of the matrix, so the graphics hardware is also optimized for matrix multiplication. At this time, in order to move the polygon, only the vertices constituting the polygon are converted. By doing this, the operation speed of the motion conversion can be increased.

두 번째로, 회전변환(Rotation Transformation)은 중심축을 기준으로 어느 만큼 회전했는지를 표시하는 것이다. 세 번째로, 크기 조절(Scaling Transformation)은 원본 영상을 기준으로 얼만큼 줄고 늘었는지에 따라 조절하는 것이다. 이때, 배율이 1보다 크면 확대, 작으면 축소에 해당한다. 모든 배율이 같은 경우를 균등 크기조절(Uniform Scaling), 하나라도 다르면 차등 크기조절(Differential Scaling)이라 한다. 이때, 각각의 행렬과 수식은 상세히 기술하지 않기로 한다.Second, the Rotation Transformation is how much it has rotated about the center axis. Third, Scaling Transformation is adjusted according to how much the original image is scaled down. At this time, if the magnification is larger than 1, it is enlarged, and when it is smaller, it is reduced. If all scales are the same, it is called uniform scaling, and if different, it is called differential scaling. At this time, each matrix and formula are not described in detail.

본 발명의 일 실시예에 따른 원근 변환은 복잡한 특징점의 추출 과정을 배제했기 때문에, 꼭지점(Edge) 추출 및 방향 정보 계산을 위한 반복 과정이 필요하지 않고, 소수의 마커, 예를 들면 4 개의 비접촉성 마커만을 추적하여 중심점을 찾고, 변환 행렬을 계산하여 정합하므로 연산량을 최소화할 수 있고, 실시간 적용에 적합하다.Since the perspective transformation according to the embodiment of the present invention excludes the process of extracting complex feature points, it is unnecessary to perform an iterative process for extracting an edge and calculating direction information, and it is possible to use a small number of markers such as four non- By tracking only the markers, finding the center point, and calculating and matching the transformation matrix, the computation amount can be minimized and is suitable for real-time application.

도 6은 도 1 및 도 2의 비접촉성 마커 기반 영상정합장치에서 출력된 화면을 설명하기 위한 도면이다. (a)는 가시광선 영역에서 촬영한 영상이 정합된 결과이고, (b)는 적외선 영역에서 촬영한 영상이 정합된 결과이다.FIG. 6 is a view for explaining a screen output from the non-contact marker based image matching apparatus of FIGS. 1 and 2. FIG. (a) is a result of matching images taken in the visible light region, and (b) is a result of matching images taken in the infrared region.

(a)의 가시광선 영역의 영상을 베이스 영상으로, (b)의 적외선 영역을 타겟 영상으로 설정하였으므로, (a)를 기준으로 (b)의 영상이 이동, 회전, 크기 조절 등의 변환(Transform)을 한 것을 알 수 있다. 이때, (a)와 (b)는 의사 색채 매핑(Pseudo Color Mapping)된 결과이다.the image of the visible light region of (a) is set as the base image and the infrared region of (b) is set as the target image so that the image of (b) ). ≪ / RTI > At this time, (a) and (b) are the result of pseudo color mapping.

이와 같이, 본 발명에 따른 비접촉성 마커 기반 영상정합장치는 동일한 영상을 서로 다른 카메라 위치에서 찍더라도 정합된 동일한 출력 화면을 얻을 수 있으며, 환자가 수술중 위치를 바꾸는 등의 위치 변화가 발생할지라도 재위치정합(Re-Positioning)이 가능하므로 실시간으로 비접촉성 마커를 추적할 수 있다.Thus, even if the same image is photographed at different camera positions, the non-contact marker-based image registration device according to the present invention can obtain the same output image matched with each other. Even if the positional change occurs, Re-positioning is possible so that non-contact markers can be tracked in real time.

도 7은 본 발명의 일 실시예에 따른 비접촉성 마커 기반 영상정합방법을 설명하기 위한 순서도이다.FIG. 7 is a flowchart illustrating a non-contact marker-based image matching method according to an embodiment of the present invention.

제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)한다(S7100).(Step S7100) such that at least one point of the object becomes at least one non-contact marker by irradiating light of the first wavelength band or the second wavelength band.

제 1 파장 대역에서 상기 비접촉성 마커를 포함한 객체의 제 1 영상을 촬영하고(S7200), 제 2 파장 대역에서 비접촉성 마커를 포함한 객체의 제 2 영상을 촬영한다(S7300)The first image of the object including the non-contact markers is photographed in the first wavelength band (S7200), and the second image of the object including the non-contact markers is photographed in the second wavelength band (S7300)

촬영된 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합한다(S7400).The photographed first image and the second image are perspective transformed and matched (S7400).

상술한 단계들(S7100~S7400)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S7100~S7400)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행될 수도 있다.The order between the above-described steps (S7100 to S7400) is merely an example, but is not limited thereto. That is, the order between the above-described steps S7100 to S7400 may be mutually varied, and some of the steps may be executed simultaneously.

도 7을 통해 설명된 비접촉성 마커 기반 영상정합방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.The non-contact marker based image matching method described with reference to FIG. 7 may also be implemented in the form of a recording medium including instructions executable by a computer such as a program module executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

Claims (16)

비접촉성 마커를 인식하는 장치에 있어서,
제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 광원,
상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 제 1 카메라, 및
상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 제 2 카메라
를 포함하는 비접촉성 마커 인식장치.
An apparatus for recognizing non-contact markers,
A light source for marking at least one point of the object to be at least one non-contact marker by irradiating the light in the first wavelength band or the second wavelength band,
A first camera for capturing a first image of the object including the non-contact markers in the first wavelength band, and
A second camera for capturing a second image of the object including the non-contact markers in the second wavelength band,
Wherein the non-contact marker recognition device comprises:
비접촉성 마커를 인식하는 장치에 있어서,
제 1 파장 대역 내지 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 광원,
상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 제 1 카메라,
상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 제 2 카메라, 및
상기 제 1 카메라와 제 2 카메라의 광축을 일치시키기 위한 광학기
를 포함하는 비접촉성 마커 인식장치.
An apparatus for recognizing non-contact markers,
A light source for marking at least one point of the object to be at least one non-contact marker by irradiating the light of the first wavelength band to the second wavelength band,
A first camera for capturing a first image of the object including the non-contact markers in the first wavelength band,
A second camera for capturing a second image of the object including the non-contact markers in the second wavelength band, and
The optical system according to claim 1, wherein the optical axis of the first camera
Wherein the non-contact marker recognition device comprises:
제 1 항에 있어서,
상기 제 1 파장 대역 또는 제 2 파장 대역은 가시광선 파장 또는 적외선 파장인 것을 특징으로 하는 비접촉성 마커 인식장치.
The method according to claim 1,
Wherein the first wavelength band or the second wavelength band is a visible light wavelength or an infrared wavelength.
제 2 항에 있어서,
상기 제 1 파장 대역 내지 제 2 파장 대역은 가시광선 파장 내지 적외선 파장인 것을 특징으로 하는 비접촉성 마커 인식장치.
3. The method of claim 2,
Wherein the first wavelength band to the second wavelength band is a visible light wavelength to an infrared wavelength.
제 1 항 또는 제 2 항에 있어서,
상기 광원은 레이저 광원인 것을 특징으로 하는 비접촉성 마커 인식장치.
3. The method according to claim 1 or 2,
Wherein the light source is a laser light source.
제 1 항에 있어서,
상기 광원은 가시광선 파장 또는 적외선 파장의 단일 파장 광원인 것을 특징으로 하는 비접촉성 마커 인식장치.
The method according to claim 1,
Wherein the light source is a single wavelength light source having a visible light wavelength or an infrared light wavelength.
제 2 항에 있어서,
상기 광원은 가시광선 파장 내지 적외선 파장의 다중파장 광원인 것을 특징으로 하는 비접촉성 마커 인식장치.
3. The method of claim 2,
Wherein the light source is a multi-wavelength light source of a visible light wavelength to an infrared light wavelength.
영상을 정합하는 장치에 있어서,
제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 광원,
상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 제 1 카메라,
상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 제 2 카메라,
상기 제 1 카메라 및 제 2 카메라로부터 촬영된 상기 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합하는 영상 정합기
를 포함하는 비접촉성 마커 기반 영상정합장치.
An apparatus for matching images,
A light source for marking at least one point of the object to be at least one non-contact marker by irradiating the light in the first wavelength band or the second wavelength band,
A first camera for capturing a first image of the object including the non-contact markers in the first wavelength band,
A second camera for capturing a second image of the object including the non-contact markers in the second wavelength band,
And an image matching device for performing perspective transformation of the first image and the second image photographed by the first camera and the second camera,
Wherein the non-contact marker based image registration device comprises:
영상을 정합하는 장치에 있어서,
제 1 파장 대역 내지 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 광원,
상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 제 1 카메라,
상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 제 2 카메라,
상기 제 1 카메라와 제 2 카메라의 광축을 일치시키기 위한 광학기, 및
상기 제 1 카메라 및 제 2 카메라로부터 촬영된 상기 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합하는 영상 정합기
를 포함하는 비접촉성 마커 기반 영상정합장치.
An apparatus for matching images,
A light source for marking at least one point of the object to be at least one non-contact marker by irradiating the light of the first wavelength band to the second wavelength band,
A first camera for capturing a first image of the object including the non-contact markers in the first wavelength band,
A second camera for capturing a second image of the object including the non-contact markers in the second wavelength band,
An optic for matching the optical axes of the first camera and the second camera, and
And an image matching device for performing perspective transformation of the first image and the second image photographed by the first camera and the second camera,
Wherein the non-contact marker based image registration device comprises:
제 9 항에 있어서,
상기 광학기는 반투과경(Dichroic Mirror) 또는 프리즘인 것을 특징으로 하는 비접촉성 마커 기반 영상정합장치.
10. The method of claim 9,
Wherein the optical unit is a Dichroic mirror or a prism.
제 8 항 또는 제 9 항에 있어서,
상기 영상 정합기는 상기 제 1 영상 및 제 2 영상을 이진화 및 필터링하는 전처리 과정을 수행하는 것을 특징으로 하는 비접촉성 마커 기반 영상정합장치.
10. The method according to claim 8 or 9,
Wherein the image matching unit performs a preprocessing process of binarizing and filtering the first image and the second image.
제 9 항에 있어서,
상기 영상 정합기는 상기 제 1 영상 및 제 2 영상을 이진화 및 필터링하고, 상기 제 1 영상 및 제 2 영상 중 상기 광학기를 통해 좌우 반전된 영상을 보정하는 전처리 과정을 수행하는 것을 특징으로 하는 비접촉성 마커 기반 영상정합장치.
10. The method of claim 9,
Wherein the image matching unit performs a preprocessing process of binarizing and filtering the first and second images and correcting the left and right inverted images of the first and second images through the optical unit. Based image registration device.
제 8 항 또는 제 9 항에 있어서,
상기 영상 정합기는 상기 적어도 하나의 비접촉성 마커의 경계선을 검출하고 중심 모멘트를 계산하는 실시간 추적 과정을 수행하는 것을 특징으로 하는 비접촉성 마커 기반 영상정합장치.
10. The method according to claim 8 or 9,
Wherein the image matching unit performs a real-time tracking process of detecting a boundary line of the at least one non-contact marker and calculating a center moment thereof.
제 8 항 또는 제 9 항에 있어서,
상기 영상 정합기는 상기 제 1 영상 및 제 2 영상의 적어도 하나의 비접촉성 마커의 중심점을 참조점으로 등록하고 원근 변환을 적용하는 정합 과정을 수행하는 것을 특징으로 하는 비접촉성 마커 기반 영상정합장치.
10. The method according to claim 8 or 9,
Wherein the image matching unit registers a center point of at least one non-contact marker of the first and second images as a reference point and performs a matching process of applying perspective transformation.
제 13 항에 있어서,
상기 영상 정합기는 상기 제 1 영상 및 제 2 영상 중 가시광선 영역에서 촬영된 영상을 베이스 영상으로, 적외선 영역에서 촬영된 영상을 타겟 영상으로 설정하는 것을 특징으로 하는 비접촉성 마커 기반 영상정합장치.
14. The method of claim 13,
Wherein the image matching unit sets an image photographed in a visible light region of the first image and a second image as a base image and an image photographed in an infrared region as a target image.
영상을 정합하는 방법에 있어서,
제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 단계,
상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 단계,
상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 단계, 및
상기 촬영된 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합하는 단계
를 포함하는 비접촉성 마커 기반 영상정합방법.
A method for matching images,
Marking the at least one point of the object to be at least one non-contact marker by illuminating the light in the first wavelength band or the second wavelength band,
Taking a first image of the object including the non-contact markers in the first wavelength band,
Capturing a second image of the object including the non-contact markers in the second wavelength band; and
A step of perspectively transforming the photographed first image and the second image,
Based marker based image matching method.
KR1020120111640A 2012-10-09 2012-10-09 Recognition appartus for noncontact marker, apparatus and method for image registration based on noncontact marker KR20140045653A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120111640A KR20140045653A (en) 2012-10-09 2012-10-09 Recognition appartus for noncontact marker, apparatus and method for image registration based on noncontact marker

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120111640A KR20140045653A (en) 2012-10-09 2012-10-09 Recognition appartus for noncontact marker, apparatus and method for image registration based on noncontact marker

Publications (1)

Publication Number Publication Date
KR20140045653A true KR20140045653A (en) 2014-04-17

Family

ID=50652962

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120111640A KR20140045653A (en) 2012-10-09 2012-10-09 Recognition appartus for noncontact marker, apparatus and method for image registration based on noncontact marker

Country Status (1)

Country Link
KR (1) KR20140045653A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190007126A (en) * 2017-07-11 2019-01-22 주식회사 아이앤나 Camera Apparatus and Method for Verifying Emergency of Infant
KR20190007128A (en) * 2017-07-11 2019-01-22 주식회사 아이앤나 Camera Apparatus and Method for Predicting Dangerous State of Infant
CN109766882A (en) * 2018-12-18 2019-05-17 北京诺亦腾科技有限公司 Label identification method, the device of human body luminous point

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100542370B1 (en) * 2004-07-30 2006-01-11 한양대학교 산학협력단 Vision-based augmented reality system using invisible marker
KR20080107211A (en) * 2007-06-05 2008-12-10 삼성전자주식회사 System and method for generating virtual object using augmented reality
KR20090038570A (en) * 2007-10-16 2009-04-21 고려대학교 산학협력단 Portable image clipping device from printed material and the method for controlling the same
KR101048045B1 (en) * 2009-05-07 2011-07-13 윈스로드(주) Obstacle Image Detection Device and Its Control Method in Dangerous Area of Railroad Crossing Using Moving Trajectory of Object
KR101175097B1 (en) * 2010-08-12 2012-08-21 금오공과대학교 산학협력단 Panorama image generating method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100542370B1 (en) * 2004-07-30 2006-01-11 한양대학교 산학협력단 Vision-based augmented reality system using invisible marker
KR20080107211A (en) * 2007-06-05 2008-12-10 삼성전자주식회사 System and method for generating virtual object using augmented reality
KR20090038570A (en) * 2007-10-16 2009-04-21 고려대학교 산학협력단 Portable image clipping device from printed material and the method for controlling the same
KR101048045B1 (en) * 2009-05-07 2011-07-13 윈스로드(주) Obstacle Image Detection Device and Its Control Method in Dangerous Area of Railroad Crossing Using Moving Trajectory of Object
KR101175097B1 (en) * 2010-08-12 2012-08-21 금오공과대학교 산학협력단 Panorama image generating method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190007126A (en) * 2017-07-11 2019-01-22 주식회사 아이앤나 Camera Apparatus and Method for Verifying Emergency of Infant
KR20190007128A (en) * 2017-07-11 2019-01-22 주식회사 아이앤나 Camera Apparatus and Method for Predicting Dangerous State of Infant
CN109766882A (en) * 2018-12-18 2019-05-17 北京诺亦腾科技有限公司 Label identification method, the device of human body luminous point
CN109766882B (en) * 2018-12-18 2020-11-20 北京诺亦腾科技有限公司 Human body light spot label identification method and device

Similar Documents

Publication Publication Date Title
US20220395159A1 (en) Device and method for assisting laparoscopic surgery - directing and maneuvering articulating tool
CN109938837B (en) Optical tracking system and optical tracking method
US11123144B2 (en) Registration of frames of reference
KR101265377B1 (en) - Task-based imaging system
US11889979B2 (en) System and method for camera calibration
KR102102291B1 (en) Optical tracking system and optical tracking method
US9105092B2 (en) Registration method of images for surgery
US20190086198A1 (en) Methods, systems and computer program products for determining object distances and target dimensions using light emitters
KR20140045653A (en) Recognition appartus for noncontact marker, apparatus and method for image registration based on noncontact marker
CN113436129B (en) Image fusion system, method, device, equipment and storage medium
WO2001057805A2 (en) Image data processing method and apparatus
JP5508734B2 (en) Pattern drawing apparatus and pattern drawing method
CN113674402B (en) Plant three-dimensional hyperspectral point cloud model generation method, correction method and device thereof
Haase et al. ToF/RGB sensor fusion for 3-D endoscopy
JP3711053B2 (en) Line-of-sight measurement device and method, line-of-sight measurement program, and recording medium recording the program
CN114092480B (en) Endoscope adjusting device, surgical robot and readable storage medium
WO2018125225A1 (en) System and method for 3d reconstruction
US20230284933A1 (en) Portable three-dimensional image measuring device, three-dimensional image measuring method using same, and medical image matching system
Gard et al. Image-based measurement by instrument tip tracking for tympanoplasty using digital surgical microscopy
CN113785328A (en) Image registration method and system thereof
CN109414161A (en) Imaging device in extended depth-of-field mouth
KR102253350B1 (en) Optical tracking system and optical tracking method
US20170154418A1 (en) Method of Labeling Invisible Fluorescence by Visible Light with Self-Correction
US20240115344A1 (en) Multi-modal microscopic imaging
US20230394707A1 (en) Methods and systems for calibrating and/or verifying a calibration of an imaging system such as a surgical imaging system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment