KR20140045653A - Recognition appartus for noncontact marker, apparatus and method for image registration based on noncontact marker - Google Patents
Recognition appartus for noncontact marker, apparatus and method for image registration based on noncontact marker Download PDFInfo
- Publication number
- KR20140045653A KR20140045653A KR1020120111640A KR20120111640A KR20140045653A KR 20140045653 A KR20140045653 A KR 20140045653A KR 1020120111640 A KR1020120111640 A KR 1020120111640A KR 20120111640 A KR20120111640 A KR 20120111640A KR 20140045653 A KR20140045653 A KR 20140045653A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- camera
- contact
- wavelength band
- wavelength
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Abstract
Description
본 발명은 비접촉성 마커 인식장치, 비접촉성 마커 기반 영상정합장치 및 방법에 관한 것이다.BACKGROUND OF THE
최근 수술 기술의 발전에 따라, 환자의 인체 내부를 CT, MRI 등에 의해 취합된 정보를 통하여 모니터에 재현할 수 있게 되었다. 환자의 인체 내부를 3 차원으로 모델링하여 진료 계획, 수술 계획 및 시술을 위한 정보를 제공하며, 신경이나 척추 등 인체 중요 부위와 환부의 위치, 모양, 임플란트 삽입 위치 등을 상세하게 확인할 수 있다.Recently, with the development of surgical technique, it has become possible to reproduce the inside of the patient's body through the information gathered by CT, MRI and the like. The patient's internal body is modeled in three dimensions to provide information for the treatment plan, operation plan and procedure, and the location, shape, and insertion position of the implant, such as nerves or vertebrae, can be confirmed.
이러한 경우 특정 신체 위치를 확인하기 위해 여러 가지 표시 방법(단추, 적외선발광물질, 잉크, 형광물질 등)을 사용하여 신체상 위치를 표시할 수 있고 이러한 표시를 기초로 각기 다른 영상을 서로 정합할 수 있다. 그러나 이러한 표시 방법의 경우 환자와의 접촉으로 인한 감염, 시술자의 시야 방해 및 작업 방해를 유발할 수 있다.In this case, the body position can be displayed using various display methods (buttons, infrared emitters, inks, fluorescent materials, etc.) to identify specific body positions and different images can be matched to each other based on these displays . However, such a display method can cause infection due to contact with the patient, obstruction of the operator's view, and obstruction of the operation.
또한, 환자를 수술하기 위해 시술자가 환자의 신체상 수술 위치에 격자를 직접 그려서 참조하거나, 임의의 부착물 또는 표시 수단을 사용하는 경우, 환자와의 접촉으로 인한 감염, 시술자의 시야를 방해 및 부착물 자체가 작업에 방해가 되는 경우가 있다.In addition, when a practitioner directly refers to a lattice on a patient's surgical site in order to perform a surgery, or when an arbitrary attachment or display means is used, infection due to contact with the patient, interference with the operator's view, Sometimes the work is interrupted.
본 발명의 일부 실시예는, 레이저 광원 자체가 비접촉성 마커가 되도록 함으로써, 환자의 신체에 격자를 그리거나, 형광 물질을 입힌 부착물을 부착하지 않고도, 비접촉성 마커가 마킹된 영상을 이용하여 수술 부위를 확인할 수 있는 접촉성 마커 인식장치, 비접촉성 마커 기반 영상정합장치 및 방법을 제공하는 데 목적이 있다.Some embodiments of the present invention allow the laser light source itself to be a non-contact marker so that the lasers can be painted on the body of the patient or the non-contact markers can be applied to the surgical site A non-contact marker-based image registration device, and a non-contact marker-based image registration device.
또한, 본 발명의 일부 실시예는, 육안으로는 보이지 않는 특정 적외선 파장대의 레이저 광원을 비접촉성 마커로 이용하고, 수술중 환자의 위치 변화에도 재위치정합(Re-Positioning)이 가능함으로써, 시술자의 시야를 방해하지 않으면서도 감염의 경로를 최소화할 수 있는 접촉성 마커 인식장치, 비접촉성 마커 기반 영상정합장치 및 방법을 제공하는 데 목적이 있다.Further, in some embodiments of the present invention, a laser light source of a specific infrared wavelength band not visible to the naked eye is used as a non-contact marker, and repositioning is possible even when the position of the patient is changed during surgery, There is provided a contact marker recognition apparatus, a contactless marker-based image registration apparatus, and a method capable of minimizing the path of an infection without disturbing the field of view.
또한, 본 발명의 일부 실시예는, 꼭지점(Edge) 방향 정보를 이용하지 않고 소수의 비접촉성 마커만을 추적함으로써, 패턴 인식의 원근변환에서 계산량을 줄일 수 있어 실시간으로 비접촉성 마커를 추적할 수 있는 접촉성 마커 인식장치, 비접촉성 마커 기반 영상정합장치 및 방법을 제공하는 데 목적이 있다.In addition, some embodiments of the present invention can reduce the amount of calculation in the perspective transformation of pattern recognition by tracking only a small number of non-contact markers without using the direction information of the edge direction, A contact marker recognition device, a non-contact marker based image registration device, and a method.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 비접촉성 마커 인식장치는, 제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 광원, 상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 제 1 카메라, 및 상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 제 2 카메라를 포함하는 것을 특징으로 한다.As a technical means for achieving the above technical object, the non-contact marker recognition apparatus according to the first aspect of the present invention is characterized in that at least one point of the object is irradiated with light of the first wavelength band or the second wavelength band, A first camera for capturing a first image of the object including the non-contact markers in the first wavelength band, and a second camera for capturing the non-contact markers in the second wavelength band, And a second camera for capturing a second image of the object including the object.
본 발명의 제 2 측면에 따른 비접촉성 마커 기반 영상정합장치는, 제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 광원, 상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 제 1 카메라, 상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 제 2 카메라, 및 상기 제 1 카메라 및 제 2 카메라로부터 촬영된 상기 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합하는 영상 정합기를 포함하는 것을 특징으로 한다.According to a second aspect of the present invention, there is provided an apparatus for aligning an image based on non-contact markers, the method comprising: marking at least one point of an object by irradiating light of a first wavelength band or a second wavelength band, A first camera for capturing a first image of the object including the non-contact markers in the first wavelength band, a second camera for capturing a second image of the object including the non-contact markers in the second wavelength band, 2 camera, and an image matching unit for perspectively transforming and matching the first image and the second image photographed by the first camera and the second camera.
본 발명의 제 3 측면에 따른 비접촉성 마커 기반 영상정합방법은, 제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 단계, 상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 단계, 상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 단계, 및 상기 촬영된 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합하는 단계를 포함하는 것을 특징으로 한다.The non-contact marker-based image matching method according to the third aspect of the present invention is a method of marking an object by irradiating light of a first wavelength band or a second wavelength band so that at least one point of the object becomes at least one non-contact marker, Photographing a first image of the object including the non-contact markers in the first wavelength band, taking a second image of the object including the non-contact markers in the second wavelength band, and And performing Perspective Transform on the photographed first image and the second image to match each other.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 환자의 신체에 격자를 그리거나, 형광 물질을 입힌 부착물을 부착하지 않고도, 비접촉성 마커가 마킹된 영상을 이용하여 수술 부위를 확인할 수 있고, 꼭지점(Edge) 방향 정보를 이용하지 않고 소수의 비접촉성 마커만을 추적함으로써, 패턴 인식의 원근변환에서 계산량을 줄일 수 있어 실시간으로 비접촉성 마커를 추적할 수 있는 비접촉성 마커 인식장치, 비접촉성 마커 기반 영상정합장치 및 방법을 제공할 수 있다.According to any one of the above-mentioned objects of the present invention, it is possible to identify a surgical site using an image marked with a non-contact marker without drawing a lattice on a patient's body or attaching a fluorescent substance- Non-contact marker recognition device that can track non-contact markers in real time by reducing calculation amount in perspective conversion of pattern recognition by tracking only a small number of non-contact markers without using vertex direction information, An image matching apparatus and method can be provided.
도 1은 본 발명의 일 실시예에 따른 비접촉성 마커 기반 영상정합장치를 설명하기 위한 구성도이다.
도 2는 본 발명의 다른 실시예에 따른 비접촉성 마커 기반 영상정합장치를 설명하기 위한 구성도이다.
도 3은 도 1 및 도 2의 비접촉성 마커의 광원과 파장 분포도를 설명하기 위한 도면이다.
도 4는 도 1 및 도 2의 비접촉성 마커의 제 1 영상 및 제 2 영상을 설명하기 위한 도면이다.
도 5는 도 1 및 도 2의 영상 정합기에서 실행되는 원근 변환의 개념을 설명하기 위한 도면이다.
도 6은 도 1 및 도 2의 비접촉성 마커 기반 영상정합장치에서 출력된 화면을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 비접촉성 마커 기반 영상정합방법을 설명하기 위한 순서도이다.1 is a block diagram illustrating a non-contact marker based image matching apparatus according to an exemplary embodiment of the present invention.
2 is a block diagram illustrating a non-contact marker based image matching apparatus according to another embodiment of the present invention.
Fig. 3 is a view for explaining a light source and a wavelength distribution diagram of the non-contact markers of Figs. 1 and 2. Fig.
FIG. 4 is a view for explaining a first image and a second image of the non-contact markers of FIGS. 1 and 2. FIG.
Fig. 5 is a diagram for explaining the concept of perspective transformation executed in the image matching device of Figs. 1 and 2. Fig.
FIG. 6 is a view for explaining a screen output from the non-contact marker based image matching apparatus of FIGS. 1 and 2. FIG.
FIG. 7 is a flowchart illustrating a non-contact marker-based image matching method according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명의 실시예를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the embodiments of the present invention in the drawings, parts not related to the description are omitted, and like parts are denoted by similar reference numerals throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "including" an element, it is to be understood that the element may include other elements as well as other elements, And does not preclude the presence or addition of one or more other features, integers, steps, operations, components, parts, or combinations thereof.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 실시될 수도 있고 실질적으로 동시에 실시될 수도 있으며 반대의 순서대로 실시될 수도 있다.The terms "first "," second ", and the like are intended to distinguish one element from another, and the scope of the right should not be limited by these terms. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. In each step, the identification code is used for convenience of explanation, and the identification code does not describe the order of the steps, and each step may be performed differently from the stated order unless clearly specified in the context. have. That is, each of the steps may be performed in the same order as described, or may be performed substantially concurrently or in the reverse order.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 비접촉성 마커 기반 영상정합장치를 설명하기 위한 구성도이고, 도 2는 본 발명의 다른 실시예에 따른 비접촉성 마커 기반 영상정합장치를 설명하기 위한 구성도이다. 도 1 및 도 2에 도시된 광원(100), 제 1 카메라(200), 제 2 카메라(300), 영상 정합기(400), 광학기(500) 및 출력 장치(600)는 설명의 편의를 위해 예시된 것에 불과하므로, 본원의 기기가 도 1 및 도 2에 도시된 것들로 한정 해석되는 것은 아니다.FIG. 1 is a block diagram illustrating a non-contact marker based image matching apparatus according to an exemplary embodiment of the present invention. FIG. 2 is a block diagram illustrating a non-contact marker based image matching apparatus according to another exemplary embodiment of the present invention. to be. The
본 발명의 비접촉성 마커 기반 영상정합장치(1)는 단일 파장을 사용하는 경우는 도 1에서 설명하고, 다중 파장을 사용하는 경우는 도 2에서 설명하기로 한다. 이때, 설명의 편의를 위해 단일 파장과 다중 파장을 사용하는 경우를 나누어 놓았으나, 단일 파장의 경우는 도 1의 구성, 다중 파장의 경우는 도 2의 구성으로 고정되어야 하는 것은 아니다.The non-contact marker based
도 1을 참조하면, 광원(100), 제 1 카메라(200), 제 2 카메라(300)는 비접촉성 마커 인식장치를 구성할 수 있고, 비접촉성 마커 기반 영상정합장치(1)는 광원(100), 제 1 카메라(200), 제 2 카메라(300), 영상 정합기(400)를 포함할 수 있다.1, the
광원(100)은 제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)할 수 있다. The
이때, 본 발명의 광원(100)은 레이저로 피부를 직접 태닝(Tanning)하여 태닝된 영역을 마커로 이용하는 방식과는 구별된다. 즉, 태닝을 하여 마커로 이용하게 되면 환자의 신체에 직접적인 마커를 남기게 되고, 환자의 미관상 거부감을 줄 수도 있으며 2차적인 감염의 가능성도 존재하기 때문이다.At this time, the
따라서, 본 발명의 일 실시예는 태닝 방식과 달리 광원(100)이 빛을 객체에 조사하고, 제 1 카메라(200)와 제 2 카메라(300)가 빛이 조사된 객체의 영상을 입력받으면, 영상 정합기(400)의 알고리즘을 통하여 객체에 조사된 빛을 마커로 인식하는 간접적인 방식을 이용한다.Therefore, unlike the tanning method, when the
이때, 제 1 파장 대역 또는 제 2 파장 대역은 가시광선 파장 또는 적외선 파장일 수 있다. 예를 들어, 광원(100)은 도 1에 도시된 바와 같이, 4 개일 수 있으며, 50mV의 808nm 대역의 비 가시광선 파장을 이용할 수 있다. 이때, 비 가시광선 파장은 육안으로 식별이 거의 불가능하므로, 시술자에게 방해를 주지는 않지만, 제 1 카메라(200), 제 2 카메라(300) 중 어느 하나로 인식 및 촬영은 가능하다.In this case, the first wavelength band or the second wavelength band may be a visible light wavelength or an infrared wavelength. For example, the
광원(100)은 레이저 광원(Laser Light Source)일 수 있다. 또한, 광원(100)은 가시광선 파장 또는 적외선 파장의 단일 파장 광원일 수 있다. 이때, 광원(100)은 형광 물질의 마커(Real-marker)와는 달리, 광원(100) 자체가 인식되기 때문에, 형광 물질의 특성과 같이 여기 파장(Excitation Wavelength)과 방출 파장(Emission Wavelength)이 다름은 고려할 필요는 없다. 다만, 광원(100)에 의해 방출된 파장은 신체에 흡수되고 그 일부가 방출(Emission)되기 때문에, 신체가 흡수하는 만큼의 파장은 고려될 수 있다.The
제 1 카메라(200)는 제 1 파장 대역에서 비접촉성 마커를 포함한 객체의 제 1 영상을 촬영할 수 있다. 이때, 비접촉성 마커는 광원(100)으로 인해 생성된 가시광선 비접촉성 마커와 적외선 비접촉성 마커 중 가시광선 비접촉성 마커일 수 있다. 또한, 제 1 카메라(200)는 광원(100)으로 인해 생성된 비접촉성 마커 중 가시광선 비접촉성 마커를 촬영할 수 있다. 또한, 예를 들어, 제 1 카메라(200)는 가시광선 파장을 촬영할 수 있는 가시광선 영역 카메라일 수 있다. 이때, 제 1 카메라(200)는 컬러 보정 필터를 포함할 수 있다. 예를 들어, 제 1 카메라(200)가 가시광선 영역 카메라이고, 제 2 카메라(300)가 적외선 영역 카메라일 경우, 적외선 영역에서 촬영한 제 2 영상과의 분리율을 향상시키기 위해 컬러 보정 필터를 장착할 수 있다. The
제 2 카메라(300)는 제 2 파장 대역에서 비접촉성 마커를 포함한 객체의 제 2 영상을 촬영할 수 있다. 이때, 비접촉성 마커는 광원(100)으로 인해 생성된 가시광선 비접촉성 마커와 적외선 비접촉성 마커 중 적외선 비접촉성 마커일 수 있다. 또한, 제 2 카메라(300)는 광원(100)으로 인해 생성된 비접촉성 마커 중 적외선 비접촉성 마커를 촬영할 수 있다. 또한, 예를 들어, 제 2 카메라(300)는 적외선 파장을 촬영할 수 있는 적외선 영역 카메라일 수 있다. 이때, 제 2 카메라(300)는 적외선 통과 필터를 포함할 수 있다. 예를 들어, 제 2 카메라(300)가 적외선 영역 카메라이고, 제 1 카메라(200)가 가시광선 영역 카메라일 경우, 가시광선 영역에서 촬영한 제 1 영상과의 분리율을 향상시키기 위해 적외선 통과 필터를 장착할 수 있다. The
영상 정합기(400)는 제 1 카메라(200) 및 제 2 카메라(300)로부터 촬영된 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합할 수 있다. 영상 정합기(400)는 제 1 카메라(200)로부터 촬영된 제 1 영상과 제 2 카메라(300)로부터 촬영된 제 2 영상을 이진화 및 필터링하는 전처리 과정을 수행할 수 있다. 예를 들어, 노이즈 등의 불필요한 아티팩트(Artifact)를 제거할 수 있다. 이때, 아티팩트란, 모니터에 나타나는 모든 영상을 포함한 모든 종류의 컴퓨터 그래픽에서 보고 싶지 않은 부분일 수 있다. 이는, 원본 영상의 일부가 아닌 빗나간 화소들의 모임일 수 있다.The
또한, 영상 정합기(400)는 적어도 하나의 비접촉성 마커의 경계선을 검출하고, 중심 모멘트(Moment)를 계산하는 추적 과정을 수행할 수 있다. 예를 들어, 실시간 추적 과정으로 인해 수술중 환자의 위치 변화에도 재위치정합(Re-Positioning)이 가능할 수 있다. 이는, 꼭지점(Edge) 추출 및 방향 정보 계산을 위한 반복 과정이 생략됨으로써, 연산량이 줄어들기 때문에 실시간으로 비접촉성 마커를 추적할 수 있다.In addition, the
일반적으로 수술 중 환자의 움직임은 거의 발생하지 않으나, 수술 중 내부 또는 외부 요인으로 인하여 환자의 움직임이 발생하는 경우, 제 1 카메라(200) 또는 제 2 카메라(300)에서 촬영하는 입력 영상의 광축 변화가 발생하므로, 광축을 다시 맞추기 위해서는 재위치 정합이 요구된다.In general, the motion of the patient during surgery is scarcely generated. However, when the motion of the patient occurs due to internal or external factors during surgery, the change of the optical axis of the input image captured by the
본 발명에 따른 영상 정합기(400)에서는 마커 추적 및 중심 모멘트 계산이 실시간으로 이루어지므로, 수술 중 환자의 움직임으로 인하여 위치 변화가 발생하는 경우에도 새로운 위치에서 자동으로 위치 정합을 수행할 수 있다. 따라서, 환자의 움직임으로 인해 발생하는 특정 카메라의 광축 변화 문제에도 카메라 자체의 하드웨어적인 조정없이 즉각적으로 대응할 수 있다.In the
또한, 영상 정합기(400)는 제 1 카메라(200)로부터 촬영된 제 1 영상 및 제 2 카메라(300)로부터 촬영된 제 2 영상의 적어도 하나의 비접촉성 마커의 중심점을 참조점으로 등록하고, 원근 변환(Perspective Transform)을 하여 정합 과정을 수행할 수 있다. 이때, 복잡한 특징점 추출 과정이 없기 때문에, 그 연산량은 최소화될 수 있다. 이때, 중심점은 실시간으로 갱신될 수 있다.Also, the
최종적으로, 영상 정합기(400)는 제 1 영상 및 제 2 영상 중 가시광선 영역에서 촬영된 영상을 베이스 영상으로, 적외선 영역에서 촬영된 영상을 타겟 영상으로 설정할 수 있다. 이때, 원근 변환 결과인 변환 행렬(이동, 크기, 회전)을 이용하여 정합이 이루어진다.Finally, the
비접촉성 마커 기반 영상정합장치(1)는 출력 장치(600)를 더 포함할 수 있다. 이때, 출력 장치(600)로는 최종 위치 정합 결과가 디스플레이될 수 있다.The non-contact marker based
도 2를 참조하면, 광원(100), 제 1 카메라(200), 제 2 카메라(300), 광학기(500)는 비접촉성 마커 인식장치를 구성할 수 있고, 비접촉성 마커 기반 영상정합장치(1)는 광원(100), 제 1 카메라(200), 제 2 카메라(300), 영상 정합기(400), 광학기(500)를 포함할 수 있다.Referring to FIG. 2, the
광원(100)은 제 1 파장 대역 내지 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)할 수 있다. 이때, 제 1 파장 대역 내지 제 2 파장 대역은 가시광선 파장 내지 적외선 파장일 수 있다. 예를 들어, 광원(100)은 도 1에 도시된 바와 같이, 4 개일 수 있으며, 50mV의 808nm 대역의 비 가시광선 파장을 이용할 수 있다. 이때, 비 가시광선 파장은 육안으로 식별이 거의 불가능하므로, 시술자에게 방해를 주지는 않지만, 제 1 카메라(200), 제 2 카메라(300) 중 어느 하나로 인식 및 촬영은 가능하다.The
광원(100)은 레이저 광원(Laser Light Source)일 수 있다. 또한, 광원(100)은 가시광선 파장 내지 적외선 파장의 다중파장 광원일 수 있다. 이때, 광원(100)은 형광 물질의 마커(Real-marker)와는 달리, 광원(100) 자체가 인식되기 때문에, 형광 물질의 특성과 같이 여기 파장(Excitation Wavelength)과 방출 파장(Emission Wavelength)이 다름은 고려할 필요는 없다. 다만, 광원(100)에 의해 방출된 파장은 신체에 흡수되고 그 일부가 방출(Emission)되기 때문에, 신체가 흡수하는 만큼의 파장은 고려될 수 있다.The
제 1 카메라(200)는 제 1 파장 대역에서 비접촉성 마커를 포함한 객체의 제 1 영상을 촬영할 수 있다. 이때, 비접촉성 마커는 광원(100)으로 인해 생성된 가시광선 비접촉성 마커와 적외선 비접촉성 마커 중 가시광선 비접촉성 마커일 수 있다. 또한, 제 1 카메라(200)는 광원(100)으로 인해 생성된 비접촉성 마커 중 가시광선 비접촉성 마커를 촬영할 수 있다. 또한, 예를 들어, 제 1 카메라(200)는 가시광선 파장을 촬영할 수 있는 가시광선 영역 카메라일 수 있다. 이때, 제 1 카메라(200)는 컬러 보정 필터를 포함할 수 있다. 예를 들어, 제 1 카메라(200)가 가시광선 영역 카메라이고, 제 2 카메라(300)가 적외선 영역 카메라일 경우, 적외선 영역에서 촬영한 제 2 영상과의 분리율을 향상시키기 위해 컬러 보정 필터를 장착할 수 있다. The
제 2 카메라(300)는 제 2 파장 대역에서 비접촉성 마커를 포함한 객체의 제 2 영상을 촬영할 수 있다. 이때, 비접촉성 마커는 광원(100)으로 인해 생성된 가시광선 비접촉성 마커와 적외선 비접촉성 마커 중 적외선 비접촉성 마커일 수 있다. 또한, 제 2 카메라(300)는 광원(100)으로 인해 생성된 비접촉성 마커 중 적외선 비접촉성 마커를 촬영할 수 있다. 또한, 예를 들어, 제 2 카메라(300)는 적외선 파장을 촬영할 수 있는 적외선 영역 카메라일 수 있다. 이때, 제 2 카메라(300)는 적외선 통과 필터를 포함할 수 있다. 예를 들어, 제 2 카메라(300)가 적외선 영역 카메라이고, 제 1 카메라(200)가 가시광선 영역 카메라일 경우, 가시광선 영역에서 촬영한 제 1 영상과의 분리율을 향상시키기 위해 적외선 통과 필터를 장착할 수 있다. The
광학기(500)는 제 1 카메라(200)와 제 2 카메라(300)의 광축을 일치시키기 위하여 구비될 수 있다. 이때, 광학기(500)는 반투과경(Dichroic Mirror) 또는 프리즘일 수 있다. 이때, 반투과경은 굴절률이 다른 물질이 많은 박층으로 이루어지는 반사경일 수 있다. 일정 파장 대역의 빛은 반사하고, 다른 대역의 빛은 모두 투과하는 반사경일 수 있다. 선택 반사하는 빛의 파장 범위를 재료나 두께의 구조에 의해 가감할 수 있는 반사경일 수 있다.The
영상 정합기(400)는 제 1 카메라(200) 및 제 2 카메라(300)로부터 촬영된 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합할 수 있다. 영상 정합기(400)는 제 1 카메라(200)로부터 촬영된 제 1 영상과 제 2 카메라(300)로부터 촬영된 제 2 영상을 이진화 및 필터링하는 전처리 과정을 수행할 수 있다. 예를 들어, 노이즈 등의 불필요한 아티팩트(Artifact)를 제거할 수 있다. 이때, 아티팩트란, 모니터에 나타나는 모든 영상을 포함한 모든 종류의 컴퓨터 그래픽에서 보고 싶지 않은 부분일 수 있다. 이는, 원본 영상의 일부가 아닌 빗나간 화소들의 모임일 수 있다. 또한, 영상 정합기(400)는 광학기(500)를 통해 좌우 반전된 영상을 보정하는 전처리 과정을 더 수행할 수도 있다.The
또한, 영상 정합기(400)는 적어도 하나의 비접촉성 마커의 경계선을 검출하고, 중심 모멘트(Moment)를 계산하는 추적 과정을 수행할 수 있다. 예를 들어, 실시간 추적 과정으로 인해 수술중 환자의 위치 변화에도 재위치정합(Re-Positioning)이 가능할 수 있다. 이는, 꼭지점(Edge) 추출 및 방향 정보 계산을 위한 반복 과정이 생략됨으로써, 연산량이 줄어들기 때문에 실시간으로 비접촉성 마커를 추적할 수 있다.In addition, the
또한, 영상 정합기(400)는 제 1 카메라(200)로부터 촬영된 제 1 영상 및 제 2 카메라(300)로부터 촬영된 제 2 영상의 적어도 하나의 비접촉성 마커의 중심점을 참조점으로 등록하고, 원근 변환(Perspective Transform)을 하여 정합 과정을 수행할 수 있다. 이때, 복잡한 특징점 추출 과정이 없기 때문에, 그 연산량은 최소화될 수 있다. 이때, 중심점은 실시간으로 갱신될 수 있다.Also, the
최종적으로, 영상 정합기(400)는 제 1 영상 및 제 2 영상 중 가시광선 영역에서 촬영된 영상을 베이스 영상으로, 적외선 영역에서 촬영된 영상을 타겟 영상으로 설정할 수 있다. 이때, 원근 변환 결과인 변환 행렬(이동, 크기, 회전)을 이용하여 정합이 이루어진다.Finally, the
비접촉성 마커 기반 영상정합장치(1)는 출력 장치(600)를 더 포함할 수 있다. 이때, 출력 장치(600)로는 최종 위치 정합 결과가 디스플레이될 수 있다.The non-contact marker based
도 3은 도 1 및 도 2의 비접촉성 마커의 광원과 파장 분포도를 설명하기 위한 도면이다. (a)를 보면, 808nm 대역의 레이저 광원을 도시하고, (b)를 보면, 가시광선 영역 카메라에서 CCD(Charge Coupled Device) 센서의 파장에 따른 광감도를 나타낸다. (b)의 그래프를 보면, 약 808 nm 대역의 파장(Wavelength)에서 임펄스 형태로 광감도(Intensity) 그래프가 출력된 것을 알 수 있다. 이때, 약 780 nm까지가 가시광선 영역이지만, 808 nm 대역도 가시광선 영역 카메라로 촬영이 가능하므로, 시술자에게는 보이지 않아 방해 요소로 작용되지 않으면서도, 비접촉성 마커로써 가시광선 영역 카메라로 촬영될 수 있다.Fig. 3 is a view for explaining a light source and a wavelength distribution diagram of the non-contact markers of Figs. 1 and 2. Fig. (a) shows a laser light source of 808 nm band, and (b) shows a photosensitivity according to the wavelength of a CCD (Charge Coupled Device) sensor in a visible light region camera. (b), it can be seen that an intensity graph is output in the form of an impulse at a wavelength of about 808 nm. At this time, although the visible light region is up to about 780 nm, the 808 nm region can be photographed with a visible light region camera, so that it can be photographed with a visible light region camera as a non-contact marker, have.
도 4는 도 1 및 도 2의 비접촉성 마커의 제 1 영상 및 제 2 영상을 설명하기 위한 도면이다. 도 4a를 참조하면, 동일한 부위를 촬영한 (a) 가시광선 영역 카메라의 영상, (b) 적외선 영역 카메라의 영상을 볼 수 있다.FIG. 4 is a view for explaining a first image and a second image of the non-contact markers of FIGS. 1 and 2. FIG. Referring to FIG. 4A, the image of the visible region camera (a) and the image of the infrared region camera (b) can be seen.
다수의 장치를 적용하더라도, 적외선 영역 카메라와 가시광선 영역 카메라로 입력되는 영상의 크기와 각도는 상이할 수 있다. 특히, 거리에 따라 크기와 각도 등의 차이가 커지기 때문에, 두 영상의 차이는 항상 일정하지 않을 수 있다. 또한, 각 카메라는 특성이 다르기 때문에, 각 카메라 마다 설치하는 필터, 렌즈의 굴절률 차이, 줌 정도의 차이 등으로 두 영상을 고정된 변환식을 이용하여 실시간으로 정합할 수는 없다.Even when a plurality of apparatuses are applied, the size and angle of an image input to the infrared region camera and the visible region region camera may differ. Particularly, since the difference in size and angle becomes larger depending on the distance, the difference between the two images may not always be constant. In addition, since each camera has different characteristics, it is not possible to match two images in real time using a fixed conversion formula due to differences in the refractive index of the lens, the degree of zoom, and the like.
도 4b를 참조하면, 종래 시스템에서 사용되는 조정 과정을 설명하기 위한 도면이다. 즉, 기존의 일반적인 영상 시스템에서는 거리에 따른 왜곡 보정을 위해, 환자와의 거리를 측정하고, 행렬 계산을 한 후, 체스 보드와 같은 인위적인 패턴을 이용하여 왜곡을 보정하는 조정 과정(Calibration)이 반드시 필요하였다. 또한, 하드웨어적으로 텔레센트릭(Telecentric) 렌즈 등 별도의 디바이스를 장착하여 왜곡을 최소화하는 방법도 있으나, 피사체의 크기가 렌즈의 직경보다 반드시 작아야 한다는 제약 사항이 있었다. 따라서, 이러한 기존의 접근 방법은 다양한 시점과 거리에서 촬영이 실시간으로 빈번하게 이루어져야 하는 수술 환경에서는 그 특성상 적용이 불가능하다.Referring to FIG. 4B, there is shown an adjustment process used in a conventional system. That is, in the conventional general image system, in order to correct the distortion according to the distance, it is necessary to calibrate the distortion by calibrating the distances to the patient, calculating the matrix, and correcting distortion using artificial patterns such as chess board . There is also a method of minimizing distortion by installing a separate device such as a telecentric lens in hardware, but there is a restriction that the size of the subject must be smaller than the diameter of the lens. Therefore, this conventional approach is not applicable to the characteristics of the surgical environment in which shooting at various viewpoints and distances should be frequently performed in real time.
본 발명의 일 실시예에 따른 비접촉성 마커 기반 영상정합장치(1)는 카메라와 렌즈는 동일한 특성을 가질 수 없어 동일한 광축을 맞추어도 거리나 각도가 달라지면 정합 패러미터가 달라지므로, 하드웨어적으로 고정된 틀을 이용하는 경우 정합 에러가 발생할 수 있는 문제점을 제거하고, 정밀도가 거리나 각도 등에 관계없이 항상 유지되고, 초기 캘리브레이션도 영상 정합기를 통해 보정할 수 있다.In the non-contact marker based
또한, 본 발명의 일 실시예에 따른 비접촉성 마커 기반 영상정합장치(1)는 복잡한 광학계를 사용하지 않고, 1 개의 광학기만을 이용함으로써 미약한 광신호의 소실 또는 약화를 제거할 수 있고, 실시간으로 비접촉성 마커를 추적할 수 있다.In addition, the non-contact marker-based
도 5는 도 1 및 도 2의 영상 정합기에서 실행되는 원근 변환의 개념을 설명하기 위한 도면이다.Fig. 5 is a diagram for explaining the concept of perspective transformation executed in the image matching device of Figs. 1 and 2. Fig.
우선, 선형 대수학(Linear Algebra)에서 벡터를 행백터(Row Vector)또는 열백터(Column Vector)의 형태로 표시할 수 있고, 행벡터에서는 좌우로, 열벡터에서는 상하로 나열할 수 있다. 이때, 물체의 이동, 회전, 크기조절 등의 작업을 기하변환(Geometric Transformation), 변환(Transformation)이라 한다.First, in a linear algebra, a vector can be displayed in the form of a row vector or a column vector, and left and right in a row vector, and up and down in a column vector. At this time, operations such as movement, rotation, and size adjustment of an object are referred to as geometric transformation and transformation.
첫 번째로, 이동변환(Translational Transformation)은 강체(Rigid Body)를 이동하면 정점은 동일한 양만큼 움직인다는 것이다. 2차원 이동을 생각해보면 x,y값에 이동한 값 T 만큼 더해주면 된다. 하지만 그래픽에서는 이러한 덧셈 표현은 일체 사용되지 않는다. 회전, 크기 조절등 모든 종류의 변환이 행렬의 곱셈으로 표시되고 따라서 그래픽 하드웨어도 행렬의 곱셈에 최적화되어있다. 이때, 다각형을 이동하려면 그 다각형을 구성하는 정점들에 대해서만 변환을 가하면 된다. 이렇게 함으로써 이동변환의 연산속도를 높일 수 있다.First, translational transformations move the rigid body so that vertices move by the same amount. Considering the two-dimensional movement, it is enough to add the moved value T to the x and y values. In graphics, however, these addition expressions are not used at all. Rotation, scaling, and so on are all represented as multiplications of the matrix, so the graphics hardware is also optimized for matrix multiplication. At this time, in order to move the polygon, only the vertices constituting the polygon are converted. By doing this, the operation speed of the motion conversion can be increased.
두 번째로, 회전변환(Rotation Transformation)은 중심축을 기준으로 어느 만큼 회전했는지를 표시하는 것이다. 세 번째로, 크기 조절(Scaling Transformation)은 원본 영상을 기준으로 얼만큼 줄고 늘었는지에 따라 조절하는 것이다. 이때, 배율이 1보다 크면 확대, 작으면 축소에 해당한다. 모든 배율이 같은 경우를 균등 크기조절(Uniform Scaling), 하나라도 다르면 차등 크기조절(Differential Scaling)이라 한다. 이때, 각각의 행렬과 수식은 상세히 기술하지 않기로 한다.Second, the Rotation Transformation is how much it has rotated about the center axis. Third, Scaling Transformation is adjusted according to how much the original image is scaled down. At this time, if the magnification is larger than 1, it is enlarged, and when it is smaller, it is reduced. If all scales are the same, it is called uniform scaling, and if different, it is called differential scaling. At this time, each matrix and formula are not described in detail.
본 발명의 일 실시예에 따른 원근 변환은 복잡한 특징점의 추출 과정을 배제했기 때문에, 꼭지점(Edge) 추출 및 방향 정보 계산을 위한 반복 과정이 필요하지 않고, 소수의 마커, 예를 들면 4 개의 비접촉성 마커만을 추적하여 중심점을 찾고, 변환 행렬을 계산하여 정합하므로 연산량을 최소화할 수 있고, 실시간 적용에 적합하다.Since the perspective transformation according to the embodiment of the present invention excludes the process of extracting complex feature points, it is unnecessary to perform an iterative process for extracting an edge and calculating direction information, and it is possible to use a small number of markers such as four non- By tracking only the markers, finding the center point, and calculating and matching the transformation matrix, the computation amount can be minimized and is suitable for real-time application.
도 6은 도 1 및 도 2의 비접촉성 마커 기반 영상정합장치에서 출력된 화면을 설명하기 위한 도면이다. (a)는 가시광선 영역에서 촬영한 영상이 정합된 결과이고, (b)는 적외선 영역에서 촬영한 영상이 정합된 결과이다.FIG. 6 is a view for explaining a screen output from the non-contact marker based image matching apparatus of FIGS. 1 and 2. FIG. (a) is a result of matching images taken in the visible light region, and (b) is a result of matching images taken in the infrared region.
(a)의 가시광선 영역의 영상을 베이스 영상으로, (b)의 적외선 영역을 타겟 영상으로 설정하였으므로, (a)를 기준으로 (b)의 영상이 이동, 회전, 크기 조절 등의 변환(Transform)을 한 것을 알 수 있다. 이때, (a)와 (b)는 의사 색채 매핑(Pseudo Color Mapping)된 결과이다.the image of the visible light region of (a) is set as the base image and the infrared region of (b) is set as the target image so that the image of (b) ). ≪ / RTI > At this time, (a) and (b) are the result of pseudo color mapping.
이와 같이, 본 발명에 따른 비접촉성 마커 기반 영상정합장치는 동일한 영상을 서로 다른 카메라 위치에서 찍더라도 정합된 동일한 출력 화면을 얻을 수 있으며, 환자가 수술중 위치를 바꾸는 등의 위치 변화가 발생할지라도 재위치정합(Re-Positioning)이 가능하므로 실시간으로 비접촉성 마커를 추적할 수 있다.Thus, even if the same image is photographed at different camera positions, the non-contact marker-based image registration device according to the present invention can obtain the same output image matched with each other. Even if the positional change occurs, Re-positioning is possible so that non-contact markers can be tracked in real time.
도 7은 본 발명의 일 실시예에 따른 비접촉성 마커 기반 영상정합방법을 설명하기 위한 순서도이다.FIG. 7 is a flowchart illustrating a non-contact marker-based image matching method according to an embodiment of the present invention.
제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)한다(S7100).(Step S7100) such that at least one point of the object becomes at least one non-contact marker by irradiating light of the first wavelength band or the second wavelength band.
제 1 파장 대역에서 상기 비접촉성 마커를 포함한 객체의 제 1 영상을 촬영하고(S7200), 제 2 파장 대역에서 비접촉성 마커를 포함한 객체의 제 2 영상을 촬영한다(S7300)The first image of the object including the non-contact markers is photographed in the first wavelength band (S7200), and the second image of the object including the non-contact markers is photographed in the second wavelength band (S7300)
촬영된 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합한다(S7400).The photographed first image and the second image are perspective transformed and matched (S7400).
상술한 단계들(S7100~S7400)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S7100~S7400)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행될 수도 있다.The order between the above-described steps (S7100 to S7400) is merely an example, but is not limited thereto. That is, the order between the above-described steps S7100 to S7400 may be mutually varied, and some of the steps may be executed simultaneously.
도 7을 통해 설명된 비접촉성 마커 기반 영상정합방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.The non-contact marker based image matching method described with reference to FIG. 7 may also be implemented in the form of a recording medium including instructions executable by a computer such as a program module executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
Claims (16)
제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 광원,
상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 제 1 카메라, 및
상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 제 2 카메라
를 포함하는 비접촉성 마커 인식장치.
An apparatus for recognizing non-contact markers,
A light source for marking at least one point of the object to be at least one non-contact marker by irradiating the light in the first wavelength band or the second wavelength band,
A first camera for capturing a first image of the object including the non-contact markers in the first wavelength band, and
A second camera for capturing a second image of the object including the non-contact markers in the second wavelength band,
Wherein the non-contact marker recognition device comprises:
제 1 파장 대역 내지 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 광원,
상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 제 1 카메라,
상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 제 2 카메라, 및
상기 제 1 카메라와 제 2 카메라의 광축을 일치시키기 위한 광학기
를 포함하는 비접촉성 마커 인식장치.
An apparatus for recognizing non-contact markers,
A light source for marking at least one point of the object to be at least one non-contact marker by irradiating the light of the first wavelength band to the second wavelength band,
A first camera for capturing a first image of the object including the non-contact markers in the first wavelength band,
A second camera for capturing a second image of the object including the non-contact markers in the second wavelength band, and
The optical system according to claim 1, wherein the optical axis of the first camera
Wherein the non-contact marker recognition device comprises:
상기 제 1 파장 대역 또는 제 2 파장 대역은 가시광선 파장 또는 적외선 파장인 것을 특징으로 하는 비접촉성 마커 인식장치.
The method according to claim 1,
Wherein the first wavelength band or the second wavelength band is a visible light wavelength or an infrared wavelength.
상기 제 1 파장 대역 내지 제 2 파장 대역은 가시광선 파장 내지 적외선 파장인 것을 특징으로 하는 비접촉성 마커 인식장치.
3. The method of claim 2,
Wherein the first wavelength band to the second wavelength band is a visible light wavelength to an infrared wavelength.
상기 광원은 레이저 광원인 것을 특징으로 하는 비접촉성 마커 인식장치.
3. The method according to claim 1 or 2,
Wherein the light source is a laser light source.
상기 광원은 가시광선 파장 또는 적외선 파장의 단일 파장 광원인 것을 특징으로 하는 비접촉성 마커 인식장치.
The method according to claim 1,
Wherein the light source is a single wavelength light source having a visible light wavelength or an infrared light wavelength.
상기 광원은 가시광선 파장 내지 적외선 파장의 다중파장 광원인 것을 특징으로 하는 비접촉성 마커 인식장치.
3. The method of claim 2,
Wherein the light source is a multi-wavelength light source of a visible light wavelength to an infrared light wavelength.
제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 광원,
상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 제 1 카메라,
상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 제 2 카메라,
상기 제 1 카메라 및 제 2 카메라로부터 촬영된 상기 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합하는 영상 정합기
를 포함하는 비접촉성 마커 기반 영상정합장치.
An apparatus for matching images,
A light source for marking at least one point of the object to be at least one non-contact marker by irradiating the light in the first wavelength band or the second wavelength band,
A first camera for capturing a first image of the object including the non-contact markers in the first wavelength band,
A second camera for capturing a second image of the object including the non-contact markers in the second wavelength band,
And an image matching device for performing perspective transformation of the first image and the second image photographed by the first camera and the second camera,
Wherein the non-contact marker based image registration device comprises:
제 1 파장 대역 내지 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 광원,
상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 제 1 카메라,
상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 제 2 카메라,
상기 제 1 카메라와 제 2 카메라의 광축을 일치시키기 위한 광학기, 및
상기 제 1 카메라 및 제 2 카메라로부터 촬영된 상기 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합하는 영상 정합기
를 포함하는 비접촉성 마커 기반 영상정합장치.
An apparatus for matching images,
A light source for marking at least one point of the object to be at least one non-contact marker by irradiating the light of the first wavelength band to the second wavelength band,
A first camera for capturing a first image of the object including the non-contact markers in the first wavelength band,
A second camera for capturing a second image of the object including the non-contact markers in the second wavelength band,
An optic for matching the optical axes of the first camera and the second camera, and
And an image matching device for performing perspective transformation of the first image and the second image photographed by the first camera and the second camera,
Wherein the non-contact marker based image registration device comprises:
상기 광학기는 반투과경(Dichroic Mirror) 또는 프리즘인 것을 특징으로 하는 비접촉성 마커 기반 영상정합장치.
10. The method of claim 9,
Wherein the optical unit is a Dichroic mirror or a prism.
상기 영상 정합기는 상기 제 1 영상 및 제 2 영상을 이진화 및 필터링하는 전처리 과정을 수행하는 것을 특징으로 하는 비접촉성 마커 기반 영상정합장치.
10. The method according to claim 8 or 9,
Wherein the image matching unit performs a preprocessing process of binarizing and filtering the first image and the second image.
상기 영상 정합기는 상기 제 1 영상 및 제 2 영상을 이진화 및 필터링하고, 상기 제 1 영상 및 제 2 영상 중 상기 광학기를 통해 좌우 반전된 영상을 보정하는 전처리 과정을 수행하는 것을 특징으로 하는 비접촉성 마커 기반 영상정합장치.
10. The method of claim 9,
Wherein the image matching unit performs a preprocessing process of binarizing and filtering the first and second images and correcting the left and right inverted images of the first and second images through the optical unit. Based image registration device.
상기 영상 정합기는 상기 적어도 하나의 비접촉성 마커의 경계선을 검출하고 중심 모멘트를 계산하는 실시간 추적 과정을 수행하는 것을 특징으로 하는 비접촉성 마커 기반 영상정합장치.
10. The method according to claim 8 or 9,
Wherein the image matching unit performs a real-time tracking process of detecting a boundary line of the at least one non-contact marker and calculating a center moment thereof.
상기 영상 정합기는 상기 제 1 영상 및 제 2 영상의 적어도 하나의 비접촉성 마커의 중심점을 참조점으로 등록하고 원근 변환을 적용하는 정합 과정을 수행하는 것을 특징으로 하는 비접촉성 마커 기반 영상정합장치.
10. The method according to claim 8 or 9,
Wherein the image matching unit registers a center point of at least one non-contact marker of the first and second images as a reference point and performs a matching process of applying perspective transformation.
상기 영상 정합기는 상기 제 1 영상 및 제 2 영상 중 가시광선 영역에서 촬영된 영상을 베이스 영상으로, 적외선 영역에서 촬영된 영상을 타겟 영상으로 설정하는 것을 특징으로 하는 비접촉성 마커 기반 영상정합장치.
14. The method of claim 13,
Wherein the image matching unit sets an image photographed in a visible light region of the first image and a second image as a base image and an image photographed in an infrared region as a target image.
제 1 파장 대역 또는 제 2 파장 대역의 빛을 조사함으로써 객체의 적어도 하나의 지점이 적어도 하나의 비접촉성 마커가 되도록 마킹(Marking)하는 단계,
상기 제 1 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 1 영상을 촬영하는 단계,
상기 제 2 파장 대역에서 상기 비접촉성 마커를 포함한 상기 객체의 제 2 영상을 촬영하는 단계, 및
상기 촬영된 제 1 영상과 제 2 영상을 원근 변환(Perspective Transform)하여 정합하는 단계
를 포함하는 비접촉성 마커 기반 영상정합방법.
A method for matching images,
Marking the at least one point of the object to be at least one non-contact marker by illuminating the light in the first wavelength band or the second wavelength band,
Taking a first image of the object including the non-contact markers in the first wavelength band,
Capturing a second image of the object including the non-contact markers in the second wavelength band; and
A step of perspectively transforming the photographed first image and the second image,
Based marker based image matching method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120111640A KR20140045653A (en) | 2012-10-09 | 2012-10-09 | Recognition appartus for noncontact marker, apparatus and method for image registration based on noncontact marker |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120111640A KR20140045653A (en) | 2012-10-09 | 2012-10-09 | Recognition appartus for noncontact marker, apparatus and method for image registration based on noncontact marker |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20140045653A true KR20140045653A (en) | 2014-04-17 |
Family
ID=50652962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120111640A KR20140045653A (en) | 2012-10-09 | 2012-10-09 | Recognition appartus for noncontact marker, apparatus and method for image registration based on noncontact marker |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20140045653A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190007126A (en) * | 2017-07-11 | 2019-01-22 | 주식회사 아이앤나 | Camera Apparatus and Method for Verifying Emergency of Infant |
KR20190007128A (en) * | 2017-07-11 | 2019-01-22 | 주식회사 아이앤나 | Camera Apparatus and Method for Predicting Dangerous State of Infant |
CN109766882A (en) * | 2018-12-18 | 2019-05-17 | 北京诺亦腾科技有限公司 | Label identification method, the device of human body luminous point |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100542370B1 (en) * | 2004-07-30 | 2006-01-11 | 한양대학교 산학협력단 | Vision-based augmented reality system using invisible marker |
KR20080107211A (en) * | 2007-06-05 | 2008-12-10 | 삼성전자주식회사 | System and method for generating virtual object using augmented reality |
KR20090038570A (en) * | 2007-10-16 | 2009-04-21 | 고려대학교 산학협력단 | Portable image clipping device from printed material and the method for controlling the same |
KR101048045B1 (en) * | 2009-05-07 | 2011-07-13 | 윈스로드(주) | Obstacle Image Detection Device and Its Control Method in Dangerous Area of Railroad Crossing Using Moving Trajectory of Object |
KR101175097B1 (en) * | 2010-08-12 | 2012-08-21 | 금오공과대학교 산학협력단 | Panorama image generating method |
-
2012
- 2012-10-09 KR KR1020120111640A patent/KR20140045653A/en active Search and Examination
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100542370B1 (en) * | 2004-07-30 | 2006-01-11 | 한양대학교 산학협력단 | Vision-based augmented reality system using invisible marker |
KR20080107211A (en) * | 2007-06-05 | 2008-12-10 | 삼성전자주식회사 | System and method for generating virtual object using augmented reality |
KR20090038570A (en) * | 2007-10-16 | 2009-04-21 | 고려대학교 산학협력단 | Portable image clipping device from printed material and the method for controlling the same |
KR101048045B1 (en) * | 2009-05-07 | 2011-07-13 | 윈스로드(주) | Obstacle Image Detection Device and Its Control Method in Dangerous Area of Railroad Crossing Using Moving Trajectory of Object |
KR101175097B1 (en) * | 2010-08-12 | 2012-08-21 | 금오공과대학교 산학협력단 | Panorama image generating method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190007126A (en) * | 2017-07-11 | 2019-01-22 | 주식회사 아이앤나 | Camera Apparatus and Method for Verifying Emergency of Infant |
KR20190007128A (en) * | 2017-07-11 | 2019-01-22 | 주식회사 아이앤나 | Camera Apparatus and Method for Predicting Dangerous State of Infant |
CN109766882A (en) * | 2018-12-18 | 2019-05-17 | 北京诺亦腾科技有限公司 | Label identification method, the device of human body luminous point |
CN109766882B (en) * | 2018-12-18 | 2020-11-20 | 北京诺亦腾科技有限公司 | Human body light spot label identification method and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220395159A1 (en) | Device and method for assisting laparoscopic surgery - directing and maneuvering articulating tool | |
CN109938837B (en) | Optical tracking system and optical tracking method | |
US11123144B2 (en) | Registration of frames of reference | |
KR101265377B1 (en) | - Task-based imaging system | |
US11889979B2 (en) | System and method for camera calibration | |
KR102102291B1 (en) | Optical tracking system and optical tracking method | |
US9105092B2 (en) | Registration method of images for surgery | |
US20190086198A1 (en) | Methods, systems and computer program products for determining object distances and target dimensions using light emitters | |
KR20140045653A (en) | Recognition appartus for noncontact marker, apparatus and method for image registration based on noncontact marker | |
CN113436129B (en) | Image fusion system, method, device, equipment and storage medium | |
WO2001057805A2 (en) | Image data processing method and apparatus | |
JP5508734B2 (en) | Pattern drawing apparatus and pattern drawing method | |
CN113674402B (en) | Plant three-dimensional hyperspectral point cloud model generation method, correction method and device thereof | |
Haase et al. | ToF/RGB sensor fusion for 3-D endoscopy | |
JP3711053B2 (en) | Line-of-sight measurement device and method, line-of-sight measurement program, and recording medium recording the program | |
CN114092480B (en) | Endoscope adjusting device, surgical robot and readable storage medium | |
WO2018125225A1 (en) | System and method for 3d reconstruction | |
US20230284933A1 (en) | Portable three-dimensional image measuring device, three-dimensional image measuring method using same, and medical image matching system | |
Gard et al. | Image-based measurement by instrument tip tracking for tympanoplasty using digital surgical microscopy | |
CN113785328A (en) | Image registration method and system thereof | |
CN109414161A (en) | Imaging device in extended depth-of-field mouth | |
KR102253350B1 (en) | Optical tracking system and optical tracking method | |
US20170154418A1 (en) | Method of Labeling Invisible Fluorescence by Visible Light with Self-Correction | |
US20240115344A1 (en) | Multi-modal microscopic imaging | |
US20230394707A1 (en) | Methods and systems for calibrating and/or verifying a calibration of an imaging system such as a surgical imaging system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment |