KR20210020279A - Position detecting system for an object using attached markers and method for position detecting using the same - Google Patents

Position detecting system for an object using attached markers and method for position detecting using the same Download PDF

Info

Publication number
KR20210020279A
KR20210020279A KR1020190099330A KR20190099330A KR20210020279A KR 20210020279 A KR20210020279 A KR 20210020279A KR 1020190099330 A KR1020190099330 A KR 1020190099330A KR 20190099330 A KR20190099330 A KR 20190099330A KR 20210020279 A KR20210020279 A KR 20210020279A
Authority
KR
South Korea
Prior art keywords
markers
matching
dimensional
calculating
model
Prior art date
Application number
KR1020190099330A
Other languages
Korean (ko)
Other versions
KR102334752B1 (en
Inventor
서준호
권오원
백준민
Original Assignee
한국기계연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기계연구원 filed Critical 한국기계연구원
Priority to KR1020190099330A priority Critical patent/KR102334752B1/en
Publication of KR20210020279A publication Critical patent/KR20210020279A/en
Application granted granted Critical
Publication of KR102334752B1 publication Critical patent/KR102334752B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Abstract

Disclosed are an object-position calculating system using an attachable marker and an object-position calculating method using the same, wherein the object-position calculating system comprises a plurality of markers, a photographing part, a position calculation part, a storage part, a matching part, and a detection part. The plurality of markers are attached to the surface of an object. The photographing part acquires an image by photographing the object and the markers. The calculation part calculates the three-dimensional positions of markers from the photographed image. The storage part stores the calculated three-dimensional positions as a key point group. The matching part matches the stored key point group with a three-dimensional model of the object. The detection part calculates a coordinate system of the key point group based on the matches. The present invention can minimize interference by a marker.

Description

부착식 마커를 이용한 대상물체의 위치 산출시스템 및 이를 이용한 대상물체의 위치 산출방법{POSITION DETECTING SYSTEM FOR AN OBJECT USING ATTACHED MARKERS AND METHOD FOR POSITION DETECTING USING THE SAME}A system for calculating the position of an object using an adhesive marker and a method for calculating the position of the object using the same {POSITION DETECTING SYSTEM FOR AN OBJECT USING ATTACHED MARKERS AND METHOD FOR POSITION DETECTING USING THE SAME}

본 발명은 대상물체의 위치 산출시스템 및 이를 이용한 대상물체의 위치 산출방법에 관한 것으로, 더욱 상세하게는 3차원 형상의 대상물체에 부착되는 부착식 마커를 이용하여 상기 대상물체가 3차원 공간상에서 위치가 변화하는 경우 상기 대상물체의 위치를 정확하게 산출할 수 있는 부착식 마커를 이용한 대상물체의 위치 산출시스템 및 이를 이용한 대상물체의 위치 산출방법에 관한 것이다.The present invention relates to a system for calculating the position of a target object and a method for calculating the position of the target object using the same, and more particularly, the target object is positioned in a three-dimensional space using an adhesive marker attached to the target object of a three-dimensional shape. The present invention relates to a system for calculating a position of a target object using an adhesive marker capable of accurately calculating the position of the target object and a method for calculating the position of the target object using the same.

최근 의료 현장에서는 사용되는 수술 도구 등이 사전 계획에 부합하도록 움직이고 있는지에 대한 모니터링의 요구가 증가하고 있으며, 이를 위해 수술 도구 등에 대한 위치 추적에 관한 기술이 개발되고 있다. Recently, in the medical field, there is an increasing demand for monitoring whether or not a surgical tool used is moving in accordance with a pre-planned, and for this purpose, a technology for tracking a location of a surgical tool or the like is being developed.

일반적으로, 움직이는 물체의 위치를 추적하기 위해서는 해당 물체에 추적이 가능한 입체 마커를 부착하고 이를 실시간으로 추적하는 기술이 적용된다. 이러한 입체 마커의 부착 및 추적 기술의 경우, 대한민국 등록특허 제10-1246515호에서와 같이, 추적 대상인 물체에 소정 크기 및 형상을 가지는 입체 형태의 마커를 부착하는데, 이렇게 부착되는 마커는 인식이나 식별이 용이하도록 대상 물체가 환자인 경우라면, 환자의 머리 등에 부착되는 것이 일반적이다. In general, in order to track the location of a moving object, a technology for attaching a three-dimensional marker that can be traced to the object and tracking it in real time is applied. In the case of such a three-dimensional marker attachment and tracking technology, as in Korean Patent Registration No. 10-1246515, a three-dimensional marker having a predetermined size and shape is attached to an object to be tracked, and the attached marker cannot be recognized or identified. For ease of use, if the object is a patient, it is generally attached to the patient's head.

그러나, 상기 마커는 상대적으로 부피가 크고 형상이 복잡하므로, 상기 마커가 환자의 머리 등에 부착되는 경우, 실제 복잡한 수술 환경에서 상기 마커로 인해 환자에 대한 수술이 불편한 문제가 있다. However, since the marker is relatively bulky and has a complex shape, when the marker is attached to a patient's head or the like, there is a problem in that surgery on a patient is inconvenient due to the marker in an actual complex surgical environment.

또한, 다양한 수술 도구나 수술 장비가 설치된 환경에서 의사나 환자 또는 수술 장비 등에 의해 상기 마커가 가려지는 경우가 종종 발생할 수 있어, 대상 물체에 대한 추적이 지연되거나 오류가 발생하는 문제가 있다. In addition, in an environment in which various surgical tools or surgical equipment are installed, the marker may often be covered by a doctor, a patient, or surgical equipment, and thus, there is a problem that tracking of a target object is delayed or an error occurs.

대한민국 등록특허 제10-1246515호Korean Patent Registration No. 10-1246515

이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 대상물체에 대한 취급이나 이동에 있어 마커에 의한 간섭을 최소화하고, 일부 마커가 가려지는 경우에도 위치 추적이 가능하여 대상물체의 위치 추적의 정확성을 향상시키고, 임의의 3차원 형상을 가지는 대상물체에 대하여도 위치 추적이 가능한 부착식 마커를 이용한 대상물체의 위치 산출시스템을 제공하는 것이다. Accordingly, the technical problem of the present invention is conceived in this respect, and an object of the present invention is to minimize interference by markers in handling or moving a target object, and to track a location even when some markers are covered. It is to provide a system for calculating the location of a target object using an attachable marker that improves the accuracy of tracking the location of and enables location tracking even for a target object having an arbitrary three-dimensional shape.

또한, 본 발명의 다른 목적은 상기 대상물체의 위치 산출시스템을 이용한 대상물체의 위치 산출방법을 제공하는 것이다. In addition, another object of the present invention is to provide a method for calculating the position of an object using the system for calculating the position of the object.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 의한 대상물체의 위치 산출시스템은 복수의 마커들, 촬영부, 위치 산출부, 저장부, 정합부 및 검출부를 포함한다. 상기 복수의 마커들은 대상물체의 표면에 부착된다. 상기 촬영부는 상기 대상물체 및 상기 마커들을 촬영하여 이미지를 획득한다. 상기 산출부는 상기 촬영된 이미지로부터 상기 마커들의 3차원 위치를 산출한다. 상기 저장부는 상기 산출된 3차원 위치를 키포인트 그룹으로 저장한다. 상기 정합부는 상기 저장된 키포인트 그룹과 상기 대상물체에 대한 3차원 모델을 정합한다. 상기 검출부는 상기 정합을 바탕으로 상기 키포인트 그룹의 좌표계를 산출한다. A system for calculating a position of an object according to an embodiment for realizing the object of the present invention includes a plurality of markers, a photographing unit, a position calculating unit, a storage unit, a matching unit, and a detection unit. The plurality of markers are attached to the surface of the object. The photographing unit acquires an image by photographing the object and the markers. The calculation unit calculates the three-dimensional positions of the markers from the photographed image. The storage unit stores the calculated 3D position as a key point group. The matching unit matches the stored keypoint group with the 3D model of the target object. The detection unit calculates a coordinate system of the key point group based on the matching.

일 실시예에서, 상기 마커들은, 적외선 반사 스티커로 상기 대상물체의 표면에 소정의 간격으로 복수개가 부착되고, 상기 촬영부는, 적외선 스테레오(stereo) 카메라일 수 있다. In one embodiment, a plurality of the markers are attached to the surface of the object as an infrared reflective sticker at predetermined intervals, and the photographing unit may be an infrared stereo camera.

일 실시예에서, 상기 대상물체는 임의의 3차원 형상을 가지며, 상기 대상물체에 대한 3차원 모델은, 점(point)군(群) 데이터 또는 3차원 메쉬(mesh) 모델로 형성될 수 있다. In one embodiment, the object has an arbitrary three-dimensional shape, and the three-dimensional model of the object may be formed of point group data or a three-dimensional mesh model.

일 실시예에서, 상기 마커들은, 서로 다른 형상 또는 색깔을 가지는 복수의 마커 그룹들로 구분되며, 상기 저장부는, 서로 다른 마커 그룹들을 서로 다른 키포인트 그룹들로 구별하여 저장할 수 있다. In an embodiment, the markers are divided into a plurality of marker groups having different shapes or colors, and the storage unit may distinguish and store different marker groups into different keypoint groups.

일 실시예에서, 상기 위치 산출부는, 상기 마커들 각각의 중앙 좌표를, 상기 마커들의 3차원 위치로 산출할 수 있다. In an embodiment, the position calculator may calculate the central coordinates of each of the markers as a three-dimensional position of the markers.

일 실시예에서, 상기 정합부는, 상기 키포인트 그룹을 고정한 상태에서, 상기 3차원 모델을 회전 또는 병진시켜 상기 키포인트 그룹에 정합할 수 있다. In an embodiment, the matching unit may rotate or translate the 3D model to match the keypoint group while the keypoint group is fixed.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 의한 대상물체의 위치 산출방법에서, 대상물체의 표면에 복수의 마커들을 부착한다. 상기 대상물체 및 상기 마커들을 촬영하여 이미지를 획득한다. 상기 촬영된 이미지로부터 상기 마커들의 3차원 위치를 산출한다. 상기 산출된 3차원 위치를 키포인트 그룹으로 저장한다. 상기 저장된 키포인트 그룹과 상기 대상물체에 대한 3차원 모델을 정합한다. 상기 정합을 바탕으로 상기 키포인트 그룹의 좌표계를 산출한다. In the method for calculating the position of an object according to an embodiment for realizing the object of the present invention, a plurality of markers are attached to the surface of the object. An image is obtained by photographing the target object and the markers. The three-dimensional positions of the markers are calculated from the captured image. The calculated three-dimensional position is stored as a key point group. The stored keypoint group is matched with the 3D model of the target object. Based on the matching, the coordinate system of the key point group is calculated.

일 실시예에서, 상기 3차원 위치를 산출하는 단계는, 상기 대상물체 및 상기 마커들에 대한 촬영 이미지에서 상기 마커들의 2차원 위치를 획득하는 단계, 및 상기 마커들의 2차원 위치로부터 스테레오 관계를 이용하여 3차원 위치를 산출하는 단계를 포함할 수 있다. In one embodiment, the calculating of the three-dimensional position includes obtaining a two-dimensional position of the markers in a photographed image of the object and the markers, and using a stereo relationship from the two-dimensional position of the markers. Thus, it may include calculating a three-dimensional position.

일 실시예에서, 상기 3차원 위치를 산출하는 단계에서, 상기 대상물체에 부착된 마커들 중, 식별 가능한 마커들에 대하여만 선택적으로 3차원 위치를 산출할 수 있다. In one embodiment, in the step of calculating the 3D position, only identifiable markers among the markers attached to the object may be selectively calculated for the 3D position.

일 실시예에서, 상기 정합하는 단계에서, 상기 키포인트 그룹을 고정한 상태에서, 상기 3차원 모델을 회전 또는 병진시켜 상기 키포인트 그룹에 정합할 수 있다. In one embodiment, in the matching step, while the keypoint group is fixed, the 3D model may be rotated or translated to match the keypoint group.

일 실시예에서, 상기 정합하는 단계에서, 상기 대상물체에 대한 3차원 모델이 점(point)군(群) 데이터인 경우, ICP(iterative closest point) 알고리즘을 이용하여 정합할 수 있다. In one embodiment, in the matching step, when the three-dimensional model of the target object is point group data, it may be matched using an iterative closest point (ICP) algorithm.

일 실시예에서, 상기 정합하는 단계에서, 상기 대상물체에 대한 3차원 모델이 3차원 메쉬(mesh) 모델인 경우, point-to-plane registration 알고리즘을 이용하여 정합할 수 있다. In an embodiment, in the matching step, when the 3D model of the target object is a 3D mesh model, registration may be performed using a point-to-plane registration algorithm.

일 실시예에서, 상기 정합하는 단계에서, 상기 정합의 오차가 기 설정된 기준값보다 작으면 상기 정합을 종료할 수 있다. In an embodiment, in the matching step, when the matching error is smaller than a preset reference value, the matching may be terminated.

일 실시예에서, 상기 키포인트 그룹의 좌표계를 산출하는 단계 이후, 이전 프레임에서 산출된 상기 키포인트 그룹의 좌표계를 바탕으로 상기 산출된 좌표계를 검증하는 단계를 더 포함할 수 있다. In an embodiment, after calculating the coordinate system of the key point group, the step of verifying the calculated coordinate system based on the coordinate system of the key point group calculated in a previous frame may be further included.

일 실시예에서, 상기 마커들은 서로 다른 형상 또는 색깔을 가지는 복수의 마커 그룹들로 구분되는 경우, 상기 키포인트 그룹으로 저장하는 단계에서, 상기 서로 다른 마커 그룹들을 서로 다른 키포인트 그룹들로 구별하여 저장하고, 상기 정합하는 단계에서, 상기 키포인트 그룹들 별로 상기 3차원 모델과 정합할 수 있다. In one embodiment, when the markers are divided into a plurality of marker groups having different shapes or colors, in the step of storing as the keypoint group, the different marker groups are distinguished and stored into different keypoint groups. , In the matching step, the key point groups may be matched with the 3D model.

본 발명의 실시예들에 의하면, 대상물체의 추적에 있어 종래의 상대적으로 큰 부피나 복잡한 구조를 가지는 마커를 생략하면서도 물체의 추적을 수행할 수 있다. According to the embodiments of the present invention, it is possible to track an object while omitting a conventional marker having a relatively large volume or a complex structure in tracking the object.

특히, 대상물체의 형상과 무관하게 표면에 복수의 마커들을 접착하여 이를 추적하는 것으로 대상물체에 대한 추적이 가능하므로, 다양한 임의의 형상이나 구조를 가지는 물체 대한 추적이 가능하며, 종래 대상물체에 마커를 부착하기 위해 대상물체에 홀더나 구멍 등의 추가 구조를 형성하여야 하는 문제를 해결할 수 있다. In particular, since it is possible to track an object by attaching a plurality of markers to the surface and tracking it regardless of the shape of the object, it is possible to track objects having various arbitrary shapes or structures. It is possible to solve the problem of having to form an additional structure such as a holder or a hole in the object to attach it.

또한, 종래의 마커의 경우 적어도 3개 이상의 추출 포인트들이 평면을 구성하며 이렇게 구성된 평면이 촬영부의 촬영 방향과 수직한 경우 위치 추적이 가장 정확하지만, 본 실시예의 경우, 추출되는 키포인트들이 서로 평면을 이룰필요가 없으며 모든 방향에서의 검출이 가능하므로 대상물체의 자세나 위치와 무관하게 위치 추적의 정확성 및 속도를 향상시킬 수 있다. In addition, in the case of a conventional marker, at least three or more extraction points constitute a plane, and when the configured plane is perpendicular to the photographing direction of the photographing unit, location tracking is most accurate, but in the case of this embodiment, the extracted key points form a plane with each other. Since there is no need and detection in all directions is possible, the accuracy and speed of position tracking can be improved regardless of the posture or position of the object.

또한, 마커들의 개수를 조절함으로써, 추적의 정확성을 향상시킬 수 있으며, 대상물체의 위치나 주변 환경 또는 주변 구조 등에 의해 마커들의 일부가 식별되지 않는 경우라도 일정 개수 이상의 마커를 통해 키포인트 그룹을 형성할 수 있으면 위치 추적이 가능하므로, 다양한 환경에서의 사용성을 향상시킬 수 있다. In addition, by adjusting the number of markers, tracking accuracy can be improved, and a keypoint group can be formed through a certain number of markers even when some of the markers are not identified due to the location of the object, the surrounding environment, or the surrounding structure. Since location tracking is possible if possible, usability in various environments can be improved.

이 경우, 마커들을 복수의 그룹으로 구분하여 서로 다르게 식별할 수 있도록 구분함으로써, 키포인트 그룹의 형성 및 3차원 모델과의 정합에 있어, 선택적인 정합을 통해 정합 속도를 향상시킬 수 있다. In this case, by dividing the markers into a plurality of groups and distinguishing them so that they can be distinguished from each other, it is possible to improve the matching speed through selective matching in the formation of keypoint groups and matching with the 3D model.

또한, 정합에 있어, 대상물체로부터 생성되는 3차원 모델의 종류에 따라 적합한 알고리즘을 선택할 수 있어, 다양한 추적 환경이나 프로그램에 적응하여 대상물체에 대한 위치 추적을 수행할 수 있다. In addition, in matching, it is possible to select an appropriate algorithm according to the type of the 3D model generated from the target object, so that the position tracking of the target object can be performed by adapting to various tracking environments or programs.

나아가, 상기 키포인트 그룹의 좌표계를 산출함으로써, 대상물체의 위치를 추적함에 있어, 이전 프레임에서의 대상물체의 위치에 대한 정보를 피드백받아 상기 산출된 좌표계의 검증을 수행하므로, 상기 대상물체에 대한 위치 추적의 속도는 물론 정확성을 향상시킬 수 있다. Further, by calculating the coordinate system of the key point group, in tracking the position of the target object, the calculated coordinate system is verified by receiving feedback on the position of the target object in the previous frame, so that the position of the target object Tracking speed as well as accuracy can be improved.

도 1은 본 발명의 일 실시예에 의한 대상물체의 위치 산출시스템을 도시한 블록도이다.
도 2는 도 1의 위치 산출시스템을 이용한 대상물체의 위치 산출방법을 도시한 흐름도이다.
도 3a는 도 2의 위치 산출방법에서 대상물체에 부착된 마커들의 예를 도시한 사시도이고, 도 3b는 도 2의 위치 산출방법에서 대상물체의 3차원 모델의 예를 도시한 이미지이다.
도 4a 내지 도 4d들은 도 2의 위치 산출방법에서, 대상물체의 3차원 모델이 점(point)군(群)인 경우를 예시한 모식도들이다.
도 5a 내지 도 5f들은 도 2의 위치 산출방법에서, 대상물체의 3차원 모델이 3D 메쉬(mesh)인 경우를 예시한 모식도들이다.
도 6a는 도 2의 위치 산출방법에서 대상물체에 부착되는 마커들의 다른 예를 도시한 사시도이고, 도 6b는 도 6a의 대상물체로부터 추출된 키포인트 그룹의 예를 도시한 이미지이다.
1 is a block diagram showing a system for calculating a position of an object according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating a method of calculating a position of an object using the position calculating system of FIG. 1.
3A is a perspective view illustrating an example of markers attached to an object in the position calculation method of FIG. 2, and FIG. 3B is an image illustrating an example of a three-dimensional model of the object in the position calculation method of FIG. 2.
4A to 4D are schematic diagrams illustrating a case in which a three-dimensional model of an object is a group of points in the position calculation method of FIG. 2.
5A to 5F are schematic diagrams illustrating a case in which a 3D model of an object is a 3D mesh in the position calculation method of FIG. 2.
6A is a perspective view illustrating another example of markers attached to an object in the method of calculating the position of FIG. 2, and FIG. 6B is an image illustrating an example of a key point group extracted from the object of FIG. 6A.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 실시예들을 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. The present invention will be described in detail in the text, since various modifications can be made and various forms can be obtained. However, this is not intended to limit the present invention to a specific form of disclosure, it is to be understood as including all changes, equivalents, or substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals have been used for similar elements. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms.

본 출원에서, "포함하다" 또는 "이루어진다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In the present application, terms such as "comprise" or "consist of" are intended to designate the presence of features, numbers, steps, actions, elements, parts, or a combination thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance the possibility of being added.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 의한 대상물체의 위치 산출시스템을 도시한 블록도이다. 1 is a block diagram showing a system for calculating a position of an object according to an embodiment of the present invention.

도 1을 참조하면, 본 실시예에 의한 대상물체의 위치 산출시스템(1)은 대상물체(100)와 복수의 마커들(200)을 포함하는 추적물(10), 촬영부(20), 모델 형성부(30), 위치 산출부(40), 저장부(50), 정합부(60), 판단부(70) 및 검출부(80)를 포함한다. Referring to FIG. 1, the system 1 for calculating the position of an object according to the present embodiment includes a target object 100 and a tracked object 10 including a plurality of markers 200, a photographing unit 20, and a model. A forming unit 30, a position calculating unit 40, a storage unit 50, a matching unit 60, a determination unit 70, and a detection unit 80 are included.

한편, 설명의 편의상 본 실시예에 의한 대상물체의 위치 산출시스템(1)과 이를 이용한 대상물체의 위치 산출방법에 대하여는 상기 도 1 및 하기 도면들을 참조하여 동시에 설명한다. Meanwhile, for convenience of explanation, the system 1 for calculating the position of the object according to the present embodiment and the method for calculating the position of the object using the same will be simultaneously described with reference to FIG. 1 and the following drawings.

도 2는 도 1의 위치 산출시스템을 이용한 대상물체의 위치 산출방법을 도시한 흐름도이다. 도 3a는 도 2의 위치 산출방법에서 대상물체에 부착된 마커들의 예를 도시한 사시도이고, 도 3b는 도 2의 위치 산출방법에서 대상물체의 3차원 모델의 예를 도시한 이미지이다. 도 4a 내지 도 4d들은 도 2의 위치 산출방법에서, 대상물체의 3차원 모델이 점(point)군(群)인 경우를 예시한 모식도들이다. 도 5a 내지 도 5f들은 도 2의 위치 산출방법에서, 대상물체의 3차원 모델이 3D 메쉬(mesh)인 경우를 예시한 모식도들이다. FIG. 2 is a flowchart illustrating a method of calculating a position of an object using the position calculating system of FIG. 1. 3A is a perspective view illustrating an example of markers attached to an object in the position calculation method of FIG. 2, and FIG. 3B is an image illustrating an example of a three-dimensional model of the object in the position calculation method of FIG. 2. 4A to 4D are schematic diagrams illustrating a case in which a three-dimensional model of an object is a group of points in the position calculation method of FIG. 2. 5A to 5F are schematic diagrams illustrating a case where a 3D model of an object is a 3D mesh in the position calculation method of FIG. 2.

우선, 도 1, 도 2, 도 3a 및 도 3b를 참조하면, 상기 대상물체의 위치 산출방법에서는, 상기 추적물(10)을 정의하고, 상기 대상물체(100)에 대한 정보를 획득한다(단계 S10). First, referring to FIGS. 1, 2, 3A and 3B, in the method of calculating the location of the target object, the tracked object 10 is defined and information on the target object 100 is obtained (step S10).

이 경우, 상기 추적물(10)은, 설명의 편의상 추적의 대상이 되는 상기 대상물체(100), 및 상기 대상물체(100) 상에 부착되는 복수의 마커들(200)을 의미한다. In this case, the tracked object 10 means the target object 100 to be tracked for convenience of description, and a plurality of markers 200 attached to the target object 100.

이에, 상기 대상물체의 위치 산출방법에서는, 우선, 상기 대상물체(100)에 상기 복수의 마커들(200)을 부착한다(단계 S11). Accordingly, in the method of calculating the position of the target object, first, the plurality of markers 200 are attached to the target object 100 (step S11).

상기 마커들(200)은, 도 3a에 도시된 바와 같이, 복수개가 스티커의 형태로 상기 대상물체(100)의 표면에 소정의 간격을 가지면서 부착되는 것으로, 상기 마커들(200)의 개수나 간격은 상기 대상물체(100)의 형상이나 구조, 또는 위치 추적의 정확성 등을 고려하여 다양하게 설정될 수 있다. As shown in FIG. 3A, a plurality of the markers 200 are attached to the surface of the object 100 in the form of a sticker with a predetermined distance, and the number of the markers 200 The interval may be set in various ways in consideration of the shape or structure of the object 100 or the accuracy of location tracking.

또한, 상기 마커들(200)은, 예를 들어, 적외선 반사 스티커로, 후술되는 상기 촬영부(20)에 의해 용이하게 식별될 수 있다. 나아가, 상기 마커들(200) 각각은 원형 형상을 가질 수 있으며, 이에 따라 상기 대상물체(100)의 표면상에 소정의 면적을 가지며 부착될 수 있다. In addition, the markers 200 are, for example, infrared reflective stickers, and can be easily identified by the photographing unit 20 to be described later. Furthermore, each of the markers 200 may have a circular shape, and thus may be attached to the target object 100 with a predetermined area.

상기 마커들(200)은 이상과 같이 스티커의 형태로 대상물체(100)의 표면에 부착되는 것으로, 이에 따라, 상기 대상물체(100)의 표면이 어떠한 형상을 가지더라도 용이하게 부착될 수 있으며, 따라서 이를 통해 추적될 수 있는 대상물체의 구조나 형상의 제한이 최소화될 수 있다. As described above, the markers 200 are attached to the surface of the object 100 in the form of stickers, and accordingly, the markers 200 can be easily attached to any shape of the object 100, Therefore, the limitation of the structure or shape of the object that can be tracked through this can be minimized.

한편, 도 5a에는 상기 대상물체(100) 상에 복수의 마커들(200)이 부착된 예가 모식도로 도시되었다. Meanwhile, in FIG. 5A, an example in which a plurality of markers 200 are attached on the object 100 is shown in a schematic diagram.

이상과 같이, 상기 대상물체(100) 상에 복수의 마커들(200)을 부착하는 것과는 별도로, 상기 모델 형성부(30)에서는, 상기 추적의 대상이 되는 대상물체(100)에 대한 3차원 모델을 생성한다(단계 S10). As described above, apart from attaching the plurality of markers 200 on the target object 100, in the model forming unit 30, a three-dimensional model for the target object 100 to be tracked Is generated (step S10).

이렇게 형성된 3차원 모델은 도 3b에 도시된 바와 같은 이미지로 구현될 수 있으며, 도 3b에 예시한 이미지는 상기 대상물체(100)에 대한 3차원 메쉬(mesh) 모델이다. The 3D model thus formed may be implemented as an image as shown in FIG. 3B, and the image illustrated in FIG. 3B is a 3D mesh model for the object 100.

이와 같이, 상기 3차원 모델은 상기 대상물체(100)에 대한 3차원 메쉬 모델로 생성될 수도 있으며, 이와 달리, 상기 3차원 모델은 상기 대상물체(100)에 대한 점(point)군(群) 데이터로 생성될 수도 있다. 이 경우, 상기 점(point)군(群) 데이터란, 상기 대상물체(100)의 외형을 소정 간격 이격된 복수의 점들로 구현한 것을 의미한다. In this way, the 3D model may be generated as a 3D mesh model for the target object 100, and in contrast, the 3D model is a group of points for the target object 100. It can also be created with data. In this case, the point group data means that the external shape of the object 100 is implemented with a plurality of points spaced apart by a predetermined interval.

이러한, 상기 3차원 모델은, 상기 대상물체(100)에 대한 3차원 스캐닝을 통해 구현할 수 있으며, 상기 대상물체(100)에 대한 3차원 도면이 생성된 경우라면 이로부터 추출할 수 있다. The 3D model may be implemented through 3D scanning of the target object 100, and may be extracted from the 3D drawing of the target object 100 if it is generated.

한편, 도 5d에는 상기 대상물체(100)에 대한 3차원 모델의 예로서, 상기 대상물체(100)의 3차원 메쉬 모델, 즉 외형 형상 모델이 예시되고 있으며, 도 4b에는 상기 대상물체(100)의 점(point)군(群) 데이터가 예시되고 있다. Meanwhile, as an example of a three-dimensional model for the object 100 in FIG. 5D, a three-dimensional mesh model, that is, an external shape model of the object 100 is illustrated, and in FIG. 4B, the object 100 The point group data of is illustrated.

이 후, 도 1, 도 2 및 도 5b를 참조하면, 상기 촬영부(20)는 상기 대상물체(100) 및 상기 대상물체(100)에 부착된 상기 마커들(200)을 촬영한다(단계 S20). Thereafter, referring to FIGS. 1, 2 and 5B, the photographing unit 20 photographs the object 100 and the markers 200 attached to the object 100 (step S20). ).

이 경우, 상기 촬영부(20)는 적외선 스테레오(stereo) 카메라일 수 있으며, 이에 따라, 상기 적외선 반사 스티커인 상기 마커들(200)에 대한 용이한 촬영 및 식별이 가능하다. In this case, the photographing unit 20 may be an infrared stereo camera, and thus, easy photographing and identification of the markers 200, which are the infrared reflective stickers, are possible.

즉, 상기 촬영부(20)에서는 상기 마커들(200)로부터 반사되는 적외선을 인식함으로써, 상기 마커들(200)에 대한 촬영 및 식별을 수행한다. That is, the photographing unit 20 captures and identifies the markers 200 by recognizing infrared rays reflected from the markers 200.

한편, 상기 촬영부(20)의 경우 상기 대상물체(100)에 대하여도 동시에 촬영을 수행하지만, 결국 필요한 정보는 상기 마커들(200)에 대한 위치 정보이며, 이에 대하여 후술되는 상기 위치 산출부(40)에서 산출한다. On the other hand, in the case of the photographing unit 20, the photographing is performed simultaneously with respect to the target object 100, but in the end, the necessary information is position information of the markers 200, and the position calculation unit ( 40).

즉, 이 후, 도 1, 도 2, 도 4a 및 도 5c를 참조하면, 상기 위치 산출부(40)는 상기 촬영부(20)에서 촬영된 이미지로부터 상기 마커들(200)의 위치를 산출한다(단계 S30). That is, after that, referring to FIGS. 1, 2, 4A, and 5C, the position calculating unit 40 calculates the positions of the markers 200 from the image captured by the photographing unit 20. (Step S30).

보다 구체적으로, 상기 위치 산출부(40)는 상기 마커들(200)의 3차원 위치, 즉 공간상에서의 위치를 산출하는데, 이를 위해, 우선, 상기 위치 산출부(40)는 상기 대상물체(100) 및 상기 마커들(200)에 대한 촬영이미지에서 상기 마커들(200)의 2차원 위치를 획득한다. More specifically, the position calculation unit 40 calculates a three-dimensional position of the markers 200, that is, a position in space. For this purpose, first, the position calculation unit 40 calculates the target object 100 ) And the two-dimensional positions of the markers 200 in the photographed images of the markers 200.

이 후, 상기 마커들(200)의 2차원 위치로부터, 스테레오 관계를 이용하여 상기 마커들(200)의 3차원 위치, 즉 공간상에서의 위치를 산출한다. Thereafter, from the two-dimensional positions of the markers 200, a three-dimensional position of the markers 200, that is, a position in space, is calculated using a stereo relationship.

상기 촬영부(20)는 앞서 설명한 바와 같이 스테레오 카메라이므로, 상기 마커들(200)에 대한 3차원 위치의 산출이 가능하게 된다. Since the photographing unit 20 is a stereo camera as described above, it is possible to calculate the three-dimensional position of the markers 200.

이와 같이, 상기 위치 산출부(40)에 의해 산출되는 상기 마커들(200)의 3차원 공간상에서의 위치는, 도 4a 및 도 5c에 도시된 바와 같이, 포인트들로 추출되며, 이렇게 추출되는 포인트들은, 소위, 상기 저장부(50)에 의해 키포인트(key point) 그룹으로 저장된다(단계 S40). In this way, the locations of the markers 200 calculated by the location calculation unit 40 in the 3D space are extracted as points, as shown in FIGS. 4A and 5C, and the extracted points The so-called are stored in a key point group by the storage unit 50 (step S40).

이 때, 상기 키포인트 그룹이란, 상기 마커들(200)의 위치로 추출되는 도 4a 또는 도 5c에서와 같은 복수의 포인트들을 하나로 그룹핑하여 정의한 것으로, 상기 촬영부(20)에서 해당 프레임에서 촬영된 마커들로부터 추출되는 마커들의 3차원 위치에 관한 정보들을 묶은 것을 의미한다. In this case, the key point group is defined by grouping a plurality of points as shown in FIG. 4A or 5C extracted as positions of the markers 200 into one, and a marker photographed in the frame by the photographing unit 20 It means a group of information on the three-dimensional position of the markers extracted from the fields.

일반적으로 상기 대상물체(100)는 매 프레임마다 위치나 자세가 변경되며, 매 프레임마다 상기 대상물체(100)의 주변환경 역시 변화하게 된다. In general, the position or posture of the object 100 is changed every frame, and the surrounding environment of the object 100 is also changed every frame.

이에, 상기 대상물체(100)에 부착된 상기 마커들(200) 중, 일부 마커들은 상기 대상물체(100)의 자세나 위치에 따라, 또는 주변환경에 의해 가려져 식별되지 않을 수 있다. Accordingly, some of the markers 200 attached to the object 100 may not be identified as being covered by the posture or position of the object 100 or by the surrounding environment.

따라서, 상기 추출되는 포인트들, 즉 해당 프레임에서 상기 키포인트 그룹으로 정의되는 포인트들은 서로 다를 수 있으며, 이와 같이, 상기 포인트들이 서로 다르더라도, 해당 프레임에서 상기 대상물체(100)의 위치를 추적함에 있어 문제는 없다. Accordingly, the extracted points, that is, points defined as the key point group in the corresponding frame may be different. As such, even if the points are different, in tracking the position of the target object 100 in the frame There is no problem.

즉, 상기 대상물체(100)가 완전히 가려지는 것이 아니라면, 상기 마커들(200)은 상기 대상물체(100)의 표면 전체에 소정의 간격으로 복수개가 부착되는 것이므로, 적어도 일부의 마커들(200)은 반드시 촬영되어, 그 위치가 산출될 수 있기 때문이다. That is, if the target object 100 is not completely covered, since a plurality of the markers 200 are attached to the entire surface of the target object 100 at predetermined intervals, at least some of the markers 200 Is because is necessarily photographed, and its location can be calculated.

한편, 상기 대상물체(100)에 부착되는 마커들(200) 각각은 소정의 면적을 가지는, 예를 들어, 원형 스티커인 것으로, 상기 촬영부(20)가 상대적으로 먼 거리에서 촬영하는 경우라면, 상기 원형 스티커는 점(point)으로 인식되므로 상기 마커들(200)의 위치는 상기 점을 추출하는 것으로 충분하다. On the other hand, each of the markers 200 attached to the object 100 has a predetermined area, for example, a circular sticker, and if the photographing unit 20 is photographed from a relatively long distance, Since the circular sticker is recognized as a point, the location of the markers 200 is sufficient to extract the point.

그러나, 상기 촬영부(20)가 상대적으로 가까운 거리에서 촬영하는 경우라면, 상기 원형 스티커는 소정의 면적을 가지도록 인식될 수 있으며, 이 경우, 본 실시예에서는, 상기 마커들(200) 각각의 위치는, 상기 인식되는 소정의 면적 중 중앙 좌표에 해당되는 점으로 추출된다. However, if the photographing unit 20 is photographed at a relatively close distance, the circular sticker may be recognized to have a predetermined area. In this case, in this embodiment, each of the markers 200 The location is extracted as a point corresponding to the center coordinate of the recognized predetermined area.

이상과 같이, 해당 프레임에서 상기 마커들(200)의 3차원 위치가 산출되어 소위, 키포인트 그룹으로 저장되면, 도 1, 도 2, 도 4c 및 도 5e에 도시된 바와 같이, 상기 정합부(60)는 상기 저장된 키포인트 그룹과 상기 대상물체(100)에 대한 3차원 모델에 대한 정합을 수행한다(단계 S50). As described above, when the three-dimensional positions of the markers 200 in the corresponding frame are calculated and stored as a so-called keypoint group, as shown in Figs. 1, 2, 4C and 5E, the matching unit 60 ) Performs matching between the stored keypoint group and the 3D model for the target object 100 (step S50).

이 경우, 상기 정합부(60)는, 상기 키포인트 그룹은 그 위치를 고정시킨 상태에서, 상기 대상물체(100)에 대한 3차원 모델을 이동시키면서, 즉 상기 3차원 모델을 회전 이동시키거나 또는 병진 이동시킴으로써 정합을 수행한다(단계 S51). In this case, the matching unit 60 moves the 3D model for the object 100 while the keypoint group is fixed at its position, that is, rotates the 3D model or translates Matching is performed by moving (step S51).

예를 들어, 상기 3차원 모델이 점(point)군(群) 데이터인 경우, 도 4c를 참조하면, 도 4a에서와 같이 저장된 상기 키포인트 그룹(210)은 그 위치를 고정시킨 상태에서, 도 4b에서와 같이 상기 대상물체(100)로부터 추출된 3차원 모델(310)을 좌표와 함께 회전 이동시키거나 또는 병진 이동시킴으로써, 상기 키포인트 그룹에 정합을 수행한다. For example, when the 3D model is point group data, referring to FIG. 4C, the key point group 210 stored as in FIG. 4A is in a state where the position is fixed, and FIG. 4B As shown in FIG. 3, by rotating or translating the 3D model 310 extracted from the object 100 together with coordinates, registration is performed on the key point group.

이 경우, 상기 3차원 모델(310)은 점(point)군(群) 데이터이므로, 점군들과 상기 키포인트 그룹 사이에서의 각각의 포인트 매칭을 통해 정합이 수행될 수 있다. In this case, since the 3D model 310 is point group data, matching may be performed through point matching between the point groups and the key point group.

이러한 정합 방법은, 예를 들어, ICP(iterative closest point) 알고리즘을 이용하여 구현될 수 있다. Such a matching method may be implemented using, for example, an iterative closest point (ICP) algorithm.

이와 달리, 예를 들어, 상기 3차원 모델이 3차원 메쉬(mesh) 모델인 경우, 도 5e를 참조하면, 도 5c에서와 같이 저장된 상기 키포인트 그룹(210)은 그 위치를 고정시킨 상태에서, 도 5d에서와 같이 상기 대상물체(100)로부터 추출된 3차원 모델(300)을 좌표와 함께 회전 이동시키거나 또는 병진 이동시킴으로써, 상기 키포인트 그룹에 정합을 수행한다. Unlike this, for example, when the 3D model is a 3D mesh model, referring to FIG. 5E, the keypoint group 210 stored as in FIG. 5C is As in 5d, by rotating or translating the 3D model 300 extracted from the object 100 together with the coordinates, registration is performed on the keypoint group.

이 경우, 상기 3차원 모델(300)은 메쉬(mesh) 모델이므로, 상기 키포인트 그룹과 상기 메쉬 모델 사이에서의 정합은, 예를 들어, point-to-plane registration 알고리즘을 이용하여 구현될 수 있다. In this case, since the 3D model 300 is a mesh model, matching between the keypoint group and the mesh model may be implemented using, for example, a point-to-plane registration algorithm.

이상과 같이, 상기 3차원 모델(300)의 종류에 따라, 상기 정합을 다양한 방법으로 수행할 수 있다. As described above, according to the type of the 3D model 300, the registration may be performed in various ways.

한편, 상기 정합 단계의 수행에 있어, 상기 판단부(70)는 정합 오차가 기 설정된 기준값(threshold) 보다 작은지의 여부를 판단하여, 상기 정합 오차가 상기 기준값보다 작으면 상기 정합 단계는 종료한다(단계 S60). Meanwhile, in performing the matching step, the determination unit 70 determines whether a matching error is less than a preset threshold, and if the matching error is less than the reference value, the matching step ends ( Step S60).

이 후, 도 1, 도 2, 도 4d 및 도 5f를 참조하면, 상기 검출부(80)는 상기 키포인트 그룹(210)과 상기 대상물체(100)의 3차원 모델의 정합 결과를 바탕으로 상기 키포인트 그룹(210)의 위치를 도출한다(단계 S70). Thereafter, referring to FIGS. 1, 2, 4D and 5F, the detection unit 80 determines the key point group based on the result of matching the key point group 210 and the 3D model of the target object 100. The position of 210 is derived (step S70).

즉, 상기 정합 단계에서, 상기 키포인트 그룹(210)을 고정시킨 상태에서, 상기 대상물체(100)의 3차원 모델을 이동시켰는바, 우선, 상기 대상물체(100)의 3차원 모델의 이동 및 회전 정보를 산출한다(단계 S71). That is, in the matching step, while the key point group 210 is fixed, the 3D model of the target object 100 is moved. First, movement and rotation of the 3D model of the target object 100 Information is calculated (step S71).

이 후, 상기 3차원 모델의 이동 및 회전 정보를 바탕으로, 도 4d 및 도 5f에 도시된 바와 같이, 상기 키포인트 그룹(210)의 좌표계를 산출한다(단계 S72). Thereafter, based on the movement and rotation information of the 3D model, the coordinate system of the key point group 210 is calculated as shown in FIGS. 4D and 5F (step S72).

그리하여, 상기 산출된 키포인트 그룹(210)의 좌표계를 통해, 상기 대상물체(100)의 위치를 산출하게 된다. Thus, the position of the target object 100 is calculated through the calculated coordinate system of the key point group 210.

다만, 상기 산출된 키포인트 그룹(210)의 좌표계가 정확한지의 여부를, 상기 검출부(80)에서 재차 검증할 수 있으며, 이전 프레임에서 도출된 좌표계와 상기 산출된 좌표계를 비교하여 검증할 수 있다(단계 S73). However, whether or not the calculated coordinate system of the keypoint group 210 is correct may be verified again by the detection unit 80, and may be verified by comparing the calculated coordinate system with the coordinate system derived from the previous frame (step S73).

즉, 이전 프레임에서의 상기 대상물체(100)의 위치를 바탕으로, 현재 프레임에서의 상기 대상물체(100)의 위치가 지나치게 크게 변경되었는지의 여부를 판단할 수 있으며, 이는 이전 프레임들의 결과로부터 상기 대상물체(100)의 이동 궤적을 동시에 고려하여 검증을 수행할 수도 있다. That is, based on the position of the target object 100 in the previous frame, it can be determined whether the position of the target object 100 in the current frame has changed excessively, which is based on the results of the previous frames. The verification may be performed by simultaneously considering the movement trajectory of the object 100.

이 후, 도 2에 도시된 바와 같이, 상기 대상물체(100)에 대한 위치 추적의 종료 여부를 판단하여(단계 S80), 위치 추적이 계속 필요한 경우, 상기에서 설명한 단계를 다시 반복할 수 있다. Thereafter, as shown in FIG. 2, it is determined whether or not the location tracking for the target object 100 is ended (step S80), and if location tracking is still required, the above-described steps may be repeated again.

도 6a는 도 2의 위치 산출방법에서 대상물체에 부착되는 마커들의 다른 예를 도시한 사시도이고, 도 6b는 도 6a의 대상물체로부터 추출된 키포인트 그룹의 예를 도시한 이미지이다. 6A is a perspective view illustrating another example of markers attached to an object in the method of calculating the position of FIG. 2, and FIG. 6B is an image illustrating an example of a key point group extracted from the object of FIG. 6A.

도 1 내지 도 5f를 참조하여서는, 상기 대상물체 상에는 동일한 형태나 색깔의 마커들이 부착된 것을 설명하였으나, 상기 대상물체 상에는 서로 다른 형상 또는 색깔을 가지는 마커들이 서로 다른 그룹으로 구분되어 부착될 수도 있다. With reference to FIGS. 1 to 5F, it has been described that markers of the same shape or color are attached to the object, but markers having different shapes or colors may be divided into different groups and attached to the object.

즉, 도 6a를 참조하면, 상기 대상물체(101) 상에 제1 형상 또는 제1 색깔을 나타내는 복수의 제1 마커 그룹들(201)과, 상기 제1 형상 또는 상기 제1 색깔과는 다른 제2 형상 또는 제2 색깔을 나타내는 복수의 제2 마커 그룹들(202)이 복수의 마커들(205)로서 부착될 수 있다. That is, referring to FIG. 6A, a plurality of first marker groups 201 representing a first shape or a first color on the object 101, and a second marker group 201 different from the first shape or the first color A plurality of second marker groups 202 representing two shapes or a second color may be attached as a plurality of markers 205.

이 경우, 상기 제1 마커 그룹들(201)의 마커들은 서로 소정의 거리 또는 간격을 가지며 부착될 수 있으며, 마찬가지로, 상기 제2 마커 그룹들(202)의 마커들 역시 서로 소정의 거리 또는 간격을 가지며 부착될 수 있다. In this case, the markers of the first marker groups 201 may be attached to each other with a predetermined distance or interval. Likewise, the markers of the second marker groups 202 may also have a predetermined distance or interval from each other. Has and can be attached.

이와 같이, 상기 마커들이 서로 다른 형상 또는 색깔을 가지면서 복수의 그룹들로 구분되어 상기 대상물체(101) 상에 부착되는 경우, 상기 각각의 마커그룹들(201, 202)은 서로 별개의 키포인트 그룹들(215)로 구분되어 저장될 수 있다. In this way, when the markers have different shapes or colors and are divided into a plurality of groups and attached to the target object 101, the respective marker groups 201 and 202 are separate key point groups. They may be divided into 215 and stored.

즉, 상기 제1 마커 그룹들(201)은 제1 키포인트 그룹(211)으로 저장되고, 상기 제2 마커 그룹들(202)은 제2 키포인트 그룹(212)으로 저장될 수 있다. That is, the first marker groups 201 may be stored as a first keypoint group 211, and the second marker groups 202 may be stored as a second keypoint group 212.

이에 따라, 상기 저장된 키포인트 그룹들(215)과 상기 대상물체의 3차원 모델을 정합하는 단계에서도, 상기 제1 키포인트 그룹(211)과 상기 대상물체의 3차원 모델을 서로 정합할 수도 있으며, 상기 제2 키포인트 그룹(212)과 상기 대상물체의 3차원 모델을 서로 정합할 수도 있다. Accordingly, in the step of matching the stored keypoint groups 215 and the 3D model of the target object, the first keypoint group 211 and the 3D model of the target object may be matched with each other. The two keypoint group 212 and the 3D model of the target object may be matched with each other.

이상과 같이, 마커 그룹들을 복수의 그룹들로 구분하여 부착하여, 키포인트 그룹을 구분하여 생성하고, 이를 통해 정합을 수행함으로써, 상대적으로 많은 수의 마커 그룹들을 정합에 사용함으로써 정합의 시간이 불필요하게 증가하는 것을 최소화할 수 있어, 높은 정확도를 요구하지 않는 추적 상황에서 선택적으로 활용할 수 있는 장점이 있다. As described above, by dividing and attaching the marker groups into a plurality of groups, creating a keypoint group by dividing it, and performing matching through this, a relatively large number of marker groups are used for registration, thus eliminating the need for registration time. Since the increase can be minimized, there is an advantage that it can be selectively used in a tracking situation that does not require high accuracy.

또한, 대상물체의 형상이나 구조, 또는 이동에 따른 자세를 고려하여, 특정 그룹의 마커들이 식별이 불가능한 경우라면, 다른 그룹의 마커들만을 선택적으로 활용하여 위치 추적을 수행할 수 있으므로, 대상물체에 대한 추적시에 다양한 영향을 고려하여, 최적의 추적을 수행할 수 있다. In addition, in consideration of the shape or structure of the target object, or the posture according to the movement, if a specific group of markers cannot be identified, position tracking can be performed by selectively using only the other group of markers. In consideration of various influences upon tracking, optimal tracking can be performed.

상기와 같은 본 발명의 실시예들에 의하면, 대상물체의 추적에 있어 종래의 상대적으로 큰 부피나 복잡한 구조를 가지는 마커를 생략하면서도 물체의 추적을 수행할 수 있다. According to the embodiments of the present invention as described above, it is possible to track an object while omitting a conventional marker having a relatively large volume or a complex structure in tracking the object.

특히, 대상물체의 형상과 무관하게 표면에 복수의 마커들을 접착하여 이를 추적하는 것으로 대상물체에 대한 추적이 가능하므로, 다양한 임의의 형상이나 구조를 가지는 물체 대한 추적이 가능하며, 종래 대상물체에 마커를 부착하기 위해 대상물체에 홀더나 구멍 등의 추가 구조를 형성하여야 하는 문제를 해결할 수 있다. In particular, since it is possible to track an object by attaching a plurality of markers to the surface and tracking it regardless of the shape of the object, it is possible to track objects having various arbitrary shapes or structures. It is possible to solve the problem of having to form an additional structure such as a holder or a hole in the object to attach it.

또한, 종래의 마커의 경우 적어도 3개 이상의 추출 포인트들이 평면을 구성하며 이렇게 구성된 평면이 촬영부의 촬영 방향과 수직한 경우 위치 추적이 가장 정확하지만, 본 실시예의 경우, 추출되는 키포인트들이 서로 평면을 이룰필요가 없으며 모든 방향에서의 검출이 가능하므로 대상물체의 자세나 위치와 무관하게 위치 추적의 정확성 및 속도를 향상시킬 수 있다. In addition, in the case of a conventional marker, at least three or more extraction points constitute a plane, and when the configured plane is perpendicular to the photographing direction of the photographing unit, location tracking is most accurate. Since there is no need and detection in all directions is possible, the accuracy and speed of position tracking can be improved regardless of the posture or position of the object.

또한, 마커들의 개수를 조절함으로써, 추적의 정확성을 향상시킬 수 있으며, 대상물체의 위치나 주변 환경 또는 주변 구조 등에 의해 마커들의 일부가 식별되지 않는 경우라도 일정 개수 이상의 마커를 통해 키포인트 그룹을 형성할 수 있으면 위치 추적이 가능하므로, 다양한 환경에서의 사용성을 향상시킬 수 있다. In addition, by adjusting the number of markers, tracking accuracy can be improved, and a keypoint group can be formed through a certain number of markers even when some of the markers are not identified due to the location of the object, the surrounding environment, or the surrounding structure. Since location tracking is possible if possible, usability in various environments can be improved.

이 경우, 마커들을 복수의 그룹으로 구분하여 서로 다르게 식별할 수 있도록 구분함으로써, 키포인트 그룹의 형성 및 3차원 모델과의 정합에 있어, 선택적인 정합을 통해 정합 속도를 향상시킬 수 있다. In this case, by dividing the markers into a plurality of groups and distinguishing them so that they can be distinguished from each other, it is possible to improve the matching speed through selective matching in the formation of keypoint groups and matching with the 3D model.

또한, 정합에 있어, 대상물체로부터 생성되는 3차원 모델의 종류에 따라 적합한 알고리즘을 선택할 수 있어, 다양한 추적 환경이나 프로그램에 적응하여 대상물체에 대한 위치 추적을 수행할 수 있다. In addition, in matching, it is possible to select an appropriate algorithm according to the type of the 3D model generated from the target object, so that the position tracking of the target object can be performed by adapting to various tracking environments or programs.

나아가, 상기 키포인트 그룹의 좌표계를 산출함으로써, 대상물체의 위치를 추적함에 있어, 이전 프레임에서의 대상물체의 위치에 대한 정보를 피드백받아 상기 산출된 좌표계의 검증을 수행하므로, 상기 대상물체에 대한 위치 추적의 속도는 물론 정확성을 향상시킬 수 있다. Further, by calculating the coordinate system of the key point group, in tracking the position of the target object, the calculated coordinate system is verified by receiving feedback on the position of the target object in the previous frame, so that the position of the target object Tracking speed as well as accuracy can be improved.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will be able to variously modify and change the present invention without departing from the spirit and scope of the present invention described in the following claims. You will understand that you can.

1 : 대상물체 위치 산출시스템
10 : 추적물 20 : 촬영부
30 : 모델 형성부 40 : 위치 산출부
50 : 저장부 60 : 정합부
70 : 판단부 80 : 검출부
100, 101 : 대상물체 200, 205 : 마커들
210, 215 : 키 포인트 300, 310 : 3차원 모델
1: Target object location calculation system
10: trace 20: photographing unit
30: model forming unit 40: position calculating unit
50: storage unit 60: matching unit
70: determination unit 80: detection unit
100, 101: object 200, 205: markers
210, 215: key point 300, 310: 3D model

Claims (15)

대상물체의 표면에 부착되는 복수의 마커들;
상기 대상물체 및 상기 마커들을 촬영하여 이미지를 획득하는 촬영부;
상기 촬영된 이미지로부터 상기 마커들의 3차원 위치를 산출하는 위치 산출부;
상기 산출된 3차원 위치를 키포인트 그룹으로 저장하는 저장부;
상기 저장된 키포인트 그룹과 상기 대상물체에 대한 3차원 모델을 정합하는 정합부; 및
상기 정합을 바탕으로 상기 키포인트 그룹의 좌표계를 산출하는 검출부를 포함하는 대상물체의 위치 산출시스템.
A plurality of markers attached to the surface of the object;
A photographing unit that photographs the target object and the markers to obtain an image;
A position calculator that calculates the three-dimensional positions of the markers from the captured image;
A storage unit for storing the calculated three-dimensional position as a key point group;
A matching unit for matching the stored keypoint group with the 3D model of the target object; And
A system for calculating a position of an object including a detection unit for calculating a coordinate system of the key point group based on the matching.
제1항에 있어서,
상기 마커들은, 적외선 반사 스티커로 상기 대상물체의 표면에 소정의 간격으로 복수개가 부착되고,
상기 촬영부는, 적외선 스테레오(stereo) 카메라인 것을 특징으로 하는 대상물체의 위치 산출시스템.
The method of claim 1,
A plurality of the markers are attached to the surface of the target object at predetermined intervals as an infrared reflective sticker,
The photographing unit is an infrared stereo camera.
제2항에 있어서,
상기 대상물체는 임의의 3차원 형상을 가지며,
상기 대상물체에 대한 3차원 모델은, 점(point)군(群) 데이터 또는 3차원 메쉬(mesh) 모델로 형성되는 것을 특징으로 하는 대상물체의 위치 산출시스템.
The method of claim 2,
The object has an arbitrary three-dimensional shape,
The three-dimensional model of the object, characterized in that the point (群) (群) data or a three-dimensional mesh (mesh) model is formed of the object position calculation system.
제1항에 있어서,
상기 마커들은, 서로 다른 형상 또는 색깔을 가지는 복수의 마커 그룹들로 구분되며,
상기 저장부는, 서로 다른 마커 그룹들을 서로 다른 키포인트 그룹들로 구별하여 저장하는 것을 특징으로 하는 대상물체의 위치 산출시스템.
The method of claim 1,
The markers are divided into a plurality of marker groups having different shapes or colors,
And the storage unit separates and stores different marker groups into different keypoint groups.
제1항에 있어서, 상기 위치 산출부는,
상기 마커들 각각의 중앙 좌표를, 상기 마커들의 3차원 위치로 산출하는 것을 특징으로 하는 대상물체의 위치 산출시스템.
The method of claim 1, wherein the position calculation unit,
A system for calculating a position of an object, characterized in that the center coordinates of each of the markers are calculated as the three-dimensional positions of the markers.
제1항에 있어서, 상기 정합부는,
상기 키포인트 그룹을 고정한 상태에서, 상기 3차원 모델을 회전 또는 병진시켜 상기 키포인트 그룹에 정합하는 것을 특징으로 하는 대상물체의 위치 산출시스템.
The method of claim 1, wherein the matching portion,
In a state in which the key point group is fixed, the three-dimensional model is rotated or translated to match the key point group.
대상물체의 표면에 복수의 마커들을 부착하는 단계;
상기 대상물체 및 상기 마커들을 촬영하여 이미지를 획득하는 단계;
상기 촬영된 이미지로부터 상기 마커들의 3차원 위치를 산출하는 단계;
상기 산출된 3차원 위치를 키포인트 그룹으로 저장하는 단계;
상기 저장된 키포인트 그룹과 상기 대상물체에 대한 3차원 모델을 정합하는 단계; 및
상기 정합을 바탕으로 상기 키포인트 그룹의 좌표계를 산출하는 단계를 포함하는 대상물체의 위치 산출방법.
Attaching a plurality of markers to the surface of the object;
Photographing the object and the markers to obtain an image;
Calculating three-dimensional positions of the markers from the captured image;
Storing the calculated three-dimensional position as a key point group;
Matching the stored keypoint group with the 3D model of the target object; And
And calculating a coordinate system of the key point group based on the matching.
제7항에 있어서, 상기 3차원 위치를 산출하는 단계는,
상기 대상물체 및 상기 마커들에 대한 촬영 이미지에서 상기 마커들의 2차원 위치를 획득하는 단계; 및
상기 마커들의 2차원 위치로부터 스테레오 관계를 이용하여 3차원 위치를 산출하는 단계를 포함하는 것을 특징으로 하는 대상물체의 위치 산출방법.
The method of claim 7, wherein calculating the three-dimensional position,
Acquiring the two-dimensional positions of the markers in the photographed image of the object and the markers; And
And calculating a three-dimensional position using a stereo relationship from the two-dimensional positions of the markers.
제8항에 있어서, 상기 3차원 위치를 산출하는 단계에서,
상기 대상물체에 부착된 마커들 중, 식별 가능한 마커들에 대하여만 선택적으로 3차원 위치를 산출하는 것을 특징으로 하는 대상물체의 위치 산출방법.
The method of claim 8, wherein in the step of calculating the three-dimensional position,
A method for calculating a position of an object, characterized in that, among the markers attached to the object, the three-dimensional position is selectively calculated for only identifiable markers.
제7항에 있어서, 상기 정합하는 단계에서,
상기 키포인트 그룹을 고정한 상태에서, 상기 3차원 모델을 회전 또는 병진시켜 상기 키포인트 그룹에 정합하는 것을 특징으로 하는 대상물체의 위치 산출방법.
The method of claim 7, wherein in the matching step,
And rotating or translating the three-dimensional model while the key point group is fixed to match the key point group.
제10항에 있어서, 상기 정합하는 단계에서,
상기 대상물체에 대한 3차원 모델이 점(point)군(群) 데이터인 경우, ICP(iterative closest point) 알고리즘을 이용하여 정합하는 것을 특징으로 하는 대상물체의 위치 산출방법.
The method of claim 10, wherein in the matching step,
When the three-dimensional model of the target object is point group data, matching is performed using an iterative closest point (ICP) algorithm.
제10항에 있어서, 상기 정합하는 단계에서,
상기 대상물체에 대한 3차원 모델이 3차원 메쉬(mesh) 모델인 경우, point-to-plane registration 알고리즘을 이용하여 정합하는 것을 특징으로 하는 대상물체의 위치 산출방법.
The method of claim 10, wherein in the matching step,
When the 3D model of the target object is a 3D mesh model, registration is performed using a point-to-plane registration algorithm.
제7항에 있어서, 상기 정합하는 단계에서,
상기 정합의 오차가 기 설정된 기준값보다 작으면 상기 정합을 종료하는 것을 특징으로 하는 대상물체의 위치 산출방법.
The method of claim 7, wherein in the matching step,
When the matching error is less than a preset reference value, the matching is terminated.
제7항에 있어서, 상기 키포인트 그룹의 좌표계를 산출하는 단계 이후,
이전 프레임에서 산출된 상기 키포인트 그룹의 좌표계를 바탕으로 상기 산출된 좌표계를 검증하는 단계를 더 포함하는 대상물체의 위치 산출방법.
The method of claim 7, after the step of calculating the coordinate system of the key point group,
And verifying the calculated coordinate system based on the coordinate system of the key point group calculated in a previous frame.
제7항에 있어서,
상기 마커들은 서로 다른 형상 또는 색깔을 가지는 복수의 마커 그룹들로 구분되는 경우,
상기 키포인트 그룹으로 저장하는 단계에서, 상기 서로 다른 마커 그룹들을 서로 다른 키포인트 그룹들로 구별하여 저장하고,
상기 정합하는 단계에서, 상기 키포인트 그룹들 별로 상기 3차원 모델과 정합하는 것을 특징으로 하는 대상물체의 위치 산출방법.
The method of claim 7,
When the markers are divided into a plurality of marker groups having different shapes or colors,
In the step of storing as the keypoint group, the different marker groups are separated into different keypoint groups and stored,
In the matching step, the method of calculating a position of an object, characterized in that the key point groups are matched with the 3D model.
KR1020190099330A 2019-08-14 2019-08-14 Position detecting system for an object using attached markers and method for position detecting using the same KR102334752B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190099330A KR102334752B1 (en) 2019-08-14 2019-08-14 Position detecting system for an object using attached markers and method for position detecting using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190099330A KR102334752B1 (en) 2019-08-14 2019-08-14 Position detecting system for an object using attached markers and method for position detecting using the same

Publications (2)

Publication Number Publication Date
KR20210020279A true KR20210020279A (en) 2021-02-24
KR102334752B1 KR102334752B1 (en) 2021-12-06

Family

ID=74689239

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190099330A KR102334752B1 (en) 2019-08-14 2019-08-14 Position detecting system for an object using attached markers and method for position detecting using the same

Country Status (1)

Country Link
KR (1) KR102334752B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005034619A (en) * 2003-06-23 2005-02-10 Yokohama Rubber Co Ltd:The Behavior measuring instrument of golf club head
JP2005258891A (en) * 2004-03-12 2005-09-22 Nippon Telegr & Teleph Corp <Ntt> 3d motion capturing method and device
JP2009294048A (en) * 2008-06-04 2009-12-17 Yokohama Rubber Co Ltd:The Behavior measuring device of moving body, and behavior measuring method of moving body
KR101246515B1 (en) 2011-02-23 2013-03-26 가천의과학대학교 산학협력단 Fusion medical images system using location monitoring system
JP2017058166A (en) * 2015-09-14 2017-03-23 株式会社東芝 Shape aligning device, shape aligning method and shape aligning program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005034619A (en) * 2003-06-23 2005-02-10 Yokohama Rubber Co Ltd:The Behavior measuring instrument of golf club head
JP2005258891A (en) * 2004-03-12 2005-09-22 Nippon Telegr & Teleph Corp <Ntt> 3d motion capturing method and device
JP2009294048A (en) * 2008-06-04 2009-12-17 Yokohama Rubber Co Ltd:The Behavior measuring device of moving body, and behavior measuring method of moving body
KR101246515B1 (en) 2011-02-23 2013-03-26 가천의과학대학교 산학협력단 Fusion medical images system using location monitoring system
JP2017058166A (en) * 2015-09-14 2017-03-23 株式会社東芝 Shape aligning device, shape aligning method and shape aligning program

Also Published As

Publication number Publication date
KR102334752B1 (en) 2021-12-06

Similar Documents

Publication Publication Date Title
US10963041B2 (en) Gesture recognition using multi-sensory data
CN108022264B (en) Method and equipment for determining camera pose
WO2018133130A1 (en) 3d marker model construction and real-time tracking using monocular camera
JP6240320B2 (en) Determination of pose by pattern of 4 LEDs
US10802606B2 (en) Method and device for aligning coordinate of controller or headset with coordinate of binocular system
ES2626301T3 (en) Procedure and image processing equipment to determine the parameters of a camera
KR20150107597A (en) Gesture recognition apparatus and control method of gesture recognition apparatus
US20170316610A1 (en) Assembly instruction system and assembly instruction method
WO2012126844A1 (en) Method and apparatus for gaze point mapping
CN108022265B (en) Method, equipment and system for determining pose of infrared camera
US20170243052A1 (en) Book detection apparatus and book detection method
WO2007037227A1 (en) Position information detection device, position information detection method, and position information detection program
WO2022078488A1 (en) Positioning method and apparatus, self-moving device, and storage medium
JP6777391B2 (en) Computer equipment and methods for 3D interactions
JPWO2019193859A1 (en) Camera calibration method, camera calibration device, camera calibration system and camera calibration program
US11758100B2 (en) Portable projection mapping device and projection mapping system
KR102290218B1 (en) Position tracking system using a plurality of cameras and method for position tracking using the same
KR102334752B1 (en) Position detecting system for an object using attached markers and method for position detecting using the same
JP6863946B2 (en) Image processing device
KR20200030932A (en) Position tracking apparatus and method for position tracking using the same
Rostkowska et al. Improving self-localization efficiency in a small mobile robot by using a hybrid field of view vision system
CN113971835A (en) Control method and device of household appliance, storage medium and terminal device
JP6981340B2 (en) Display control programs, devices, and methods
JP2010146303A (en) Three-dimensional object attitude/position detecting device, method, and program
CN109173252A (en) A kind of screen shooting game localization method, storage medium and device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant