WO2011149159A1 - Real-time markerless three-dimensional object tracking system for augmented reality and method thereof - Google Patents

Real-time markerless three-dimensional object tracking system for augmented reality and method thereof Download PDF

Info

Publication number
WO2011149159A1
WO2011149159A1 PCT/KR2010/007491 KR2010007491W WO2011149159A1 WO 2011149159 A1 WO2011149159 A1 WO 2011149159A1 KR 2010007491 W KR2010007491 W KR 2010007491W WO 2011149159 A1 WO2011149159 A1 WO 2011149159A1
Authority
WO
WIPO (PCT)
Prior art keywords
real
augmented reality
feature point
dimensional object
tracking
Prior art date
Application number
PCT/KR2010/007491
Other languages
French (fr)
Korean (ko)
Inventor
백중환
민재홍
쿠마 폴안잔
카이룰 이슬람모하마드
Original Assignee
한국항공대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공대학교산학협력단 filed Critical 한국항공대학교산학협력단
Publication of WO2011149159A1 publication Critical patent/WO2011149159A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Definitions

  • the feature point may be extracted using SURF.

Abstract

Disclosed is a real-time markerless three-dimensional object tracking system for augmented reality and a method thereof. According to an embodiment of the present invention, the real-time markerless three-dimensional object tracking system for augmented reality comprises: a feature point extracting unit which extracts a feature point from an object image; a matching unit which matches the extracted feature point to a feature point of a reference image corresponding to preset three-dimensional position information; a rotation and movement information tracking unit which tracks rotation and movement information on the basis of a result of the matching by the matching unit.

Description

증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템 및 그 방법Real-time Markerless 3D Object Tracking System and Its Method for Augmented Reality
본 발명의 실시예는 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템 및 그 방법에 관한 것이다. 보다 상세하게는, 2차원 평면 즉, 동일 평면상의 특징점들의 추적에 한정되지 않고 3차원 객체에 대한 특징점을 추출하여 실시간으로 추적할 수 있는 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템 및 그 방법에 관한 것이다.An embodiment of the present invention relates to a real-time markerless three-dimensional object tracking system and method for augmented reality. More specifically, a real-time markerless three-dimensional object tracking system and method for augmented reality that can be extracted in real time by extracting the feature points for the three-dimensional object, not limited to tracking the feature points on the two-dimensional plane, that is, the same plane It is about.
가상현실은 게임처럼 공간을 새롭게 창조하지만 증강현실은 실사 현실의 기반 위에 가상의 사물을 결합하여 부가적인 정보들을 제공할 수 있다. 이러한 장점 때문에 가상현실과 달리 현실에 다양한 응용이 가능하다. 증강현실을 구현하기 위해서는 카메라 및 센서, 컴퓨터 그래픽, 정합(Registration)기술, 디스플레이 기기 등 요소기술이 필요하다. 이러한 요소기술들은 주변 정보 및 사용자의 시선, 자세, 동작 등을 파악하고, 가상정보를 생성하며, 가상과 현실을 일치시켜 사용자에 전달한다. Virtual reality creates spaces like games, but augmented reality can provide additional information by combining virtual objects on the basis of real reality. Due to these advantages, unlike virtual reality, various applications are possible in reality. Augmented reality requires element technologies such as cameras and sensors, computer graphics, registration technology, and display devices. These element technologies grasp the surrounding information and the user's gaze, posture, and motion, generate virtual information, and match the virtual and reality to the user.
실제 영상에 가상물체를 생성하기 위해 가상물체와 실제 영상 간의 매개체가 요구되며, 이러한 매개체를 지속적으로 추적 인식하여 기준이 되는 좌표계를 설정한다. 추적 및 인식을 위해 기계, 자기, 광학 등이 이용되지만 현재 광학이 가장 높은 정밀도를 보인다. 따라서 마커(Marker)를 이용한 광학 트랙킹(Optical tracking)이 주류를 이루고 있다. 광학 기반의 트랙킹 방법은 조명에 영향을 많이 받게 되므로 이를 극복하기 위해서 IR(infrared) 타깃을 사용하는 방법이 사용되기도 한다. In order to create a virtual object in a real image, a medium between the virtual object and the real image is required, and the coordinate system is set as a reference by continuously tracking and recognizing such a medium. Mechanical, magnetic, and optics are used for tracking and recognition, but optics currently offer the highest precision. Therefore, optical tracking using markers is becoming mainstream. Optical-based tracking methods are heavily influenced by illumination, so in order to overcome them, an IR (infrared) target may be used.
최근에는 번거롭게 마커를 필요로 하지 않고도 트랙킹이 가능한 마커리스 트랙킹(Markerless tracking) 기법이 연구되고 있다. 이는 인공적으로 프린트한 인쇄물로서의 마커가 아니라 현실세계 속에서의 객체들의 특징점을 추출해 이를 트랙킹 한다. 이때 추출되는 특징점이 동일한 평면상에 있는 것이 아니라 3차원 공간상의 객체에 대해 대응해야 한다. 대표적인 예로 PTAM(Parallel Tracking and Mapping for Small AR Workspaces)이 있으며 작은 AR(Augmented Reality) 공간을 생성하여 추적 및 맵핑을 한다.Recently, markerless tracking techniques that can be tracked without the need for markers have been studied. It extracts and tracks feature points of objects in the real world, not markers as artificially printed prints. At this time, the extracted feature points are not on the same plane but must correspond to objects in three-dimensional space. A typical example is PTAM (Parallel Tracking and Mapping for Small AR Workspaces), which creates and tracks and maps a small Augmented Reality (AR) space.
일반적으로 객체의 한 면 즉 동일 평면에서 특징점을 추출하여 호모그라피(Homography)를 이용하여 객체 면의 회전과 이동을 알아낸다. 따라서 객체는 일정한 평면을 가져야만 하는 문제점이 있다.In general, the feature points are extracted from one side of the object, i.e., the same plane, and the rotation and movement of the object's surface are found by using homography. Therefore, there is a problem that the object must have a constant plane.
본 발명의 실시예는 상기의 문제점을 개선하기 위하여 창안된 것으로서, 동일 평면상에 한정되지 않고 3차원 객체의 특징점을 이용하여 객체의 이동과 회전을 구하고, 사용자가 불편함을 느끼지 않도록 가상정보와 현실정보를 실시간으로 일치시켜 특징점을 추출하며, 추출된 3차원 객체의 특징점을 이용하여 객체를 표현하고 트랙킹하는 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템 및 그 방법을 제공하는 것을 목적으로 한다.The embodiment of the present invention was devised to improve the above problems, and is not limited to the same plane to obtain the movement and rotation of the object by using the feature points of the three-dimensional object, and to prevent the user from feeling discomfort. It is an object of the present invention to provide a real-time markerless 3D object tracking system and method for augmented reality that expresses and tracks an object using the extracted 3D object's feature points. .
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템의 일 실시예는, 객체의 영상으로부터 특징점을 추출하는 특징점 추출부; 추출된 특징점을 기설정된 3차원의 위치정보에 대응하는 참조영상의 특징점과 정합하는 정합부; 및 정합부에 의해 정합된 결과에 기초하여 회전 및 이동정보를 추적하는 회전 및 이동정보 추적부를 포함하는 것을 특징으로 한다.One embodiment of a real-time markerless three-dimensional object tracking system for augmented reality according to an embodiment of the present invention for achieving the above object, a feature point extraction unit for extracting a feature point from the image of the object; A matching unit matching the extracted feature points with feature points of a reference image corresponding to preset 3D location information; And a rotation and movement information tracking unit for tracking the rotation and movement information based on the result matched by the matching unit.
여기서, 특징점 추출부는, SURF(Speed Up Robust Features)를 이용하여 특징점을 추출할 수 있다.Here, the feature point extractor may extract the feature point using Speed Up Robust Features (SURF).
또한, 특징점 추출부는 적분영상과 사각필터를 이용한 근사화된 가우시안 2차 미분 9x9 필터를 이용하여 특징점을 추출할 수 있다.Also, the feature point extractor may extract the feature point using an approximated Gaussian second derivative 9x9 filter using an integrated image and a square filter.
바람직하게는, 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템은, 특징점 추출부에 의해 추출된 특징점에 기초하여 특징벡터의 표현자를 생성하는 표현자 생성부를 더 포함한다. 이 경우, 정합부는 표현자 생성부에 의해 생성된 표현자를 참조영상의 특징점과 정합한다.Preferably, the real-time markerless three-dimensional object tracking system for augmented reality further comprises a presenter generator for generating a presenter of the feature vector based on the feature point extracted by the feature point extractor. In this case, the matching unit matches the presenter generated by the presenter generator with the feature points of the reference image.
또한, 표현자 생성부는, Haar 웨이블릿 특징에 기초하여 객체의 정규화된 부분영상을 이용하여 4개의 특징벡터를 생성할 수 있다.In addition, the presenter generator may generate four feature vectors using the normalized partial image of the object based on the Haar wavelet feature.
바람직하게는, 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템은, 참조영상의 특징점 데이터를 저장하는 참조영상 데이터 저장부를 더 포함한다.Preferably, the real-time markerless three-dimensional object tracking system for augmented reality, further comprises a reference image data storage for storing the feature point data of the reference image.
또한, 참조영상 데이터 저장부는, 객체의 정면, 좌우 측면, 상하 측면 중 적어도 하나에 대한 특징점 데이터를 저장할 수 있다.The reference image data storage unit may store the feature point data of at least one of the front, left, and right sides, and the top and bottom sides of the object.
또한, 회전 및 이동정보 추적부는, POSIT(Pose Object System for Iteration) 알고리즘에 기초하여 회전 및 이동정보를 추적할 수 있다.In addition, the rotation and movement information tracking unit may track the rotation and movement information based on the POSIT (Pose Object System for Iteration) algorithm.
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템의 다른 실시예는, 객체의 영상으로부터 SURF를 이용하여 특징점을 추출하는 특징점 추출부; 추출된 특징점을 정면, 좌우 측면, 상하 측면 중 적어도 하나의 참조영상의 특징점과 정합하는 정합부; 및 정합부에 의해 정합된 결과에 대해 POSIT 알고리즘에 기초하여 회전 및 이동정보를 추적하는 회전 및 이동정보 추적부를 포함할 수 있다.Another embodiment of the real-time markerless three-dimensional object tracking system for augmented reality according to an embodiment of the present invention for achieving the above object, a feature point extraction unit for extracting a feature point from the image of the object using SURF; A matching unit matching the extracted feature points with the feature points of at least one reference image among front, left, and right sides; And a rotation and movement information tracking unit for tracking the rotation and movement information based on the POSIT algorithm with respect to the result matched by the matching unit.
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 증강현실을 위한 실시간 마커리스 3차원 객체 추적방법의 일 실시예는, 객체의 영상으로부터 특징점을 추출하는 단계; 추출된 특징점을 기설정된 3차원의 위치정보에 대응하는 참조영상의 특징점과 정합하는 단계; 및 정합된 결과에 기초하여 회전 및 이동정보를 추적하는 단계를 포함하는 것을 특징으로 한다.One embodiment of a real-time markerless three-dimensional object tracking method for augmented reality according to an embodiment of the present invention for achieving the above object, the method comprising: extracting feature points from the image of the object; Matching the extracted feature points with the feature points of the reference image corresponding to the predetermined three-dimensional position information; And tracking the rotation and movement information based on the matched result.
바람직하게는, 추출된 특징점에 기초하여 특징벡터의 표현자를 생성하는 단계를 더 포함할 수 있다. 이 경우, 정합단계는 생성된 표현자를 참조영상의 특징점과 정합한다.Preferably, the method may further include generating a presenter of the feature vector based on the extracted feature point. In this case, the matching step matches the generated presenter with the feature points of the reference image.
또한, 정합단계는, 객체의 정면, 좌우 측면, 상하 측면 중 적어도 하나를 포함하는 참조영상의 특징점 데이터와 추출된 특징점을 정합할 수 있다.In addition, in the matching step, the feature point data of the reference image including at least one of the front, left and right sides, and top and bottom sides of the object may be matched with the extracted feature points.
또한, 특징점 추출단계는, SURF를 이용하여 특징점을 추출할 수 있다.Also, in the feature point extraction step, the feature point may be extracted using SURF.
또한, 회전 및 이동정보 추적단계는, POSIT 알고리즘에 기초하여 회전 및 이동정보를 추적할 수 있다.The rotation and movement information tracking step may track the rotation and movement information based on the POSIT algorithm.
본 발명의 실시예에 따르면, 2차원 평면 즉, 동일 평면상에 한정되지 않고 3차원 객체의 특징점을 이용하여 객체의 회전 및 이동정보를 추적함으로써, 사용자가 불편함을 느끼지 않도록 가상정보와 현실정보를 실시간으로 일치시켜 특징점을 추출하며, 추출된 3차원 객체의 특징점을 이용하여 객체를 표현하는 것이 가능하게 된다.According to an embodiment of the present invention, the virtual and reality information is not limited to the user by tracking the rotation and movement information of the object using the feature points of the 3D object, without being limited to the 2D plane, that is, the same plane. It is possible to extract the feature points by matching in real time, and to express the object using the extracted feature points of the 3D object.
도 1은 본 발명의 실시예에 따른 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템을 개략적으로 도시한 도면이다.1 is a view schematically showing a real-time markerless three-dimensional object tracking system for augmented reality according to an embodiment of the present invention.
도 2는 도 1의 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템에 의한 실시간 마커리스 3차원 객체 추적방법을 나타낸 흐름도이다.FIG. 2 is a flowchart illustrating a method for tracking a real-time markerless 3D object by a realtime markerless 3D object tracking system for augmented reality of FIG. 1.
도 3은 적분영상의 예를 나타낸 도면이다.3 is a diagram illustrating an example of an integrated image.
도 4는 근사화된 가우시안 사각필터의 예를 나타낸 도면이다.4 is a diagram illustrating an example of an approximated Gaussian square filter.
도 5는 Haar 웨이블릿 특징을 가지는 지역적 특징의 예를 나타낸 도면이다.5 is a diagram illustrating an example of a local feature with a Haar wavelet feature.
도 6은 피라미드 옵티칼 플로우 추정의 예를 나타낸 도면이다.6 is a diagram illustrating an example of pyramid optical flow estimation.
도 7은 POSIT 알고리즘의 회전과 이동의 추정에 대한 객체와 카메라의 상관도를 나타낸 도면이다.7 is a diagram illustrating a correlation between an object and a camera for estimating rotation and movement of a POSIT algorithm.
도 8은 프레임별 트래킹 시간의 예를 나타낸 도면이다.8 is a diagram illustrating an example of tracking time for each frame.
도 9는 본 발명에 따른 증강현실을 위한 실시간 마커리스 3차원 객체추적에 의한 결과 영상의 예를 나타낸 도면이다.9 is a diagram showing an example of a result image by real-time markerless 3D object tracking for augmented reality according to the present invention.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible even though they are shown in different drawings. In addition, in describing the present invention, when it is determined that the detailed description of the related well-known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the component of this invention, terms, such as 1st, 2nd, A, B, (a), (b), can be used. These terms are only for distinguishing the components from other components, and the nature, order or order of the components are not limited by the terms. If a component is described as being "connected", "coupled" or "connected" to another component, that component may be directly connected or connected to that other component, but between components It will be understood that may be "connected", "coupled" or "connected".
도 1은 본 발명의 실시예에 따른 증강현실을 위한 실시간 마커리스 3차원 객체 추적 시스템의 일 실시예를 개략적으로 도시한 도면이다. 도면을 참조하면, 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템(100)은 특징점 추출부(110), 표현자 생성부(120), 참조영상 데이터 저장부(130), 정합부(140) 및 회전 및 이동정보 추적부(150)를 구비할 수 있다.1 is a view schematically showing an embodiment of a real-time markerless three-dimensional object tracking system for augmented reality according to an embodiment of the present invention. Referring to the drawings, the real-time markerless three-dimensional object tracking system 100 for augmented reality is a feature point extraction unit 110, presenter generator 120, reference image data storage 130, matching unit 140 And a rotation and movement information tracking unit 150.
특징점 추출부(110)는 객체의 영상으로부터 특징점을 추출한다. 객체의 전체적인 특징들을 인식 요소로 사용하지 않더라도 객체의 부분적인 특징점들을 객체 인식의 요소로 사용할 수 있는데, 그 중 코너점은 객체 모양에 대한 정보를 가장 많이 가지고 있으므로 객체 표현, 해석, 인식에 가장 중요한 특징점으로 사용될 수 있다. 그러나, 특징점 추출부(110)에 의해 추출 가능한 특징점은 코너점에 한정되는 것은 아니다. The feature point extractor 110 extracts a feature point from an image of the object. Even though the overall features of the object are not used as recognition elements, partial feature points of the object can be used as elements of object recognition. Among them, corner points contain the most information about the shape of objects, which is the most important for object representation, interpretation, and recognition. Can be used as a feature point. However, the feature points extractable by the feature point extractor 110 are not limited to the corner points.
표현자 생성부(120)는 특징점 추출부(110)에 의해 추출된 특징점에 기초하여 특징벡터의 표현자를 생성한다.The presenter generator 120 generates a presenter of a feature vector based on the feature points extracted by the feature point extractor 110.
참조영상 데이터 저장부(130)는 참조영상의 특징점 데이터를 저장한다. 이때, 참조영상은 객체에 대한 정면, 좌우 측면, 상하 측면 중 적어도 하나에 대한 특징점 데이터를 포함할 수 있다.The reference image data storage unit 130 stores the feature point data of the reference image. In this case, the reference image may include feature point data on at least one of the front, left, and right sides, and the top and bottom sides of the object.
정합부(140)는 특징점 추출부(110)에 의해 추출된 특징점을 기설정된 3차원의 위치정보에 대응하는 참조영상의 특징점과 정합한다. 즉, 객체의 포즈(Pose)를 알기 위해서는 입력 영상에서 최소한 4개의 점들과 그에 대응하는 3D 알고 있어야 할 필요가 있으며, 그에 따라 정합부(140)는 추출된 특징점을 대응되는 참조영상의 특징점과 정합한다.The matching unit 140 matches the feature points extracted by the feature point extractor 110 with the feature points of the reference image corresponding to the preset three-dimensional position information. That is, in order to know the pose of the object, it is necessary to know at least four points and 3D corresponding to them in the input image, and accordingly, the matching unit 140 matches the extracted feature points with those of the corresponding reference image. do.
회전 및 이동정보 추적부(150)는 정합부(130)에 의해 정합된 결과에 기초하여 회전 및 이동정보를 추적(tracking)한다. 이때, 회전 및 이동정보의 추적을 위하여 POSIT(Pose Object System for Iteration) 알고리즘이 사용될 수 있다. The rotation and movement information tracking unit 150 tracks the rotation and movement information based on the result matched by the matching unit 130. At this time, a POSIT (Pose Object System for Iteration) algorithm may be used to track the rotation and movement information.
도 2는 도 1의 증강현실을 위한 실시간 마커리스 3차원 객체 추적 시스템에 의한 실시간 마커리스 3차원 객체 추적방법을 나타낸 흐름도이다. 도 1 및 도 2를 참조하여 본 발명의 실시예에 따른 증강현실을 위한 실시간 마커리스 3차원 객체 추적 시스템의 기능 및 동작을 상세하게 설명한다.FIG. 2 is a flowchart illustrating a method of tracking a real-time markerless 3D object by a real-time markerless 3D object tracking system for augmented reality of FIG. 1. 1 and 2 will be described in detail the function and operation of a real-time markerless three-dimensional object tracking system for augmented reality according to an embodiment of the present invention.
3차원 실시간 트랙킹 시스템은 전처리과정과 실시간처리과정으로 나눠지며, 초기화를 위한 전처리과정에서는 특징점 추출부(110)에 의해 SURF(Speed Up Robust Features)를 이용하여 객체의 특징점들 위치가 추출되며, 또한 표현자 생성부(120)는 특징점 추출부(110)에 의해 추출된 특징점에 기초하여 특징벡터의 표현자를 생성한다(S203). 이때, 정합부(140)는 객체의 영상으로부터 추출된 2D에서의 특징점의 위치와 이미 알고 있는 객체의 3D 위치 정보를 정합하며(S205), 정합된 정보, 표현자(descriptor), 객체의 3D 모델을 카메라에서 들어오는 입력영상과 매칭시켜 트랙킹에 필요한 특징점들을 추출한다. 추출된 특징점들이 일정 수 이하이면 다시 매칭을 하며(S207), 그 이상이 되면 3D 위치정보를 POSIT(Pose from Orthography and Scaling with Iteration)에 적용하여 객체의 회전과 이동 정보를 얻어내고 3D 모델을 화면에 표현한다(S209). The 3D real-time tracking system is divided into a preprocessing process and a real time processing process, and in the preprocessing process for initialization, the feature point positions are extracted by the feature point extractor 110 using SURF (Speed Up Robust Features). The presenter generator 120 generates a presenter of a feature vector based on the feature points extracted by the feature point extractor 110 (S203). At this time, the matching unit 140 matches the location of the feature point in the 2D extracted from the image of the object with the 3D location information of the known object (S205), the matched information, the descriptor, the 3D model of the object. We extract the feature points necessary for tracking by matching the input image from camera. If the extracted feature points are less than or equal to a certain number (S207), and if more than that (S207), 3D location information is applied to POSIT (Pose from Orthography and Scaling with Iteration) to obtain the rotation and movement information of the object and to display the 3D model Expressed in (S209).
SURF는 특징점 추출 과정과 표현자 생성 과정으로 이루어지며, 특징점 추출 과정은 영상에서 강건한 특징점 위치를 찾는 것이며, 두 번째 과정은 환경 변화에 불변하고 강건한 특징점을 설명하는 표현자를 생성한다. 도 3에 적분영상의 개념을 보인다.SURF consists of a feature point extraction process and a presenter generation process. A feature point extraction process is to find a robust feature point location in an image. The second process creates a descriptor that describes a feature point that is invariant to environmental changes. 3 shows the concept of an integrated image.
적분영상과 사각필터를 이용한 근사화된 가우시안 2차 미분 9X9 필터를 이용한 헤이시안 검출기로 특징점을 추출한다.Feature points are extracted with a Gaussian second-order differential 9X9 filter using an integrated image and a square filter.
[수학식 1][Equation 1]
Figure PCTKR2010007491-appb-I000001
Figure PCTKR2010007491-appb-I000001
수학식 1에서
Figure PCTKR2010007491-appb-I000002
은 점 x에서 x방향으로 영상 I의 2차 가우시안 미분 컨벌루션이고,
Figure PCTKR2010007491-appb-I000003
Figure PCTKR2010007491-appb-I000004
는 xy방향으로의 미분 그리고 y방향으로의 2차 가우시안 미분 컨벌루션을 의미한다. 도 4는 본 발명에 따른 실시예에서 사용된 근사화 된 가우시안 사각필터이다.
In Equation 1
Figure PCTKR2010007491-appb-I000002
Is the second Gaussian differential convolution of image I in the x direction at point x,
Figure PCTKR2010007491-appb-I000003
and
Figure PCTKR2010007491-appb-I000004
Denotes the derivative in the xy direction and the second Gaussian differential convolution in the y direction. 4 is an approximated Gaussian square filter used in an embodiment according to the present invention.
특징벡터를 표현하기 위해 Haar 웨이블릿 특징을 사용하는데 정규화된 부분영상을 이용하여 4개의 특징벡터를 만든다. 도 5는 웨이블릿 특징 조합을 이용하여 지역적 특징 벡터를 만드는 과정을 보여준다.The Haar wavelet feature is used to represent the feature vector. Four feature vectors are created using normalized partial images. 5 shows a process of creating a local feature vector using wavelet feature combinations.
루카스-카나데 알고리즘(Lucas-Kanade Algorithm)은 다음의 이미지 밝기 제약 방정식을 가진다.The Lucas-Kanade Algorithm has the following image brightness constraint equation:
[수학식 2][Equation 2]
Figure PCTKR2010007491-appb-I000005
Figure PCTKR2010007491-appb-I000005
[수학식 3][Equation 3]
Figure PCTKR2010007491-appb-I000006
Figure PCTKR2010007491-appb-I000006
수학식 3에서 ∇I는 공간 밝기 변화율이고, It는 시간 밝기변화율이며, 위 식의 해를 구하기 위해 국부 평탄화를 가정하여 구한다. 그러나 루카스-카나데 알고리즘은 작은 윈도우를 사용하기 때문에 큰 움직임이 있을 경우 움직임을 계산하지 못한다. 따라서 이를 해결하기 위해서 일단 원본 영상에서 영상을 피라미드로 구성하고 상위부터 하위로 추적하여 큰 움직임을 찾아낼 수 있다. In Equation 3, ∇I is the rate of change of spatial brightness, I t is the rate of change of time brightness, and it is calculated assuming local planarization to solve the above equation. However, the Lucas-Kanade algorithm uses a small window and cannot calculate motion when there is a large motion. Therefore, in order to solve this problem, once the original image is composed of a pyramid and tracked from the top to the bottom, a large motion can be found.
루카스-카나데 알고리즘은 밝기 항상성, 시간 지속성, 공간 일관성의 3가지 가정을 기초로 한다. 밝기 항상성은 추적할 영역의 내부는 시간이 지나도 그 값이 일정함을 나타내며, 시간지속성은 프레임간의 움직임이 작아서 그 변화가 매우 적다는 것이다. 또한 공간 일관성은 공간적으로 인접한 점들은 동일한 객체일 가능성이 많다는 것을 나타낸다. The Lucas-Kanade algorithm is based on three assumptions: brightness homeostasis, time persistence, and spatial coherence. The brightness homeostasis indicates that the value of the interior of the area to be tracked is constant over time, and the time continuity means that the change between frames is very small due to the small movement between frames. Spatial coherence also indicates that spatially adjacent points are likely to be the same object.
도 6에서 보면 루카스-카나데 옵티칼 플로우와 업샘플링과 와핑을 반복하여 움직임을 추정한다. 피라미드 루카스-카나데 옵티칼 플로우는 최상위 계층부터 옵티컬 플로우를 계산하여 시간 지속성과 공간일관성의 가정들로부터 나오는 작고 일관된 움직임이 야기하는 문제점들을 해결한다. 이전 계층의 움직임 정보는 다음 계층의 움직임 추정시 시작점으로 사용한다. 이러한 연산을 최하위 계층까지 반복수행하여 빠르고 큰 움직임에 강건하게 추적할 수 있다.In FIG. 6, the motion is estimated by repeating the Lucas-Kanade optical flow, upsampling, and warping. Pyramid Lucas-Kanade Optical Flow solves the problems caused by small, consistent movements from the assumptions of temporal persistence and spatial coherence by computing the optical flow from the top layer. The motion information of the previous layer is used as a starting point in the motion estimation of the next layer. This operation can be repeated up to the lowest tier to robustly track fast and large movements.
도 7은 카메라에 따른 객체의 회전 및 이동과 객체의 2차원 평면 투영을 나타낸다. 객체의 회전과 이동정보 즉 객체의 포즈에 따라 2차원 평면에 투영되는 객체의 윤곽 및 특징점들의 위치가 다름을 알 수 있다. 본 발명에 따른 실시예에서는 3차원 객체의 포즈를 알아내는 방법으로 POSIT을 사용하였으며 포즈(Pose)는 위치값 3개와 회전값 3개로 표현할 수 있다. 7 illustrates the rotation and movement of an object along with a camera and a two-dimensional plane projection of the object. It can be seen that the positions of the contours and the feature points of the object projected on the 2D plane are different according to the rotation and movement information of the object, that is, the pose of the object. In the embodiment according to the present invention, a POSIT is used as a method of finding a pose of a 3D object, and a pose may be represented by three position values and three rotation values.
객체의 포즈를 알기 위해서는 입력영상에서 최소한 4개의 점들과 그에 대응하는 3D 점들을 알고 있어야 한다. POS(Pose from Orthography and Scaling) 방법은 객체의 점들이 카메라로부터 충분히 멀리 있어서 실제 점들 사이의 깊이를 무시할 수 있다는 것을 가정하며 상수로 사용한다. 따라서 구해진 회전행렬과 이동벡터는 내부 파라미터 행렬로부터 구할 수 있다. 또한, 크기 변화는 오로지 객체와 카메라 사이의 거리에 따라 이루어지며, 객체의 3D pose에 대한 폐쇄형 해(closed-form solution)가 존재하게 된다. 이렇게 해서 얻어진 새로운 점들을 POS의 입력점들로 다시 반복하여 수행하면 그 점들이 수렴한다.In order to know the pose of an object, at least four points in the input image and corresponding 3D points must be known. The POS from Orthography and Scaling (POS) method is used as a constant, assuming that the points of the object are far enough from the camera to ignore the depth between the actual points. Therefore, the obtained rotation matrix and the motion vector can be obtained from the internal parameter matrix. In addition, the size change is made only according to the distance between the object and the camera, and there is a closed-form solution for the 3D pose of the object. When the new points thus obtained are repeatedly performed as input points of the POS, the points converge.
본 발명에 따른 실시예에서는 Intel Core i5 CPU 750 2.67 GHz 프로세서와 램 4 GB을 가진 시스템을 이용하였으며, 3차원 객체로는 높이 26 cm 가로 20 cm 세로 18 cm의 모형집을 사용하였다. 또한, 정면 좌우 측면의 영상들을 참조영상으로 삼아 SURF를 통하여 특징점들을 추출한다. 이로부터 표현자와 이에 대응하는 3차원 위치정보를 초기 정보로 생성하고, 피라미드 옵티칼 플로우를 통해 추적된 객체의 특징점들을 POSIT을 통해 회전과 이동정보를 얻는다. 이를 객체의 외곽 윤곽에 대해 회전과 이동을 적용하여 와이어프레임으로 표현한다.In the embodiment according to the present invention, a system having an Intel Core i5 CPU 750 2.67 GHz processor and 4 GB of RAM was used, and a model book having a height of 26 cm, a width of 20 cm and a height of 18 cm was used as the three-dimensional object. Also, feature points are extracted through SURF using images of the front left and right sides as reference images. From this, the presenter generates three-dimensional positional information corresponding thereto as initial information, and obtains rotation and movement information through the POSIT from the feature points of the object tracked through the pyramid optical flow. This is expressed in wireframe by applying rotation and movement to the outline of the object.
표 1에서는 트랙킹 처리 시간을 보인다. 초기화에 51.66 ms의 시간이 소요되며, 이는 참조영상들의 특징점들로부터 적절한 점을 선택하기 위한 처리시간이며, 트랙킹은 평균 6.22 ms이 걸렸다. POSIT을 포함한 전체 트랙킹 시간은 58.22 ms 이다.Table 1 shows the tracking processing time. Initialization takes 51.66 ms, which is a processing time for selecting an appropriate point from the feature points of the reference images, and tracking takes 6.22 ms on average. The total tracking time including POSIT is 58.22 ms.
표 1
Figure PCTKR2010007491-appb-T000001
Table 1
Figure PCTKR2010007491-appb-T000001
도 8은 프레임별 트랙킹 시간을 나타낸다. 재매칭 실험을 위해 빈번히 카메라를 객체로부터 벗어나게 하였으며, 재매칭에 평균 465 ms의 시간이 필요로 하였다. 트랙킹은 재매칭 시간에 비해 극히 작은 시간이 소요되었다. 트랙킹 실패시 참조영상과 다시 매칭을 통해 트랙킹에 적합한 특징점들을 찾을 때까지의 시간을 보여주며, 매칭되는 특징점의 수가 5개 이상일 경우에 추적을 시작하였다. 트랙킹에 필요한 적절한 특징점들의 개수들을 설정함에 따라 느려지고 빨라질 수 있으나 정확한 매칭에 중점을 두었으며, 매칭되는 각각의 특징들 상대적인 위치변위가 특정범위를 벗어나지 않게 지정하여 정확도를 높였다.8 shows tracking time for each frame. The camera was frequently displaced from the object for rematching experiments, and rematching required an average time of 465 ms. Tracking took very little time compared to rematch time. When tracking fails, the time required to find a feature point suitable for tracking by re-matching with the reference image is shown, and tracking is started when the number of matching feature points is 5 or more. By setting the appropriate number of feature points needed for tracking, it can be slower and faster, but the emphasis is on accurate matching, and the relative positional displacement of each matched feature is specified so as not to deviate from a specific range to increase accuracy.
도 9의 (a) 및 (b)에서 왼쪽은 참조영상과 현재 영상간의 특징점 매칭을 보여주며, 오른쪽은 회전과 이동정보를 이용하여 와이어 프레임으로 표현하였다. 여기서, 점선으로 표시된 부분은 매칭된 특징점들을 나타낸다. 또한 객체의 회전과 이동에 대해서 매칭된 특징점들이 정확하게 추적되고, 그 결과를 와이어 프레임으로 실제 객체와 일치함을 볼 수 있다. In FIGS. 9A and 9B, the left side shows a feature point matching between the reference image and the current image, and the right side is represented by a wire frame using rotation and movement information. Here, the portions indicated by the dotted lines represent matched feature points. In addition, we can see that the matched feature points for the rotation and movement of the object are accurately tracked and the result matches the actual object in wireframe.
본 발명에 따른 실시예에서는 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템 및 그 추적방법을 제안하였다. SURF를 이용하여 특징점을 추출하고 이를 POSIT 알고리즘으로 3차원 객체의 회전과 이동정보를 얻고 이를 실시간으로 추적하였다. 추적 실패시 실시간으로 재추적이 가능하도록 빠른 특징점 추출과 매칭을 통하여 트랙킹에 적합한 특징점을 선택하여 객체의 위치와 회전 정보를 얻을 수 있었으며, 실험을 통하여 실시간 트랙킹이 가능함을 확인할 수 있었다. In the embodiment of the present invention, a real-time markerless 3D object tracking system for augmented reality and a tracking method thereof are proposed. Feature points were extracted using SURF and the rotation and movement information of 3D objects were obtained by POSIT algorithm and tracked in real time. In order to enable re-tracking in real time in case of tracking failure, we can obtain the location and rotation information of the object by selecting the feature points suitable for tracking through fast feature point extraction and matching, and we can confirm that real-time tracking is possible through experiments.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.In the above description, it is described that all the components constituting the embodiments of the present invention are combined or operated in one, but the present invention is not necessarily limited to these embodiments. In other words, within the scope of the present invention, all of the components may be selectively operated in combination with one or more. In addition, although all of the components may be implemented as one independent hardware, each or some of the components of the program modules are selectively combined to perform some or all of the functions combined in one or a plurality of hardware It may be implemented as a computer program having a. Codes and code segments constituting the computer program may be easily inferred by those skilled in the art. Such a computer program may be stored in a computer readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention. The storage medium of the computer program may include a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, the terms "comprise", "comprise" or "having" described above mean that the corresponding component may be inherent unless specifically stated otherwise, and thus excludes other components. It should be construed that it may further include other components instead. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art unless otherwise defined. Terms commonly used, such as terms defined in a dictionary, should be interpreted to coincide with the contextual meaning of the related art, and shall not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present invention.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and changes without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.
CROSS-REFERENCE TO RELATED APPLICATIONCROSS-REFERENCE TO RELATED APPLICATION
본 특허출원은 2010년 05월 27일 한국에 출원한 특허출원번호 제 10-2010-0049891 호에 대해 미국 특허법 119(a)조(35 U.S.C § 119(a))에 따라 우선권을 주장하면, 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다. 아울러, 본 특허출원은 미국 이외에 국가에 대해서도 위와 동일한 동일한 이유로 우선권을 주장하면 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다.If this patent application claims priority under US patent law section 119 (a) (35 USC § 119 (a)) to patent application No. 10-2010-0049891 filed with Korea on May 27, 2010, All content is incorporated by reference in this patent application. In addition, if this patent application claims priority for the same reason as above for a country other than the United States, all the contents thereof are incorporated into this patent application by reference.

Claims (14)

  1. 객체의 영상으로부터 특징점을 추출하는 특징점 추출부;A feature point extractor for extracting feature points from an image of the object;
    추출된 상기 특징점을 기설정된 3차원의 위치정보에 대응하는 참조영상의 특징점과 정합하는 정합부; 및A matching unit matching the extracted feature points with feature points of a reference image corresponding to preset 3D location information; And
    상기 정합부에 의해 정합된 결과에 기초하여 회전 및 이동정보를 추적하는 회전 및 이동정보 추적부Rotation and movement information tracking unit for tracking the rotation and movement information based on the result matched by the matching unit
    를 포함하는 것을 특징으로 하는 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템.Real-time markerless three-dimensional object tracking system for augmented reality comprising a.
  2. 제 1항에 있어서,The method of claim 1,
    상기 특징점 추출부는, The feature point extraction unit,
    SURF(Speed Up Robust Features)를 이용하여 상기 특징점을 추출하는 것을 특징으로 하는 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템.Real-time markerless three-dimensional object tracking system for augmented reality, characterized in that for extracting the feature point using the SURF (Speed Up Robust Features).
  3. 제 2항에 있어서,The method of claim 2,
    상기 특징점 추출부는 적분영상과 사각필터를 이용한 근사화된 가우시안 2차 미분 9x9 필터를 이용하여 상기 특징점을 추출하는 것을 특징으로 하는 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템.And the feature point extracting unit extracts the feature points using an approximated Gaussian second derivative 9x9 filter using an integrated image and a square filter.
  4. 제 1항에 있어서,The method of claim 1,
    상기 특징점 추출부에 의해 추출된 특징점에 기초하여 특징벡터의 표현자를 생성하는 표현자 생성부A presenter generator for generating a presenter of a feature vector based on the feature points extracted by the feature point extractor
    를 더 포함하며, More,
    상기 정합부는 상기 표현자 생성부에 의해 생성된 표현자를 상기 참조영상의 특징점과 정합하는 것을 특징으로 하는 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템.The matching unit is a real-time markerless three-dimensional object tracking system for augmented reality, characterized in that for matching the expression point generated by the presenter generator with the feature point of the reference image.
  5. 제 4항에 있어서The method of claim 4
    상기 표현자 생성부는, The presenter generator,
    Haar 웨이블릿 특징에 기초하여 상기 객체의 정규화된 부분영상을 이용하여 4개의 특징벡터를 생성하는 것을 특징으로 하는 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템.A real-time markerless three-dimensional object tracking system for augmented reality, characterized by generating four feature vectors using a normalized partial image of the object based on a Haar wavelet feature.
  6. 제 1항에 있어서,The method of claim 1,
    상기 참조영상의 특징점 데이터를 저장하는 참조영상 데이터 저장부Reference image data storage unit for storing the feature point data of the reference image
    를 더 포함하는 것을 특징으로 하는 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템.Real-time markerless three-dimensional object tracking system for augmented reality, characterized in that it further comprises.
  7. 제 6항에 있어서,The method of claim 6,
    상기 참조영상 데이터 저장부는,The reference image data storage unit,
    상기 객체의 정면, 좌우 측면, 상하 측면 중 적어도 하나에 대한 특징점 데이터를 저장하는 것을 특징으로 하는 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템.Real-time markerless three-dimensional object tracking system for augmented reality, characterized in that for storing the feature point data for at least one of the front, left and right sides, top and bottom sides of the object.
  8. 제 1항에 있어서,The method of claim 1,
    상기 회전 및 이동정보 추적부는,The rotation and movement information tracking unit,
    POSIT(Pose Object System for Iteration) 알고리즘에 기초하여 상기 회전 및 이동정보를 추적하는 것을 특징으로 하는 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템.Real-time markerless three-dimensional object tracking system for augmented reality, characterized in that for tracking the rotation and movement information based on the POSIT (Pose Object System for Iteration) algorithm.
  9. 객체의 영상으로부터 SURF를 이용하여 특징점을 추출하는 특징점 추출부;Feature point extraction unit for extracting feature points from the image of the object using SURF;
    추출된 상기 특징점을 정면, 좌우 측면, 상하 측면 중 적어도 하나의 참조영상의 특징점과 정합하는 정합부; 및A matching unit matching the extracted feature points with the feature points of at least one reference image among front, left, and right sides; And
    상기 정합부에 의해 정합된 결과에 대해 POSIT 알고리즘에 기초하여 회전 및 이동정보를 추적하는 회전 및 이동정보 추적부Rotation and movement information tracking unit for tracking the rotation and movement information based on the POSIT algorithm for the result matched by the matching unit
    를 포함하는 것을 특징으로 하는 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템.Real-time markerless three-dimensional object tracking system for augmented reality comprising a.
  10. 객체의 영상으로부터 특징점을 추출하는 단계;Extracting feature points from an image of the object;
    추출된 상기 특징점을 기설정된 3차원의 위치정보에 대응하는 참조영상의 특징점과 정합하는 단계; 및Matching the extracted feature points with feature points of a reference image corresponding to preset 3D location information; And
    정합된 결과에 기초하여 회전 및 이동정보를 추적하는 단계Tracking rotation and movement information based on the matched results
    를 포함하는 것을 특징으로 하는 증강현실을 위한 실시간 마커리스 3차원 객체 추적방법.Real-time markerless three-dimensional object tracking method for augmented reality comprising a.
  11. 제 10항에 있어서,The method of claim 10,
    추출된 상기 특징점에 기초하여 특징벡터의 표현자를 생성하는 단계Generating presenters of feature vectors based on the extracted feature points
    를 더 포함하며, More,
    상기 정합단계는 생성된 상기 표현자를 상기 참조영상의 특징점과 정합하는 것을 특징으로 하는 증강현실을 위한 실시간 마커리스 3차원 객체 추적방법.The matching step is a real-time markerless three-dimensional object tracking method for augmented reality, characterized in that for matching the generated representation with the feature point of the reference image.
  12. 제 10항에 있어서,The method of claim 10,
    상기 정합단계는,The matching step,
    상기 객체의 정면, 좌우 측면, 상하 측면 중 적어도 하나를 포함하는 참조영상의 특징점 데이터와 추출된 상기 특징점을 정합하는 것을 특징으로 하는 증강현실을 위한 실시간 마커리스 3차원 객체 추적방법.Real-time markerless three-dimensional object tracking method for augmented reality, characterized in that matching the feature point data and the extracted feature point of the reference image including at least one of the front, left and right, top and bottom of the object.
  13. 제 10항에 있어서,The method of claim 10,
    상기 특징점 추출단계는, The feature point extraction step,
    SURF를 이용하여 상기 특징점을 추출하는 것을 특징으로 하는 증강현실을 위한 실시간 마커리스 3차원 객체 추적방법.Real-time markerless three-dimensional object tracking method for augmented reality, characterized in that for extracting the feature point using SURF.
  14. 제 10항에 있어서,The method of claim 10,
    상기 회전 및 이동정보 추적단계는,The rotation and movement information tracking step,
    POSIT 알고리즘에 기초하여 상기 회전 및 이동정보를 추적하는 것을 특징으로 하는 증강현실을 위한 실시간 마커리스 3차원 객체 추적방법.Real-time markerless three-dimensional object tracking method for augmented reality, characterized in that for tracking the rotation and movement information based on a POSIT algorithm.
PCT/KR2010/007491 2010-05-27 2010-10-28 Real-time markerless three-dimensional object tracking system for augmented reality and method thereof WO2011149159A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100049891A KR20110130309A (en) 2010-05-27 2010-05-27 Realtime markerless 3d object tracking system for augmented reality and method therefor
KR10-2010-0049891 2010-05-27

Publications (1)

Publication Number Publication Date
WO2011149159A1 true WO2011149159A1 (en) 2011-12-01

Family

ID=45004128

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/007491 WO2011149159A1 (en) 2010-05-27 2010-10-28 Real-time markerless three-dimensional object tracking system for augmented reality and method thereof

Country Status (2)

Country Link
KR (1) KR20110130309A (en)
WO (1) WO2011149159A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103871073A (en) * 2012-12-18 2014-06-18 华为技术有限公司 Target tracking method, equipment and system based on augmented reality
CN104778697A (en) * 2015-04-13 2015-07-15 清华大学 Three-dimensional tracking method and system based on fast positioning of image dimension and area
CN106137395A (en) * 2016-07-22 2016-11-23 华南理工大学 It is applied to the full-automatic patient registry method of unmarked some optical operation navigation system
CN108171802A (en) * 2018-02-07 2018-06-15 北京易讯理想科技有限公司 The panorama augmented reality implementation method that a kind of high in the clouds is implemented in combination with terminal
US10810430B2 (en) 2018-12-27 2020-10-20 At&T Intellectual Property I, L.P. Augmented reality with markerless, context-aware object tracking
US11196842B2 (en) 2019-09-26 2021-12-07 At&T Intellectual Property I, L.P. Collaborative and edge-enhanced augmented reality systems

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101923177B1 (en) * 2012-04-04 2019-02-27 삼성전자주식회사 Appratus and method for providing augmented reality information based on user
KR101586071B1 (en) * 2012-08-29 2016-02-03 한국과학기술연구원 Apparatus for providing marker-less augmented reality service and photographing postion estimating method therefor
KR101430573B1 (en) * 2013-03-28 2014-08-18 한남대학교 산학협력단 A Braille Point Marker for Visual Disturbance Person and A Marker Recognition Method Thereof
WO2018169110A1 (en) * 2017-03-17 2018-09-20 주식회사 언리얼파크 Markerless augmented reality apparatus and method for expressing three-dimensional object

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050092611A (en) * 2004-03-16 2005-09-22 김성규 Apparatus and method for control using chase information of the object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050092611A (en) * 2004-03-16 2005-09-22 김성규 Apparatus and method for control using chase information of the object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SUN-KYOO HWANG ET AL.: "Augmented Reality by Real-time Feature Point Matching without Marker", THE 21 ST WORKSHOP ON IMAGE PROCESSING AND IMAGE UNDERSTANDING, 18 February 2009 (2009-02-18), pages 2 - 4 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103871073A (en) * 2012-12-18 2014-06-18 华为技术有限公司 Target tracking method, equipment and system based on augmented reality
CN103871073B (en) * 2012-12-18 2017-08-25 华为技术有限公司 A kind of method for tracking target based on augmented reality, equipment and system
CN104778697A (en) * 2015-04-13 2015-07-15 清华大学 Three-dimensional tracking method and system based on fast positioning of image dimension and area
CN106137395A (en) * 2016-07-22 2016-11-23 华南理工大学 It is applied to the full-automatic patient registry method of unmarked some optical operation navigation system
CN106137395B (en) * 2016-07-22 2019-01-29 华南理工大学 Full-automatic patient registry method applied to unmarked optical operation navigation system
CN108171802A (en) * 2018-02-07 2018-06-15 北京易讯理想科技有限公司 The panorama augmented reality implementation method that a kind of high in the clouds is implemented in combination with terminal
CN108171802B (en) * 2018-02-07 2022-01-11 北京易讯理想科技有限公司 Panoramic augmented reality implementation method realized by combining cloud and terminal
US10810430B2 (en) 2018-12-27 2020-10-20 At&T Intellectual Property I, L.P. Augmented reality with markerless, context-aware object tracking
US11196842B2 (en) 2019-09-26 2021-12-07 At&T Intellectual Property I, L.P. Collaborative and edge-enhanced augmented reality systems

Also Published As

Publication number Publication date
KR20110130309A (en) 2011-12-05

Similar Documents

Publication Publication Date Title
WO2011149159A1 (en) Real-time markerless three-dimensional object tracking system for augmented reality and method thereof
Zhang et al. Mediapipe hands: On-device real-time hand tracking
Zimmermann et al. Learning to estimate 3d hand pose from single rgb images
CN106503671B (en) The method and apparatus for determining human face posture
Wöhler 3D computer vision: efficient methods and applications
Zokai et al. Multiview paraperspective projection model for diminished reality
US8467596B2 (en) Method and apparatus for object pose estimation
JP7178396B2 (en) Method and computer system for generating data for estimating 3D pose of object included in input image
EP3547256B1 (en) Extracting a feature descriptor for an image feature
US8885920B2 (en) Image processing apparatus and method
Klein Visual tracking for augmented reality
Malik et al. Hand tracking for interactive pattern-based augmented reality
JP2009536731A (en) Modeling of humanoid shape by depth map
WO2023146241A1 (en) System and method for generating a three-dimensional photographic image
Hongyong et al. Finger tracking and gesture recognition with kinect
WO2010144050A1 (en) Method and system for gesture based manipulation of a 3-dimensional image of object
CN112657176A (en) Binocular projection man-machine interaction method combined with portrait behavior information
Zou et al. Automatic reconstruction of 3D human motion pose from uncalibrated monocular video sequences based on markerless human motion tracking
McIlroy et al. Kinectrack: 3d pose estimation using a projected dense dot pattern
Bang et al. Camera pose estimation using optical flow and ORB descriptor in SLAM-based mobile AR game
CN114093024A (en) Human body action recognition method, device, equipment and storage medium
JPH03252780A (en) Feature quantity extracting method
Tsap Gesture-tracking in real time with dynamic regional range computation
Dornaika et al. Stereo correspondence from motion correspondence
Hamidia et al. Markerless tracking using interest window for augmented reality applications

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10852245

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10852245

Country of ref document: EP

Kind code of ref document: A1