KR101319667B1 - System and method for providing augmented reality and method for tracking region of interest used in the same - Google Patents

System and method for providing augmented reality and method for tracking region of interest used in the same Download PDF

Info

Publication number
KR101319667B1
KR101319667B1 KR1020120055603A KR20120055603A KR101319667B1 KR 101319667 B1 KR101319667 B1 KR 101319667B1 KR 1020120055603 A KR1020120055603 A KR 1020120055603A KR 20120055603 A KR20120055603 A KR 20120055603A KR 101319667 B1 KR101319667 B1 KR 101319667B1
Authority
KR
South Korea
Prior art keywords
template
image frame
feature point
tracking
interest
Prior art date
Application number
KR1020120055603A
Other languages
Korean (ko)
Inventor
이정선
허준희
정용욱
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Priority to KR1020120055603A priority Critical patent/KR101319667B1/en
Application granted granted Critical
Publication of KR101319667B1 publication Critical patent/KR101319667B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Abstract

PURPOSE: A system and method, and a method and terminal for tracking an interested area used in the same can quickly and precisely track an interested area in a terminal and allow a user to be quickly and precisely provided with augmented reality video. CONSTITUTION: A video frame acquisition unit (101) obtains a video frame. A situation adaptation engine (103) calculates a previously stored template. The situation adaptation engine compares a feature point extracted from the video frame with a feature point extracted from the template to determine whether to perform feature point-based tracking based on the accuracy. The situation adaptation engine compares the template with the video frame to determine whether to perform template matching-based tracking. The situation adaptation engine tracks an interested area of the video frame according to the determination result. [Reference numerals] (101) Video frame acquisition unit; (103) Situation adaptation engine; (105) Communication unit; (107) User interface unit; (109) Storage unit; (201) Feature point extraction unit; (203) Search unit; (205) ROI recognition unit

Description

증강현실 제공 시스템 및 그 방법과 이에 사용되는 관심 영역 트래킹 방법 및 단말기{System and method for providing augmented reality and method for tracking Region of Interest used in the same}System and method for providing augmented reality and method for tracking Region of Interest used in the same}

본 발명은 신속 및 정확하고, 증강현실 영상을 제공할 수 있는 증강현실 제공 시스템 및 그 방법과 이에 사용되는 관심 영역 트래킹 방법 및 단말기에 관한 것이다. The present invention relates to a system for providing augmented reality that can provide augmented reality images quickly and accurately, and a method thereof, and a method and terminal for tracking a region of interest used therein.

증강현실 기술은 실세계 영상에 부가용 컨텐츠를 정합시키는 기술로서, 단말기가 발전됨에 따라서 그 활용도가 높아지고 있다. Augmented reality technology is a technology that matches the additional content to the real-world image, the utilization of the terminal is increasing as the terminal is developed.

증강현실 기술에서 부가용 컨텐츠를 정합시키기 위해서는 반드시 관심 영역(Region of Interest)을 트래킹해야 하는데, 종래 기술로서 마커를 이용하여 관심 영역을 트래킹하는 방법과 마커 없이 관심 영역을 트래킹하는 방법이 알려져 있다.In order to match additional content in augmented reality technology, a region of interest must be tracked. As a related art, a method of tracking a region of interest using a marker and a method of tracking a region of interest without a marker are known.

한편, 실외에서 마커 없이 증강현실 영상을 제공받기 위해서는, 단말기를 통해 획득되는 영상의 특징점을 실시간으로 분석하여 사용자의 관심 영역을 찾아야 하고, 또한 움직이는 영상 속에서 실시간으로 관심 영역을 트래킹해야 하는데, 단말기가 가진 자원의 한계성 문제로 인하여 단말기에서는 증강현실 서비스를 효과적으로 이용할 수 없는 문제가 있다.Meanwhile, in order to receive an augmented reality image without a marker outdoors, it is necessary to find a region of interest of a user by analyzing a feature point of an image acquired through a terminal in real time, and also to track a region of interest in a moving image in real time. Due to the limitation of resources, there is a problem that the terminal cannot effectively use the augmented reality service.

본 발명의 예시적 실시예에 따르면, 신속 및 정확하게 증강현실을 제공할수 있는 증강현실 제공 시스템 및 그 방법과 이에 사용되는 관심 영역 트래킹 방법이 제공될 수 있다. According to an exemplary embodiment of the present invention, an augmented reality providing system that can provide augmented reality quickly and accurately, and a method and a method of tracking a region of interest used therein can be provided.

본 발명의 다른 예시적 실시예에 따르면, 신속하고도 정확하게 증강현실을 제공할 수 있는 단말기 및 기록매체가 제공될 수 있다. According to another exemplary embodiment of the present invention, a terminal and a recording medium capable of providing augmented reality quickly and accurately may be provided.

본 발명의 일 실시예에 따르면, 증강현실 제공 시스템에서의 관심 영역(ROI) 트래킹 방법에 있어서, 영상 프레임을 획득하는 단계; 기 저장된 템플릿의 정확도를 계산하는 단계; 및 상기 정확도에 기초하여, 상기 영상 프레임으로부터 추출된 특징점과 상기 템플릿으로부터 추출된 특징점을 비교하여 특징점 기반 트래킹을 수행할지 또는 상기 템플릿과 상기 영상 프레임을 비교하여 템플릿 매칭 기반 트래킹을 수행할지를 판단하고, 판단결과에 따라서 상기 영상 프레임에서의 관심 영역을 트래킹하는 단계; 를 포함하는 증강현실 제공 시스템에서의 관심 영역 트래킹 방법이 제공될 수 있다.According to an embodiment of the present invention, a method for tracking a region of interest (ROI) in an augmented reality providing system, the method comprising: obtaining an image frame; Calculating an accuracy of a previously stored template; And based on the accuracy, determine whether to perform feature point based tracking by comparing the feature point extracted from the image frame and the feature point extracted from the template, or perform template matching based tracking by comparing the template and the image frame. Tracking the ROI in the image frame according to the determination result; A region of interest tracking method in an augmented reality providing system may be provided.

본 발명의 다른 일 실시예에 따르면, 본 발명의 실시예에 따른 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공될 수 있다.According to another embodiment of the present invention, a computer-readable recording medium having recorded thereon a program for executing a method according to an embodiment of the present invention may be provided.

본 발명의 다른 일 실시예에 따르면, 마커리스 기반의 증강현실 제공 시스템에 있어서, 영상 프레임들을 획득하고, 획득한 영상프레임들에 부가용 컨텐츠를 정합시켜 디스플레이하는 단말기; 를 포함하며, 상기 단말기는, 기 저장된 템플릿의 정확도를 계산하고, 계산한 정확도에 기초하여, 상기 영상 프레임으로부터 추출된 특징점과 상기 템플릿으로부터 추출된 특징점을 비교하여 특징점 기반 트래킹을 수행할지 또는 상기 템플릿과 상기 영상 프레임을 비교하여 템플릿 매칭 기반 트래킹을 수행할지를 단하고, 판단결과에 따라서 상기 영상 프레임에서의 관심 영역을 트래킹하는 것인, 마커리스 기반의 증강현실 제공 시스템이 제공될 수 있다.According to another embodiment of the present invention, a markerless based augmented reality providing system comprising: a terminal for acquiring image frames and matching and displaying additional content with the obtained image frames; The terminal may calculate the accuracy of a pre-stored template and perform feature-based tracking by comparing the feature point extracted from the image frame and the feature point extracted from the template based on the calculated accuracy. A markerless based augmented reality providing system may be provided in which a template matching based tracking is performed by comparing the image frame with the image frame, and tracking the region of interest in the image frame according to a determination result.

본 발명의 다른 일 실시예에 따르면, 증강현실을 제공하는 단말기에 있어서, 영상 프레임을 획득하는 영상 프레임 획득부; 및 기 저장된 템플릿의 정확도를 계산하고, 상기 정확도에 기초하여, 상기 영상 프레임으로부터 추출된 특징점과 상기 템플릿으로부터 추출된 특징점을 비교하여 특징점 기반 트래킹을 수행할지 또는 상기 템플릿과 상기 영상 프레임을 비교하여 템플릿 매칭 기반 트래킹을 수행할지를 판단하고, 판단결과에 따라서 상기 영상 프레임에서의 관심 영역을 트래킹하는 상황 적응 엔진부; 를 포함하는 단말기가 제공될 수 있다.According to another embodiment of the present invention, a terminal for providing augmented reality, comprising: an image frame acquisition unit for acquiring an image frame; And calculating the accuracy of a pre-stored template and performing feature point based tracking by comparing the feature point extracted from the image frame and the feature point extracted from the template based on the accuracy, or comparing the template with the image frame. A context adaptation engine unit configured to determine whether to perform matching based tracking, and to track a region of interest in the image frame according to the determination result; A terminal including a may be provided.

본 발명의 하나 이상의 실시예에 따르면, 단말기에서 관심 영역을 신속하고도 정확하게 트래킹할 수 있게 됨에 따라서 증강현실 영상을 신속하고 정확하게 제공받을 수 있게 된다.According to one or more embodiments of the present invention, the terminal can quickly and accurately track the region of interest, thereby providing augmented reality images quickly and accurately.

도 1은 본 발명의 예시적 실시예에 따른 증강현실 제공 시스템을 설명하기 위한 도면,
도 2는 본 발명의 예시적 실시예에 따른 증강현실 제공 시스템에서의 관심 영역 트래킹 방법을 설명하기 위한 흐름도,
도 3은 본 발명의 다른 예시적 실시예에 따른 증강현실 제공 시스템에서의 관심 영역 트래킹 방법을 설명하기 위한 흐름도이고,
도 4는 본 발명의 다른 예시적 실시예에 따른 증강현실 제공 시스템에서의 관심 영역 트래킹 방법을 설명하기 위한 흐름도이고,
도 5는 본 발명의 일 실시예에 따른 템플릿 매칭 기반 트래킹을 설명하기 위한 도면이고,
도 6은 본 발명의 일 실시예에 사용되는 관심 영역의 선정을 설명하기 위해서 제공되는 도면이고,
도 7은 본 발명의 일 실시예에 사용되는 관심 영역의 인식을 설명하기 위해서 제공되는 도면이고, 그리고
도 8은 본 발명의 일 실시예에 사용되는 새로운 템플릿의 생성을 설명하기 위해서 제공되는 도면이다.
1 is a view for explaining an augmented reality providing system according to an exemplary embodiment of the present invention,
2 is a flowchart illustrating a method for tracking a region of interest in an augmented reality providing system according to an exemplary embodiment of the present invention;
3 is a flowchart illustrating a method for tracking a region of interest in an augmented reality providing system according to another exemplary embodiment of the present invention;
4 is a flowchart illustrating a method for tracking a region of interest in an augmented reality providing system according to another exemplary embodiment of the present invention;
5 is a diagram for describing template matching based tracking according to an embodiment of the present invention.
6 is a view provided to explain the selection of a region of interest used in an embodiment of the present invention.
FIG. 7 is a view provided to explain recognition of a region of interest used in an embodiment of the present invention; and
8 is a view provided to explain the creation of a new template used in an embodiment of the present invention.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features, and advantages of the present invention will become more readily apparent from the following description of preferred embodiments with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein but may be embodied in other forms. Rather, the embodiments disclosed herein are provided so that the disclosure can be thorough and complete, and will fully convey the scope of the invention to those skilled in the art.

또한, 어떤 엘리먼트 (또는 구성요소)가 다른 엘리먼트(또는 구성요소) 상(ON)에서 동작 또는 실행된다고 언급될 때, 그 엘리먼트(또는 구성요소)는 다른 엘리먼트(또는 구성요소)가 동작 또는 실행되는 환경에서 동작 또는 실행되거나 또는 다른 엘리먼트(또는 구성요소)와 직접 또는 간접적으로 상호 작용을 통해서 동작 또는 실행되는 것으로 이해되어야 할 것이다.Further, when it is mentioned that an element (or component) is operated or executed on another element (or component) ON, the element (or component) Or may be operated or executed in an environment, or through interaction with other elements (or components) either directly or indirectly.

어떤 엘리먼트, 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 엘리먼트, 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다. It is to be understood that when an element, component, apparatus, or system is referred to as comprising a program or a component made up of software, it is not explicitly stated that the element, component, (E.g., memory, CPU, etc.) or other programs or software (e.g., drivers necessary to drive an operating system or hardware, etc.)

또한 어떤 엘리먼트(또는 구성요소)가 구현됨에 있어서 특별한 언급이 없다면, 그 엘리먼트(또는 구성요소)는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.It is also to be understood that the elements (or components) may be implemented in software, hardware, or any form of software and hardware, unless the context clearly dictates otherwise.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms "comprises" and / or "comprising" used in the specification do not exclude the presence or addition of one or more other elements.

이하, 도면을 참조하여 본 발명을 상세히 설명하도록 한다. 아래의 특정 실시예들을 기술하는데 있어서, 여러 가지의 특정적인 내용들은 발명을 더 구체적으로 설명하고 이해를 돕기 위해 작성되었다. 하지만 본 발명을 이해할 수 있을 정도로 이 분야의 지식을 갖고 있는 독자는 이러한 여러 가지의 특정적인 내용들이 없어도 사용될 수 있다는 것을 인지할 수 있다. 어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다. Hereinafter, the present invention will be described in detail with reference to the drawings. In describing the specific embodiments below, various specific details have been set forth in order to explain the invention in greater detail and to assist in understanding it. However, those skilled in the art can understand that the present invention can be used without these various specific details. In some cases, it is mentioned in advance that parts of the invention which are commonly known in the description of the invention and which are not highly related to the invention are not described in order to prevent confusion in explaining the invention without cause.

도 1은 본 발명의 예시적 실시예에 따른 증강현실 제공 시스템을 설명하기 위한 도면이다.1 is a view for explaining an augmented reality providing system according to an exemplary embodiment of the present invention.

도 1을 참조하면, 증강현실 제공 시스템은 단말기(100)와 서버(200)를 포함할 수 있다.Referring to FIG. 1, an augmented reality providing system may include a terminal 100 and a server 200.

단말기(100)는, 영상 프레임들을 순차적으로 획득하고, 획득한 영상프레임의 관심 영역(Region of Interest: ROI)을 트래킹하며, 관심 영역(ROI)에 연관된 부가용 컨텐츠가 있으면 관심 영역(ROI)에 부가용 컨텐츠를 정합시켜 디스플레이할 수 있다. 여기서, 단말기는 예를 들면 스마트폰, PDA, 또는 노트북과 같이 이동성을 가진 기기일 수 있으나, 이들에만 본원 발명이 한정되는 것이 아니다.The terminal 100 sequentially acquires image frames, tracks a region of interest (ROI) of the acquired image frame, and adds additional content related to the region of interest (ROI) to the region of interest (ROI). The additional content may be matched and displayed. Here, the terminal may be a mobile device such as, for example, a smartphone, a PDA, or a notebook, but the present invention is not limited thereto.

서버(200)는 관심 영역(ROI)에 연관된 부가용 컨텐츠를 단말기(100)에 제공하거나, 실시예에 따라서 영상 프레임의 특징점을 추출하여 관심 영역(ROI)를 인식한 후, 인식 결과를 단말기(100)에게 제공할 수 있다. The server 200 provides additional content related to the ROI to the terminal 100 or extracts a feature point of an image frame according to an embodiment, recognizes the ROI, and then recognizes the ROI. 100).

예를 들면, 코너점은 객체 모양에 대한 정보를 가장 많이 가지고 있으므로 객체 표현, 해석, 인식에 중요한 특징점으로 사용될 수 있으나, 본원 발명의 권리범위가 코너점에만 한정되는 것은 아니다. 한편, 특징점이 추출될 때, 추출된 특징점에 대한 특징벡터의 표현자(descriptor)도 같이 생성될 수 있다.For example, since the corner point has the most information about the shape of the object, it may be used as an important feature point for object representation, interpretation, and recognition, but the scope of the present invention is not limited to the corner point. Meanwhile, when the feature point is extracted, a descriptor of the feature vector for the extracted feature point may also be generated.

본 발명의 일 실시예에 따른 단말기(100)는, 영상 프레임을 획득하면, 저장된 템플릿이 존재하는지 확인하며, 템플릿이 존재하지 않으면 영상 프레임으로부터 템플릿을 생성하는 동작을 수행한다. 여기서, 기 저장된 템플릿은 단말기(100)가 이전에 획득한 영상 프레임에 기초하여 생성한 것일 수 있으나, 이에만 한정되는 것은 아니다.When the terminal 100 obtains an image frame, the terminal 100 checks whether a stored template exists. If the template does not exist, the terminal 100 generates a template from the image frame. Here, the pre-stored template may be generated based on the image frame previously acquired by the terminal 100, but is not limited thereto.

단말기(100)는, 기 저장된 템플릿이 존재하는 경우에는, 기 저장된 템플릿의 정확도를 계산하고 템플릿의 정확도에 따라서 템플릿 매칭 기반 트래킹 또는 특징점 기반 트래킹을 수행한다. When the pre-stored template exists, the terminal 100 calculates the accuracy of the pre-stored template and performs template matching based tracking or feature point based tracking according to the accuracy of the template.

템플릿의 정확도는, 예를 들면, 다음의 수식The accuracy of the template is, for example,

Figure 112012041802585-pat00001
Figure 112012041802585-pat00001

에 의해 계산되는 상관계수일 수 있다. 여기서,

Figure 112012041802585-pat00002
는 템플릿의 i 번째 픽셀의 그레이 레벨 값이고,
Figure 112012041802585-pat00003
는 템플릿을 구성하는 픽셀들의 평균 그레이 레벨 값이고,
Figure 112012041802585-pat00004
는 트래킹할 영상 프레임 섹션(템플릿과 같은 크기의 영상 프레임 부분)의 i번째 픽셀의 그레이 레벨 값이고,
Figure 112012041802585-pat00005
는 트래킹할 영상 프레임 섹션(템플릿과 같은 크기의 영상 프레임 부분)을 구성하는 픽셀들의 평균 그레이 레벨 값이며, N은 템플릿의 크기(columns × rows)로서 정의된다.It may be a correlation coefficient calculated by. here,
Figure 112012041802585-pat00002
Is the gray level value of the i th pixel of the template,
Figure 112012041802585-pat00003
Is the average gray level value of the pixels constituting the template,
Figure 112012041802585-pat00004
Is the gray level value of the i th pixel of the image frame section (the portion of the image frame of the same size as the template) to be tracked,
Figure 112012041802585-pat00005
Is the average gray level value of the pixels constituting the image frame section to be tracked (the portion of the image frame of the same size as the template), and N is defined as the size of the template (columns x rows).

상관계수는 템플릿과 관심 영역(ROI)을 트래킹할 현재 영상 프레임(이하, '대상 영상 프레임'이라고 함)간의 동일 또는 유사성의 정도를 나타내는 척도가 될 수 있으며, 상관계수가 클수록 대상 영상 프레임에 템플릿과 동일 또는 유사한 부분이 포함되어 있을 가능성이 커지고, 상관계수가 낮을 수록 대상 영상 프레임에 템플릿과 동일 또는 유시한 부분이 포함되어 있을 가능성이 낮아진다. The correlation coefficient may be a measure of the degree of similarity or similarity between the template and the current image frame (hereinafter, referred to as a 'target image frame') to track a region of interest (ROI). The greater the likelihood of including the same or similar parts as, and the lower the correlation coefficient, the lower the likelihood that the target image frame includes the same or similar parts as the template.

본 실시예에서는 템플릿의 정확도가 상관계수인 경우를 예로 들었지만, 템플릿의 정확도를 반영할 수 있는 것이라면 상관계수 외에 다른 지수들도 사용될 수 있다. 이하의 실시예에서는, 본 발명의 설명의 목적을 위해서, 템플릿의 정확도가 상관계수인 경우를 상정하여 설명하기로 한다. In the present embodiment, the accuracy of the template is taken as an example, but other indexes may be used in addition to the correlation coefficient as long as the accuracy of the template may be reflected. In the following embodiments, it is assumed that the accuracy of the template is a correlation coefficient for the purpose of describing the present invention.

단말기(100)는, 기준값을 설정하여 미리 저장하며, 상관계수가 기준값 보다 큰 경우는 템플릿 매칭 기반의 트래킹을 수행하고, 상관계수가 기준값 이하인 경우는, 특징점 기반 트래킹을 수행할 수 있다. 본 실시예에서 상관계수는 -1에서 +1의 값을 가질 수 있고, 기준값은 '0'으로 설정될 수 있으나, 이러한 수치들은 예시적인 것이므로 본원 발명의 권리범위가 그러한 수치들에만 한정되는 것이 아니다.The terminal 100 sets a reference value and stores the reference value in advance. If the correlation coefficient is larger than the reference value, the terminal 100 may perform template matching-based tracking. If the correlation coefficient is less than or equal to the reference value, the terminal 100 may perform feature point-based tracking. In the present embodiment, the correlation coefficient may have a value of -1 to +1, and the reference value may be set to '0', but since these values are exemplary, the scope of the present invention is not limited only to those values. .

본원 명세서에서, 템플릿 매칭 기반 트래킹은 대상 영상 프레임과 템플릿을 서로 매칭시킴으로써 관심 영역을 트래킹하는 것이고, 특징점 기반 트래킹은 대상 영상 프레임으로부터 추출된 특징점과, 템플릿으로부터 추출된 특징점을 비교함으로써 관심 영역을 트래킹하는 것을 의미할 수 있다.In the present specification, template matching based tracking is to track a region of interest by matching a target image frame and a template with each other, and feature point based tracking is to track a region of interest by comparing a feature point extracted from a target image frame and a feature point extracted from a template. It can mean doing.

본 발명의 일 실시예에 따르면, 템플릿 매칭 기반 트래킹은, 슬라이드 윈도우 방식으로 템플릿과 대상 영상 프레임을 비교함으로써 수행될 수 있다. 도 5는, 템플릿(T)과 대상 영상 프레임(S)을 슬라이드 윈도우 방식으로 비교하는 것을 예시적으로 나타낸 것이다. 도5를 참조하면, 대상 영상 프레임(S)에서 템플릿(T)과 동일하거나 유사한 크기의 섹션들(a, b, c)의 각각과 템플릿(T)이 비교되며, 이러한 비교 동작은 대상 영상 프레임(S)을 구성하는 모든 섹션들에 대하여 수행될 수 있다. According to an embodiment of the present invention, template matching-based tracking may be performed by comparing a template and a target image frame in a slide window manner. FIG. 5 exemplarily shows a comparison between the template T and the target video frame S in a slide window method. Referring to FIG. 5, the template T is compared with each of the sections a, b, and c having the same or similar size as the template T in the target image frame S, and this comparison operation is performed by the target image frame. It may be performed for all sections constituting (S).

특징점 기반 트래킹은 종래 널리 알려진 방법들 어느 하나의 방법 또는 장래 개발될 방법들 중 어떠한 방법으로도 구현될 수 있다.Feature-based tracking can be implemented in any of the methods well known in the art or in any of the methods to be developed in the future.

예를 들면, 한국특허공개공보 10-2011-0130309호(발명의 명칭: 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템 및 그 방법)(이하, ‘0130309’라고 함)에는 특징점을 이용하여 트래킹을 하는 방법이 예시적으로 개시되어 있다. 한국특허공개공보 0130309호에는 특징점을 추출하는 방법이나 특징점끼리 비교하는 내용이 기재되어 있으며, 이러한 내용은 본원 명세서의 일부로서 결합된다.For example, Korean Patent Publication No. 10-2011-0130309 (name of the invention: a real-time markerless three-dimensional object tracking system for augmented reality and its method) (hereinafter referred to as '0130309') tracking using a feature point Exemplary methods are disclosed. Korean Patent Laid-Open Publication No. 0130309 describes a method of extracting feature points and contents of comparing feature points, which are combined as part of the present specification.

단말기(100)는, 특징점 기반 트래킹을 수행할 때, 대상 영상 프레임으로부터 추출된 특징점과, 템플릿으로부터 추출된 특징점을 비교함으로써 관심 영역(ROI)을 트래킹할 수 있다. 여기서, 대상 영상 프레임으로부터 특징점을 추출하는 동작이나 특징점끼리 비교하는 동작은 단말기(100) 또는 서버(200)에 의해 수행될 수 있다. When performing the feature point-based tracking, the terminal 100 may track the ROI by comparing the feature point extracted from the target image frame with the feature point extracted from the template. Here, the operation of extracting the feature points from the target image frame or comparing the feature points with each other may be performed by the terminal 100 or the server 200.

단말기(100)는 특징점 기반 트래킹 수행결과 영상 프레임의 특징점과 상기 템플릿의 특징점이 동일 또는 유사한 경우, 영상 프레임의 특징점으로부터 새로운 템플릿을 생성하며, 기 저장된 템플릿을 새로운 템플릿으로 업데이트하여 저장할 수 있다.If the feature point-based tracking result shows that the feature point of the image frame and the feature point of the template are the same or similar, the terminal 100 may generate a new template from the feature point of the image frame and update and store the previously stored template as the new template.

본 발명의 일 실시예에 따른 단말기(100)는 특징점을 추출할 만한 하드웨어(Hardware: H/W) 및/또는 소프트웨어(Software; S/W) 리소스를 자신(100)이 가지고 있는지 여부를 판단한 후, 자신(100)이 H/W 및/또는 S/W 리소스를 가진 경우에 대상 영상 프레임의 특징점을 추출하고, 추출한 대상 영상 프레임의 특징점과 템플릿의 특징점을 비교함으로써 관심 영역(ROI)를 트래킹한다. 단말기(100)가 대상 영상 프레임으로부터 특징점을 추출할 만한 H/W 및/또는 S/W 리소스를 가지고 있지 않은 경우에는, 서버(200)가 대상 영상 프레임으로부터 특징점을 추출하고, 추출한 대상 영상 프레임의 특징점과 템플릿의 특징점을 비교함으로써 관심 영역(ROI)를 트래킹하며, 단말기(100)는 서버(200)가 트래킹 한 결과를 수신하여 디스플레이한다.After determining whether the terminal 100 has hardware (H / W) and / or software (S / W) resources capable of extracting feature points, the terminal 100 according to an embodiment of the present invention. When the 100 has H / W and / or S / W resources, the feature point of the target image frame is extracted, and the feature point of the extracted target image frame is compared with the feature point of the template to track the ROI. . If the terminal 100 does not have H / W and / or S / W resources for extracting the feature point from the target video frame, the server 200 extracts the feature point from the target video frame, The ROI is tracked by comparing the feature point and the feature point of the template, and the terminal 100 receives and displays the result tracked by the server 200.

이제, 단말기(100)가, 영상 프레임으로부터 템플릿을 생성하는 동작을 설명하기로 한다. Now, the operation of generating the template from the image frame by the terminal 100 will be described.

본 발명의 일 실시예에 따른 단말기(100)는, 템플릿이 존재하지 않는 경우, 대상 영상 프레임으로부터 템플릿을 생성하는 동작을 수행할 수 있다. When the template does not exist, the terminal 100 according to an embodiment of the present invention may perform an operation of generating a template from the target image frame.

구체적으로, 단말기(100)는, 템플릿이 존재하지 않는 경우, 대상 영상 프레임에 관심 영역이 선정되었는지 여부를 판단하며, 관심 영역(ROI)이 선정된 경우에는 선정된 관심 영역으로부터 특징점을 추출한다. 여기서 추출된 특징점을 이용하여 DB를 검색하여 관심 영역(ROI)을 인식하며, 인식된 관심 영역(ROI)을 템플릿으로서 생성할 수 있다. 이렇게 생성된 템플릿은 단말기(100)에 저장될 수 있다. 상기 DB는 다양한 이미지 및 지역 구조물로부터 추출된 특징점과, 해당 지역 또는 물체의 검색에 필요한 메타 정보를 저장하도록 구성되어 있을 수 있다(이와 같이 구성된 DB는 '특징점 기반 DB'이라고 함). 다르게, 상기 DB는 특징점을 저장하는 것이 아니고 이미지와 메타 정보를 저장하도록 구성될 수 있으며(이와 같이 구성된 DB는 '이미지 기반 DB'라고 함), 이러한 경우 단말기(100)는 이미지 기반 DB에 저장된 이미지로부터 특징점을 추출하는 동작을 추가적으로 수행하게 된다.In detail, when the template does not exist, the terminal 100 determines whether the ROI is selected in the target image frame, and when the ROI is selected, the terminal 100 extracts a feature point from the selected ROI. The region of interest (ROI) may be recognized by searching the DB using the extracted feature points, and the recognized region of interest (ROI) may be generated as a template. The generated template may be stored in the terminal 100. The DB may be configured to store feature points extracted from various images and local structures and meta information necessary for searching for a corresponding area or object (the DB configured as such is called a 'feature point based DB'). Alternatively, the DB may not be configured to store feature points but may be configured to store images and meta information (the DB configured as such is called an 'image-based DB'), and in this case, the terminal 100 may store an image stored in the image-based DB. In addition, an operation of extracting feature points is performed.

다르게는(Alternatively), 단말기(100)가, 템플릿이 존재하지 않는 경우 영상 프레임에 관심 영역이 선정되었는지 여부까지 판단하고, 선정된 관심 영역(ROI)으로부터 특징점을 추출하고 관심 영역(ROI)을 인식하는 동작은 서버(200)가 수행하도록 구현이 가능하다. 이후, 단말기(100)는, 서버(200)가 인식한 관심 영역(ROI)으로부터 템플릿을 저장할 수 있다.Alternatively, if the template does not exist, the terminal 100 determines whether the region of interest is selected in the image frame, extracts feature points from the selected region of interest, and recognizes the region of interest. The operation may be implemented to be performed by the server 200. Thereafter, the terminal 100 may store a template from the ROI recognized by the server 200.

관심 영역의 선정은 단말기(100)의 사용자로부터 선정받거나, 영상 프레임의 중앙 부분이 자동적으로 선정되는 방식으로 수행될 수 있다. 선정 방식은 예시적인 것으로서 본원 발명의 권리 범위가 상술한 선정 방식들에만 한정되는 것이 아니다. 도 6은 본 발명의 일 실시예에 사용되는 관심 영역의 선정을 설명하기 위해서 제공되는 도면으로서, 도 6에 표시된 부분이, 사용자가 선택하거나 또는 영상 프레임의 중앙 영역으로서 관심 영역으로 선정된 부분이다.The selection of the ROI may be performed by the user of the terminal 100 or in a manner in which a central portion of the image frame is automatically selected. The selection method is exemplary and the scope of the present invention is not limited to the above-described selection methods. FIG. 6 is a view provided to explain the selection of a region of interest used in an embodiment of the present invention. The portion shown in FIG. 6 is a portion selected by a user or selected as a region of interest as a center region of an image frame. .

한편, 관심 영역의 인식은, 관심 영역이 무엇을 의미하는지를 판단하는 것이다. 도 7은 본 발명의 일 실시예에 사용되는 관심 영역(ROI)의 인식을 설명하기 위해서 제공되는 도면으로서, 도 7에 표시된 부분이, 관심 영역(ROI)으로서 인식된 부분이며, 트래킹의 대상이 되는 부분이다. 예를 들면, 도 7에 표시된 부분은, 추출되어 템플릿으로 저장될 수 있다. On the other hand, the recognition of the region of interest is to determine what the region of interest means. FIG. 7 is a view provided to explain recognition of a region of interest (ROI) used in an embodiment of the present invention. The portion shown in FIG. 7 is a portion recognized as the region of interest (ROI), and an object to be tracked is It is a part. For example, the part shown in FIG. 7 may be extracted and stored as a template.

도 1을 다시 참조하면, 단말기(100)는 영상 프레임 획득부(101), 상황 적응 엔진부(103), 통신부(105), 유저 인터페이스부(107), 및 저장부(109)를 포함하도록 구성될 수 있다.Referring back to FIG. 1, the terminal 100 is configured to include an image frame acquisition unit 101, a context adaptation engine unit 103, a communication unit 105, a user interface unit 107, and a storage unit 109. Can be.

영상 프레임 획득부(101)는 영상 프레임들을 순차적으로 획득할 수 있다. The image frame acquisition unit 101 may sequentially acquire image frames.

상황 적응 엔진부(103)는, 상술한 바와 같은, 템플릿과 영상 프레임간의 정확도(예를 들면, 상관 계수)를 계산하고, 정확도가 기준값 보다 크면 템플릿 매칭 기반 트래킹 동작을 수행하고, 정확도가 기준값 이하이면 특징점 기반 트래킹 동작을 수행한다. The context adaptation engine 103 calculates the accuracy (eg, correlation coefficient) between the template and the image frame as described above, and performs the template matching-based tracking operation when the accuracy is greater than the reference value, and the accuracy is less than or equal to the reference value. In this case, the feature-based tracking operation is performed.

상황 적응 엔진부(103)는, 또한, 기 저장된 템플릿이 존재하는지 여부를 판단하고 템플릿이 존재하지 않는다면, 영상 프레임으로부터 템플릿을 생성하여 저장부(109)에 저장하는 동작을 수행할 수 있다. The context adaptation engine 103 may also determine whether a pre-stored template exists and, if the template does not exist, generate a template from an image frame and store the template in the storage 109.

상황 적응 엔진부(103)는, 템플릿이 존재하지 않아서 템플릿을 생성할 때, 영상 프레임에 관심 영역(ROI)이 선정되어 있는지 여부를 판단한 후, 관심 영역(ROI)이 선정된 경우, 선정된 관심 영역(ROI)의 특징점을 추출하며, 추출한 특징점으로부터 관심 영역(ROI)을 인식하며, 인식한 관심 영역(ROI)으로부터 템플릿을 생성한다.When generating the template because the template does not exist, the context adaptation engine unit 103 determines whether the ROI is selected in the image frame and then selects the ROI when the ROI is selected. A feature point of the area ROI is extracted, the ROI is recognized from the extracted feature point, and a template is generated from the recognized ROI.

저장부(109)는 기 저장되어 있던 템플릿을 상기 새로운 템플릿으로 변경하여 저장할 수 있다. The storage unit 109 may change and store a previously stored template into the new template.

통신부(105)는 서버(200)와의 통신을 지원하며, 유저 인터페이스부(107)는 사용자와의 인터페이스를 제공할 수 있으며 예를 들면 모니터, 키보드, 마우스 등과 같은 장치들이 될 수 있다. The communication unit 105 supports communication with the server 200, and the user interface unit 107 may provide an interface with a user, and may be, for example, a device such as a monitor, a keyboard, a mouse, and the like.

저장부(109)는 메모리, 하드 디스크(HDD), 또는 반도체 디스크(SSD)와 같은 저장매체로 구현되며 템플릿을 저장할 수 있다. 저장부(1090는, 새로운 템플릿이 생성되면 업데이트하여 저장하며, 필요한 경우 특징점 기반 DB도 저장할 수 있다. The storage unit 109 may be implemented as a storage medium such as a memory, a hard disk (HDD), or a semiconductor disk (SSD), and may store a template. The storage unit 1090 updates and stores new templates when they are created, and may store feature point-based DB if necessary.

도 1의 실시예에서, 서버(200)는 특징점 추출부(201), 검색부(203), ROI 인식부(205), 및 DB(207)를 포함하도록 구성될 수 있다. In the embodiment of FIG. 1, the server 200 may be configured to include a feature point extractor 201, a searcher 203, a ROI recognizer 205, and a DB 207.

특징점 추출부(201)는, 단말기(100)로부터 요청이 있는 경우, i) 관심영역(ROI)으로 선정된 영역으로부터 특징점을 추출하거나 또는 ii) 특징점 기반 트래킹을 위해서 대상 영상 프레임으로부터 특징점을 추출하는 동작을 수행한다.The feature point extractor 201, upon request from the terminal 100, i) extracts a feature point from a region selected as the ROI, or ii) extracts a feature point from a target image frame for feature-based tracking. Perform the action.

검색부(203)는 상기 i)에서 추출된 특징점을 이용하여 DB(207)를 검색하며, ROI 인식부(205)는 검색부(203)의 검색결과에 기초하여 관심 영역(ROI)을 인식하는 동작을 수행한다.The search unit 203 searches the DB 207 using the feature points extracted from the i), and the ROI recognition unit 205 recognizes the ROI based on the search result of the search unit 203. Perform the action.

DB(207)는 특징점 기반 DB 또는 이미지 기반 DB 일 수 있다. The DB 207 may be a feature point based DB or an image based DB.

도 2는 본 발명의 예시적 실시예에 따른 증강현실 제공 시스템에서의 관심 영역 트래킹 방법을 설명하기 위한 흐름도이다. 2 is a flowchart illustrating a method for tracking a region of interest in an augmented reality providing system according to an exemplary embodiment of the present invention.

도 2의 실시예가 도 1의 시스템에 적용된 경우를 가정하고, 도 1과 도 2의 도면을 참조하여 설명하기로 한다. Assuming that the embodiment of FIG. 2 is applied to the system of FIG. 1, it will be described with reference to the drawings of FIGS. 1 and 2.

영상 프레임 획득부(101)는, 적어도 하나 이상의 영상 프레임을 순차적으로 획득할 수 있다(S201).The image frame acquisition unit 101 may sequentially acquire at least one or more image frames (S201).

상황 적응 엔진부(103)는 영상 프레임 획득부(101)가 영상 프레임을 획득하면 저장부(109)에 템플릿이 존재(저장)하는지를 판단한다(S203).The context adaptation engine 103 determines whether the template exists (stores) in the storage unit 109 when the image frame acquisition unit 101 acquires an image frame (S203).

S203 단계의 판단 결과 템플릿이 존재하는 경우, 상황 적응 엔진부(103)는 저장부(109)에 저장된 템플릿과 영상 프레임 획득부가 획득한 영상 프레임(대상 영상 프레임)간의 상관계수를 산출한다(S205).As a result of the determination in step S203, the context adaptation engine unit 103 calculates a correlation coefficient between the template stored in the storage unit 109 and the image frame (target image frame) acquired by the image frame acquisition unit (S205). .

상황 적응 엔진부(103)는, S205 단계에서 산출된 상관계수가 기준값(Th)보다 큰지 여부를 판단한다(S207).The situation adaptation engine unit 103 determines whether or not the correlation coefficient calculated in step S205 is larger than the reference value Th (S207).

S207 단계의 판단 결과, 상황 적응 엔진부(103)는, 상관계수가 기준값(Th) 보다 큰 경우(S207: Y), 저장부(109)에 저장된 템플릿을 사용하여 템플릿 기반 트래킹을 수행(S209)한다.As a result of the determination in step S207, the situation adaptation engine unit 103 performs template-based tracking using the template stored in the storage unit 109 when the correlation coefficient is larger than the reference value Th (S207: Y) (S209). do.

상황 적응 엔진부(103)는, S207 단계의 판단 결과, 상관계수가 기준값(Th) 이하인 경우(S207: N), 대상 영상 프레임으로부터 특징점을 추출한다(S210).As a result of the determination in step S207, the situation adaptation engine unit 103 extracts the feature point from the target video frame when the correlation coefficient is equal to or less than the reference value Th (S207: N) (S210).

상황 적응 엔진부(103)는, S210 단계에서 추출한 특징점과 템플릿에서 추출한 특징점을 비교함으로써 대상 영상 프레임에서 관심 영역(ROI)을 트래킹한다(S212).The context adaptation engine 103 tracks the region of interest (ROI) in the target image frame by comparing the feature points extracted in the step S210 and the feature points extracted from the template (S212).

유저 인터페이스부(107)는, S209 또는 S212 단계의 트래킹 결과를 반영하여 영상 프레임을 디스플레이한다(S211).The user interface 107 displays an image frame by reflecting the tracking result of step S209 or S212 (S211).

한편, 상황 적응 엔진부(103)는, S212 단계의 수행결과를 이용하여 새로운 템플릿을 생성하며(S214), 새로운 템플릿으로 저장부(109)에 기 저장된 템플릿을 업데이트한다(S216). 여기서, 새로운 템플릿은 도 8에 예시적으로 도시되어 있으며, 우측의 작은 그림이 새로운 템플릿 일 수 있다.On the other hand, the situation adaptation engine unit 103 generates a new template using the execution result of step S212 (S214), and updates a template previously stored in the storage unit 109 with the new template (S216). Here, the new template is exemplarily illustrated in FIG. 8, and the small picture on the right may be the new template.

S212 단계에서, 예를 들면, 상황 적응 엔진부(103)는 영상 프레임에서 추출한 특징점과 템플릿에서 추출한 특징점이 서로 동일 또는 유사하면, 상기 영상 프레임에서 추출된 특징점을 기준으로 새로운 템플릿을 생성한다.In operation S212, for example, the context adaptation engine unit 103 generates a new template based on the feature points extracted from the image frame when the feature points extracted from the image frame and the feature points extracted from the template are the same or similar to each other.

영상 프레임의 획득이 종료된 경우(S213: Y)에는 관심 영역 트래킹 동작이 종료되며, 영상 프레임의 획득이 종료되지 않은 경우(S213: N)에는 S203이하의 동작이 다시 수행된다.If the acquisition of the image frame is terminated (S213: Y), the tracking of the ROI is terminated. If the acquisition of the image frame is not terminated (S213: N), the operation below S203 is performed again.

도 3은 본 발명의 다른 예시적 실시예에 따른 증강현실 제공 시스템에서의 관심 영역 트래킹 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method for tracking a region of interest in an augmented reality providing system according to another exemplary embodiment of the present invention.

도 3의 실시예가 도 1의 시스템에 적용된 경우를 가정하고, 도 1과 도 3의 도면을 참조하여 설명하기로 한다. Assuming that the embodiment of FIG. 3 is applied to the system of FIG. 1, it will be described with reference to the drawings of FIGS. 1 and 3.

영상 프레임 획득부(101)는, 적어도 하나 이상의 영상 프레임을 순차적으로 획득할 수 있다(S301).The image frame acquisition unit 101 may sequentially acquire at least one or more image frames (S301).

상황 적응 엔진부(103)는 영상 프레임 획득부(101)가 영상 프레임을 획득하면 저장부(109)에 템플릿이 존재(저장)하는지를 판단한다(S303).The context adaptation engine unit 103 determines whether the template exists in the storage unit 109 when the image frame acquisition unit 101 acquires the image frame (S303).

S203 단계의 판단 결과 템플릿이 존재하는 경우, 상황 적응 엔진부(103)는 저장부(109)에 저장된 템플릿과 영상 프레임 획득부가 획득한 영상 프레임(대상 영상 프레임)간의 상관계수를 산출한다(S305).As a result of the determination in step S203, the context adaptation engine unit 103 calculates a correlation coefficient between the template stored in the storage unit 109 and the image frame (target image frame) acquired by the image frame acquisition unit (S305). .

상황 적응 엔진부(103)는, S305 단계에서 산출된 상관계수가 기준값(Th)보다 큰지 여부를 판단한다(S307).The situation adaptation engine unit 103 determines whether or not the correlation coefficient calculated in step S305 is larger than the reference value Th (S307).

S307 단계의 판단 결과, 상황 적응 엔진부(103)는, 상관계수가 기준값(Th) 보다 큰 경우(S307: Y), 저장부(109)에 저장된 템플릿을 사용하여 템플릿 기반 트래킹을 수행(S309)한다.As a result of the determination in step S307, the situation adaptation engine unit 103 performs template-based tracking using the template stored in the storage unit 109 when the correlation coefficient is larger than the reference value Th (S307: Y) (S309). do.

상황 적응 엔진부(103)는, S307 단계의 판단 결과, 상관계수가 기준값(Th) 이하인 경우(S307: N), 대상 영상 프레임으로부터 특징점을 추출한다(S313).As a result of the determination in step S307, the situation adaptation engine unit 103 extracts the feature point from the target video frame when the correlation coefficient is equal to or less than the reference value Th (S307: N) (S313).

상황 적응 엔진부(103)는, S313 단계에서 추출한 특징점을 이용하여 대상 영상 프레임에서 관심 영역(ROI)를 트래킹한다(S315).The context adaptation engine unit 103 tracks the region of interest ROI in the target image frame by using the feature point extracted in operation S313 (S315).

유저 인터페이스부(107)는, S309 또는 S315 단계의 트래킹 결과를 반영하여 영상 프레임을 디스플레이한다(S311).The user interface unit 107 displays an image frame by reflecting the tracking result of step S309 or step S315 (S311).

한편, 상황 적응 엔진부(103)는, S313 단계의 수행결과를 이용하여 새로운 템플릿을 생성하며(S312), 새로운 템플릿으로 저장부(109)에 기 저장된 템플릿을 업데이트한다(S329).On the other hand, the situation adaptation engine unit 103 generates a new template using the execution result of step S313 (S312), and updates a template previously stored in the storage unit 109 with the new template (S329).

상황 적응 엔진부(103)는, 영상 프레임의 획득이 종료된 경우(S333: Y)에는 동작을 종료하며, 영상 프레임의 획득이 종료되지 않은 경우(S333: N)에는 S301이하의 동작이 수행된다.The situation adaptation engine unit 103 ends the operation when the acquisition of the image frame is terminated (S333: Y), and the operation below S301 is performed when the acquisition of the image frame is not terminated (S333: N). .

S303 단계의 판단 결과 템플릿이 존재하지 않는 경우, 상황 적응 엔진부(103)는 대상 영상 프레임에 관심 영역(ROI)이 선정되었는지 여부를 판단한다(S319). As a result of the determination in step S303, if the template does not exist, the context adaptation engine 103 determines whether the ROI is selected in the target image frame (S319).

관심 영역(ROI)이 선정된 경우, 상황 적응 엔진부(103)는 선정된 관심 영역(ROI)으로부터 특징점을 추출하고(S321), 추출한 특징점을 이용하여 저장부(109)에 저장된 특징점 기반 DB(109)를 검색한다(S323). When the ROI is selected, the context adaptation engine unit 103 extracts a feature point from the selected ROI (S321), and uses the extracted feature point to store the feature point based DB stored in the storage unit 109. 109) (S323).

상황 적응 엔진부(103)는, S323 단계의 수행 결과를 참조하여 관심 영역(ROI)을 인식하며(S325), 인식한 관심 영역(ROI)을 템플릿으로 생성한다(S327). S327 단계에서 생성된 템플릿은 저장부(109)에 저장된다. The context adaptation engine unit 103 recognizes the ROI by referring to the result of the operation S323 (S325) and generates the recognized ROI as a template (S327). The template generated in step S327 is stored in the storage unit 109.

도 4는 본 발명의 다른 예시적 실시예에 따른 증강현실 제공 시스템에서의 관심 영역 트래킹 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a method for tracking a region of interest in an augmented reality providing system according to another exemplary embodiment of the present invention.

도 4의 실시예가 도 1의 시스템에 적용된 경우를 가정하고, 도 1과 도 4의 도면을 참조하여 설명하기로 한다. A case where the embodiment of FIG. 4 is applied to the system of FIG. 1 will be described with reference to the drawings of FIGS. 1 and 4.

단말기(100)는, 적어도 하나 이상의 영상 프레임을 순차적으로 획득할 수 있다(S301).The terminal 100 may sequentially acquire at least one or more image frames (S301).

단말기(100)는 영상 프레임을 획득하면 템플릿이 자신(100)에게 존재(저장)하는지를 판단한다(S303).When the terminal 100 obtains the image frame, it determines whether the template exists (stored) in the 100 (S303).

S303 단계의 판단 결과 템플릿이 존재하는 경우, 단말기(100)는 템플릿과 대상 영상 프레임간의 상관계수를 산출한다(S305).As a result of the determination in step S303, the terminal 100 calculates a correlation coefficient between the template and the target image frame (S305).

단말기(100)는, S305 단계에서 산출된 상관계수가 기준값(Th)보다 큰지 여부를 판단한다(S307).The terminal 100 determines whether the correlation coefficient calculated in step S305 is larger than the reference value Th (S307).

S307 단계의 판단 결과, 단말기(100)는, 상관계수가 기준값(Th) 보다 큰 경우(S307: Y), 템플릿을 사용하여 템플릿 기반 트래킹을 수행(S309)한다.As a result of the determination in step S307, when the correlation coefficient is larger than the reference value Th (S307: Y), the terminal 100 performs template-based tracking using the template (S309).

단말기(100)는, S307 단계의 판단 결과, 상관계수가 기준값(Th) 이하인 경우(S307: N), 자신(100)이 특징점을 추출할 H/W 및/또는 S/W 리소스가 충분한지 여부를 판단한다. If the correlation coefficient is less than or equal to the reference value Th (S307: N), the terminal 100 determines whether there is sufficient H / W and / or S / W resources from which the feature 100 extracts the feature point. Judge.

자신(100)의 리소스가 충분하다고 판단한 경우, 단말기(100)는 대상 영상 프레임으로부터 특징점을 추출한다(S313). 단말기(100)는, S313 단계에서 추출한 특징점을 이용하여 대상 영상 프레임에서 관심 영역(ROI)을 트래킹한다(S315).If it is determined that the resources of the 100 are sufficient, the terminal 100 extracts the feature points from the target image frame (S313). The terminal 100 tracks the region of interest (ROI) in the target image frame by using the feature point extracted in step S313 (S315).

단말기(100)는, 트래킹 결과를 반영하여 영상 프레임을 디스플레이한다(S311).The terminal 100 reflects the tracking result and displays an image frame (S311).

한편, 단말기(100)는, S315 단계의 수행결과를 이용하여 새로운 템플릿을 생성하며(S312), 새로운 템플릿으로 기 저장된 템플릿을 업데이트하여 저장한다.On the other hand, the terminal 100 generates a new template using the execution result of step S315 (S312), and updates and stores the previously stored template with the new template.

자신(100)의 리소스가 충분하지 않다고 판단한 경우, 단말기(100)는 서버(200)에게 대상 영상 프레임으로부터 특징점을 추출할 것을 요청한다.여기서, 단말기(100)는 예를 들면, 특징점을 추출할 영상 프레임을 서버(200)에게 전송하면서, 템플릿을 같이 전송할 수 있다. 다르게, 서버(200)는, 영상 프레임과 함께, 템플릿으로부터 추출된 특징점 자체를 서버(200)에게 전송하는 것도 가능하다.If it is determined that the resources of the 100 are not sufficient, the terminal 100 requests the server 200 to extract the feature points from the target image frame. Here, the terminal 100 extracts the feature points, for example. While transmitting the image frame to the server 200, the template may be transmitted together. Alternatively, the server 200 may transmit the feature point itself extracted from the template to the server 200 together with the image frame.

서버(200)는 그러한 요청에 의해 대상 영상 프레임으로부터 특징점을 추출하고, 특징점 기반의 트래킹을 수행한 후, 트래킹 수행 결과를 단말기(100)에게 전송한다. The server 200 extracts a feature point from the target image frame by such a request, performs tracking based on the feature point, and transmits the tracking performance result to the terminal 100.

단말기(100)는, 서버(200)로부터 전송받은 트래킹 수행 결과를 디스플레이하며(S311), 그 트래킹 수행 결과를 이용하여 새로운 템플릿을 생성한 후(S312) 기존에 저장되어 있던 템플릿을 새로운 템플릿으로 저장한다. S312 단계는, 예를 들면, 영상 프레임으로부터 추출된 특징점과 템플릿으로부터 추출된 특징점이 서로 동일 또는 유사한 경우에, 상기 영상 프레임으로부터 추출된 특징점을 기준으로 새로운 템플릿을 생성할 수 있다.The terminal 100 displays the tracking performance result received from the server 200 (S311), generates a new template using the tracking performance result (S312), and stores the previously stored template as a new template. do. In operation S312, when a feature point extracted from an image frame and a feature point extracted from a template are the same or similar to each other, a new template may be generated based on the feature point extracted from the image frame.

한편, S303 단계에서, 템플릿이 존재하지 않는 것으로 판단된 경우, 단말기(100)는, 대상 영상 프레임에 관심 영역(ROI)이 선정되었는지를 판단(S319)한 후, 관심 영역(ROI)이 선정되었다면(S319: Y), 서버(200)에게 대상 영상 프레임을 전송하면서 관심 영역(ROI)의 인식을 요청할 수 있다. On the other hand, if it is determined in step S303 that the template does not exist, the terminal 100 determines whether the ROI is selected in the target image frame (S319), and if the ROI is selected, In operation S319: Y, the server 200 may request recognition of the ROI while transmitting the target image frame.

서버(200)는 단말기(100)로부터 전송받은 대상 영상 프레임에서 선정된 관심 영역(ROI)으로부터 특징점을 추출하며(S321), 추출한 특징점을 이용하여 자신(200)이 저장하는 특징점 기반의 DB를 검색하여(S323) 관심 영역을 인식한다(S325). 이후, 서버(200)는 인식 결과를 단말기(100)로 전송하며, 단말기(100)는 그 인식 결과에 기초하여 템플릿을 생성하여(S312) 저장한다. The server 200 extracts a feature point from a region of interest (ROI) selected from a target image frame received from the terminal 100 (S321), and searches a feature-based DB stored by the own 200 using the extracted feature point. In step S323, the ROI is recognized (S325). Thereafter, the server 200 transmits the recognition result to the terminal 100, and the terminal 100 generates and stores a template based on the recognition result (S312).

이상 설명한 방법들은 컴퓨터에 의해 수행가능한 프로그램의 형태로 구현되어 기록매체에 저장될 수 있다. 예를 들면, 단말기가 컴퓨터 프로세서 및 메모리를 포함하도록 구성될 수 있으며, 이러한 구성의 경우 상황 적응 엔진부는 프로그램 명령어들로 구성되어 메모리에 로딩되어 동작될 수 있다. 여기서, 컴퓨터 프로세서는 메모리에 프로그램 명령어를 로딩하고 실행시키는 동작을 수행한다.The above-described methods may be implemented in the form of a program executable by a computer and stored in a recording medium. For example, the terminal may be configured to include a computer processor and a memory. In this configuration, the context adaptation engine may be configured by program instructions to be loaded and operated in a memory. Here, the computer processor performs an operation of loading and executing program instructions into a memory.

본 발명은 기재된 실시예에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서 그러한 수정예 또는 변형예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit and scope of the invention. Accordingly, such modifications or variations are intended to fall within the scope of the appended claims.

100: 단말기
101; 영상 프레임 획득부 103: 상황 적응 엔진부
105: 통신부 107: 유저 인터페이스부
109: 저장부
200: 서버
201: 특징점 추출부 203: 검색부
205: ROI 인식부 207: DB
100: terminal
101; Image frame acquisition unit 103: situation adaptation engine unit
105: communication unit 107: user interface unit
109:
200: Server
201: feature point extraction unit 203: search unit
205: ROI recognition unit 207: DB

Claims (25)

증강현실 제공 시스템에서의 관심 영역(ROI) 트래킹 방법에 있어서,
영상 프레임을 획득하는 단계;
기 저장된 템플릿의 정확도를 계산하는 단계; 및
상기 정확도에 기초하여, 상기 영상 프레임으로부터 추출된 특징점과 상기 템플릿으로부터 추출된 특징점을 비교하여 특징점 기반 트래킹을 수행할지 또는 상기 템플릿과 상기 영상 프레임을 비교하여 템플릿 매칭 기반 트래킹을 수행할지를 판단하고, 판단결과에 따라서 상기 영상 프레임에서의 관심 영역을 트래킹하는 단계; 를 포함하는 증강현실 제공 시스템에서의 관심 영역 트래킹 방법.
In the method of tracking a region of interest (ROI) in an augmented reality providing system,
Obtaining an image frame;
Calculating an accuracy of a previously stored template; And
Based on the accuracy, it is determined whether to perform feature point based tracking by comparing the feature point extracted from the image frame and the feature point extracted from the template, or to perform template matching based tracking by comparing the template and the image frame. Tracking the region of interest in the image frame according to a result; Method of interest tracking in the augmented reality providing system comprising a.
제1항에 있어서,
기 저장된 템플릿이 존재하는지 여부를 판단하는 단계; 를 더 포함하며,
기 저장된 템플릿이 존재한다고 판단된 경우에, 상기 정확도를 계산하는 단계와 상기 트래킹하는 단계를 수행하는 것인, 증강현실 제공 시스템에서의 관심 영역 트래킹 방법.
The method of claim 1,
Determining whether a previously stored template exists; More,
If it is determined that a pre-stored template exists, calculating the accuracy and performing the tracking, wherein the region of interest tracking method in the augmented reality providing system.
제1항에 있어서,
기 저장된 템플릿이 존재하는지 여부를 판단하는 단계;
상기 기 저장된 템플릿이 존재하지 않는다고 판단된 경우, 상기 영상 프레임으로부터 템플릿을 생성하는 단계; 및
상기 템플릿을 생성하는 단계에서 생성된 템플릿을 저장하는 단계;를 더 포함하는 것인, 증강현실 제공 시스템에서의 관심 영역 트래킹 방법.
The method of claim 1,
Determining whether a previously stored template exists;
If it is determined that the pre-stored template does not exist, generating a template from the image frame; And
Storing the template generated in the step of generating the template; further comprising, area of interest tracking method in the augmented reality providing system.
제3항에 있어서,
상기 템플릿을 생성하는 단계는,
상기 영상 프레임에서 관심 영역이 선정되었는지 여부를 판단하는 단계;
상기 관심 영역이 선정된 경우, 상기 선정된 관심 영역으로부터 특징점을 추출하는 단계;
상기 선정된 관심 영역으로부터 추출된 특징점과 DB를 매칭시켜, 관심 영역을 인식하는 단계; 및
인식된 상기 관심 영역을 템플릿으로서 생성하는 단계;를 포함하며,
상기 DB는, 증강현실을 제공할 서비스 지역에서 획득된 이미지들의 특징점을 포함하는 것인, 증강현실 제공 시스템에서의 관심 영역 트래킹 방법.
The method of claim 3,
Wherein the generating the template comprises:
Determining whether a region of interest is selected in the image frame;
Extracting feature points from the selected region of interest when the region of interest is selected;
Recognizing a region of interest by matching a feature point extracted from the selected region of interest with a DB; And
Generating the recognized region of interest as a template;
The DB includes a feature point of the images acquired in the service area to provide augmented reality, the area of interest tracking method in the augmented reality providing system.
제4항에 있어서,
상기 인식된 관심 영역에 대응되는 부가용 컨텐츠를, 상기 DB에서 검색하는 단계;를 더 포함하며,
상기 DB는 특징점 별로 대응된 부가용 켄텐츠 정보를 더 포함하고 있는 것인, 증강현실 제공 시스템에서의 관심 영역 트래킹 방법.
5. The method of claim 4,
Searching for the additional content corresponding to the recognized region of interest in the DB;
The DB further includes additional content information corresponding to each feature point, the region of interest tracking method in the augmented reality providing system.
제1항에 있어서,
상기 증강현실 제공 시스템은 단말기와 서버를 포함하며,
상기 단말기가 상기 영상 프레임으로부터 특징점을 추출할 수 있는 리소스를 가지고 있는 경우는 상기 단말기가 특징점을 추출하는 동작을 수행하고,
상기 단말기가 상기 영상 프레임으로부터 특징점을 추출할 수 있는 리소스를 가지고 있지 않은 경우는, 상기 서버가 상기 영상 프레임으로부터 특징점을 추출하는 동작을 수행하는 것인, 증강현실 제공 시스템에서의 관심 영역 트래킹 방법.
The method of claim 1,
The augmented reality providing system includes a terminal and a server,
If the terminal has a resource for extracting the feature point from the image frame, the terminal performs an operation for extracting the feature point,
If the terminal does not have a resource for extracting a feature point from the image frame, the server performs an operation of extracting the feature point from the image frame.
제6항에 있어서,
상기 서버는, 상기 영상 프레임으로부터 추출된 영상 프레임의 특징점과 상기 템플릿으로부터 추출된 특징점을 비교함으로써 상기 관심 영역을 트래킹하며, 트래킹 결과를 상기 단말기로 전송하는 것인, 증강현실 제공 시스템에서의 관심 영역 트래킹 방법.
The method according to claim 6,
The server tracks the region of interest by comparing the feature point of the image frame extracted from the image frame and the feature point extracted from the template, and transmits the tracking result to the terminal, the region of interest in the augmented reality providing system. Tracking method.
제7항에 있어서,
상기 단말기는 상기 영상 프레임의 특징점과 상기 템플릿의 특징점이 동일한 경우, 상기 영상 프레임의 특징점으로부터 새로운 템플릿을 생성하며, 기 저장된 템플릿을 상기 새로운 템플릿으로 업데이트하여 저장하는 것인, 증강현실 제공 시스템에서의 관심 영역 트래킹 방법.
The method of claim 7, wherein
When the feature point of the image frame and the feature point of the template are the same, the terminal generates a new template from the feature point of the image frame, and updates and stores a previously stored template with the new template. How to track region of interest.
제1항에 있어서,
상기 정확도를 계산하는 단계는,
상기 영상 프레임과 상기 기 저장된 템플릿을 비교함으로써 수행되는 단계인 것인, 증강현실 제공 시스템에서의 관심 영역 트래킹 방법.
The method of claim 1,
The step of calculating the accuracy,
Comprising the step of performing by comparing the image frame and the pre-stored template, region of interest tracking method in the augmented reality providing system.
제1항에 있어서,
상기 정확도를 계산하는 단계는,
상기 템플릿을 구성하는 픽셀들의 그레이 레벨 값과 상기 영상 프레임을 구성하는 픽셀들의 그레이 레벨 값에 기초하여 수행되는 것인, 증강현실 제공 시스템에서의 관심 영역 트래킹 방법.
The method of claim 1,
The step of calculating the accuracy,
And a gray level value of the pixels constituting the template and a gray level value of the pixels constituting the image frame.
제10항에 있어서,
상기 정확도를 계산하는 단계는,
Figure 112013074290213-pat00006

에 의해 정확도를 계산하며,
여기서,
Figure 112013074290213-pat00015
는 템플릿의 i 번째 픽셀의 그레이 레벨 값이고,
Figure 112013074290213-pat00016
는 템플릿을 구성하는 픽셀들의 평균 그레이 레벨 값이고,
Figure 112013074290213-pat00017
는 트래킹할 영상 프레임 섹션(템플릿과 같은 크기의 영상 프레임 부분)의 i번째 픽셀의 그레이 레벨 값이고,
Figure 112013074290213-pat00018
는 트래킹할 영상 프레임 섹션(템플릿과 같은 크기의 영상 프레임 부분)을 구성하는 픽셀들의 평균 그레이 레벨 값이며, N은 템플릿의 크기(columns × rows)로서 정의되는 것인, 증강현실 제공 시스템에서의 관심 영역 트래킹 방법.
The method of claim 10,
The step of calculating the accuracy,
Figure 112013074290213-pat00006

To calculate the accuracy
here,
Figure 112013074290213-pat00015
Is the gray level value of the i th pixel of the template,
Figure 112013074290213-pat00016
Is the average gray level value of the pixels constituting the template,
Figure 112013074290213-pat00017
Is the gray level value of the i th pixel of the image frame section (the portion of the image frame of the same size as the template) to be tracked,
Figure 112013074290213-pat00018
Is the average gray level value of the pixels that make up the image frame section to be tracked (the portion of the image frame of the same size as the template), where N is defined as the size of the template (columns x rows). Zone tracking method.
제1항에 있어서,
상기 영상 프레임에서의 관심 영역을 트래킹하는 단계는, 상기 정확도가 기준값 보다 큰 경우는 상기 템플릿 매칭 기반의 트래킹을 수행하고, 상기 정확도가 기준값 이하인 경우는, 상기 특징점 기반 트래킹을 수행하는 것인, 증강현실 제공 시스템에서의 관심 영역 트래킹 방법.
The method of claim 1,
The tracking of the ROI in the image frame may include performing template matching based tracking when the accuracy is greater than a reference value, and performing feature point based tracking when the accuracy is less than or equal to the reference value. Method of tracking region of interest in a reality providing system.
컴퓨터에 제1항 내지 제12항 중 어느 하나의 항에 따른 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing a method according to any one of claims 1 to 12. 마커리스 기반의 증강현실 제공 시스템에 있어서,
영상 프레임들을 획득하고, 획득한 영상프레임들에 부가용 컨텐츠를 정합시켜 디스플레이하는 단말기; 를 포함하며,
상기 단말기는, 기 저장된 템플릿의 정확도를 계산하고, 계산한 정확도에 기초하여, 상기 영상 프레임으로부터 추출된 특징점과 상기 템플릿으로부터 추출된 특징점을 비교하여 특징점 기반 트래킹을 수행할지 또는 상기 템플릿과 상기 영상 프레임을 비교하여 템플릿 매칭 기반 트래킹을 수행할지를 판단하고, 판단결과에 따라서 상기 영상 프레임에서의 관심 영역을 트래킹하는 것인, 마커리스 기반의 증강현실 제공 시스템.
In the markerless based augmented reality providing system,
A terminal for acquiring image frames and matching and displaying additional content with the obtained image frames; Including;
The terminal calculates the accuracy of a pre-stored template and compares the feature point extracted from the image frame with the feature point extracted from the template based on the calculated accuracy, or performs the feature-based tracking or the template and the image frame. Determining whether to perform a template matching-based tracking by comparing the, and tracking the region of interest in the image frame according to the determination result, markerless based augmented reality providing system.
제14항에 있어서,
상기 단말기는, 기 저장된 템플릿이 존재하는지 여부를 판단하고, 기 저장된 템플릿이 존재한다고 판단된 경우에 상기 정확도를 계산하는 것인, 마커리스 기반의 증강현실 제공 시스템.
15. The method of claim 14,
The terminal determines whether the pre-stored template exists, and calculates the accuracy when it is determined that the pre-stored template, markerless based augmented reality providing system.
제14항에 있어서,
상기 단말기는, 기 저장된 템플릿이 존재하는지 여부를 판단하고, 기 저장된 템플릿이 존재하지 않는다고 판단된 경우에 상기 영상 프레임으로부터 템플릿을 생성하여 저장하는 것인, 마커리스 기반의 증강현실 제공 시스템.
15. The method of claim 14,
The terminal determines whether a pre-stored template exists, and if it is determined that the pre-stored template does not exist, to generate and store a template from the image frame, markerless based augmented reality providing system.
제14항에 있어서,
상기 단말기는, 상기 특징점 기반 트래킹 결과 상기 영상 프레임의 특징점과 상기 템플릿의 특징점이 동일한 경우, 상기 영상 프레임의 특징점으로부터 새로운 템플릿을 생성하며, 기 저장된 템플릿을 상기 새로운 템플릿으로 업데이트하여 저장하는 것인, 마커리스 기반의 증강현실 제공 시스템.
15. The method of claim 14,
If the feature point-based tracking results in the feature point of the image frame being identical to the feature point of the template, the terminal generates a new template from the feature point of the image frame, and updates and stores a previously stored template with the new template. Markerless based augmented reality providing system.
제14항에 있어서,
상기 정확도는
상기 영상 프레임과 상기 기 저장된 템플릿을 비교함으로써 계산되는 것인, 마커리스 기반의 증강현실 제공 시스템.
15. The method of claim 14,
The accuracy is
Markerless based augmented reality providing system that is calculated by comparing the image frame and the pre-stored template.
제14항에 있어서,
상기 정확도는
상기 템플릿을 구성하는 픽셀들의 그레이 레벨 값과 상기 영상 프레임을 구성하는 픽셀들의 그레이 레벨 값에 기초하여 계산된 것인, 마커리스 기반의 증강현실 제공 시스템.
15. The method of claim 14,
The accuracy is
And a gray level value of the pixels constituting the template and a gray level value of the pixels constituting the image frame.
제14항에 있어서,
상기 단말기는 상기 정확도가 기준값 보다 큰 경우는 상기 템플릿 매칭 기반의 트래킹을 수행하고, 상기 정확도가 기준값 이하인 경우는, 상기 특징점 기반 트래킹을 수행하는 것인, 마커리스 기반의 증강현실 제공 시스템.
15. The method of claim 14,
The terminal performs the template matching based tracking when the accuracy is greater than the reference value, and performs the feature point based tracking when the accuracy is less than or equal to the reference value, markerless based augmented reality providing system.
제14항에 있어서,
서버;를 더 포함하며,
상기 단말기가 상기 영상 프레임으로부터 특징점을 추출할 수 있는 리소스를 가지고 있는 경우는, 상기 단말기가 상기 영상 프레임으로부터 특징점을 추출하는 동작을 수행하며,
상기 단말기가 상기 영상 프레임으로부터 특징점을 추출할 수 있는 리소스를 가지고 있지 않은 경우는, 상기 서버가 상기 영상 프레임으로부터 특징점을 추출하는 것인, 마커리스 기반의 증강현실 제공 시스템.
15. The method of claim 14,
The server further includes;
If the terminal has a resource for extracting the feature point from the image frame, the terminal performs the operation of extracting the feature point from the image frame,
If the terminal does not have a resource to extract a feature point from the image frame, the server extracts the feature point from the image frame, markerless based augmented reality providing system.
제21항에 있어서,
상기 서버는, 상기 영상 프레임으로부터 추출한 특징점과 상기 템플릿으로부터 추출된 특징점을 비교함으로써 상기 관심 영역을 트래킹하며, 트래킹 결과를 상기 단말기로 전송하는 것인, 마커리스 기반의 증강현실 제공 시스템.
The method of claim 21,
The server tracks the ROI by comparing the feature points extracted from the image frame and the feature points extracted from the template, and transmits a tracking result to the terminal.
증강현실을 제공하는 단말기에 있어서,
영상 프레임을 획득하는 영상 프레임 획득부; 및
기 저장된 템플릿의 정확도를 계산하고, 상기 정확도에 기초하여, 상기 영상 프레임으로부터 추출된 특징점과 상기 템플릿으로부터 추출된 특징점을 비교하여 특징점 기반 트래킹을 수행할지 또는 상기 템플릿과 상기 영상 프레임을 비교하여 템플릿 매칭 기반 트래킹을 수행할지를 판단하고, 판단결과에 따라서 상기 영상 프레임에서의 관심 영역을 트래킹하는 상황 적응 엔진부; 를 포함하는 단말기.
In the terminal providing augmented reality,
An image frame obtaining unit obtaining an image frame; And
Compute the accuracy of the pre-stored template, and based on the accuracy, whether to perform a feature-based tracking by comparing the feature point extracted from the image frame and the feature point extracted from the template or template matching by comparing the template and the image frame A situation adaptation engine unit configured to determine whether to perform based tracking and to track a region of interest in the image frame according to the determination result; Lt; / RTI >
제23항에 있어서,
저장부;를 더 포함하며,
상기 상황 적응 엔진부는 상기 저장부에 템플릿이 저장되어 있는지 여부를 판단하며,
상기 저장부에 템플릿이 저장되어 있다고 판단된 경우에, 상기 정확도를 계산하는 동작과 상기 영상 프레임에서의 관심영역을 트래킹하는 동작을 수행하는 것인, 단말기.
24. The method of claim 23,
And a storage unit,
The situation adaptation engine unit determines whether a template is stored in the storage unit,
And if it is determined that the template is stored in the storage unit, calculating the accuracy and tracking the region of interest in the image frame.
제24항에 있어서,
상기 상황 적응 엔진부는, 상기 정확도가 기준값 보다 큰 경우는 상기 템플릿 매칭 기반의 트래킹을 수행하고, 상기 정확도가 기준값 이하인 경우는, 상기 특징점 기반 트래킹을 수행하는 것인, 단말기.
25. The method of claim 24,
The situation adaptation engine unit performs tracking based on the template matching when the accuracy is greater than a reference value, and performs the feature point based tracking when the accuracy is less than or equal to the reference value.
KR1020120055603A 2012-05-24 2012-05-24 System and method for providing augmented reality and method for tracking region of interest used in the same KR101319667B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120055603A KR101319667B1 (en) 2012-05-24 2012-05-24 System and method for providing augmented reality and method for tracking region of interest used in the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120055603A KR101319667B1 (en) 2012-05-24 2012-05-24 System and method for providing augmented reality and method for tracking region of interest used in the same

Publications (1)

Publication Number Publication Date
KR101319667B1 true KR101319667B1 (en) 2013-10-17

Family

ID=49638780

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120055603A KR101319667B1 (en) 2012-05-24 2012-05-24 System and method for providing augmented reality and method for tracking region of interest used in the same

Country Status (1)

Country Link
KR (1) KR101319667B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101555876B1 (en) * 2015-03-31 2015-09-30 스타십벤딩머신 주식회사 System and method for object tracking for video synthesis
CN107274431A (en) * 2017-03-07 2017-10-20 阿里巴巴集团控股有限公司 video content enhancement method and device
US11043038B1 (en) * 2020-03-16 2021-06-22 Hong Kong Applied Science and Technology Research Institute Company Limited Apparatus and method of three-dimensional interaction for augmented reality remote assistance
WO2021139408A1 (en) * 2020-01-07 2021-07-15 北京字节跳动网络技术有限公司 Method and apparatus for displaying special effect, and storage medium and electronic device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008178110A (en) 2007-01-22 2008-07-31 Gwangju Inst Of Science & Technology Method of providing content using color marker and system for performing the same
KR20100124947A (en) * 2009-05-20 2010-11-30 삼성에스디에스 주식회사 Ar contents providing system and method providing a portable terminal real-time regional information by using augmented reality technology
KR20110012514A (en) * 2009-07-30 2011-02-09 에스케이 텔레콤주식회사 Method for providing augmented reality by using image feature, server and portable terminal therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008178110A (en) 2007-01-22 2008-07-31 Gwangju Inst Of Science & Technology Method of providing content using color marker and system for performing the same
KR20100124947A (en) * 2009-05-20 2010-11-30 삼성에스디에스 주식회사 Ar contents providing system and method providing a portable terminal real-time regional information by using augmented reality technology
KR20110012514A (en) * 2009-07-30 2011-02-09 에스케이 텔레콤주식회사 Method for providing augmented reality by using image feature, server and portable terminal therefor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101555876B1 (en) * 2015-03-31 2015-09-30 스타십벤딩머신 주식회사 System and method for object tracking for video synthesis
WO2016159613A1 (en) * 2015-03-31 2016-10-06 스타십벤딩머신 주식회사 Object tracking method and system for image synthesis
CN107274431A (en) * 2017-03-07 2017-10-20 阿里巴巴集团控股有限公司 video content enhancement method and device
WO2021139408A1 (en) * 2020-01-07 2021-07-15 北京字节跳动网络技术有限公司 Method and apparatus for displaying special effect, and storage medium and electronic device
US11043038B1 (en) * 2020-03-16 2021-06-22 Hong Kong Applied Science and Technology Research Institute Company Limited Apparatus and method of three-dimensional interaction for augmented reality remote assistance

Similar Documents

Publication Publication Date Title
US11152032B2 (en) Robust tracking of objects in videos
US10133951B1 (en) Fusion of bounding regions
US8379987B2 (en) Method, apparatus and computer program product for providing hand segmentation for gesture analysis
TWI489397B (en) Method, apparatus and computer program product for providing adaptive gesture analysis
US9691158B1 (en) Tracking objects between images
US9424255B2 (en) Server-assisted object recognition and tracking for mobile devices
US8144920B2 (en) Automated location estimation using image analysis
CN109582880B (en) Interest point information processing method, device, terminal and storage medium
KR20210053825A (en) Method and apparatus for processing video
WO2016029796A1 (en) Method, device and system for identifying commodity in video image and presenting information thereof
US10218899B2 (en) Control method in image capture system, control apparatus and a non-transitory computer-readable storage medium
CN108846091B (en) Information recommendation method, device and equipment
JP6362085B2 (en) Image recognition system, image recognition method and program
JP2010009425A (en) Image processor, image processing method, and computer program
KR101319667B1 (en) System and method for providing augmented reality and method for tracking region of interest used in the same
WO2016139964A1 (en) Region-of-interest extraction device and region-of-interest extraction method
CN110598559A (en) Method and device for detecting motion direction, computer equipment and storage medium
JP2017182628A (en) Augmented reality user interface application device and control method
KR20190124436A (en) Method for searching building based on image and apparatus for the same
US20220300774A1 (en) Methods, apparatuses, devices and storage media for detecting correlated objects involved in image
US9977793B2 (en) Information processing system, information processing method, and information processing apparatus
KR101724143B1 (en) Apparatus, system, method, program for providing searching service
CN114972910B (en) Training method and device for image-text recognition model, electronic equipment and storage medium
CN108446737B (en) Method and device for identifying objects
CN114694257A (en) Multi-user real-time three-dimensional action recognition and evaluation method, device, equipment and medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160920

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170928

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180927

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191001

Year of fee payment: 7