KR20140001152A - Areal-time coi registration system and the method based on augmented reality - Google Patents

Areal-time coi registration system and the method based on augmented reality Download PDF

Info

Publication number
KR20140001152A
KR20140001152A KR1020130073616A KR20130073616A KR20140001152A KR 20140001152 A KR20140001152 A KR 20140001152A KR 1020130073616 A KR1020130073616 A KR 1020130073616A KR 20130073616 A KR20130073616 A KR 20130073616A KR 20140001152 A KR20140001152 A KR 20140001152A
Authority
KR
South Korea
Prior art keywords
context
interest
information
unit
shape
Prior art date
Application number
KR1020130073616A
Other languages
Korean (ko)
Other versions
KR101546653B1 (en
Inventor
우운택
이형묵
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Publication of KR20140001152A publication Critical patent/KR20140001152A/en
Application granted granted Critical
Publication of KR101546653B1 publication Critical patent/KR101546653B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A disclosed technique relates to an interface capable of registering a context of interest (COI) in an augmented reality environment and, more specifically, to an augmented reality interface technique capable of specifying various types of objects of interest in the real space varied dynamically and adding and intuitively presenting virtual guidance/information associated therewith without physical constraints. The interface according to an embodiment of the disclosed technique can overcome the constraints of an augmented reality marker learned and defined previously to register a three-dimensional object of interest in an augmented reality space according to an immediate situation and can also provide an information representing technique in which augmented guide information provided when registering a three-dimensional object of interest varied dynamically according to work steps. [Reference numerals] (AA) COI capturing; (BB) Grouping(I); (C) Integrated context(Env. & User); (CC) COI area; (DD) Non-COI area; (EE) Type(Si); (FF) Content(Si); (GG) User intent; (HH) User data; (I) Key frame image; (i,j) Index; (II) Scenes(FOV); (JJ) Environmental data; (KK) Contextual information manager; (LL) Space management; (MM) Visualization management; (NN) Contextual visualization manager; (OO) Step(S_i-1, C_j-1); (PP) Step(S_i-, C_j); (QQ) Workflow; (RR) Exception(Breakdowns) overcome; (S) Step in workflow; (SS) Intent-User observation; (TT) Exception-Unintented act recognition; (UU) Act analysis-dissatisfaction element extraction; (VV) Combine-Context(Cj) update; (WW) Step(S_i+1, C_j+1)

Description

증강현실 기반의 실시간 관심 컨텍스트 등록 시스템 및 그 방법{AREAL-TIME COI REGISTRATION SYSTEM AND THE METHOD BASED ON AUGMENTED REALITY}Augmented Reality-based Real-Time Interest Context Registration System and Its Method {AREAL-TIME COI REGISTRATION SYSTEM AND THE METHOD BASED ON AUGMENTED REALITY}

개시된 기술은 증강현실 환경에서 관심 컨텍스트(COI, Context of Interest)를 등록할 수 있는 인터페이스에 관한 것으로, 보다 상세하게는 동적으로 변하는 현실 공간에서 다양한 형태의 관심 객체를 지정하고 그와 관련된 가상의 가이드/정보를 물리적 제약없이 추가하고 직관적으로 제시할 수 있는 증강현실 인터페이스 기술에 관한 것이다.
The disclosed technology relates to an interface that can register a context of interest (COI) in an augmented reality environment, and more specifically, a virtual guide that designates various types of objects of interest in a dynamically changing real space and associates them with them. / Augmented reality interface technology that can add and intuitively present information without physical constraints.

증강현실 기술이 등장한 이래로 사용자층과 연령층의 스펙트럼이 넓어지고 증강현실 체험을 제공하는 다양한 응용 시스템이 등장하고 있다. 특히, 증강현실 인터페이스를 시스템-사용자 간 상호작용 도구로 활용하는 유비쿼터스 가상현실 응용 시스템에서는 현실과 가상을 이음매 없이 연결하고, 실감 오감 증강을 제공하며, 이러한 인터페이스를 기반으로 실시간 양방향 상호작용이 가능한 u-콘텐츠가 활발하게 생산/가공될 것으로 전망되고 있다. 따라서 시간이 지날수록 이러한 증강현실 콘텐츠는 사용자가 관심을 가지는 대상을 기준으로 다채로운 형태로 축적되어 방대하게 제공될 것이다.Since the advent of augmented reality technology, a wide range of user systems and age groups have broadened and various application systems have been introduced to provide an augmented reality experience. In particular, in the ubiquitous virtual reality application system that utilizes augmented reality interface as a system-user interaction tool, u connects reality and virtual seamlessly, provides realistic five senses, and enables real-time two-way interaction based on these interfaces. -Content is expected to be actively produced and processed. Therefore, as time passes, the augmented reality content will be accumulated and provided in a variety of forms based on the object of interest to the user.

실시간에 동작하는 현실 공간의 물리적 관심 대상과 실제 사용자 간의 상호작용을 지원하는 다양한 컴퓨팅 기술(웹, 센서, 모바일 등)들이 실제 생활에 적용 가능한 수준까지 등장하고 있다. 하지만 다양한 형태의 관심 대상을 지정하고 그와 관련된 가상의 가이드/정보를 물리적인 제약 없이 추가하고 직관적으로 제시하기 위한 증강현실 인터페이스와의 유기적인 결합에 대한 연구는 여전히 초기 단계이다.
Various computing technologies (web, sensor, mobile, etc.) that support the interaction between the physical interests and the real users in the real space that operates in real time have emerged to the level applicable to real life. However, the research on organic coupling with augmented reality interface for designing various types of interests and adding and intuitively presenting virtual guides / information without physical limitations is still in an early stage.

(1) 강창구, 하태진, 오유수, 우운택, “유비쿼터스 가상현실 구현을 위한 증강현실 콘텐츠 기술과 응용,” 전자공학회지, 제38권, 제6호, pp.449-455, 2011(1) Chang-gu Kang, Tae-jin Ha, Yoo-soo Oh, Un-taek Woo, “Augmented Reality Content Technology and Application for Realizing Ubiquitous Virtual Reality,” Journal of the Institute of Electronics Engineers, Vol. 38, No. 6, pp.449-455, 2011 (2) Choi, A., Park, Y., Jang, Y., and Woo, W., “mARGraphy: Mobile AR-based Dynamic Information Visualization,” Int. Symposium on Ubiquitous Virtual Reality, pp.37-39, 2011(2) Choi, A., Park, Y., Jang, Y., and Woo, W., “mARGraphy: Mobile AR-based Dynamic Information Visualization,” Int. Symposium on Ubiquitous Virtual Reality, pp. 37-39, 2011 (3) Kim, K., Lepetit, V., and Woo, W., “Keyframe-based Modeling and Tracking of Multiple 3D Objects,” Int. Symposium on Mixed and Augmented Reality (ISMAR’10), pp.193-198, 2010(3) Kim, K., Lepetit, V., and Woo, W., “Keyframe-based Modeling and Tracking of Multiple 3D Objects,” Int. Symposium on Mixed and Augmented Reality (ISMAR’10), pp.193-198, 2010 (4) Vertegaal, R., and Poupyrev, I., “Organic User Interfaces,”ACM Communications, Vol. 51, No. 6, 2008.(4) Vertegaal, R., and Poupyrev, I., “Organic User Interfaces,” ACM Communications, Vol. 51, No. 6, 2008.

개시된 기술은 동적으로 변하는 현실 공간에서 지능적으로 정보를 가공하여 제시할 수 있는 증강현실 기반 유기적 인터페이스를 제공한다. 개시된 기술은 이를 위한 초기단계로서 정보를 제시할 관심 개체를 재정의한 COI(Context of Interest)를 실시간으로 등록하는 과정을 제공한다.The disclosed technology provides an augmented reality-based organic interface that can intelligently process and present information in a dynamically changing real space. The disclosed technique provides a process for real-time registration of a context of interest (COI) that redefines an object of interest to present information as an initial step.

COI(Context of Interest)는 사용자 관점에서 주의를 기울이는 물리적 실체나 상황 정보로서 실제로 사용자와 시스템 간 상호작용 가능 영역(interactive area)을 포함한 데이터를 나타낸다. 이는 PoI(Point of Interest), OoI(Object of Interest), LoI(Location of Interest) 등을 포함한다. COI 등록(COI Registration)은 현실공간과 상응하는 듀얼공간에 해당 COI 객체(2D/3D 영역 포함) 좌표계를 생성하여 등록하는 것을 말한다.
Context of Interest (COI) is a physical entity or context information that pays attention from the user's point of view, and actually represents data including an interactive area between the user and the system. This includes a point of interest (PoI), an object of interest (OoI), a location of interest (LoI), and the like. COI registration refers to generating and registering a corresponding COI object (including 2D / 3D area) coordinate system in a dual space corresponding to real space.

개시된 기술의 일 실시예에 따른 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템은 사용자 입력장치에서 객체 특징점을 전달받아 타겟이 되는 관심 컨텍스트의 초점을 조정하여, 특징점 좌표를 제공하는 관심 컨텍스트 초점부, 상기 관심 컨텍스트의 등록 여부를 확인하는 관심 컨텍스트 인식부 및 상기 관심 컨텍스트 초점부에서 특징점 좌표를 전달받아 관심 컨텍스트 등록을 위해 타겟이 되는 객체를 3차원 형상 모델링하는 객체 모델링부를 포함하는 것을 특징으로 한다.An augmented reality-based real-time interest context registration system according to an embodiment of the disclosed technology may receive an object feature point from a user input device and adjust a focus of a target interest context to provide feature point coordinates. And an object modeling unit configured to check whether the context is registered, and an object modeling unit which receives the feature point coordinates from the interested context focusing unit and models the object that is the target for registering the interested context.

또한, 본 발명에 따른 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템에 있어서, 관심 컨텍스트 인식부는 객체의 알에프 아이디 태그 정보로 관심 컨텍스트를 인식하거나, 관심 영역 감지로 타겟이 되는 객체를 인식하는 것을 특징으로 한다.In addition, in the augmented reality-based real-time interest context registration system according to the present invention, the interest context recognizer recognizes the interest context using the RFID ID tag information of the object, or recognizes the target object by detecting the ROI. .

또한, 본 발명에 따른 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템에 있어서, 객체 모델링부는 관심 컨텍스트로 등록하고자 하는 객체를 선택하는 객체 선택부, 선택된 상기 객체의 3차원 특징점을 수집하는 특징점 수집부, 선택된 객체의 형상 정보를 선택하는 객체 형상 선택부 및 선택된 상기 형상 정보로 객체를 3차원 확장하는 객체 확장부를 포함하는 것을 특징으로 한다.
In addition, in the augmented reality-based real-time interest context registration system according to the present invention, the object modeling unit, an object selection unit for selecting the object to register as the interest context, a feature point collection unit for collecting the three-dimensional feature points of the selected object, selected And an object shape selector for selecting shape information of the object and an object extender for three-dimensionally extending the object with the selected shape information.

개시된 기술에 따른 강현실 기반의 실시간 관심 컨텍스트 등록 방법은 (a) 관심 컨텍스트 인식부를 이용하여, 관심 컨텍스트의 등록 여부를 확인하는 단계, (b) 상기 (c) 단계에서 상기 객체의 관심 컨텍스트를 인식하지 못할 경우, 객체 모델링부를 이용하여, 해당 객체를 3차원 형상 모델링하는 단계 및 (c) 컨텍스트 태그부를 이용하여, 3차원 형상 모델링된 객체의 좌표정보로 컨택스트를 식별하는 태그 정보를 설정하여 데이터베이스에 등록하는 단계를 포함하는 것을 특징으로 한다.
In the real-time interest context registration method based on the reality of the disclosed technology, (a) checking whether the interest context is registered using the interest context recognizer, and (b) recognizing the interest context of the object in the step (c). If not, using the object modeling unit, modeling the object in three-dimensional shape and (c) using the context tag unit, by setting the tag information identifying the context with the coordinate information of the three-dimensional shape modeled object database It characterized in that it comprises a step of registering in.

개시된 기술에 따른 인터페이스를 통해 사용자는 응용 시스템에 대한 사전 학습이 전혀 없더라도 관심 객체를 증강현실 공간에 등록할 수 있다. 즉, 사용자는 제공되는 유기적인 가이드를 따라 즉각적으로 관심 객체를 등록할 수 있다.
The interface according to the disclosed technology allows a user to register an object of interest in the augmented reality space even though there is no prior learning about the application system. That is, the user can immediately register the object of interest according to the organic guide provided.

도 1은 개시된 기술의 일 실시예에 따른 유기적 증강현실 인터페이스를 통해 실시간으로 COI를 등록하는 과정을 설명하는 도면.
도 2는 본 발명에 따른 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템의 구성도.
도 3은 본 발명에 따른 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템에 있어서, 관심 영역 감지 방법으로 타겟 객체를 인식하는 개념을 나타내는 도면.
도 4는 본 발명에 따른 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템에 있어서, 객체 모델링부의 상세 구성을 나타내는 구성도.
도 5는 본 발명에 따른 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템에 있어서, 가이드 정보부의 동작을 나타내는 실시예 화면.
도 6은 본 발명에 따른 증강현실 기반의 실시간 관심 컨텍스트 등록 방법의 전체 흐름을 나타내는 흐름도.
도 7은 본 발명에 따른 증강현실 기반의 실시간 관심 컨텍스트 등록 방법의 S30 단계의 상세 흐름을 나타내는 흐름도.
도 8은 본 발명에 따른 증강현실 기반의 실시간 관심 컨텍스트 등록 방법에 있어서, S30 단계의 동작을 나타내는 실시예 화면.
도 9는 휴대 단말기를 통해 객체를 모델링하는 과정을 상세하게 설명하는 도면.
1 is a diagram illustrating a process of registering a COI in real time through an organic augmented reality interface according to an embodiment of the disclosed technology.
2 is a block diagram of an augmented reality-based real-time interest context registration system according to the present invention.
3 is a diagram illustrating a concept of recognizing a target object by a method for detecting a region of interest in the augmented reality-based real-time interest context registration system according to the present invention.
Figure 4 is a block diagram showing the detailed configuration of the object modeling in the augmented reality-based real-time interest context registration system according to the present invention.
5 is an embodiment screen showing the operation of the guide information in the augmented reality-based real-time interest context registration system according to the present invention.
Figure 6 is a flow chart showing the overall flow of the augmented reality-based real-time interest context registration method according to the present invention.
7 is a flowchart illustrating a detailed flow of step S30 of the augmented reality-based real-time interest context registration method according to the present invention.
8 is an embodiment screen showing the operation of step S30 in the augmented reality-based real-time interest context registration method according to the present invention.
9 is a diagram illustrating a process of modeling an object through a mobile terminal in detail.

개시된 기술의 실시예들에 관한 설명은 개시된 기술의 구조적 내지 기능적 설명들을 위하여 예시된 것에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예들에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 개시된 기술의 실시예들은 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.The description of embodiments of the disclosed technique is merely illustrative for the structural and functional explanations of the disclosed technology, and thus the scope of the disclosed technology should not be construed as limited by the embodiments described herein. In other words, it should be understood that the embodiments of the disclosed technology are capable of various changes and various forms, and therefore, are capable of implementing the technical idea of the disclosed technology.

개시된 기술에서 기재된 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.It is to be understood that the singular forms "a", "an", ",", "an", "an" , Parts or combinations thereof, and does not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof .

개시된 기술에서 기술한 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
Each step described in the disclosed technique may take place differently from the stated order unless explicitly stated in the context of the specific order. That is, each step may occur in the same order as described, may be performed substantially concurrently, or may be performed in reverse order.

가상 객체를 현실 공간에 실시간으로 증강하기 위해서는 카메라 시점이 변해도 안정적으로 가상 객체의 자세를 유지하기 위한 특징(feature)을 포함하는 참조 대상이 필요하다. 관심 영역이나 객체의 특징을 학습하여 증강하기 위한 안정적인 좌표를 생성하는 단계를 COI 등록이라고 할 수 있다.In order to augment the virtual object in the real space in real time, a reference object including a feature for stably maintaining the posture of the virtual object is required even when the camera viewpoint changes. Generating stable coordinates for learning and augmenting a region of interest or an object may be referred to as COI registration.

특히, 미리 정의되어 있는 2차원 사각형 형태의 마커는 장소의 한계와 심미적으로 자연스럽지 못하기 때문에 실제 생활에서 널리 활용되기는 어렵다. 이를 보완하기 위해 자연 특징점을 이용하는 등록 기술이 있다. 이는 영상의 일부분을 패치 단위로 학습하여 자세를 계산해내는 방식으로 직관적인 등록이 가능하지만 3차원 객체에 적용하기에는 한계가 있다.In particular, the predefined two-dimensional rectangular marker is difficult to be widely used in real life because of the limitation of the place and aesthetically unnatural. To compensate for this, there are registration techniques that use natural feature points. Intuitive registration is possible by calculating a posture by learning a part of an image in a patch unit, but there is a limitation in applying it to a 3D object.

현실 공간에 존재하고 상호작용하는 대부분의 객체가 복잡하지 않은 다각형으로 모델링 될 수 있다는 전제하에 단순한 3차원 다각형 객체를 실시간으로 등록하는 인터페이스 기술의 경우, 낯선 공간에 존재하는 관심 현실 객체를 사용자가 등록할 수 있게 하므로 보다 다양하고 직관적인 상호작용 환경을 제공할 수 있다.In the case of an interface technology that registers a simple three-dimensional polygon object in real time on the premise that most objects present in and interacting with the real space can be modeled as an uncomplicated polygon, the user registers a reality object of interest that exists in an unfamiliar space. This allows for a more diverse and intuitive interaction environment.

도 1은 개시된 기술의 일 실시예에 따른 유기적 증강현실 인터페이스를 통해 실시간으로 COI를 등록하는 과정을 설명하는 도면이다.1 is a view illustrating a process of registering a COI in real time through an organic augmented reality interface according to an embodiment of the disclosed technology.

유기적 증강현실(OrganicAR)은 기존의 하드웨어와 소프트웨어를 긴밀하게 결합한 차세대 인터페이스인 OUI (Organic User Interface)의 형태(Form)를 증강형태(Augmented Form)로 재정의하고 증강 현실 환경에 적합하도록 개선한 인터페이스이다. 증강형태는 현실 공간에서 다수 감지가능 디바이스를 통해 다양한 모달리티(modality)를 사용자에게 경험하게 하는 부가적인 가상 정보 전달 개체를 말한다. 유기적 증강현실을 만족하기 위한 세가지 주 요소는 1) 사용자 친화형 모바일 입력이 착용형 출력 장치로 전달, 2) 시스템/응용의 기능이 증강형태의 가시화 형태와 긴밀한 연결고리를 가짐, 3) 증강형태가 포함하는 내용이 시스템/응용의 흐름을 설명하기 위해 동적으로 변화해야함을 들 수 있다.OrganicAR is an interface that redefines the form of OUI (Organic User Interface), which is a next-generation interface that closely combines existing hardware and software, with an Augmented Form, and is improved to be suitable for an augmented reality environment. . Augmented form refers to an additional virtual information transfer entity that allows a user to experience various modalities through multiple detectable devices in real space. The three main elements to satisfy organic augmented reality are: 1) user-friendly mobile input is delivered to the wearable output device, 2) system / application functions have a close connection with augmented form of visualization, and 3) augmented form. Is that the content contained in should be dynamically changed to describe the flow of the system / application.

첫 번째 요소는 사용자가 지닌 개인용 모바일 디바이스, 손, 완드(wand) 등의 입력기기에 의한 입력 반응에 따른 결과가 HMD(Head Mounted Display), 안경형 디스플레이, 모바일 디바이스와 같은 출력장치에 즉각적으로 제시되는 환경을 말한다. 두 번째 요소는 사용자가 처한 상황이나 작업 단계에서 획득 가능한 실제 맥락정보를 활용하여 주어진 환경, 사용자, 영상에 적합한 형태(Where, What, How)로 시각화 하는 기술과 관련이 깊다. 마지막 요소는 대부분의 작업이 일련의 연속적인 단계로 진행되는 상황이라고 할 때, 단계 간의 효과적인 진행을 유도하는 정보 제시 및 가이드 기술을 말한다.The first factor is that the results of input response from the user's personal mobile device, hand, wand, etc. are immediately presented to output devices such as head mounted display (HMD), eyeglass display, and mobile device. Say the environment. The second element is deeply related to the technology of visualizing in a form (Where, What, How) suitable for a given environment, user, and image by using the actual contextual information that can be acquired at the user's situation or work stage. The final element is information presentation and guidance techniques that lead to effective progression between stages, given that most of the work is done in a series of successive stages.

도 1은 실시간 COI 등록과정에 유기적 증강현실을 적용한 흐름도이며, 도 2는 실시간 COI 등록 과정을 설명하는 도면이다. 도 1은 일련의 등록 과정(도 2)에서 3차원 맵 확장 단계의 의미 있는 키프레임(keyframe) 추가를 유도하기 위한 증강형태의 제시과정을 나타낸다.1 is a flowchart illustrating an application of organic augmented reality to a real-time COI registration process, and FIG. 2 is a diagram illustrating a real-time COI registration process. FIG. 1 shows a process of presenting an augmented form for inducing meaningful keyframe addition of a three-dimensional map expansion step in a series of registration processes (FIG. 2).

먼저 현재 영상에서 이전에 추가된 키프레임 정보와 사용자 의도를 기반으로 COI영역과 비COI 영역을 분리하는 COI 캡처링 과정을 수행한다. 이후 현장에서 계속적으로 수집되는 컨텍스트 정보를 이용한 공간 관리를 통해 다양한 증강형태 중 적절한 위치/영역(Where)을 추출한다. 이후 시각화 관리에서는 공간 관리를 통해 추천되는 영역에 현재 작업 리스트 중 적합한 내용(What, How)을 선정하여 가이드 콘텐츠를 증강하는 작업을 담당한다.First, a COI capturing process is performed to separate a COI region and a non-COI region based on previously added keyframe information and user intention in the current image. After that, through the space management using the context information continuously collected in the field to extract the appropriate location / area (Where) of the various augmented forms. After that, visualization management is responsible for augmenting guide contents by selecting appropriate contents (What, How) from the current work list in the area recommended through space management.

또한, 사용자가 주어진 가이드에 크게 벗어난 행동을 하고 이러한 행위가 수집되는 컨텍스트의 분석을 통해 감지될 경우 원래의 올바른 방향으로 이끌기 위한 추가적인 가이드 정보를 생성할 수 있다.In addition, when the user acts greatly out of a given guide and is detected through analysis of the context in which the behavior is collected, additional guide information may be generated to lead in the original correct direction.

도 2는 본 발명에 따른 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템의 전체 구성을 나타내는 구성도로, 관심 컨텍스트 초점부(21), 관심 컨텍스트 인식부(22), 객체 모델링부(23) 및 컨텍스트 태그부(24)를 포함한다.2 is a block diagram showing the overall configuration of the augmented reality-based real-time interest context registration system according to the present invention, the interest context focusing unit 21, the interest context recognition unit 22, the object modeling unit 23 and the context tag unit (24).

상기 관심 컨텍스트 초점부(21)는 사용자 입력장치(10)로부터 실시간 SFM(shape from motion)으로 추출된 객체 특징점을 전달받아 타겟이 되는 관심 컨텍스트의 초점을 조정하여, 특징점 좌표를 제공하는 역할을 하며, 특징점의 좌표는 상기 관심 컨텍스트 인식부(22)에 전달된다.The interest context focusing unit 21 receives the object feature points extracted from the user input device 10 in real time from a shape from motion (SFM), adjusts the focus of the interest context as a target, and serves to provide feature point coordinates. The coordinate of the feature point is transmitted to the interest context recognizer 22.

상기 관심 컨텍스트 인식부(22)는 상기 관심 컨텍스트의 등록 여부를 확인하는 역할을 하며, 본 발명에 따른 상기 관심 컨텍스트 인식부(22)는 객체의 알에프 아이디 태그 정보로 관심 컨텍스트를 인식하거나, 도 3에 도시된 바와 같이, 관심 영역 감지로 타겟이 되는 객체를 인식한다.The interest context recognizer 22 checks whether the interest context is registered, and the interest context recognizer 22 according to the present invention recognizes an interest context with RF ID tag information of an object, or FIG. 3. As shown in FIG. 6, the target object is recognized by the ROI detection.

상기 객체 모델링부(23)는 상기 관심 컨텍스트 초점부에서 특징점 좌표를 전달받아 관심 컨텍스트 등록을 위해 타겟이 되는 객체를 3차원 형상 모델링하는 역할을 하며, 본 발명에 따른 상기 객체 모델링부(23)는 도 4에 도시된 바와 같이, 객체 선택부(231), 특징점 수집부(232), 객체 형상 선택부(235) 및 가이드 정보부(236)를 포함한다.The object modeling unit 23 receives the feature point coordinates from the interested context focusing unit and performs a 3D shape modeling of an object that is a target for registering the interested context. The object modeling unit 23 according to the present invention As shown in FIG. 4, an object selecting unit 231, a feature point collecting unit 232, an object shape selecting unit 235, and a guide information unit 236 are included.

상기 객체 선택부(231)는 관심 컨텍스트로 등록하고자 하는 타겟 객체를 선택하는 역할을 하며, 상기 특징점 수집부(232)는 선택된 상기 객체의 3차원 특징점을 수집하는 역할을 한다.The object selector 231 serves to select a target object to be registered as a context of interest, and the feature point collector 232 collects 3D feature points of the selected object.

상기 객체 형상 선택부(235)는 선택된 객체의 형상 정보를 선택하는 역할을 하며, 본 발명에 따른 상기 객체 형상 선택부는 상기 객체의 기준면을 선택하는 기준면 선택부(233) 및 선택된 상기 객체 기준면의 형상 정보를 입력을 위한 기준선 또는 기준점을 입력하는 형상정보 선택부(234)를 포함하는 것이 바람직하다.The object shape selection unit 235 serves to select shape information of the selected object, and the object shape selection unit according to the present invention forms a reference plane selection unit 233 for selecting a reference plane of the object and a shape of the selected object reference plane. It is preferable to include a shape information selection unit 234 for inputting a reference line or reference point for inputting information.

본 발명에 따른 상기 형상정보 선택부(234)는 상기 객체 기준면의 형상이 다각형일 경우, 두 개의 꼭지점을 연결하여, 다각형의 평면 상에 위치하는 대각선을 입력하고, 상기 객체 기준면의 형상이 원형일 경우, 원형 상에 위치한 세 개의 점을 입력하는데, 먼저 두 개의 점을 선택 시, 원형 가이드 형상이 생성되고, 원형 위의 또 다른 한 점을 선택하여, 정확한 원형 형상 정보를 입력한다.When the shape of the object reference plane is a polygon, the shape information selecting unit 234 according to the present invention connects two vertices, inputs a diagonal located on the plane of the polygon, and the shape of the object reference plane is circular. In this case, three points located on a circle are input. When two points are first selected, a circular guide shape is generated, and another point on the circle is selected to input accurate circle shape information.

상기 객체 확장부(236)는 선택된 상기 형상 정보로 객체를 3차원 확장하여, 객체의 3차원 형상을 생성하는 역할을 한다.The object extension unit 236 expands an object by the selected shape information three-dimensionally, thereby generating a three-dimensional shape of the object.

상기 가이드 정보부(237)는 상기 객체 선택부(231), 특징점 수집부(232), 기준면 선택부(233) 및 형상 정보 선택부(234)와 연결되어, 객체의 선택 및 객체의 형상 정보를 입력 시, 가이드 정보를 제공하는 역할을 한다.The guide information unit 237 is connected to the object selecting unit 231, the feature point collecting unit 232, the reference plane selecting unit 233, and the shape information selecting unit 234, and inputs object selection and object shape information. The city serves as a guide.

즉, 기존의 COI 등록은 지식/경험이 없는 사용자들에게 등록을 마치기 위한 가이드 제공이 미비함에 따라 상기 가이드 정보부(236)를 이용하여, 컨텍스트 등록작업의 각 단계에 적합한 사용자 가이드를 증강하였다. 초기 환경 맵을 생성 시 키프레임 추출을 돕고 사용자의 불필요한 행동을 바로잡기 위한 방향 가이드 제시, 단계에 따라 동적으로 변하는 문자 가이드를 제공하도록 구현하였다.That is, the existing COI registration is insufficient to provide a guide for completing the registration to users without knowledge / experience, using the guide information unit 236, augmented the user guide suitable for each step of the context registration operation. When creating the initial environment map, it is implemented to provide key guides to help extract keyframes and to correct user's unnecessary behavior, and to provide a character guide that changes dynamically according to the steps.

도 5의 (a)는 환경맵 생성을 위한 사용자 이동방향 가이드 예시, (b)는 환경 맵 생성 시 사용자에 의한 예외상황 진단/극복을 위한 정보제시 예시, (c)는 다각형 드로잉에 의한 평면 모델링에의 텍스트 가이드 예시, (d)는 3차원 모델로의 확장에서의 텍스트 가이드 예시 도면을 각각 나타낸다.5A illustrates an example of a user's movement direction guide for generating an environment map, FIG. 5B illustrates an example of information presentation for diagnosing / overcoming an exception by a user when creating an environment map, and FIG. An example text guide, (d) shows an example text guide drawing in extension to a three-dimensional model.

상기 컨텍스트 태그부(24)는 3차원 형상 모델링된 객체의 좌표 정보를 이용하여, 컨텍스트를 식별할 수 있는 태그 정보를 설정하여 데이터베이스에 등록하는 역할을 하며, 상기 설정된 태그 정보에 따라 관심 컨텍스트의 추적 및 공유가 가능하다.The context tag unit 24 serves to set tag information for identifying a context and register it in a database using coordinate information of a 3D shape modeled object, and to track an interest context according to the set tag information. And sharing is possible.

도 6은 본 발명에 따른 증강현실 기반의 실시간 관심 컨텍스트 등록 방법의 전체 흐름을 나타내는 도면으로, 상기 관심 컨텍스트 인식부(22)를 이용하여, 관심 컨텍스트의 인식(S10)하고, 인식된 컨텍스트가 데이터베이스(30)에 등록되어 있는지 여부를 확인하는 단계(S20)를 수행한다.FIG. 6 is a diagram illustrating an entire flow of a method for registering a real-time interest context based on augmented reality according to the present invention. The interest context recognizer 22 is used to recognize an interest context (S10), and the recognized context is a database. The method checks whether or not it is registered at 30 (S20).

상기 S20 단계에서 상기 객체의 관심 컨텍스트를 인식하지 못할 경우, 상기 객체 모델링부(23)를 이용하여, 해당 객체를 3차원 형상 모델링하는 단계(S30)를 수행한다.If it is not possible to recognize the context of interest of the object in step S20, the object modeling unit 23 may be used to model the object in three dimensions (S30).

도 7은 본 발명에 따른 상기 S30 단계의 상세 흐름을 나타내는 도면으로, 상기 객체 선택부(231)를 이용하여, 관심 컨텍스트로 등록하고자 하는 객체를 선택(S31)한다.7 is a diagram illustrating a detailed flow of the step S30 according to the present invention, by using the object selection unit 231, to select the object to register in the context of interest (S31).

본 발명에 있어서, 상기 S31 단계 이전에 상기 가이드 정보부(237)를 이용하여, 객체의 선택에 따른 가이드 정보를 제공하는 것이 바람직하며, 본 발명의 실시예에서는 도 8의 (a)에 도시된 바와 같이, 사용자가 확인할 수 있는 디스플레이 화면 일측에 가이드 정보를 표시하도록 하였으며, 객체 선택을 위한 관심 영역을 표시하도록 하였다.In the present invention, it is preferable to provide the guide information according to the selection of the object using the guide information unit 237 before the step S31, in the embodiment of the present invention as shown in (a) of FIG. Similarly, the guide information is displayed on one side of the display screen which can be checked by the user, and the region of interest for object selection is displayed.

다음으로, 상기 특징점 수집부(232)를 이용하여, 선택된 상기 객체의 3차원 특징점을 수집하는 단계(S33)를 수행하며, 상기 S33 단계는 상기 사용자 입력장치를 이용하여, 타겟 객체의 주변을 이동하면서 상기 특징점을 충분하게 수집하는 것이 바람직하다.Next, by using the feature point collection unit 232, performing the step (S33) of collecting the three-dimensional feature point of the selected object, the step S33, using the user input device, to move around the target object It is desirable to collect the feature points sufficiently.

도 8의 (a)는 상기 S31 단계의 일실시예를 나타내는 도면이며, 도 8의 (b)는 상기 S33 단계의 일실시예를 나타내는 도면이다.8 (a) is a view showing an embodiment of the step S31, Figure 8 (b) is a view showing an embodiment of the step S33.

다음으로, 상기 객체 형상 선택부(235)를 이용하여, 상기 객체의 형상 정보를 선택(S35)하며, 본 발명에 따른 상기 S35 단계는 도 9에 도시된 바와 같이, 상기 기준면 선택부(233)를 이용하여, 상기 객체의 기준면을 선택(S351)하고, 상기 형상정보 선택부(234)를 이용하여, 선택된 상기 객체 기준면의 형상 정보를 입력을 위한 기준선 또는 기준점을 입력하는 단계(S353)를 포함하는 것이 바람직하다.Next, the shape information of the object is selected using the object shape selection unit 235 (S35), and in step S35 according to the present invention, the reference plane selection unit 233 is illustrated in FIG. 9. Selecting a reference plane of the object (S351), and using the shape information selection unit 234, inputting a reference line or reference point for inputting the shape information of the selected object reference plane (S353) It is desirable to.

도 8의 (c)는 상기 S351 단계의 일실시예를 나타내는 도면이며, 도 8의 (d)는 상기 S353 단계의 일실시예를 나타내는 도면으로, 본 발명의 실시예에서는 상기 S351 단계 및 상기 S353 단계 이전에 가이드 정보부를 이용하여, 객체의 형상 정보를 입력에 따른 가이드 정보를 제공하도록 하였다.8 (c) is a view showing an embodiment of the step S351, Figure 8 (d) is a view showing an embodiment of the step S353, in the embodiment of the present invention the step S351 and the S353 Before the step, the guide information unit was used to provide guide information according to the shape information of the object.

다음으로, 상기 객체 확장부(236)를 이용하여, 상기 형상정보로 객체를 3차원 확장하는 단계(S37)를 수행하며, 본 발명의 실시예에서는 도 8의 (e)에 도시된 바와 같이 객체의 3차원 형상을 생성하였다.Next, using the object extension unit 236, performing the step (S37) of expanding the object by the shape information in three dimensions, in the embodiment of the present invention as shown in (e) of FIG. The three-dimensional shape of was created.

다음으로, 상기 컨텍스트 태그부(24)를 이용하여, 3차원 형상 모델링된 객체의 좌표정보로 컨택스트를 식별하는 태그 정보를 설정하여 데이터베이스에 등록하는 단계(S40)를 수행한다.Next, using the context tag unit 24, tag information for identifying a context is determined using coordinate information of a 3D shape modeled object and registered in a database (S40).

이처럼 본 발명에 따른 증강현실 기반의 실시간 관심 컨텍스트 등록 방법을 적용 시, 상황에 따라 동적으로 변하는 2차원 형태의 가이드를 통해 사용자는 시스템의 상태나 의도를 파악하기에 용이하고 결과적으로 모델링에 대한 지식 없이도 매 단계를 수행할 수 있는 기술적 효과를 누릴 수 있다.As described above, when applying the augmented reality-based real-time interest context registration method according to the present invention, the user can easily grasp the state or intention of the system through the two-dimensional guide that dynamically changes according to the situation, and consequently, the knowledge about the modeling. You can enjoy the technical effects of performing every step without

도 9는 휴대 단말기를 통해 객체를 모델링하는 과정을 상세하게 설명하는 도면으로, 복잡한 3차원 객체 형태(appearance)를 포함하는 Cuboid 모델링을 수행하여 다수의 3차원 객체를 등록할 수 있고, 등록한 다수의 3차원 객체를 실시간 인식/추적이 가능하다.FIG. 9 is a diagram illustrating a process of modeling an object through a mobile terminal in detail. A plurality of 3D objects may be registered by performing Cuboid modeling including a complex 3D object appearance. Real-time recognition / tracking of 3D objects is possible.

터치를 통해 객체의 테두리를 정확히 모델링할 수 있고(bezel-touch), 푸쉬-풀(push-pull) 기능을 통해 객체를 깊이 방향으로 밀거나 당겨(intrusion & extrusion) 3차원 객체를 보다 정확히 모델링할 수 있다.
Touch can accurately model the edges of an object (bezel-touch), and push-pull allows for more accurate modeling of three-dimensional objects by pushing or pulling objects in the depth direction (intrusion & extrusion). Can be.

상기에서는 개시된 기술의 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit and scope of the invention as defined in the following claims It can be understood that it is possible.

10 : 사용자 입력장치 20 : 컨텍스트 등록부
21 : 관심 컨텍스트 초점부 22 : 관심 컨텍스트 인식부
23 : 객체 모델링부 24 : 컨텍스트 태그부
30 : 데이터베이스 40 : 컨텍스트 해석부
231 : 객체 선택부 232 : 특징점 수집부
233 : 기준면 선택부 234 : 형상 정보 선택부
235 : 객체 형상 선택부 236 : 객체 확장부
237 : 가이드 정보부
10: user input device 20: context register
21: Interest context focus 22: Interest context recognizer
23: object modeling unit 24: context tag unit
30: database 40: context interpreter
231: object selection unit 232: feature point collection unit
233: reference plane selection unit 234: shape information selection unit
235: object shape selection unit 236: object extension unit
237 Guide Information Department

Claims (12)

사용자 입력장치에서 객체 특징점을 전달받아 타겟이 되는 관심 컨텍스트의 초점을 조정하여, 특징점 좌표를 제공하는 관심 컨텍스트 초점부;
상기 관심 컨텍스트의 등록 여부를 확인하는 관심 컨텍스트 인식부 및
상기 관심 컨텍스트 초점부에서 특징점 좌표를 전달받아 관심 컨텍스트 등록을 위해 타겟이 되는 객체를 3차원 형상 모델링하는 객체 모델링부를 포함하는 것을 특징으로 하는 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템.
An interest context focus unit configured to receive an object feature point from a user input device, adjust a focus of a target context of interest, and provide feature point coordinates;
An interest context recognizer for checking whether the interest context is registered;
Augmented reality-based real-time interest context registration system, characterized in that it comprises an object modeling unit for receiving the feature point coordinates from the interest context focusing unit to model the object that is a target for registration of interest context.
제1항에 있어서,
상기 관심 컨텍스트 인식부는
객체의 알에프 아이디 태그 정보로 관심 컨텍스트를 인식하거나, 관심 영역 감지로 타겟이 되는 객체를 인식하는 것을 특징으로 하는 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템.
The method of claim 1,
The interest context recognizer
An augmented reality-based real-time interest context registration system, characterized in that it recognizes a context of interest by RFID ID tag information of an object or recognizes a target object by detecting a region of interest.
제1항에 있어서,
상기 객체 모델링부는,
관심 컨텍스트로 등록하고자 하는 객체를 선택하는 객체 선택부;
선택된 상기 객체의 3차원 특징점을 수집하는 특징점 수집부;
선택된 객체의 형상 정보를 선택하는 객체 형상 선택부 및
선택된 상기 형상 정보로 객체를 3차원 확장하는 객체 확장부를 포함하는 것을 특징으로 하는 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템.
The method of claim 1,
The object modeling unit,
An object selecting unit for selecting an object to be registered as a context of interest;
A feature point collector for collecting a 3D feature point of the selected object;
An object shape selection unit for selecting shape information of the selected object, and
Augmented reality-based real-time interest context registration system comprising an object expansion unit for three-dimensionally extending the object with the selected shape information.
제3항에 있어서,
상기 객체 형상 선택부는,
상기 객체의 기준면을 선택하는 기준면 선택부 및
선택된 상기 객체 기준면의 형상 정보를 입력을 위한 기준선 또는 기준점을 입력하는 형상정보 선택부를 포함하는 것을 특징으로 하는 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템.
The method of claim 3,
The object shape selection unit,
A reference plane selection unit for selecting a reference plane of the object;
And a shape information selection unit which inputs a reference line or a reference point for inputting shape information of the selected object reference plane.
제4항에 있어서,
상기 형상정보 선택부는
상기 객체 기준면의 형상이 다각형일 경우, 두 개의 꼭지점을 연결하여, 다각형의 평면 상에 위치하는 대각선을 입력하고,
상기 객체 기준면의 형상이 원형일 경우, 원형 상에 위치한 세 개의 점을 입력하여, 원형 형상 정보를 입력하는 것을 특징으로 하는 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템.
5. The method of claim 4,
The shape information selection unit
When the shape of the object reference plane is a polygon, connecting two vertices, input a diagonal line located on the plane of the polygon,
When the shape of the object reference plane is a circular shape, a real-time interest context registration system based on augmented reality, characterized in that to input three shape points on the circle, the circular shape information.
제1항에 있어서,
상기 객체 모델링부와 연결되어,
3차원 형상 모델링된 객체의 좌표 정보를 이용하여, 컨텍스트를 식별할 수 있는 태그 정보를 설정하는 컨텍스트 태그부를 더 포함하는 것을 특징으로 하는 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템.
The method of claim 1,
In connection with the object modeling unit,
Augmented reality-based real-time interest context registration system further comprises a context tag unit for setting the tag information for identifying the context, using the coordinate information of the three-dimensional shape modeled object.
제3항에 있어서,
상기 객체 모델링부는,
객체의 선택 및 객체의 형상 정보를 입력 시, 가이드 정보를 제공하는 가이드 정보부를 더 포함하는 것을 특징으로 하는 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템.
The method of claim 3,
The object modeling unit,
Augmented reality-based real-time interest context registration system, characterized in that it further comprises a guide information for providing guide information when selecting the object and the shape information of the object.
(a) 관심 컨텍스트 인식부를 이용하여, 관심 컨텍스트의 등록 여부를 확인하는 단계;
(b) 상기 (c) 단계에서 상기 객체의 관심 컨텍스트를 인식하지 못할 경우, 객체 모델링부를 이용하여, 해당 객체를 3차원 형상 모델링하는 단계 및
(c) 컨텍스트 태그부를 이용하여, 3차원 형상 모델링된 객체의 좌표정보로 컨택스트를 식별하는 태그 정보를 설정하여 데이터베이스에 등록하는 단계를 포함하는 것을 특징으로 하는 증강현실 기반의 실시간 관심 컨텍스트 등록 방법.
(a) checking whether an interest context is registered using an interest context recognizer;
(b) if the context of interest of the object is not recognized in step (c), using the object modeling unit, modeling the object in three-dimensional shape; and
(c) using the context tag unit, setting tag information identifying a context using coordinate information of a 3D shape modeled object and registering the tag information in a database. .
제8항에 있어서,
상기 (a) 단계는,
객체의 알에프 아이디 태그 정보로 관심 컨텍스트를 인식하거나, 관심 영역 감지로 타겟이 되는 객체를 인식하는 단계인 것을 특징으로 하는 증강현실 기반의 실시간 관심 컨텍스트 등록 방법.
9. The method of claim 8,
The step (a)
Recognizing a context of interest by the RFID ID tag information of the object, or a method of registering a real-time interest context based on augmented reality, characterized in that the step of recognizing the target object by the detection of the region of interest.
제8항에 있어서,
상기 (b) 단계는,
(b-1) 객체 선택부를 이용하여, 관심 컨텍스트로 등록하고자 하는 객체를 선택하는 단계;
(b-2) 특징점 수집부를 이용하여, 선택된 상기 객체의 3차원 특징점을 수집하는 단계;
(b-3) 객체 형상 선택부를 이용하여, 상기 객체의 형상 정보를 선택하는 단계 및
(b-4) 객체 확장부를 이용하여, 상기 형상정보로 객체를 3차원 확장하는 단계를 포함하는 것을 특징으로 하는 증강현실 기반의 실시간 관심 컨텍스트 등록 방법.
9. The method of claim 8,
The step (b)
(b-1) selecting an object to be registered in the context of interest using the object selector;
(b-2) collecting a 3D feature point of the selected object by using the feature point collector;
(b-3) selecting shape information of the object by using an object shape selection unit;
and (b-4) using the object extension unit to three-dimensionally expand the object with the shape information.
제9항에 있어서,
상기 (b-3) 단계는,
(b-3-1) 기준면 선택부를 이용하여, 상기 객체의 기준면을 선택하는 단계 및
(b-3-2) 형상정보 선택부를 이용하여, 선택된 상기 객체 기준면의 형상 정보를 입력을 위한 기준선 또는 기준점을 입력하는 단계를 포함하는 것을 특징으로 하는 증강현실 기반의 실시간 관심 컨텍스트 등록 방법.
10. The method of claim 9,
Step (b-3),
(b-3-1) selecting a reference plane of the object using a reference plane selection unit; and
and (b-3-2) inputting a reference line or a reference point for inputting the shape information of the selected object reference plane by using the shape information selection unit.
제9항에 있어서,
상기 (b-1) 단계 이전에
(b-5) 가이드 정보부를 이용하여, 객체의 선택에 따른 가이드 정보를 제공하는 단계를 더 포함하며,
상기 (b-3) 단계 이전에
(b-6) 가이드 정보부를 이용하여, 객체의 형상 정보를 입력에 따른 가이드 정보를 제공하는 것을 특징으로 하는 증강현실 기반의 실시간 관심 컨텍스트 등록 방법.
10. The method of claim 9,
Before step (b-1)
(b-5) using the guide information unit, further comprising providing guide information according to the selection of the object,
Before step (b-3)
(b-6) The method of registering real-time interest context based on augmented reality, characterized by providing guide information based on input of shape information of an object using a guide information unit.
KR1020130073616A 2012-06-26 2013-06-26 Areal-time coi registration system and the method based on augmented reality KR101546653B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120068542 2012-06-26
KR20120068542 2012-06-26

Publications (2)

Publication Number Publication Date
KR20140001152A true KR20140001152A (en) 2014-01-06
KR101546653B1 KR101546653B1 (en) 2015-08-25

Family

ID=50138780

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130073616A KR101546653B1 (en) 2012-06-26 2013-06-26 Areal-time coi registration system and the method based on augmented reality

Country Status (1)

Country Link
KR (1) KR101546653B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102199772B1 (en) * 2019-11-12 2021-01-07 네이버랩스 주식회사 Method for providing 3D modeling data
US10922895B2 (en) 2018-05-04 2021-02-16 Microsoft Technology Licensing, Llc Projection of content libraries in three-dimensional environment
KR20220085461A (en) * 2020-12-15 2022-06-22 (주)심스리얼리티 Method for recognizing object in 3 dimentional space

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100900806B1 (en) 2007-11-01 2009-06-04 광주과학기술원 System and method for providing context-aware augmented reality
JP2010121999A (en) 2008-11-18 2010-06-03 Omron Corp Creation method of three-dimensional model, and object recognition device
JP5354507B2 (en) 2009-06-10 2013-11-27 公立大学法人大阪府立大学 Object recognition image database creation method, creation apparatus, and creation processing program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10922895B2 (en) 2018-05-04 2021-02-16 Microsoft Technology Licensing, Llc Projection of content libraries in three-dimensional environment
KR102199772B1 (en) * 2019-11-12 2021-01-07 네이버랩스 주식회사 Method for providing 3D modeling data
KR20220085461A (en) * 2020-12-15 2022-06-22 (주)심스리얼리티 Method for recognizing object in 3 dimentional space

Also Published As

Publication number Publication date
KR101546653B1 (en) 2015-08-25

Similar Documents

Publication Publication Date Title
Park et al. Deep learning-based smart task assistance in wearable augmented reality
CN100407798C (en) Three-dimensional geometric mode building system and method
JP5952001B2 (en) Camera motion estimation method and apparatus using depth information, augmented reality system
US8860760B2 (en) Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
Seo et al. Direct hand touchable interactions in augmented reality environments for natural and intuitive user experiences
US11200457B2 (en) System and method using augmented reality for efficient collection of training data for machine learning
US8751969B2 (en) Information processor, processing method and program for displaying a virtual image
CN110473293B (en) Virtual object processing method and device, storage medium and electronic equipment
EP2814000B1 (en) Image processing apparatus, image processing method, and program
Schmalstieg et al. The world as a user interface: Augmented reality for ubiquitous computing
US11842514B1 (en) Determining a pose of an object from rgb-d images
JP2011095797A (en) Image processing device, image processing method and program
CN102708355A (en) Information processing device, authoring method, and program
WO2016168786A1 (en) Augmented interface authoring
CN103365411A (en) Information input apparatus, information input method, and computer program
US20150058782A1 (en) System and method for creating and interacting with a surface display
CN111950521A (en) Augmented reality interaction method and device, electronic equipment and storage medium
US10950056B2 (en) Apparatus and method for generating point cloud data
JP7043601B2 (en) Methods and devices for generating environmental models and storage media
CN111858996B (en) Indoor positioning method and device, electronic equipment and storage medium
KR20140001152A (en) Areal-time coi registration system and the method based on augmented reality
Wientapper et al. Composing the feature map retrieval process for robust and ready-to-use monocular tracking
JP6980802B2 (en) Methods, equipment and computer programs to provide augmented reality
Schall et al. 3D tracking in unknown environments using on-line keypoint learning for mobile augmented reality
CN116843867A (en) Augmented reality virtual-real fusion method, electronic device and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180725

Year of fee payment: 4