KR20090044700A - System and method for providing context-aware augmented reality - Google Patents
System and method for providing context-aware augmented reality Download PDFInfo
- Publication number
- KR20090044700A KR20090044700A KR1020070110916A KR20070110916A KR20090044700A KR 20090044700 A KR20090044700 A KR 20090044700A KR 1020070110916 A KR1020070110916 A KR 1020070110916A KR 20070110916 A KR20070110916 A KR 20070110916A KR 20090044700 A KR20090044700 A KR 20090044700A
- Authority
- KR
- South Korea
- Prior art keywords
- context
- sensor
- augmented reality
- data
- converting
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
Landscapes
- Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
컨텍스트 인식 증강 현실을 제공하기 위한 시스템 및 방법, 그리고 상기 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체가 개시된다. 본 발명에 따른 컨텍스트 인식 증강현실을 제공하기 위한 시스템은, 주변 환경으로부터 데이터를 수집하는 센서부; 상기 수집된 데이터와 사용자로부터 입력된 데이터를 변환하여 컨텍스트를 생성하는 컨텍스트 생성부; 및 입력되는 영상과 상기 생성된 컨텍스트를 이용하여 증강현실 장면을 생성하는 장면 생성부를 포함하는 것을 특징으로 한다. 이러한 본 발명에 따르면, 증강현실 서비스를 보다 다채롭게 제공하기 위하여 사용자와 사용자 주변 환경에 대한 정보를 파악하는 컨텍스트 인식 가능한 증강현실을 제공할 수 있다. A system and method for providing context aware augmented reality and a computer readable recording medium having recorded thereon a program for executing the method are disclosed. System for providing context-aware augmented reality according to the present invention, the sensor unit for collecting data from the surrounding environment; A context generator configured to generate a context by converting the collected data and data input from a user; And a scene generator configured to generate an augmented reality scene using the input image and the generated context. According to the present invention, it is possible to provide a context-aware augmented reality that grasps information about the user and the environment around the user in order to provide a variety of augmented reality services.
증강현실(Augmented Reality), 컨텍스트 Augmented Reality, Context
Description
본 발명은 증강현실을 제공하기 위한 시스템 및 방법에 관한 것으로, 특히 컨텍스트 인식이 가능한 증강현실을 제공하기 위한 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for providing augmented reality, and more particularly to a system and method for providing augmented reality capable of context recognition.
증강현실(Augmented Reality)이란, 일반적으로 가상 환경 및 가상 현실에서 파생한 용어로서, 실제 환경에 컴퓨터 그래픽 영상을 삽입하여 실세계 영상과 가상의 영상을 혼합한 것을 의미한다. 실세계 정보에는 사용자가 필요로 하지 않는 정보도 있고 때로는 사용자가 필요로 한 정보가 부족할 수도 있다. 그러나, 컴퓨터로 만든 가상 환경을 이용하면 필요로 하지 않는 정보를 단순하게 하거나 보이지 않게 할 수도 있다. 즉, 증강현실 시스템은 실세계와 가상 세계를 결합함으로써 실시간으로 사용자와 상호 작용이 이루어지도록 하는 것이다.Augmented Reality is generally a term derived from virtual environment and virtual reality, and refers to a mixture of real world image and virtual image by inserting computer graphic image into the real environment. Real-world information may contain information that the user does not need, and sometimes the user may lack information. However, using computer-generated virtual environments, you can simplify or hide information you don't need. In other words, the augmented reality system combines the real world and the virtual world to allow interaction with the user in real time.
그러나, 현재 제공되고 있는 증강현실 서비스 또는 현재까지 연구된 결과를 살펴보면, 사용자나 주변 환경의 상태를 고려하지 않고 모든 사용자에게 동일한 서비스를 제공하는 수준에 머무르고 있다. 따라서 증강현실 서비스를 보다 다채롭게 제공하기 위해서는 사용자와 사용자 주변 환경에 대한 정보를 파악하는 컨텍스트 인식 기술이 중요한 역할을 담당할 것으로 파악되고 있다. 그러나 컨텍스트 인식이 가능한 증강현실을 제공하기 위한 구체적인 시스템 구조는 아직까지 제안되지 않았으며, 사용자에 따른 개인화의 측면 역시 고려되지 못하고 있다.However, looking at the augmented reality services that are currently being provided or the results of the studies so far, they remain at the level of providing the same service to all users without considering the state of the user or the surrounding environment. Therefore, in order to provide augmented reality services more colorfully, context-aware technology that grasps information about the user and the environment surrounding the user is expected to play an important role. However, a specific system structure for providing augmented reality with context recognition has not been proposed yet, and the aspect of personalization according to the user has not been considered.
본 발명이 이루고자 하는 기술적 과제는, 증강현실 서비스를 보다 다채롭게 제공하기 위하여 사용자와 사용자 주변 환경에 대한 정보를 파악하고, 사용자에 따른 개인화 측면을 고려할 수 있는 컨텍스트 인식 가능한 증강현실을 위한 시스템 및 방법, 그리고 상기 방법이 기록된 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 데 있다. The technical problem to be achieved by the present invention, to provide a variety of augmented reality services in a variety of systems and methods for context-aware augmented reality that can grasp information about the user and the environment surrounding the user, and can consider personalization according to the user, And a method for providing a computer readable recording medium having recorded thereon.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해되어질 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects which are not mentioned will be clearly understood by those skilled in the art from the following description.
상기 기술적 과제를 해결하기 위하여 본 발명에 따른 컨텍스트 인식 증강현실을 제공하기 위한 시스템은, 주변 환경으로부터 데이터를 수집하는 센서부; 상기 수집된 데이터와 사용자로부터 입력된 데이터를 변환하여 컨텍스트를 생성하는 컨텍스트 생성부; 및 입력되는 영상과 상기 생성된 컨텍스트를 이용하여 증강현실 장면을 생성하는 장면 생성부를 포함하는 것을 특징으로 한다.In order to solve the above technical problem, a system for providing context-aware augmented reality according to the present invention, the sensor unit for collecting data from the surrounding environment; A context generator configured to generate a context by converting the collected data and data input from a user; And a scene generator configured to generate an augmented reality scene using the input image and the generated context.
여기서, 상기 컨텍스트 생성부는 객체를 추적하기 위한 트래커를 포함하고, 상기 트래커는 상기 수집된 데이터에 근거하여 상기 객체를 추적하는 것일 바람직하다.Here, the context generator includes a tracker for tracking an object, and the tracker tracks the object based on the collected data.
또한, 상기 컨텍스트 생성부는 상기 수집된 데이터를 통합하여, 통합된 컨텍스트를 생성하는 컨택스트 통합부를 더 포함하고, 상기 트래커는 상기 통합된 컨텍스트에 따라서 상기 객체를 추적하는 것이 바람직하다.The context generator may further include a context integration unit that integrates the collected data to generate an integrated context, and wherein the tracker tracks the object according to the integrated context.
또한, 상기 컨텍스트 생성부는, 상기 통합된 컨텍스트와 상기 사용자로부터 입력된 데이터를 입력받아, 상기 객체를 추적한 결과에 따라 상기 증강현실 장면에 적합한 형태의 컨텍스트로 변환하는 컨텍스트 관리부를 더 포함하는 것이 바람직하다.The context generator may further include a context manager that receives the integrated context and data input from the user, and converts the object into a context suitable for the augmented reality scene according to a result of tracking the object. Do.
또한, 상기 센서부는, 모바일 단말기에 부착된 센서 또는 주변 환경에 위치한 센서를 포함하는 것이 바람직하다.The sensor unit may include a sensor attached to a mobile terminal or a sensor located in a surrounding environment.
또한, 상기 센서부는, 상기 수집된 데이터를 센서의 ID, 센서의 종류, 센서의 상태에 관한 정보를 포함하는 메타 데이터로 변환하는 센서를 포함하는 것이 바람직하다.The sensor unit may further include a sensor for converting the collected data into metadata including information about a sensor ID, a sensor type, and a sensor state.
또한, 상기 센서는, 센싱된 아날로그 데이터를 디지털 데이터로 변환하는 A/D 컨버터; 상기 변환된 디지털 데이터를 상기 센서의 ID, 상기 센서의 종류, 상기 센서의 상태에 관한 정보를 포함하는 메타 데이터로 변환하는 변환부를 포함하는 것이 바람직하다. The sensor may further include an A / D converter for converting the sensed analog data into digital data; It is preferable to include a conversion unit for converting the converted digital data into metadata including information on the ID of the sensor, the type of the sensor, the state of the sensor.
상기 다른 기술적 과제를 해결하기 위하여 본 발명에 따른 컨텍스트 인식 증강현실을 제공하기 위한 방법은, (a) 센서를 이용하여 주변 환경으로부터 데이터를 수집하는 단계; (b) 상기 수집된 데이터와 사용자로부터 입력된 데이터를 변환하여 컨텍스트를 생성하는 단계; 및 (c) 입력되는 영상과 상기 생성된 컨텍스트를 이용하여 증강현실 장면을 생성하는 단계를 포함하는 것을 특징으로 한다.In order to solve the other technical problem, a method for providing a context-aware augmented reality according to the present invention, (a) collecting data from the surrounding environment using a sensor; (b) generating a context by converting the collected data and data input from a user; And (c) generating an augmented reality scene using the input image and the generated context.
여기서, 상기 (b) 단계는, 상기 수집된 데이터를 통합하여, 통합된 컨텍스트를 생성하는 단계; 상기 통합된 컨텍스트에 따라서 객체를 추적하는 단계; 및 상기 통합된 컨텍스트와 상기 사용자로부터 입력된 데이터를, 상기 객체를 추적한 결과에 따라 상기 증강현실 장면에 적합한 형태의 컨텍스트로 변환하는 단계를 포함하는 것이 바람직하다.Here, step (b) may include: integrating the collected data to generate an integrated context; Tracking an object according to the unified context; And converting the integrated context and data input from the user into a context suitable for the augmented reality scene according to a result of tracking the object.
또한, 상기 (a) 단계에서, 상기 수집된 데이터를 상기 센서의 ID, 상기 센서의 종류, 상기 센서의 상태에 관한 정보를 포함하는 메타 데이터로 변환하는 것이 바람직하다. In addition, in the step (a), it is preferable to convert the collected data into metadata including information on the ID of the sensor, the type of the sensor, and the state of the sensor.
또한, 상기 (a) 단계는, 상기 센서에서 센싱된 아날로그 데이터를 디지털 데이터로 변환하는 단계; 및 상기 디지털 데이터를 상기 센서의 ID, 상기 센서의 종류, 상기 센서의 상태에 관한 정보를 포함하는 메타 데이터로 변환하는 단계를 포함하는 것이 바람직하다.The step (a) may include converting analog data sensed by the sensor into digital data; And converting the digital data into metadata including information about an ID of the sensor, a type of the sensor, and a state of the sensor.
상기 또 다른 기술적 과제를 해결하기 위하여 상기된 본 발명에 따른, 컨텍스트 인식 증강현실을 제공하기 위한 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.In order to solve the above another technical problem, according to the present invention, there is provided a computer-readable recording medium recording a program for executing a method for providing context-aware augmented reality.
본 발명에 따르면, 증강현실 서비스를 보다 다채롭게 제공하기 위하여 사용 자와 사용자 주변 환경에 대한 정보를 파악하는 컨텍스트 인식 가능한 증강현실을 제공할 수 있다. 나아가, 트래커가 센서부에서 수집된 데이터에 근거하여 객체를 추적함으로써, 주변 환경의 상태에 따라 보다 정확하게 객체를 추적할 수 있으며, 또한, 주변 환경으로부터 수집된 데이터와 사용자로부터 입력된 데이터를 컨텍스트로 변환하고, 이를 이용하여 증강현실 장면을 생성함으로써 개인화된 증강현실 서비스를 제공할 수 있다. 그리고, 센서가 전달하는 데이터가 센서 ID를 포함함으로써 동일한 센서들 중에서 특정 센서를 구분할 수 있으며, 센서 종류를 포함함으로써 특정 종류의 센서에서 센싱된 값들만을 구분하여 처리할 수 있고, 센서의 상태에 관한 정보를 포함함으로써 센서의 정상 동작 여부를 감지할 수 있게 된다. According to the present invention, in order to provide augmented reality services more colorfully, it is possible to provide a context-aware augmented reality that grasps information about the user and the environment around the user. Furthermore, the tracker tracks the object based on the data collected by the sensor unit, so that the tracker can track the object more accurately according to the state of the surrounding environment, and also uses the data collected from the surrounding environment and the data input from the user as context. By converting and generating an augmented reality scene using the same, a personalized augmented reality service can be provided. In addition, the data transmitted by the sensor may include a sensor ID to distinguish a specific sensor among the same sensors, and by including a sensor type, only the values sensed by a specific type of sensor may be distinguished and processed. By including the information, it is possible to detect the normal operation of the sensor.
이하에서는 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이하 설명 및 첨부된 도면들에서 실질적으로 동일한 구성요소들은 각각 동일한 부호들로 나타냄으로써 중복 설명을 생략하기로 한다. 또한 본 발명을 설명함에 있어 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, the substantially identical components are represented by the same reference numerals, and thus redundant description will be omitted. In addition, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.
도 1은 본 발명의 일 실시예에 따른 컨텍스트 인식 증강현실을 제공하기 위한 시스템의 블록도이다. 본 실시예에서, 컨텍스트란 사용자와 응용 서비스 사이의 상호작용을 위해 필요한 사용자, 장소, 대상물 등의 개체 상태를 나타내는 정보를 의미한다. 도 1을 참조하면, 본 실시예에 따른 시스템은, 주변 환경으로부터 데이터를 수집하는 센서부(110), 센서부(110)에서 수집된 데이터와 사용자로부터 입력된 데이터를 변환하여 컨텍스트를 생성하는 컨텍스트 생성부(120), 입력 영상과 컨텍스트 생성부(120)에서 생성된 컨텍스트를 이용하여 증강현실 장면을 생성하는 장면 생성부(130)로 이루어진다. 1 is a block diagram of a system for providing context aware augmented reality according to an embodiment of the present invention. In the present embodiment, the context refers to information representing an object state such as a user, a place, and an object required for interaction between a user and an application service. Referring to FIG. 1, the system according to the present embodiment includes a
센서부(110)는 사용자의 모바일 단말기 등에 부착된 모바일 센서(112)와 서비스 제공과 관련된 장소에 미리 설치된 환경 센서(114) 등을 포함할 수 있다. 이들 센서는 주변 환경으로부터 데이터, 예를 들면 온도, 습도, 위치, 밝기, 시간 등의 데이터를 수집한다. 한편, 이들 센서는 센싱된 값을 센서의 ID, 센서의 종류, 센서의 상태에 관한 정보를 포함하는 메타 데이터로 변환하는 것이 바람직하다. 이 점에 관해서는 후술하기로 한다.The
센서부(110)에서 수집된 데이터는 네트워크를 거쳐 컨텍스트 생성부(120)로 전달된다.The data collected by the
컨텍스트 생성부(120)는 컨텍스트 통합부(122), 트래커(124), 컨텍스트 관리부(126), 사용자 입력부(128)를 포함할 수 있다.The
컨텍스트 통합부(122)는 네트워크를 통해 전달된 센서부(110)에서 수집된 데이터를 통합하여, 통합된 컨텍스트를 생성한다. The
트래커(124)는 객체(M)를 추적하는데, 이때, 센서부(110)에서 수집된 데이터에 근거하여 객체(M)를 추적한다. 여기서 객체(M)는 어떤 대상 물체일 수도 있고 증강의 기준이 되는 마커일 수도 있다. 구체적으로, 트래커(124)는 컨텍스트 통합부(122)에서 통합된 컨텍스트에 따라서 객체(M)를 추적한다. 예를 들어, 센서부(110)에서 수집된 데이터가 위치 정보라면, 그 위치 정보를 참조하여 객체(M)를 추적하거나, 센서부(110)에서 수집된 데이터가 밝기 정보, 즉 조도라면, 조도가 높을 경우, 객체(M) 추적시의 민감도를 낮추고, 조도가 낮을 경우에는 객체(M) 추적시의 민감도를 높일 수 있다.The
본 실시예에 따르면, 이와 같이 트래커(124)가 센서부(110)에서 수집된 데이터에 근거하여 객체(M)를 추적함으로써, 주변 환경의 상태에 따라 보다 정확하게 객체(M)를 추적할 수 있다.According to the present embodiment, as described above, the
한편, 컨텍스트 통합부(122)에서 통합된 컨텍스트와 트래커(124)가 객체(M)를 추적한 결과는 후술할 컨텍스트 관리부(126)로 전달된다.Meanwhile, the context integrated by the
사용자 입력부(128)는 사용자로부터 사용자 관련 데이터를 입력받는다. 여기 서 사용자 관련 데이터는 사용자 자신이 직접 입력한 정보일 수도 있고, 사용자의 상태를 센서 등으로 감지하여 생성되는 정보일 수도 있다. The
컨텍스트 관리부(126)는 컨텍스트 통합부(122)에서 통합된 컨텍스트와 사용자 입력부(128)를 통하여 입력된 사용자 관련 데이터를 입력받아, 트래커(124)가 객체(M)를 추적한 결과에 따라 애플리케이션에 요구되는 증강현실 장면에 적합한 형태의 컨텍스트로 변환하고, 이를 관리하며, 후술할 장면 생성부(130)로 전달한다.The
장면 생성부(130)는 카메라 등의 촬상 장치로부터 영상을 입력받고, 컨텍스트 관리부(126)로부터 전달받은 컨텍스트에 따라 증강현실 장면을 생성한다.The
상술한 본 실시예에 따르면, 증강 현실 장면을 생성함에 있어서 컨텍스트를 이용함으로써 보다 개인화되고, 주변 환경에 적응적인 증강현실 서비스를 제공할 수 있다.According to the present embodiment described above, it is possible to provide augmented reality service that is more personalized and adaptive to the surrounding environment by using a context in generating an augmented reality scene.
도 2는 본 발명의 일 실시예에 따른 센서부(110)에 포함된 센서의 블록도이다. 여기서 센서는 모바일 단말기에 부착된 모바일 센서(112) 또는 주변 환경에 위치한 환경 센서(114) 중 어느 것이든 해당될 수 있다.2 is a block diagram of a sensor included in the
도 2를 참조하면, 본 실시예에 따른 센서는 A/D 컨버터(210)와 변환부(220)를 포함하여 이루어진다. Referring to FIG. 2, the sensor according to the present embodiment includes an A /
A/D 컨버터(210)에 입력되는 센싱된 데이터는 아날로그 데이터로서, A/D 컨버터(210)는 아날로그 데이터를 디지털 데이터로 변환한다. The sensed data input to the A /
변환부(220)는 디지털 데이터를 센서 자체에 관련된 정보, 예를 들면 도 2에 도시된 바와 같이 센서를 식별할 수 있는 ID, 센서의 종류, 센서의 상태에 관한 정보 등을 포함하는 메타 데이터 형태로 변환한다. 또한, 변환부(220)는 에러 체크를 위한 체크섬(Checksum)을 포함시켜 메타 데이터 형태로 변환하는 것이 바람직하다.The
본 실시예에 따르면 센서가 전달하는 데이터가 센서 ID를 포함함으로써 동일한 센서들 중에서 특정 센서를 구분할 수 있으며, 센서 종류를 포함함으로써 특정 종류의 센서에서 센싱된 값들만을 구분하여 처리할 수 있고, 센서의 상태에 관한 정보를 포함함으로써 센서의 정상 동작 여부를 감지할 수 있게 된다. 따라서 센싱된 데이터에 따라 동작하는 상술한 컨텍스트 통합부(122)나 트래커(124) 등이 센서로부터 전달된 데이터를 센서 자체에 관련된 정보에 따라 처리하거나 또는 센서로부터 전달되는 데이터를 목적에 맞게 필터링하도록 구현하는 것이 가능해진다.According to the present embodiment, the data transmitted by the sensor includes a sensor ID to distinguish a specific sensor among the same sensors, and by including a sensor type, only the values sensed by a specific type of sensor may be distinguished and processed. By including information on the state of the sensor can be detected whether the normal operation. Therefore, the above-described
도 3은 본 발명의 일 실시예에 따른 컨텍스트 인식 증강현실을 제공하기 위한 방법의 흐름도이다. 본 실시예에 따른 방법은 도 1에 관하여 설명된 컨텍스트 인식 증강현실을 제공하기 위한 시스템에서 처리되는 단계들로 구성된다. 따라서 이하 생략된 내용이라 하더라도 도 1에 관하여 기술된 내용은 본 실시예에 따른 컨텍스트 인식 증강현실을 제공하기 위한 방법에도 적용된다. 3 is a flowchart of a method for providing context aware augmented reality according to an embodiment of the present invention. The method according to this embodiment consists of steps processed in a system for providing context aware augmented reality described with reference to FIG. 1. Therefore, although omitted below, the contents described with reference to FIG. 1 also apply to the method for providing context-augmented reality according to the present embodiment.
310단계에서, 센서를 이용하여 주변 환경으로부터 데이터를 수집한다.In
320단계에서, 수집된 데이터와 사용자로부터 입력된 사용자 관련 데이터를 변환하여 컨텍스트를 생성한다.In
330단계에서, 입력되는 영상과 320단계에서 생성된 컨텍스트를 이용하여 증강현실 장면을 생성한다.In
도 4는 본 발명의 일 실시예에 따른 상기 320단계의 상세 흐름도이다. 본 실시예에 따른 320단계는 도 1에 관하여 설명된 컨텍스트 생성부(120)에서 처리되는 단계들로 구성된다. 따라서 이하 생략된 내용이라 하더라도 도 1에 관하여 기술된 내용은 본 실시예에 따른 방법에도 적용된다.4 is a detailed flowchart of
410단계에서, 상기 310단계에서 수집된 데이터를 통합하여, 통합된 컨텍스트를 생성한다.In
420단계에서, 상기 410단계에서 통합된 컨텍스트에 따라서 객체를 추적한다.In
430단계에서, 상기 410단계에서 통합된 컨텍스트와 사용자로부터 입력된 사용자 관련 데이터를, 상기 420단계에서 객체를 추적한 결과에 따라, 애플리케이션에 요구되는 증강현실 장면에 적합한 형태의 컨텍스트로 변환한다.In
도 5는 본 발명의 일 실시예에 따른 상기 310단계의 상세 흐름도이다. 본 실시예에 따른 310단계는 도 2에 관하여 설명된 센서에서 처리되는 단계들로 구성된다. 따라서 이하 생략된 내용이라 하더라도 도 2에 관하여 기술된 내용은 본 실시예에 따른 방법에도 적용된다.5 is a detailed flowchart of
510단계에서, 입력되는 센싱된 아날로그 데이터를 디지털 데이터로 변환한다. In
520단계에서, 디지털 데이터를 센서 자체에 관련된 정보, 예를 들면 센서를 식별할 수 있는 ID, 센서의 종류, 센서의 상태에 관한 정보 등을 포함하는 메타 데이터 형태로 변환한다.In
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으 로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다.Meanwhile, the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium. The computer-readable recording medium may be a magnetic storage medium (for example, a ROM, a floppy disk, a hard disk, etc.), an optical reading medium (for example, a CD-ROM, DVD, etc.) and a carrier wave (for example, the Internet). Storage medium).
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.
도 1은 본 발명의 일 실시예에 따른 컨텍스트 인식 증강현실을 제공하기 위한 시스템의 블록도이다.1 is a block diagram of a system for providing context aware augmented reality according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 센서부에 포함된 센서의 블록도이다. 2 is a block diagram of a sensor included in a sensor unit according to an exemplary embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 컨텍스트 인식 증강현실을 제공하기 위한 방법의 흐름도이다.3 is a flowchart of a method for providing context aware augmented reality according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 상기 320단계의 상세 흐름도이다. 4 is a detailed flowchart of
도 5는 본 발명의 일 실시예에 따른 상기 310단계의 상세 흐름도이다. 5 is a detailed flowchart of
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070110916A KR100900806B1 (en) | 2007-11-01 | 2007-11-01 | System and method for providing context-aware augmented reality |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070110916A KR100900806B1 (en) | 2007-11-01 | 2007-11-01 | System and method for providing context-aware augmented reality |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090044700A true KR20090044700A (en) | 2009-05-07 |
KR100900806B1 KR100900806B1 (en) | 2009-06-04 |
Family
ID=40855229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070110916A KR100900806B1 (en) | 2007-11-01 | 2007-11-01 | System and method for providing context-aware augmented reality |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100900806B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011159487A3 (en) * | 2010-06-17 | 2012-04-19 | Microsoft Corporation | Augmentation and correction of location based data through user feedback |
US8509483B2 (en) | 2011-01-31 | 2013-08-13 | Qualcomm Incorporated | Context aware augmentation interactions |
KR20140028116A (en) * | 2010-03-08 | 2014-03-07 | 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 | Broadband passive tracking for augmented reality |
KR101394818B1 (en) * | 2010-03-25 | 2014-05-13 | 종협 이 | Data integration for wireless network systems |
US9277283B2 (en) | 2011-01-07 | 2016-03-01 | Samsung Electronics Co., Ltd. | Content synchronization apparatus and method |
KR20240001463A (en) | 2022-06-27 | 2024-01-03 | 주식회사 파르온 | Object recognition and augmented reality content realization system |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101303948B1 (en) | 2010-08-13 | 2013-09-05 | 주식회사 팬택 | Apparatus and Method for Providing Augmented Reality Information of invisible Reality Object |
KR101546653B1 (en) | 2012-06-26 | 2015-08-25 | 한국과학기술원 | Areal-time coi registration system and the method based on augmented reality |
KR20220013631A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | Extended reality service apparatus including axis synchronization function |
KR20220013691A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | Method for verifying the axis alignment of the extended reality service apparatus |
KR20220013709A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | Recording medium for axis alignment verification program of extended reality service device |
KR20220013645A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | Extended reality service apparatus including axis synchronization function |
KR20220013688A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | An apparatus for providing extended reality service including axis alignment verification function |
KR20220013695A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | Program for verifying the axis alignment of the extended reality service apparatus |
KR20220013647A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | Program for axis synchronization of the internal sensor and external sensor of the terminal of the extended reality service device |
KR20220013704A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | Method for operation of axis alignment verification device for extended reality service |
KR20220013652A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | Method for axis synchronization of the internal sensor and external sensor of the terminal of the extended reality service device |
KR20220013649A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | Recording media in which the axis synchronization program of the terminal's internal sensor and external sensor is recorded |
KR20220013707A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | Program for operation of axis alignment verification device for extended reality service |
KR20220013646A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | Method for axis synchronization of the internal sensor and external sensor of the terminal of the extended reality service device |
KR20220013687A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | Apparatus for extended reality service including axis alignment verification function and method for verification of axis alignment |
KR20220013702A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | Recording medium for axis alignment verification program of extended reality service device |
KR20220013655A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | Program for axis synchronization of extended reality service device |
KR20220013657A (en) | 2020-07-27 | 2022-02-04 | 주식회사 리얼위드 | Recording medium for recording by axis synchronization program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100248374B1 (en) * | 1997-11-25 | 2000-03-15 | 정선종 | Error correction method of tracking error caused by a camera and a tracker`s misalignment in augmented reality system |
KR101086068B1 (en) * | 2004-12-10 | 2011-11-22 | 한국문화콘텐츠진흥원 | 3 dimensional marker detection method and device and method for providing augmented reality and mixed reality using the same |
KR200398885Y1 (en) | 2005-07-29 | 2005-10-17 | (주)포스트미디어 | Augmented reality experiencing telescope by using visual tracking |
-
2007
- 2007-11-01 KR KR1020070110916A patent/KR100900806B1/en not_active IP Right Cessation
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140028116A (en) * | 2010-03-08 | 2014-03-07 | 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 | Broadband passive tracking for augmented reality |
KR101394818B1 (en) * | 2010-03-25 | 2014-05-13 | 종협 이 | Data integration for wireless network systems |
KR101452678B1 (en) * | 2010-03-25 | 2014-10-22 | 종협 이 | Data integration for wireless network systems |
WO2011159487A3 (en) * | 2010-06-17 | 2012-04-19 | Microsoft Corporation | Augmentation and correction of location based data through user feedback |
US9277283B2 (en) | 2011-01-07 | 2016-03-01 | Samsung Electronics Co., Ltd. | Content synchronization apparatus and method |
US9979788B2 (en) | 2011-01-07 | 2018-05-22 | Samsung Electronics Co., Ltd. | Content synchronization apparatus and method |
US8509483B2 (en) | 2011-01-31 | 2013-08-13 | Qualcomm Incorporated | Context aware augmentation interactions |
KR20240001463A (en) | 2022-06-27 | 2024-01-03 | 주식회사 파르온 | Object recognition and augmented reality content realization system |
Also Published As
Publication number | Publication date |
---|---|
KR100900806B1 (en) | 2009-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100900806B1 (en) | System and method for providing context-aware augmented reality | |
US20200387793A1 (en) | Intelligent recognition and alert methods and systems | |
US10043551B2 (en) | Techniques to save or delete a video clip | |
US20150380055A1 (en) | Techniques for indexing video files | |
JP4694471B2 (en) | How to place a location stamp on a photo or video clip taken with a digital camera | |
TW200721828A (en) | Imaging device, information processing method, and computer program | |
CN100525392C (en) | Camera video image processing system and method thereof | |
WO2004001667A3 (en) | Systems and methods for de-blurring motion blurred images | |
EP3230956A1 (en) | Augmentation of stop-motion content | |
TW200805096A (en) | Search apparatus and method, and program | |
CN105119783A (en) | Network request data detection method and device | |
US20200012338A1 (en) | Dynamic augmented reality media creation | |
JP2008118643A (en) | Apparatus and method of managing image file | |
US20120144073A1 (en) | Method and apparatus for transferring digital content | |
RU2008143212A (en) | ENVIRONMENTAL LIGHTING ON THE BASIS OF EVENTS | |
Wong et al. | Invisible geo-location signature in a single image | |
CN113641996B (en) | Detection method, graphical interface and related device | |
CN104049861A (en) | Electronic device and method of operating the same | |
JPWO2019087248A1 (en) | Land use determination system, land use determination method and program | |
KR20130116408A (en) | Method and apparatus for detecting leak of information resources data | |
Kumar et al. | Location identification of the individual based on image metadata | |
CN109388722A (en) | It is a kind of for adding or searching the method and apparatus of social connections people | |
Giouroukis et al. | Resense: Transparent record and replay of sensor data in the Internet of Things | |
CN113114986B (en) | Early warning method based on picture and sound synchronization and related equipment | |
CN101437115B (en) | Digital camera and method for setting image name |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130313 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140421 Year of fee payment: 6 |
|
LAPS | Lapse due to unpaid annual fee |