KR20120009639A - Method for Managing Selectable Virtual-Object Data using User's Order, Augmented Reality Device and Recording Medium - Google Patents

Method for Managing Selectable Virtual-Object Data using User's Order, Augmented Reality Device and Recording Medium Download PDF

Info

Publication number
KR20120009639A
KR20120009639A KR1020100069728A KR20100069728A KR20120009639A KR 20120009639 A KR20120009639 A KR 20120009639A KR 1020100069728 A KR1020100069728 A KR 1020100069728A KR 20100069728 A KR20100069728 A KR 20100069728A KR 20120009639 A KR20120009639 A KR 20120009639A
Authority
KR
South Korea
Prior art keywords
virtual object
data
augmented reality
real
user
Prior art date
Application number
KR1020100069728A
Other languages
Korean (ko)
Inventor
김재형
홍종철
이정규
Original Assignee
주식회사 비즈모델라인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비즈모델라인 filed Critical 주식회사 비즈모델라인
Priority to KR1020100069728A priority Critical patent/KR20120009639A/en
Publication of KR20120009639A publication Critical patent/KR20120009639A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Abstract

PURPOSE: A selective virtual object data operation method using a user condition, augmented reality apparatus, and recording medium thereof are provided to transmit effective information corresponding to a user request by providing customized information. CONSTITUTION: An AR(Augmented Reality) apparatus recognizes a real object by analyzing real data. The AR apparatus confirms output condition information for the recognized real object. The AR apparatus confirms the output condition information matched with user condition information(300). The AR apparatus confirms virtual object data(315). The AR apparatus outputs the confirmed virtual object data on the real object(325).

Description

사용자 조건을 이용한 선택적 가상객체 데이터 운용방법 및 이를 위한 증강현실 장치와, 기록매체{Method for Managing Selectable Virtual-Object Data using User's Order, Augmented Reality Device and Recording Medium}Method for managing selective virtual object data using user condition and augmented reality device and recording medium {Method for Managing Selectable Virtual-Object Data using User's Order, Augmented Reality Device and Recording Medium}

본 발명은 사용자의 Context에 맞게 멀티 소스들로부터 필요한 데이터를 추출하고, 추출된 데이터를 조합하여 사용자에게 정보를 제공하는 방법으로써, 사용자의 Context에 따라 제공되는 증강현실 모델이 달라지는 특징을 가진다.
The present invention is a method of extracting necessary data from multiple sources according to a user's context and combining the extracted data to provide information to the user, and has an augmented reality model provided according to the user's context.

본 발명의 실시 예로 증강현실 용용한 네비게이션과 부동산중개서비스 결합 모델을 통해 본 발명의 특징을 설명할 수 있다.
An embodiment of the present invention can explain the characteristics of the present invention through a combination model of navigation and real estate brokerage services for augmented reality.

지금까지 증강현실을 이용한 정보 제공 서비스의 경우, 사전 설정된 정보(모델)을 제공하거나, 단편적인 정보를 제공하는 경우가 대부분이었다. 앞으로의 증강현실 서비스는 네트워크를 기반으로 좀더 복합한 정보를 쉽고 빠르게 제공되는 형태로 발전해 나갈 것으로 예측된다.
Until now, in the case of the information providing service using augmented reality, most of the cases provide a predetermined information (model) or provide fragmentary information. The augmented reality service in the future is expected to evolve in the form of providing more complex information easily and quickly based on the network.

좀더 자세하게 온라인 서비스의 제공 방식과 유사하게 발전될 것으로 예측할 수 있는데, 정보 제공자(Contents Provider)가 제공하는 일방적이고 획일화된 증강현실 모델이 아니라 사용자의 관점에서 사용자의 상황에 적합한 정보를 추출하고 추출된 데이터를 통합적으로 제공되는 모델을 증강현실 기법을 적용할 경우 기존 네트워크 기반의 서비스 수준은 보다 발전된 형태로 진보될 수 있다.
In more detail, it can be predicted to be developed similarly to the online service providing method. Instead of the one-sided and uniform augmented reality model provided by the contents provider, it extracts and extracts information suitable for the user's situation from the user's point of view. If augmented reality technique is applied to a model that provides integrated data, the service level based on the existing network can be advanced.

상기와 같은 문제점을 해소하기 위한 본 발명의 목적은, 사용자가 설정한 조건에 따라 하나의 실제객체(또는 가상객체 표시 위치)를 통해 제공되는 가상객체 데이터를 운용하는 방법 및 증강현실 장치를 제공하는 것이다.
SUMMARY OF THE INVENTION An object of the present invention for solving the above problems is to provide a method and an augmented reality apparatus for operating virtual object data provided through one real object (or virtual object display position) according to a condition set by a user. will be.

본 발명에 따른 사용자 조건을 이용한 선택적 가상객체 데이터 운용방법은, 증강현실 장치에서 실제현실 획득수단을 통해 실제현실 데이터를 획득하고, 상기 획득된 실제현실 데이터를 판독하여 실제객체(또는 가상객체 표시 위치)를 인식하는 단계와, 증강현실 장치에서 상기 인식된 실제객체(또는 가상객체 표시 위치)에 대한 출력조건 정보를 확인하고, 상기 증강현실 장치를 이용하는 사용자가 지정한 사용자 조건 정보와 매칭되는 출력조건 정보를 확인하는 단계와, 증강현실 장치에서 상기 확인된 출력조건 정보와 연결하여 저장된 가상객체 데이터를 확인하는 단계와, 증강현실 장치에서 상기 확인된 가상객체 데이터가 상기 실제객체(또는 가상객체 표시 위치) 상에 출력되도록 처리하는 단계를 포함한다.
In the selective virtual object data operating method using a user condition according to the present invention, the augmented reality device obtains the real reality data through the real reality acquisition means, and reads the obtained real reality data to the real object (or virtual object display position Recognizing), and checks the output condition information for the recognized real object (or virtual object display position) in the augmented reality device, and output condition information matching the user condition information specified by the user using the augmented reality device And confirming the stored virtual object data in connection with the identified output condition information in the augmented reality device, wherein the checked virtual object data in the augmented reality device is the real object (or a virtual object display position). Processing to be output to the image.

본 발명에 따른 사용자 조건을 이용한 선택적 가상객체 데이터 운용 기능이 구비된 증강현실 장치는, 증강현실 장치에서 실제현실 획득수단을 통해 실제현실 데이터를 획득하고, 상기 획득된 실제현실 데이터를 판독하여 실제객체(또는 가상객체 표시 위치)를 인식하는 실제객체 인식부와, 증강현실 장치에서 상기 인식된 실제객체(또는 가상객체 표시 위치)에 대한 출력조건 정보를 확인하고, 상기 증강현실 장치를 이용하는 사용자가 지정한 사용자 조건 정보와 매칭되는 출력조건 정보를 확인하는 출력조건 확인부와, 증강현실 장치에서 상기 확인된 출력조건 정보와 연결하여 저장된 가상객체 데이터를 확인하는 가상객체 입력부와, 증강현실 장치에서 상기 확인된 가상객체 데이터가 상기 실제객체(또는 가상객체 표시 위치) 상에 출력되도록 처리하는 증강현실 표시부를 구비하여 이루어지는 것을 특징으로 한다.
The augmented reality device equipped with an optional virtual object data management function using a user condition according to the present invention, obtains the actual reality data through the actual reality acquisition means in the augmented reality device, and read the obtained real reality data to read the real object A real object recognition unit recognizing a virtual object display position, and output condition information of the recognized real object (or virtual object display position) in the augmented reality device, and designated by a user who uses the augmented reality device An output condition checking unit for checking output condition information matching the user condition information, a virtual object input unit for checking the stored virtual object data in connection with the checked output condition information in the augmented reality device, and the checked in the augmented reality device. Process virtual data to be output on the real object (or virtual object display position) It is characterized by formed by having an augmented reality display.

본 발명에 따르면, 사용자를 대상으로 제공되는 정보가 정형화된 정보가 아닌 사용자의 요구에 맞는 효과적인 정보의 전달이 가능하며, 사용자의 요구에 맞는 정보의 제공을 통해 정보의 이용가치가 높아진다.
According to the present invention, the information provided to the user is not standardized information, but the effective information can be delivered to meet the needs of the user, and the use value of the information is increased through the provision of the information to the user's needs.

도 1은 본 발명의 실시 방법에 따른 하나의 실제객체에 대한 사용자의 조건을 기준으로 각 사용자마다 차별화된 가상객체를 제공하는 증강현실 장치 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따른 하나의 실제객체에 대한 사용자의 조건을 기준으로 각 사용자마다 차별화된 가상객체를 제공하는 과정을 도시한 도면이다.
도 3은 본 발명의 실시 방법에 따른 하나의 실제객체에 대한 사용자의 조건을 기준으로 각 사용자마다 차별화된 가상객체를 제공하는 과정을 도시한 도면이다.
도 4는 본 발명의 실시 방법에 따른 하나의 실제객체에 대한 사용자의 조건을 기준으로 각 사용자마다 차별화된 가상객체를 제공하는 예시를 도시한 도면이다.
도 5는 본 발명의 실시 방법에 따른 하나의 실제객체에 대한 사용자 조건이 임대로 설정한 경우에 대한 가상객체 데이터를 출력하는 예시화면을 도시한 도면이다.
도 6은 본 발명의 실시 방법에 따른 하나의 실제객체에 대한 사용자가 임대하고자 하는 계약 대상 건물로 설정한 경우에 대한 가상객체 데이터를 출력하는 예시 화면을 도시한 도면이다.
1 is a diagram illustrating an augmented reality device configuration that provides a virtual object differentiated for each user based on a user's condition for one real object according to an embodiment of the present invention.
2 is a diagram illustrating a process of providing a differentiated virtual object for each user based on a user's condition for one real object according to an embodiment of the present invention.
3 is a diagram illustrating a process of providing a differentiated virtual object for each user based on a user's condition for one real object according to an embodiment of the present invention.
4 is a diagram illustrating an example of providing a differentiated virtual object for each user based on a user's condition for one real object according to an embodiment of the present invention.
5 is a diagram illustrating an example screen for outputting virtual object data for a case in which a user condition for one real object is set to lease according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating an example screen for outputting virtual object data for a case where a user sets a contract target building to be rented for one real object according to an embodiment of the present invention.

본 발명에 따른 사용자 조건을 이용한 선택적 가상객체 데이터 운용방법은, 증강현실 장치에서 실제현실 획득수단을 통해 실제현실 데이터를 획득하고, 상기 획득된 실제현실 데이터를 판독하여 실제객체(또는 가상객체 표시 위치)를 인식하는 단계와, 증강현실 장치에서 상기 인식된 실제객체(또는 가상객체 표시 위치)에 대한 출력조건 정보를 확인하고, 상기 증강현실 장치를 이용하는 사용자가 지정한 사용자 조건 정보와 매칭되는 출력조건 정보를 확인하는 단계와, 증강현실 장치에서 상기 확인된 출력조건 정보와 연결하여 저장된 가상객체 데이터를 확인하는 단계와, 증강현실 장치에서 상기 확인된 가상객체 데이터가 상기 실제객체(또는 가상객체 표시 위치) 상에 출력되도록 처리하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
In the selective virtual object data operating method using a user condition according to the present invention, the augmented reality device obtains the real reality data through the real reality acquisition means, and reads the obtained real reality data to the real object (or virtual object display position Recognizing), and checks the output condition information for the recognized real object (or virtual object display position) in the augmented reality device, and output condition information matching the user condition information specified by the user using the augmented reality device And confirming the stored virtual object data in connection with the identified output condition information in the augmented reality device, wherein the checked virtual object data in the augmented reality device is the real object (or a virtual object display position). And processing the output to the image.

본 발명에 따른 사용자 조건을 이용한 선택적 가상객체 데이터 운용방법에 있어서, 상기 사용자 조건 정보는, 상기 증강현실 장치 상에 구비된 메모리부 상에 선 등록된 사용자 조건 정보 또는, 상기 증강현실 장치와 통신망을 통해 연결된 서버 상에 저장된 사용자 조건 정보 또는, 상기 실제객체(또는 가상객체 표시 위치)를 통해 선택 가능한 사용자 조건 정보 입력(또는 선택)을 위한 사용자 인터페이스를 통해 입력(또는 선택)되는 사용자 조건 정보인 것을 특징으로 한다.
In the selective virtual object data operating method using a user condition according to the present invention, the user condition information, the user condition information registered in advance on the memory unit provided on the augmented reality device, or a communication network with the augmented reality device User condition information stored on a server connected via the user condition information or user condition information input (or selected) through a user interface for inputting (or selecting) user condition information selectable through the real object (or virtual object display position). It features.

한편, 상기 전술한 사용자 조건을 이용한 선택적 가상객체 데이터 운용방법을 실행하는 프로그램을 기록한 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체를 포함한다.
On the other hand, it includes a computer-readable recording medium, characterized in that for recording a program for executing the method of operating the selective virtual object data using the above-described user conditions.

한편, 본 발명에 따른 사용자 조건을 이용한 선택적 가상객체 데이터 운용 기능이 구비된 증강현실 장치는, 증강현실 장치에서 실제현실 획득수단을 통해 실제현실 데이터를 획득하고, 상기 획득된 실제현실 데이터를 판독하여 실제객체(또는 가상객체 표시 위치)를 인식하는 실제객체 인식부와, 증강현실 장치에서 상기 인식된 실제객체(또는 가상객체 표시 위치)에 대한 출력조건 정보를 확인하고, 상기 증강현실 장치를 이용하는 사용자가 지정한 사용자 조건 정보와 매칭되는 출력조건 정보를 확인하는 출력조건 확인부와, 증강현실 장치에서 상기 확인된 출력조건 정보와 연결하여 저장된 가상객체 데이터를 확인하는 가상객체 입력부와, 증강현실 장치에서 상기 확인된 가상객체 데이터가 상기 실제객체(또는 가상객체 표시 위치) 상에 출력되도록 처리하는 증강현실 표시부를 구비하여 이루어지는 것을 특징으로 한다.
On the other hand, augmented reality device equipped with a selective virtual object data management function using a user condition according to the present invention, by obtaining the actual reality data through the reality acquisition means in the augmented reality device, by reading the obtained real reality data A real object recognition unit recognizing a real object (or virtual object display position) and output condition information on the recognized real object (or virtual object display position) in the augmented reality device, and using the augmented reality device An output condition checking unit for checking output condition information matching the user condition information specified by the user, a virtual object input unit for checking the stored virtual object data in connection with the checked output condition information in the augmented reality device, and in the augmented reality device; Confirmed virtual object data is output on the real object (or virtual object display position) It is characterized by comprising augmented reality display to process.

이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다. 또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
Hereinafter, with reference to the accompanying drawings and description will be described in detail the operating principle of the preferred embodiment of the present invention. However, the drawings and the following description shown below are for the preferred method among various methods for effectively explaining the features of the present invention, the present invention is not limited only to the drawings and description below. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, terms to be described below are terms defined in consideration of functions in the present invention, which may vary according to a user's or operator's intention or custom. Therefore, the definition should be made based on the contents throughout the present invention.

또한, 이하 실시되는 본 발명의 바람직한 실시예는 본 발명을 이루는 기술적 구성요소를 효율적으로 설명하기 위해 각각의 시스템 기능구성에 기 구비되어 있거나, 또는 본 발명이 속하는 기술분야에서 통상적으로 구비되는 시스템 기능구성은 가능한 생략하고, 본 발명을 위해 추가적으로 구비되어야 하는 기능구성을 위주로 설명한다. 만약 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면, 하기에 도시하지 않고 생략된 기능구성 중에서 종래에 기 사용되고 있는 구성요소의 기능을 용이하게 이해할 수 있을 것이며, 또한 상기와 같이 생략된 구성요소와 본 발명을 위해 추가된 구성요소 사이의 관계도 명백하게 이해할 수 있을 것이다.
It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. The configuration is omitted as much as possible, and a functional configuration that should be additionally provided for the present invention is mainly described. Those skilled in the art will readily understand the functions of components that have been used in the prior art among the functional configurations that are not shown in the following description, The relationship between the elements and the components added for the present invention will also be clearly understood.

또한, 이하 실시예는 본 발명의 핵심적인 기술적 특징을 효율적으로 설명하기 위해 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 명백하게 이해할 수 있도록 용어를 적절하게 변형하여 사용할 것이나, 이에 의해 본 발명이 한정되는 것은 결코 아니다.
In order to efficiently explain the essential technical features of the present invention, the following embodiments properly modify the terms so that those skilled in the art can clearly understand the present invention, It is by no means limited.

결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.
As a result, the technical spirit of the present invention is determined by the claims, and the following examples are one means for efficiently explaining the technical spirit of the present invention to those skilled in the art to which the present invention pertains. It is only.

도면1은 본 발명의 실시 방법에 따른 하나의 실제객체에 대한 사용자의 조건을 기준으로 각 사용자마다 차별화된 가상객체를 제공하는 증강현실 장치(100) 구성을 도시한 도면이다.
FIG. 1 is a diagram illustrating an augmented reality device 100 configured to provide a virtual object differentiated for each user based on a user's condition for one real object according to an embodiment of the present invention.

보다 상세하게 본 도면1은 하나의 실제객체에 대한 사용자의 조건을 기준으로 각 사용자마다 차별화된 가상객체를 제공하는 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1을 참조 및/또는 변형하여 상기 증강현실 장치(100) 구성에 대한 다양한 실시 방법(예컨대, 일부 구성부가 생략되거나, 또는 세분화되거나, 또는 합쳐진 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
In more detail, FIG. 1 illustrates a configuration of providing a differentiated virtual object for each user based on a user's condition for one real object, and a person having ordinary knowledge in the technical field to which the present invention belongs, By referring to and / or modifying the drawing of FIG. 1, various implementation methods (eg, some implementations may be omitted, subdivided, or combined) for the augmented reality device 100 may be inferred. Is made including all the inferred implementation method, the technical features are not limited only to the implementation method shown in FIG.

본 발명의 증강현실 장치(100)는 실제현실 데이터를 획득하는 기능, 가상객체 데이터를 획득하는 기능, 상기 실제현실 데이터에 포함된 실제객체(또는 가상객체 데이터 표시할 위치 값)를 결정하는 기능 및 상기 실제현실 데이터 상의 실제객체(또는 가상객체 표시 위치)에 상기 획득된 가상객체 데이터를 표시하여 출력하는 기능 중 적어도 하나의 기능을 구비한 장치의 총칭으로서, 상기 실제현실 데이터를 획득하는 방식, 상기 가상객체 데이터를 획득하는 방식, 상기 실제객체(또는 가상객체 표시 위치)를 결정하는 방식 및 상기 실제현실 데이터 상에 상기 가상객체 데이터를 표시하는 방식에 의해 한정되지 아니한다.
The augmented reality device 100 of the present invention is a function for acquiring the reality data, a function for acquiring the virtual object data, a function for determining the real object (or position value to display the virtual object data) included in the real data; A generic term for a device having at least one function of displaying and outputting the obtained virtual object data on a real object (or a virtual object display position) on the real data, the method of acquiring the real data; The method of obtaining virtual object data, the method of determining the real object (or the virtual object display position), and the method of displaying the virtual object data on the real data are not limited thereto.

예를들어, 상기 실제현실 데이터는 카메라를 통해 실시간 획득되거나, 또는 상기 증강현실 장치(100) 내 메모리로부터 획득되거나, 또는 통신망을 통해 수신될 수 있다. 상기 가상객체 데이터는 상기 증강현실 장치(100) 내 메모리로부터 획득되거나, 또는 통신망을 통해 수신되거나, 또는 상기 메모리에 저장되거나 통신망을 통해 수신되는 결합 가능한 폴리곤(Polygon) 데이터에 텍스쳐(Texture) 데이터를 매핑/렌더링하여 실시간 생성될 수 있다. 상기 실제객체(또는 가상객체 표시 위치)는 마커 방식과 마커리스 방식 중 어느 하나의 방식을 통해 결정되거나, 또는 상기 실제현실 데이터의 색상/채도 값을 판독하여 결정되는 색상/채도 영역에 대한 기하학적 구조(또는 팔레트 구성)와 실제객체의 기하학적 구조(또는 팔레트 구성)를 인식하여 결정될 수 있다. 상기 실제현실 데이터 상에 상기 가상객체 데이터를 표시하는 방식은 상기 실제현실 데이터와 가상객체 데이터를 조합한 하나의 출력 데이터를 생성하여 표시하는 방식, 실제현실 계층(Layer)와 적어도 하나의 가상현실 계층을 구비한 출력 데이터를 구성한 후 상기 출력 데이터의 실제현실 계층에 상기 실제현실 데이터를 출력함과 동시에 적어도 하나의 가상현실 계층에 가상객체 데이터를 표시하는 방식을 적어도 하나 포함할 수 있다. 만약 상기 실제현실 데이터가 투명 디스플레이에 표시되는 경우, 상기 가상객체 데이터는 상기 실제객체와 관측자의 시선방향이 만나는 투명 디스플레이 위치에 상기 실제객체에 대응하는 가상객체 데이터를 출력하는 형태로 표시될 수 있다.
For example, the reality data may be obtained in real time through a camera, from a memory in the augmented reality device 100, or may be received through a communication network. The virtual object data is obtained from a memory in the augmented reality device 100, or received through a communication network, the texture (Texture) data to the combineable polygon (Polygon) data stored in the memory or received through the communication network It can be generated in real time by mapping / rendering. The real object (or virtual object display position) is determined by one of a marker method and a markerless method, or a geometric structure of a hue / saturation area determined by reading a hue / saturation value of the real data. (Or palette configuration) and the geometry of the actual object (or palette configuration) can be determined by knowing. The method of displaying the virtual object data on the reality data is a method of generating and displaying one output data combining the reality data and the virtual object data, a reality layer and at least one virtual reality layer. After configuring the output data including the output data to the real reality layer of the output data and at the same time at least one method for displaying the virtual object data on at least one virtual reality layer. If the real data is displayed on the transparent display, the virtual object data may be displayed in a form of outputting virtual object data corresponding to the real object at a transparent display position where the line of sight of the real object and the observer meet. .

또한, 상기 증강현실 장치(100)는 상기 장치의 이용 분야와 외형(또는 구조) 및 접속되는 통신망에 의해 한정되지 아니한다.
In addition, the augmented reality device 100 is not limited by the field of use of the device and the appearance (or structure) and the communication network to be connected.

예를들어, 상기 증강현실 장치(100)는 하나의 케이스 내에 각 구성부가 통합 구비된 독립 장치 형태, 연결된 두개 이상의 장치에 각 구성부가 분리되어 구비된 연동 장치 형태, 특정 물건/건물/공간에 설치된 설치 장치 형태 등으로 구현될 수 있다.
For example, the augmented reality device 100 is in the form of a stand-alone device with each component unit integrated in one case, the form of an interlocking device provided separately from each component connected to two or more devices, installed in a specific object / building / space It may be implemented in the form of an installation device.

도면1을 참조하면, 상기 증강현실 장치(100)는, 제어부(120), 메모리부(155) 및 출력부(105)를 구비하며, 실제현실 데이터를 획득하는 방식에 따라 카메라부(165)를 더 구비하고, 가상객체 데이터를 획득하는 방식에 따라 통신부(115)를 더 구비하고, 가상객체 데이터가 표시될 실제현실 데이터 상의 실제객체(또는 가상객체 표시 위치)를 결정하는 방식에 따라 센서부(160)를 더 구비하고, 사용자 조작을 위한 조작부(110)를 더 구비할 수 있다.
Referring to FIG. 1, the augmented reality device 100 includes a control unit 120, a memory unit 155, and an output unit 105. The augmented reality device 100 includes a camera unit 165 according to a method of acquiring real data. Further, the communication unit 115 is further provided according to the method of acquiring the virtual object data, and the sensor unit (depending on the method of determining the actual object (or the display position of the virtual object) on the actual reality data on which the virtual object data is to be displayed ( The electronic device may further include a 160, and further include an operation unit 110 for a user operation.

상기 제어부(120)는 물리적으로 프로세서와 실행 메모리와 버스를 포함하며, 기능적으로 상기 증강현실 장치(100)에 구비된 프로그램이 상기 실행 메모리로 로드되어 상기 프로세서에 의해 연산되도록 처리하는 기록매체 기능을 수행한다. 이에 본 도면1은 상기 증강현실 장치(100)에 구비되는 프로그램 구성부를 편의상 상기 제어부(120) 내에 도시하여 설명하기로 한다.
The controller 120 physically includes a processor, an execution memory, and a bus, and functionally records a function of processing a program included in the augmented reality device 100 to be loaded into the execution memory and operated by the processor. To perform. 1 will be described with reference to the program component provided in the augmented reality device 100 in the control unit 120 for convenience.

상기 메모리부(155)는 비휘발성 메모리를 포함하며, 기능적으로 상기 제어부(120)로 로딩될 프로그램 코드와 상기 프로그램 코드가 사용하는 데이터 셋트를 저장/유지하는 저장매체 기능을 수행한다. 여기서, 상기 프로그램 코드는 상기 증강현실 장치(100)의 기본 동작을 운영/제어하는 시스템 프로그램 코드와, 상기 증강현실 장치(100)에 구비되는 각종 애플리케이션 서비스를 제공하는 응용 프로그램 코드를 포함한다.
The memory unit 155 includes a nonvolatile memory, and functionally stores a program medium to be loaded into the controller 120 and a storage medium for storing and maintaining a data set used by the program code. Here, the program code includes a system program code for operating / controlling the basic operations of the augmented reality device 100, and an application program code for providing various application services provided in the augmented reality device 100.

본 발명의 실시 방법에 따르면, 상기 메모리부(155)는 상기 실제현실 데이터를 저장할 수 있으며, 이 경우 상기 메모리부(155)는 상기 실제현실 데이터를 획득하는 실제현실 획득수단의 기능을 수행할 수 있다.
According to the exemplary embodiment of the present invention, the memory unit 155 may store the reality data, and in this case, the memory unit 155 may perform a function of the reality acquisition means for acquiring the reality data. have.

본 발명의 실시 방법에 따르면, 상기 메모리부(155)는 상기 가상객체 데이터를 저장할 수 있으며, 이 경우 상기 메모리부(155)는 상기 가상객체 데이터를 획득하는 가상현실 획득수단의 기능을 수행할 수 있다.
According to the exemplary embodiment of the present invention, the memory unit 155 may store the virtual object data, and in this case, the memory unit 155 may perform a function of a virtual reality acquiring means for acquiring the virtual object data. have.

본 발명의 실시 방법에 따르면, 상기 메모리부(155)는 본 발명에 따른 하나의 실제객체에 대한 사용자의 조건을 기준으로 각 사용자마다 차별화된 가상객체를 제공하기 위해, 실제현실 데이터를 통해 획득되는 실제현실 데이터 상에 포함된 실제객체(또는 가상객체 표시 위치) 정보와, 상기 실제객체(또는 가상객체 표시 위치)를 통해 가상객체 데이터 출력시, 상기 가상객체 데이터를 출력할 N(N≥1)개의 출력조건 정보와, 상기 N개의 출력조건 각각에 대응하여 출력할 가상객체 데이터를 저장하는 것이 가능하다.
According to the exemplary embodiment of the present invention, the memory unit 155 may be obtained through real reality data to provide a differentiated virtual object for each user based on a user's condition for one real object according to the present invention. N (N≥1) for outputting the virtual object data when outputting the virtual object data through the real object (or virtual object display position) information included in the real data and the real object (or virtual object display position) Output condition information and virtual object data to be output corresponding to each of the N output conditions can be stored.

상기 출력부(105)는 실제현실 데이터 상의 실제객체에 가상객체 데이터를 표시하는 출력장치를 포함하며, LCD와 같은 일반 출력장치와 안경, 고글, 유리창과 같은 투명 디스플레이 중 어느 하나를 포함할 수 있다.
The output unit 105 may include an output device that displays virtual object data on a real object on real reality data, and may include any one of a general output device such as an LCD and a transparent display such as glasses, goggles, and glass windows. .

상기 카메라부(165)는 광학부와 CCD(Charge Coupled Device)로 구성된 카메라로부터 래스터(Raster) 기반의 실제현실 데이터를 비트맵 방식으로 실시간 획득하는 장치를 포함한다. 여기서, 상기 실제현실 데이터는 이미지 데이터 또는 동영상 데이터를 포함할 수 있다. 즉, 상기 카메라부(165)는 상기 증강현실 장치(100)에서 실제현실 데이터를 실시간 획득하는 실제현실 획득수단의 기능을 수행할 수 있다.
The camera unit 165 includes an apparatus for real-time acquisition of raster-based real reality data in a bitmap manner from a camera composed of an optical unit and a charge coupled device (CCD). In this case, the reality data may include image data or video data. That is, the camera unit 165 may perform a function of real reality acquiring means for acquiring real reality data in real time from the augmented reality device 100.

본 발명의 실시 방법에 따르면, 상기 카메라부(165)는 상기 센서부(160)와 연동하여 센서 입력에 필요한 특정 데이터만 선택적으로 획득하거나, 또는 이미지(또는 동영상) 형태의 센싱 데이터를 획득하는 센서부(160)의 기능을 수행할 수 있다.
According to the exemplary embodiment of the present invention, the camera unit 165 may be configured to selectively acquire only specific data necessary for sensor input in connection with the sensor unit 160 or to obtain sensing data in the form of an image (or a video). The function of the unit 160 may be performed.

예를들어, 상기 카메라부(165)와 센서부(160)가 연동하는 경우, 상기 카메라부(165)는 상기 센서부(160)가 센싱하는 영역의 실제현실 데이터만 선택적으로 획득할 수 있으며, 이를 위해 상기 카메라부(165)와 센서부(160)의 시선 방향이 일치되도록 설정된다.
For example, when the camera unit 165 and the sensor unit 160 interlock, the camera unit 165 may selectively obtain only actual reality data of an area sensed by the sensor unit 160. To this end, the camera unit 165 and the sensor unit 160 are set to coincide with each other.

또는, 상기 카메라부(165)는 실제현실 데이터를 획득함과 동시에, 상기 실제현실 데이터를 판독하여 지정된 센싱 대상의 이미지(또는 동영상) 데이터를 센싱하는 센서부(160)의 기능을 수행할 수 있다.
Alternatively, the camera unit 165 may perform the function of the sensor unit 160 that acquires the real data and at the same time reads the real data and senses the image (or video) data of the designated sensing target. .

상기 통신부(115)는 상기 증강현실 장치(100)가 접속하는 유선(또는 무선) 통신망에 따라 어느 하나의 통신 규격과 프로토콜을 기반으로 상기 통신망에 접속하는 통신모듈을 포함하며, 상기 통신망 상의 서버(또는 장치)와 통신채널을 연결하거나 또는 다른 증강현실 장치(100)와 통신채널을 연결하는 기능을 수행한다.
The communication unit 115 includes a communication module connected to the communication network based on any one communication standard and protocol according to a wired (or wireless) communication network to which the augmented reality device 100 is connected, and includes a server on the communication network ( Or a communication channel) and a communication channel with another augmented reality device 100.

본 발명의 실시 방법에 따르면, 상기 통신부(115)는 통신망 상의 서버(또는 장치)로부터 실제현실 데이터를 수신하는 실제현실 획득수단의 기능을 수행하거나, 또는 상기 통신망 상의 서버(또는 장치)에 저장된 가상객체 데이터를 수신하는 가상현실 획득수단의 기능을 수행할 수 있다.
According to an exemplary embodiment of the present invention, the communication unit 115 performs a function of real reality acquiring means for receiving real data from a server (or device) on a communication network, or a virtual stored in a server (or device) on the communication network. The virtual reality acquiring means for receiving the object data may be performed.

상기 센서부(160)는 상기 증강현실 장치(100)에 구비된 적어도 하나의 센서로부터 아날로그 신호 또는 디지털 신호 형태의 센싱 신호를 획득하여 데이터 처리가 가능한 센싱 데이터로 변환하는 센서모듈을 포함한다. 여기서, 상기 센서는 환경 변화에 따라 전기적 신호(예컨대, 저항, 전류, 전압)를 발생시키는 전기적 신호 센서와, 상기 카메라와 같이 실제현실 데이터를 획득함과 동시에 상기 실제현실 데이터로부터 센서 입력에 필요한 특정 데이터만 선택적으로 획득하는 카메라 센서를 포함할 수 있다. 만약 상기 센서가 카메라 센서를 포함하는 경우 상기 센서부(160)는 상기 카메라부(165)와 통합될 수 있다.
The sensor unit 160 includes a sensor module that obtains a sensing signal in the form of an analog signal or a digital signal from at least one sensor provided in the augmented reality device 100 and converts it into sensing data capable of data processing. Here, the sensor is an electrical signal sensor for generating an electrical signal (for example, resistance, current, voltage) in accordance with environmental changes, and while obtaining the real data, such as the camera and at the same time the specific input required for the sensor input from the real data It may include a camera sensor to selectively acquire only data. If the sensor includes a camera sensor, the sensor unit 160 may be integrated with the camera unit 165.

상기 조작부(110)는 상기 증강현실 장치(100)에 사용자 조작이 필요한 경우, 상기 사용자 조작을 입력받는 입력모듈을 포함한다. 상기 조작부(110)는 키 버튼을 구비하여 사용자 조작에 필요한 정보를 키 입력받는 키 입력 모듈과, 상기 출력부(105)와 연동하여 통해 사용자 조작에 필요한 정보를 입력받는 터치 스크린 모듈을 포함하며, 상기 카메라부(165) 또는 센서부(160)와 연동하여 사용자의 손 동작, 몸 동작 및 눈 움직임 중 어느 하나를 인식하여 사용자 조작에 필요한 정보를 입력받는 사용자 인식 모듈을 더 포함할 수 있다.
The manipulation unit 110 includes an input module for receiving the user manipulation when the augmented reality device 100 requires user manipulation. The operation unit 110 includes a key input module that has a key button to receive information required for user operation, and a touch screen module that receives information required for user operation through interworking with the output unit 105. The electronic device may further include a user recognition module configured to recognize any one of a user's hand motion, a body motion, and an eye movement in cooperation with the camera unit 165 or the sensor unit 160 to receive information necessary for user operation.

도면1을 참조하면, 상기 증강현실 장치(100)는, 적어도 하나의 실제현실 획득수단을 통해 실제현실 데이터를 입력하는 실제현실 입력부(125)와, 상기 실제현실 데이터로부터 가상객체 데이터를 출력할 실제객체를 인식하는 실제객체 인식부(130)와, 상기 증강현실 장치(100)를 통해 출력할 하나 이상의 가상객체에 대한 사용자가 설정한 사용자 조건 정보를 확인하고, 상기 확인된 사용자 조건 정보를 기반으로 상기 사용자 조건 정보와 매칭되는 출력조건 정보를 확인하는 출력조건 확인부(135)와, 상기 확인된 출력조건 정보와 연결하여 저장된 가상객체 데이터를 기반으로 상기 인식된 실제객체에 표시할 가상객체 데이터를 결정하는 가상객체 결정부(140)와, 적어도 하나의 가상현실 획득수단을 통해 상기 결정된 가상객체 데이터를 입력하는 가상객체 입력부(145)와, 상기 가상객체 데이터를 상기 실제현실 데이터 상의 실제객체에 표시하여 상기 출력부(105)를 통해 출력하는 증강현실 표시부(150)를 구비한다.
Referring to FIG. 1, the augmented reality apparatus 100 may include a real reality input unit 125 that inputs real reality data through at least one real reality acquisition means, and an actual to output virtual object data from the real reality data. Checks the user condition information set by the user for the real object recognition unit 130 that recognizes the object and at least one virtual object to be output through the augmented reality device 100, and based on the identified user condition information An output condition confirming unit 135 for confirming output condition information matching the user condition information, and virtual object data to be displayed on the recognized real object based on the stored virtual object data in connection with the checked output condition information. Virtual object input unit for inputting the determined virtual object data through the virtual object determination unit 140 and at least one virtual reality acquiring means for determining And a 145 and, augmented reality display that displays the virtual object data to the actual object on the real-world data outputted through the output unit 105 (150).

상기 실제현실 입력부(125)는 상기 카메라부(165)를 통해 실제현실 데이터를 실시간 입력하거나, 또는 상기 메모리부(155)에 저장된 실제현실 데이터를 입력하거나, 또는 상기 통신부(115)를 통해 실제현실 데이터를 수신하며, 상기 입력된 실제현실 데이터는 상기 출력부(105)를 통해 출력되거나 또는 상기 증강현실 표시부(150)로 전달된다.
The reality input unit 125 may input real reality data in real time through the camera unit 165, or input real reality data stored in the memory unit 155, or real reality through the communication unit 115. Receiving data, the input reality data is output through the output unit 105 or transmitted to the augmented reality display unit 150.

상기 실제현실 데이터가 입력되면, 상기 실제객체 인식부(130)는 상기 실제현실 데이터를 판독하여 가상객체 데이터를 출력할 적어도 하나의 실제객체(또는 가상객체 표시 위치)를 인식한다.
When the real data is input, the real object recognition unit 130 recognizes at least one real object (or virtual object display position) to read the real data and output the virtual object data.

본 발명의 일 실시 방법에 따르면, 상기 실제객체 인식부(130)는 상기 실제현실 데이터를 판독하여 색상/채도 값을 추출하고, 상기 추출된 색상/채도 값을 판독하여 미리 정의된 마커를 검출하고, 상기 마커가 검출된 위치를 가상객체 데이터를 출력할 실제객체(또는 가상객체 표시 위치)로 인식할 수 있다. 여기서, 상기 마커는 미리 정의된 기호, 부호, 문양 중 어느 하나를 포함할 수 있다.
According to an exemplary embodiment of the present invention, the real object recognition unit 130 reads the real data to extract a hue / saturation value, reads the extracted hue / saturation value, and detects a predefined marker. The position at which the marker is detected may be recognized as a real object (or a virtual object display position) to output the virtual object data. Here, the marker may include any one of a predefined symbol, sign, or pattern.

본 발명의 다른 일 실시 방법에 따르면, 상기 메모리부(155)는 상기 실제현실 데이터에 포함된 실제객체를 인식하는 객체 인식 정보를 저장할 수 있으며, 이 경우 상기 실제객체 인식부(130)는 상기 실제현실 데이터를 판독하여 색상/채도 값을 추출하고, 상기 추출된 색상/채도 값을 판독하여 상기 색상/채도를 통해 구분되는 영역의 경계 선을 검출하고, 상기 검출된 경계선을 연결 및 조합하여 기하학 구조를 인식하거나 상기 경계선 내의 색상/채도 분포 패턴을 인식한 후, 상기 인식된 기하학 구조와 분포 패턴을 상기 객체 인식 정보에 미리 정의된 실제객체들의 기하학 구조와 분포 패턴과 비교하여 상기 실제현실 데이터에 포함된 실제객체를 인식할 수 있다.
According to another exemplary embodiment of the present invention, the memory unit 155 may store object recognition information for recognizing a real object included in the real data, in which case the real object recognition unit 130 may store the real object. Read the real data to extract the hue / saturation value, read the extracted hue / saturation value to detect the boundary line of the area divided by the hue / saturation, and connect and combine the detected boundary line After recognizing or recognizing the color / chroma distribution pattern in the boundary line, the recognized geometry and distribution pattern is included in the real data by comparing the geometry and distribution pattern of the real objects predefined in the object recognition information Recognized real objects.

여기서, 상기 색상/채도 값은 RGB(Red, Green, Blue) 팔레트 값을 색상/채도로 변환하는 행렬식을 통해 추출될 수 있으며, 상기 객체 인식 정보는 상기 실제현실 데이터의 색상/채도를 판독하여 색상/채도 상의 기하학 구조 정보와 상기 색상/채도의 분포 패턴 정보가 획득되는 경우, 상기 획득된 기하학 구조와 분포 패턴에 대응하는 실제객체가 무엇인지 판별할 수 있도록 미리 정의된 실제객체들의 기하학 구조와 분포 패턴을 포함한다.
Here, the hue / saturation value may be extracted through a determinant for converting RGB (Red, Green, Blue) palette values into hue / saturation, and the object recognition information may be obtained by reading hue / saturation of the real data. When the geometric structure information on the saturation and the distribution pattern information of the hue / saturation are obtained, the geometric structure and distribution of the predefined real objects so as to determine what the real object corresponding to the obtained geometric structure and distribution pattern is Contains a pattern.

본 발명의 또다른 일 실시 방법에 따르면, 상기 실제객체 인식부(130)는 상기 실제현실 데이터를 상기 마커를 인식하는 서버(또는 장치)로 전송하거나, 또는 상기 객체 인식 정보를 구비한 서버(또는 장치)로 전송하여 상기 실제현실 데이터 상에 상기 가상객체 데이터를 출력할 실제객체(또는 가상객체 표시 위치)로 인식할 수 있다.
According to another exemplary embodiment of the present invention, the real object recognition unit 130 transmits the real data to a server (or device) that recognizes the marker, or a server (or which includes the object recognition information). Device) to be recognized as a real object (or a virtual object display position) to output the virtual object data on the real data.

한편, 상기 실제현실 데이터가 카메라부(165)를 통해 실시간 입력되는 경우, 상기 실제객체 인식부(130)는 상기 센서부(160)와 카메라부(165)의 시선 방향을 일치시킨 후, 상기 카메라부(165)를 통해 입력되는 실제현실 데이터의 좌표계와 상기 센서부(160)를 통해 센싱되는 센싱 신호의 좌표계를 매칭하여 특정 센싱 신호가 검출되는 좌표 값을 가상객체 데이터를 출력할 실제객체(또는 가상객체 표시 위치)로 인식할 수 있다.
On the other hand, when the real data is input in real time through the camera unit 165, the real object recognition unit 130 matches the direction of the line of sight of the sensor unit 160 and the camera unit 165, the camera By matching the coordinate system of the real data input through the unit 165 and the coordinate system of the sensing signal sensed by the sensor unit 160 to output the virtual object data to the coordinate value for detecting a specific sensing signal (or Virtual object display position).

또는, 상기 실제현실 데이터가 상기 메모리부(155)에 저장되거나 또는 통신부(115)를 통해 수신되고 상기 실제현실 데이터에 상기 실제객체 위치를 판별하는 메타 데이터가 포함(또는 링크)된 경우, 상기 실제객체 인식부(130)는 상기 실제현실 데이터에 포함(또는 링크)된 메타 데이터를 참조하여 상기 가상객체 데이터를 출력할 실제객체(또는 가상객체 표시 위치)를 인식할 수 있다.
Alternatively, when the real data is stored in the memory unit 155 or received through the communication unit 115 and the meta data for determining the real object position is included (or linked) in the real data. The object recognizer 130 may recognize a real object (or a virtual object display position) to output the virtual object data with reference to the meta data included in (or linked to) the real data.

상기 출력조건 확인부(135)는 상기 증강현실 장치(100)를 통해 출력할 하나 이상의 가상객체에 대한 사용자가 설정한 사용자 조건 정보를 확인하고, 상기 확인된 사용자 조건 정보를 기반으로 상기 사용자 조건 정보와 매칭되는 출력조건 정보를 확인한다.
The output condition checking unit 135 checks user condition information set by the user for at least one virtual object to be output through the augmented reality device 100, and based on the checked user condition information, the user condition information. Check the output condition information matching with.

본 발명의 실시 방법에 따르면, 상기 사용자 조건정보와 매칭되는 출력조건 정보 확인은, 상기 증강현실 장치(100) 상에 가상객체 데이터를 요청하는 사용자가 사용자 조건정보를 상기 증강현실 장치(100) 또는 상기 증강현실 장치(100)와 통신망을 통해 연결된 서버(예를들어, 증강현실 운영 서버(도시생략)) 상에 선 등록한 후, 상기 증강현실 장치(100) 상에 구비된 메모리부(155)와 연계하여 상기 사용자 조건정보와 매칭되는 출력조건 정보를 확인함으로써, 상기 사용자 조건정보와 매칭되는 출력조건 정보를 확인한다.
According to an exemplary embodiment of the present invention, the output condition information matching with the user condition information may be determined by a user requesting virtual object data on the augmented reality device 100 using the augmented reality device 100 or the user condition information. After registering in advance on a server (for example, augmented reality operating server (not shown)) connected to the augmented reality device 100 through a communication network, and the memory unit 155 provided on the augmented reality device 100 and By checking the output condition information matching the user condition information in association, the output condition information matching the user condition information is checked.

본 발명의 다른 실시 방법에 따르면, 상기 사용자 조건정보와 매칭되는 출력조건 정보 확인은, 상기 증강현실 장치(100) 상에 가상객체 데이터를 요청하는 사용자가 사용자 조건정보를 상기 증강현실 장치(100) 또는 상기 증강현실 장치(100)와 통신망을 통해 연결된 서버(예를들어, 증강현실 운영 서버(도시생략)) 상에 선 등록한 후, 상기 사용자 조건 정보를 증강현실 장치(100)와 통신망을 통해 연결된 서버로 전송하여 상기 사용자 조건정보와 매칭되는 출력조건 정보를 수신함으로써, 상기 사용자 조건정보와 매칭되는 출력조건 정보를 확인한다.
According to another exemplary embodiment of the present disclosure, the output condition information matching with the user condition information may be determined by a user requesting virtual object data on the augmented reality device 100. Alternatively, after registering in advance on a server (for example, an augmented reality operating server (not shown)) connected to the augmented reality device 100 through a communication network, the user condition information is connected to the augmented reality device 100 through a communication network. The output condition information matching the user condition information is received by transmitting to the server, thereby checking the output condition information matching the user condition information.

본 발명의 또 다른 실시 방법에 따르면, 상기 출력중인 실제현실 데이터 및 상기 실제현실 데이터 상에 포함된 실제객체(또는 가상객체 표시 위치)를 이용한 가상객체 데이터 출력시, 선택 가능한 사용자 조건 정보 입력(또는 선택)을 위한 사용자 인터페이스를 출력한 후, 상기 출력된 사용자 인터페이스를 통해 입력받는 것이 가능하다.
According to another embodiment of the present invention, when outputting virtual object data using the actual reality data being output and the real object (or virtual object display position) included in the real data, inputting selectable user condition information (or After outputting the user interface for selection, it is possible to receive input through the output user interface.

여기서, 상기 사용자 조건정보와 매칭되는 출력조건 정보의 확인 및 가상객체 데이터를 출력하는 예시는 이하 도시될 도면을 통해 상세히 설명한다.
Here, an example of checking output condition information matching the user condition information and outputting virtual object data will be described in detail with reference to the accompanying drawings.

상기 가상객체 결정부(140)는 상기 확인된 출력조건 정보와 연결하여 저장된 가상객체 데이터를 기반으로 상기 인식된 실제객체에 표시할 가상객체 데이터를 결정하고, 출력조건 정보가 확인되지 않거나, 또는 사용자 조건정보가 설정되지 않은 경우, 상기 실제현실 데이터로부터 검출된 실제객체에 표시할 가상객체 데이터를 결정한다.
The virtual object determiner 140 determines the virtual object data to be displayed on the recognized real object based on the stored virtual object data in connection with the checked output condition information, and output condition information is not confirmed, or a user If the condition information is not set, the virtual object data to be displayed on the real object detected from the real data is determined.

만약 상기 실제현실 데이터 상의 실제객체에 표시할 가상객체 데이터가 어느 하나의 가상객체 데이터로 고정되는 경우, 상기 가상객체 결정부(140)는 상기 고정된 상기 실제객체 인식부(130)를 통해 인식된 실제객체에 표시할 가상객체 데이터를 결정할 수 있다.
If the virtual object data to be displayed on the real object on the real reality data is fixed to any one of the virtual object data, the virtual object determiner 140 is recognized through the fixed real object recognition unit 130. You can decide the virtual object data to be displayed on the real object.

본 발명의 일 실시 방법에 따르면, 상기 실제객체가 마커를 통해 인식된 경우, 상기 가상객체 결정부(140)는 상기 마커 모양/형태/색상/구조를 판독하여 상기 실제객체에 표시할 가상객체 데이터를 결정할 수 있다.
According to the exemplary embodiment of the present invention, when the real object is recognized through a marker, the virtual object determiner 140 reads the marker shape / shape / color / structure to display the virtual object data on the real object. Can be determined.

만약 상기 마커에 상기 가상객체 데이터를 결정하기 위한 정보가 부호화되어 포함된 경우, 상기 가상객체 결정부(140)는 상기 실제객체 인식부(130)를 통해 인식된 마커에 포함된 부호화 정보를 인식 및 판독하여 상기 실제객체에 표시할 가상객체 데이터를 결정할 수 있다.
If the marker includes information for determining the virtual object data encoded, the virtual object determiner 140 recognizes and encodes the encoded information included in the marker recognized by the real object recognizer 130. The virtual object data to be read and displayed on the real object may be determined.

본 발명의 다른 일 실시 방법에 따르면, 상기 가상객체 결정부(140)는 상기 실제객체 인식부(130)를 통해 인식된 실제객체의 모양/형태/색상/구조를 판독하여 상기 실제객체에 표시할 가상객체 데이터를 결정할 수 있다. 또는 상기 실제현실 데이터에 상기 가상객체 데이터를 결정하기 위한 별도의 표시가 포함된 경우, 상기 표시를 판독하여 상기 실제객체 인식부(130)를 통해 인식된 실제객체에 표시할 가상객체 데이터를 결정할 수 있다.
According to another exemplary embodiment of the present invention, the virtual object determiner 140 reads the shape / shape / color / structure of the real object recognized by the real object recognizer 130 and displays it on the real object. Virtual object data can be determined. Alternatively, when the real data includes a separate display for determining the virtual object data, the display may be read to determine the virtual object data to be displayed on the real object recognized by the real object recognition unit 130. have.

한편, 상기 실제현실 데이터가 메모리부(155)에 저장되어 있거나 또는 통신부(115)를 통해 수신되고 상기 실제현실 데이터에 상기 실제객체 인식부(130)를 통해 인식된 실제객체(또는 가상객체 표시 위치)에 표시할 가상객체 데이터를 결정하는 메타 데이터가 포함(또는 링크)된 경우, 상기 가상객체 결정부(140)는 상기 메타 데이터를 참조하여 상기 실제객체(또는 가상객체 표시 위치)에 표시할 가상객체 데이터를 결정할 수 있다.
On the other hand, the real object (or the virtual object display position is stored in the memory unit 155 or received through the communication unit 115 and the real object data recognized by the real object recognition unit 130 in the real data) In the case where meta data for determining virtual object data to be displayed is included (or linked), the virtual object determination unit 140 refers to the meta data to display the virtual object to be displayed on the real object (or virtual object display position). You can determine the object data.

상기 가상객체 입력부(145)는 메모리에 저장되어 있거나, 또는 통신망을 통해 수신되거나, 또는 실시간 생성되는 가상객체 데이터 중 상기 가상객체 결정부(140)를 통해 결정된 가상객체 데이터를 상기 실제현실 데이터의 실제객체에 표시할 가상객체 데이터로 입력한다.
The virtual object input unit 145 may store the virtual object data determined by the virtual object determiner 140 among the virtual object data stored in the memory, received through a communication network, or generated in real time. Enter the virtual object data to be displayed on the object.

상기 증강현실 표시부(150)는 상기 실제현실 입력부(125)를 통해 입력되는 실제현실 데이터 상의 실제객체(또는 가상객체 표시 위치)에 상기 가상객체 입력부(145)를 통해 입력되는 가상객체 데이터를 표시한 후, 상기 출력부(105)를 통해 출력한다.
The augmented reality display unit 150 displays the virtual object data input through the virtual object input unit 145 on a real object (or a virtual object display position) on the real data input through the real reality input unit 125. Then, the output through the output unit 105.

본 발명의 일 실시 방법에 따르면, 상기 증강현실 표시부(150)는 상기 실제현실 데이터 상의 실제객체에 투명영역을 포함하는 가상객체 데이터를 중첩시켜 증강현실 데이터를 생성한 후, 상기 증강현실 데이터를 상기 출력부(105)를 통해 출력할 수 있다.
According to an exemplary embodiment of the present invention, the augmented reality display unit 150 generates augmented reality data by superimposing virtual object data including a transparent area on a real object on the real reality data, and generating the augmented reality data. It may output through the output unit 105.

본 발명의 다른 일 실시 방법에 따르면, 상기 증강현실 표시부(150)는 실제현실 계층과 가상현실 계층을 포함하는 증강현실 데이터 포맷을 구성한 후, 상기 증강현실 데이터 포맷의 실제현실 계층에 상기 실제현실 데이터를 출력하고 상기 실제현실 데이터의 실제객체 위치에 대응하는 가상현실 계층에 가상객체 데이터를 출력하여 상기 출력부(105)를 통해 출력할 수 있다.
According to another exemplary embodiment of the present invention, the augmented reality display unit 150 configures an augmented reality data format including a reality layer and a virtual reality layer, and then stores the reality data in the reality layer of the augmented reality data format. The virtual object data may be output to the virtual reality layer corresponding to the actual object position of the real data and output through the output unit 105.

여기서, 상기 가상현실 계층은 일반적인 가상객체 데이터를 출력하는 일반 가상현실 계층과, 사용자 조건정보를 이용한 사용자 맞춤형 가상객체 데이터를 출력하는 사용자 가상현실 계층으로 구분되는 것이 가능하며, 상기 증강현실 장치(100) 상에 어떤 계층을 출력할지 여부를 설정하여, 일반적인 가상객체 데이터와 사용자 맞춤형 가상객체 데이터 중 하나 이상이 출력되는 것이 가능하다.
The virtual reality layer may be divided into a general virtual reality layer for outputting general virtual object data and a user virtual reality layer for outputting user-specific virtual object data using user condition information. The augmented reality device 100 By setting which layer to be outputted on), one or more of general virtual object data and user-customized virtual object data may be output.

본 발명의 또다른 일 실시 방법에 따르면, 상기 출력부(105)가 투명 디스플레이를 포함하는 경우, 상기 증강현실 표시부(150)는 상기 실제객체 인식부(130)를 통해 결정된 투명 디스플레이 상의 실제객체 위치에 상기 가상객체 데이터만 표시하여 출력할 수 있다.
According to another embodiment of the present invention, when the output unit 105 includes a transparent display, the augmented reality display unit 150 is the actual object position on the transparent display determined by the real object recognition unit 130 Only the virtual object data may be displayed and output.

도면2는 본 발명의 실시 방법에 따른 하나의 실제객체에 대한 사용자의 조건을 기준으로 각 사용자마다 차별화된 가상객체를 제공하는 과정을 도시한 도면이다.
2 is a diagram illustrating a process of providing a differentiated virtual object for each user based on a user's condition with respect to one real object according to an embodiment of the present invention.

보다 상세하게 본 도면2는 상기 도면1에 도시된 증강현실 장치(100)에서 하나의 실제객체에 대한 사용자의 조건을 기준으로 각 사용자마다 차별화된 가상객체를 제공하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면2를 참조 및/또는 변형하여 상기 실제객체에 대한 사용자의 조건을 기준으로 각 사용자마다 차별화된 가상객체를 제공하는 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면2에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
In more detail, FIG. 2 illustrates a process of providing a differentiated virtual object for each user based on a user's condition for one real object in the augmented reality device 100 shown in FIG. For those skilled in the art, various implementation methods for providing a differentiated virtual object for each user based on the user's condition for the real object by referring to and / or modifying the drawing 2. (For example, some steps may be omitted, or the order of implementation may be changed). However, the present invention includes all the implementation methods inferred above, and the technical features only by the implementation method shown in FIG. This is not limited.

도면2를 참조하면, 상기 도면1에 도시된 증강현실 장치(100)는 적어도 하나 이상의 실제현실 획득수단을 통해 실제현실 데이터가 입력되고(200), 상기 입력된 실제현실 데이터를 기반으로 실제현실 데이터 상에 포함된 실제객체(또는 가상객체 표시 위치)를 인식한다(205).
Referring to FIG. 2, in the augmented reality device 100 illustrated in FIG. 1, real reality data is input through at least one real reality acquisition means (200), and real reality data based on the input real reality data. The real object (or virtual object display position) included in the image is recognized (205).

만약, 상기 입력된 실제현실 데이터를 기반으로 실제현실 데이터상에 포함된 실제객체(또는 가상객체 표시 위치)가 확인되면(210), 상기 증강현실 장치(100)는 상기 증강현실 장치(100)를 사용하는 사용자가 상기 증강현실 장치(100)(또는 상기 증강현실 장치(100)와 통신망을 통해 연결된 서버(예를들어, 증강현실 운영 서버(도시생략))상에 설정한 사용자 조건 정보를 확인한다(215).
If the real object (or the virtual object display position) included in the real data is identified based on the input real data (210), the augmented reality device 100 determines the augmented reality device 100. The user confirms user condition information set on the augmented reality device 100 (or a server connected to the augmented reality device 100 through a communication network (for example, an augmented reality operating server (not shown)). (215).

만약, 상기 증강현실 장치(100)를 이용하는 사용자가 설정한 사용자 조건정보가 확인되지 않는다면(220), 상기 증강현실 장치(100)는 상기 인식된 실제객체(또는 가상객체 표시 위치)에 대한 가상객체 데이터를 확인하고, 상기 확인된 가상객체 데이터를 상기 증강현실 장치(100)를 통해 출력되도록 처리한다.
If the user condition information set by the user who uses the augmented reality device 100 is not confirmed (220), the augmented reality device 100 is a virtual object for the recognized real object (or virtual object display position) The data is checked and the virtual object data is processed to be output through the augmented reality device 100.

반면, 상기 증강현실 장치(100)를 이용하는 사용자가 설정한 사용자 조건정보가 확인되면(220), 이하 도면3에 도시된 과정에 따라 상기 확인된 실제객체(또는 가상객체 표시 위치)에 대한 가상객체 데이터가 출력되도록 처리한다.
On the other hand, if the user condition information set by the user who uses the augmented reality device 100 is confirmed (220), the virtual object for the identified actual object (or virtual object display position) according to the process shown in Figure 3 below Process the data to be output.

도면3은 본 발명의 실시 방법에 따른 하나의 실제객체에 대한 사용자의 조건을 기준으로 각 사용자마다 차별화된 가상객체를 제공하는 과정을 도시한 도면이다.
3 is a diagram illustrating a process of providing a differentiated virtual object for each user based on a user's condition for one real object according to an embodiment of the present invention.

도면3을 참조하면, 상기 도면1에 도시된 증강현실 장치(100)는 상기 도면2에 도시된 과정에 따라 상기 증강현실 장치(100)를 이용하는 사용자가 설정한 사용자 조건정보가 확인된 후, 상기 확인된 사옹자 조건 정보와 매칭되는 출력조건 정보를 확인한다(300).
Referring to FIG. 3, after the augmented reality device 100 shown in FIG. 1 is confirmed by the user condition information set by a user using the augmented reality device 100 according to the process shown in FIG. The output condition information matched with the confirmed user condition information is checked (300).

만약, 상기 확인된 사용자 조건 정보와 매칭되는 출력조건 정보가 확인되지 않는 경우(305), 상기 증강현실 장치(100)는 상기 인식된 실제객체(또는 가상객체 출력 위치)에 대한 가상객체 데이터를 확인하고(310), 만약, 상기 인식된 실제객체(또는 가상객체 출력 위치)에 대한 가상객체 데이터가 확인되면(320), 상기 인식된 실제현실 데이터를 기반으로 확인된 실제객체(또는 가상객체 출력 위치)에 대한 가상객체 데이터가 출력되도록 처리한다(325).
If output condition information matching the checked user condition information is not confirmed (305), the augmented reality device 100 checks the virtual object data for the recognized real object (or virtual object output position). If the virtual object data for the recognized real object (or virtual object output position) is confirmed (310), the identified physical object (or virtual object output position) based on the recognized real reality data In operation 325, the virtual object data for the output is output.

반면, 상기 확인된 사용자 조건 정보와 매칭되는 출력조건 정보가 확인되는 경우(305), 상기 증강현실 장치(100)는 상기 확인된 출력조건 정보와 연결하여 저장된 가상객체 데이터 중 인식된 실제객체(또는 가상객체 출력 위치)에 대한 가상객체 데이터를 확인한다(315).
On the other hand, when the output condition information matching the checked user condition information is confirmed (305), the augmented reality device 100 is connected to the identified output condition information stored in the virtual object data stored in the recognized real object (or The virtual object data for the virtual object output location) is checked (315).

만약, 상기 확인된 출력조건 정보와 연결하여 저장된 가상객체 데이터 중 인식된 실제객체(또는 가상객체 출력 위치)에 대한 가상객체 데이터가 확인되면(320), 상기 상기 확인된 출력조건 정보와 연결하여 저장된 가상객체 데이터 중 인식된 실제객체(또는 가상객체 출력 위치)에 대한 가상객체 데이터가 출력되도록 처리한다(325).
If the virtual object data of the recognized physical object (or virtual object output position) among the stored virtual object data in connection with the checked output condition information is confirmed (320), the stored connection with the checked output condition information is stored. The virtual object data for the recognized real object (or virtual object output position) among the virtual object data is processed to be output (325).

또한, 상기 출력조건 정보를 기반으로 확인된 가상객체 데이터 외 상기 실제현실 데이터를 기반으로 인식된 실제객체(또는 가상객체 출력 위치)를 기반으로 일반적으로 제공되는 가상객체 데이터를 더 포함하여 제공하는 것이 가능하다.
In addition, in addition to the virtual object data identified based on the output condition information, and providing the virtual object data generally provided based on the real object (or virtual object output position) recognized based on the real data. It is possible.

도면4는 본 발명의 실시 방법에 따른 하나의 실제객체에 대한 사용자의 조건을 기준으로 각 사용자마다 차별화된 가상객체를 제공하는 예시를 도시한 도면이다.
4 is a diagram illustrating an example of providing a differentiated virtual object for each user based on a user's condition for one real object according to an embodiment of the present invention.

보다 상세하게 본 도면4는 상기 도면1에 도시된 증강현실 장치(100)에서 상기 도면2 내지 도면3에 도시된 과정에 따라 하나의 실제객체에 대한 사용자의 조건을 기준으로 각 사용자마다 차별화된 가상객체를 제공하는 예시를 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면4를 참조 및/또는 변형하여 상기 실제객체에 대한 사용자의 조건을 기준으로 각 사용자마다 차별화된 가상객체를 제공하는 예시에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면4에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
In more detail, FIG. 4 is a virtual image differentiated for each user based on a user's condition for one real object according to the process shown in FIGS. 2 to 3 in the augmented reality device 100 shown in FIG. As an example of providing an object, a person of ordinary skill in the art to which the present invention pertains may refer to and / or modify this drawing 4 to differentiate each user based on a user's condition for the real object. Various implementation methods (eg, some steps may be omitted, or the order of implementation) may be inferred for the example of providing a virtual object, but the present invention includes all the implementation methods inferred above, The technical features are not limited only to the implementation method shown in FIG.

도면4를 참조하면, 상기 도면1에 도시된 증강현실 장치(100)를 통해 일반적으로 제공되는 가상객체 데이터는 본 도면4에서와 같이 집과 관련된 집관련 가상객체 데이터(400)인 경우, 상기 집관련 가상객체 데이터(400)는 집 임대와 관련된 임대 가상객체 데이터(405)와, 상기 집이 위치한 지역과 관련된 임대 가상객체 데이터(410)와, 상기 집이 속한 건물에 대한 건물 가상객체 데이터(415) 중 하나 이상을 포함한다.
Referring to FIG. 4, when the virtual object data generally provided through the augmented reality device 100 illustrated in FIG. 1 is house-related virtual object data 400 related to a house as shown in FIG. 4, the house The related virtual object data 400 may include rental virtual object data 405 related to a house rental, rental virtual object data 410 related to an area where the house is located, and building virtual object data 415 for a building to which the house belongs. ) One or more of the following.

여기서, 사용자가 집 임대와 관련된 가상객체 데이터 요청을 위해, 사용자 조건 정보를 임대로 설정한 경우, 상기 집관련 가상객체 데이터(400)를 구성하는 하나 이상의 가상객체 데이터 중 임대 가상객체 데이터(405)가 상기 사용자의 증강현실 장치(100)를 통해 출력된다.
Here, when the user sets the user condition information to the lease for requesting the virtual object data related to the house lease, lease virtual object data 405 among one or more virtual object data constituting the house-related virtual object data 400. Is output through the augmented reality device 100 of the user.

즉, 임대 대상 건물을 찾는 사용자가 임대 대상 건물에 대한 가상객체 데이터를 요청한다면, 이하 도면5에서와 같이 현실세계 영상(즉, 실제현실 데이터)로부터 인식되는 임대 대상 건물에 대한 가상객체 중 임대가 요청된 건물을 식별하는 가상객체 데이터를 표시한다.
That is, if a user who finds a building to be rented requests virtual object data for the building to be rented, as shown in FIG. Display virtual object data that identifies the requested building.

또한, 사용자가 지역과 관련된 가상객체 데이터 요청을 위해, 사용자 조건 정보를 지역으로 설정한 경우, 상기 집관련 가상객체 데이터(400)를 구성하는 하나 이상의 가상객체 데이터 중 임대 가상객체 데이터(410)가 상기 사용자의 증강현실 장치(100)를 통해 출력된다.
In addition, when the user sets the user condition information to the region to request the virtual object data related to the region, the rental virtual object data 410 of one or more virtual object data constituting the house-related virtual object data 400 is It is output through the augmented reality device 100 of the user.

즉, 특정 임대 대상 건물을 계약 대상 건물로 결정한 사용자가 상기 임대 대상 건물에 대한 가상객체 데이터를 요청하면, 이하 도면6에 도시된 바와 같이 실제현실 데이터로부터 인식되는 실제객체(또는 가상객체 표시 위치)에 대한 가상객체 데이터 중 임대 건물의 내부 평면도를 포함하는 가상객체 데이터를 표시한다.
That is, when a user who determines a specific rental target building as a contract target building requests virtual object data for the rental target building, a real object (or virtual object display position) recognized from real reality data, as shown in FIG. Displays virtual object data including an interior floor plan of the leased building among the virtual object data for.

또한, 사용자가 건물과 관련된 가상객체 데이터 요청을 위해, 사용자 조건 정보를 건물로 설정한 경우, 상기 집관련 가상객체 데이터(400)를 구성하는 하나 이상의 가상객체 데이터 중 건물 가상객체 데이터(415)가 상기 사용자의 증강현실 장치(100)를 통해 출력된다.
In addition, when the user sets the user condition information to the building for requesting the virtual object data related to the building, the building virtual object data 415 of the one or more virtual object data constituting the house-related virtual object data 400 is stored. It is output through the augmented reality device 100 of the user.

도면5는 본 발명의 실시 방법에 따른 하나의 실제객체에 대한 사용자 조건이 임대로 설정한 경우에 대한 가상객체 데이터를 출력하는 예시화면을 도시한 도면이다.
5 is a diagram illustrating an example screen for outputting virtual object data for a case where a user condition for one real object is set to lease according to an embodiment of the present invention.

보다 상세하게 본 도면5는 상기 도면1에 도시된 증강현실 장치(100)가 상기 도면2 내지 도면3에 도시된 과정에 따라 사용자 조건을 임대로 설정한 경우에 있어서의 실제현실 데이터 상에 가상객체 데이터를 출력하는 예시 화면을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면5를 참조 및/또는 변형하여, 하나의 실제객체에 대한 사용자 조건이 임대로 설정한 경우에 대한 가상객체 데이터를 출력하는 예시화면에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면5에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
In more detail, FIG. 5 shows the virtual object on the virtual reality data when the augmented reality device 100 shown in FIG. 1 is set to lease a user condition according to the process shown in FIGS. As an example screen for outputting data, a person having ordinary knowledge in the technical field to which the present invention pertains may refer to and / or modify the drawing 5, and the user condition for one real object is set to lease. Various implementation methods (for example, some steps may be omitted or the order may be changed) may be inferred for the example screen outputting the virtual object data for the case, but the present invention includes all the implementation methods inferred. It is made by, and the technical features are not limited only to the implementation method shown in FIG.

도면6은 본 발명의 실시 방법에 따른 하나의 실제객체에 대한 사용자가 임대하고자 하는 계약 대상 건물로 설정한 경우에 대한 가상객체 데이터를 출력하는 예시 화면을 도시한 도면이다.
FIG. 6 is a diagram illustrating an example screen for outputting virtual object data for a case where a user sets a contract target building to be rented for a real object according to an embodiment of the present invention.

보다 상세하게 본 도면6은 상기 도면1에 도시된 증강현실 장치(100)가 상기 도면2 내지 도면3에 도시된 과정에 따라 사용자 조건을 상기 도면5에 도시된 예시화면을 통해 계약 대상 건물로 설정한 경우에 있어서의 실제현실 데이터 상에 가상객체 데이터를 출력하는 예시 화면을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면6을 참조 및/또는 변형하여, 하나의 실제객체에 대한 사용자 조건이 임대하고자 하는 계약 대상 건물로 설정한 경우에 대한 가상객체 데이터를 출력하는 예시화면에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면6에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
In more detail, in FIG. 6, the augmented reality device 100 illustrated in FIG. 1 sets a user condition as a contract building through the example screen illustrated in FIG. 5 according to the process illustrated in FIGS. 2 to 3. An example screen for outputting virtual object data on real reality data in one case is shown. Those skilled in the art to which the present invention pertains may refer to and / or modify this drawing. Various implementation methods (e.g., some steps are omitted or changed in order) for the example screen for outputting virtual object data when the user condition for the actual object of the user is set to the contracted building to be rented. It may be inferred, but the present invention includes all the implementation methods inferred above, and the technical features are only shown by the implementation method shown in FIG. Jing is not limited.

100 : 증강현실 장치
105 : 출력부
110 : 조작부
115 : 통신부
120 : 제어부
125 : 실제현실 입력부
130 : 실제객체 인식부
135 : 출력조건 확인부
140 : 가상객체 결정부
145 : 가상객체 입력부
150 : 증강현실 표시부
155 : 메모리부
160 : 센서부
165 : 카메라부
100: augmented reality device
105: output unit
110: control panel
115: communication unit
120: control unit
125: reality input unit
130: real object recognition unit
135: output condition check unit
140: virtual object determination unit
145: virtual object input unit
150: augmented reality display unit
155: memory
160: sensor unit
165: camera unit

Claims (4)

증강현실 장치에서 실제현실 획득수단을 통해 실제현실 데이터를 획득하고, 상기 획득된 실제현실 데이터를 판독하여 실제객체(또는 가상객체 표시 위치)를 인식하는 단계;
증강현실 장치에서 상기 인식된 실제객체(또는 가상객체 표시 위치)에 대한 출력조건 정보를 확인하고, 상기 증강현실 장치를 이용하는 사용자가 지정한 사용자 조건 정보와 매칭되는 출력조건 정보를 확인하는 단계;
증강현실 장치에서 상기 확인된 출력조건 정보와 연결하여 저장된 가상객체 데이터를 확인하는 단계;
증강현실 장치에서 상기 확인된 가상객체 데이터가 상기 실제객체(또는 가상객체 표시 위치) 상에 출력되도록 처리하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 사용자 조건을 이용한 선택적 가상객체 데이터 운용방법.
Acquiring the actual reality data through the reality acquisition means in the augmented reality device, and reading the obtained reality data to recognize a real object (or a virtual object display position);
Checking output condition information on the recognized real object (or virtual object display position) in an augmented reality device, and checking output condition information matching the user condition information designated by a user who uses the augmented reality device;
Checking the stored virtual object data in connection with the identified output condition information in an augmented reality device;
And processing the identified virtual object data in the augmented reality device to be output on the real object (or the display position of the virtual object).
제 1항에 있어서, 상기 사용자 조건 정보는,
상기 증강현실 장치 상에 구비된 메모리부 상에 선 등록된 사용자 조건 정보 또는,
상기 증강현실 장치와 통신망을 통해 연결된 서버 상에 저장된 사용자 조건 정보 또는,
상기 실제객체(또는 가상객체 표시 위치)를 통해 선택 가능한 사용자 조건 정보 입력(또는 선택)을 위한 사용자 인터페이스를 통해 입력(또는 선택)되는 사용자 조건 정보인 것을 특징으로 하는 사용자 조건을 이용한 선택적 가상객체 데이터 운용방법.
The method of claim 1, wherein the user condition information,
User condition information pre-registered on a memory unit provided on the augmented reality device;
User condition information stored on a server connected with the augmented reality device through a communication network;
Optional virtual object data using a user condition, characterized in that the user condition information is input (or selected) through a user interface for inputting (or selecting) user condition information selectable through the real object (or virtual object display position). How to operate.
제 1항의 방법을 실행하는 프로그램을 기록한 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체.
A computer-readable recording medium having recorded thereon a program for executing the method of claim 1.
증강현실 장치에서 실제현실 획득수단을 통해 실제현실 데이터를 획득하고, 상기 획득된 실제현실 데이터를 판독하여 실제객체(또는 가상객체 표시 위치)를 인식하는 실제객체 인식부;
증강현실 장치에서 상기 인식된 실제객체(또는 가상객체 표시 위치)에 대한 출력조건 정보를 확인하고, 상기 증강현실 장치를 이용하는 사용자가 지정한 사용자 조건 정보와 매칭되는 출력조건 정보를 확인하는 출력조건 확인부;
증강현실 장치에서 상기 확인된 출력조건 정보와 연결하여 저장된 가상객체 데이터를 확인하는 가상객체 입력부;
증강현실 장치에서 상기 확인된 가상객체 데이터가 상기 실제객체(또는 가상객체 표시 위치) 상에 출력되도록 처리하는 증강현실 표시부;를 구비하여 이루어지는 것을 특징으로 하는 사용자 조건을 이용한 선택적 가상객체 데이터 운용 기능이 구비된 증강현실 장치.
A real object recognition unit for acquiring real reality data through a reality acquisition means in an augmented reality device, and recognizing a real object (or a virtual object display position) by reading the obtained real reality data;
An output condition checking unit for checking output condition information on the recognized real object (or virtual object display position) in the augmented reality device and checking output condition information matching the user condition information designated by a user using the augmented reality device; ;
A virtual object input unit which checks the stored virtual object data in connection with the identified output condition information in an augmented reality device;
An augmented reality display unit for processing the identified virtual object data to be output on the real object (or a virtual object display position) in an augmented reality device; Augmented reality device provided.
KR1020100069728A 2010-07-19 2010-07-19 Method for Managing Selectable Virtual-Object Data using User's Order, Augmented Reality Device and Recording Medium KR20120009639A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100069728A KR20120009639A (en) 2010-07-19 2010-07-19 Method for Managing Selectable Virtual-Object Data using User's Order, Augmented Reality Device and Recording Medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100069728A KR20120009639A (en) 2010-07-19 2010-07-19 Method for Managing Selectable Virtual-Object Data using User's Order, Augmented Reality Device and Recording Medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020170055922A Division KR20170052553A (en) 2017-05-01 2017-05-01 Method for Displaying Selectable Virtual-Object Data of Augmented Reality by using User's Order

Publications (1)

Publication Number Publication Date
KR20120009639A true KR20120009639A (en) 2012-02-02

Family

ID=45834409

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100069728A KR20120009639A (en) 2010-07-19 2010-07-19 Method for Managing Selectable Virtual-Object Data using User's Order, Augmented Reality Device and Recording Medium

Country Status (1)

Country Link
KR (1) KR20120009639A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190143709A (en) * 2018-06-21 2019-12-31 전자부품연구원 Method for representing contents of augmented reality simulator
KR20220085945A (en) * 2020-12-16 2022-06-23 동서대학교 산학협력단 Digital actor management system for offline advertizing and promotion
WO2024090825A1 (en) * 2022-10-26 2024-05-02 삼성전자주식회사 Wearable device and method for changing visual object by using data identified by sensor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190143709A (en) * 2018-06-21 2019-12-31 전자부품연구원 Method for representing contents of augmented reality simulator
KR20220085945A (en) * 2020-12-16 2022-06-23 동서대학교 산학협력단 Digital actor management system for offline advertizing and promotion
WO2024090825A1 (en) * 2022-10-26 2024-05-02 삼성전자주식회사 Wearable device and method for changing visual object by using data identified by sensor

Similar Documents

Publication Publication Date Title
US10122888B2 (en) Information processing system, terminal device and method of controlling display of secure data using augmented reality
KR101603017B1 (en) Gesture recognition device and gesture recognition device control method
KR101444407B1 (en) Apparatus for controlling device based on augmented reality using local wireless communication and method thereof
KR101746838B1 (en) Method for Operating Augmented Reality by using Display Stand
JP6057562B2 (en) Information processing apparatus and control method thereof
US20190065831A1 (en) Body information analysis apparatus and lip-makeup analysis method thereof
KR102568996B1 (en) Surveillance camera setting method, method and system for surveillance camera management
KR101619512B1 (en) Method for Interchanging between Augmented Reality Device
KR20110136038A (en) System for tracking augmented reality device using several sensor
KR101691565B1 (en) Method for Displaying Virtual-Object Data by using Augmented Reality
KR101638630B1 (en) Method for Optimizing a Augmented Reality Data
KR20120009639A (en) Method for Managing Selectable Virtual-Object Data using User's Order, Augmented Reality Device and Recording Medium
KR101692764B1 (en) Method for Providing Augmented Reality by using Virtual Point
KR20180130095A (en) Method for Displaying Selectable Virtual-Object Data of Augmented Reality
KR20170143476A (en) Method for Displaying Selectable Virtual-Object Data of Augmented Reality by using User's Order
KR102117510B1 (en) Method for Displaying Selectable Virtual-Object Data of Augmented Reality
KR20170052553A (en) Method for Displaying Selectable Virtual-Object Data of Augmented Reality by using User's Order
KR101680124B1 (en) Method for Transferring Augmented Reality between Different Platform
KR20110136040A (en) Terminal with augmented reality based on customer's eye
KR20170086005A (en) Method for Providing Augmented Reality by using Distance Difference
CN109214482A (en) A kind of indoor orientation method, device, terminal device and storage medium
KR101168599B1 (en) Device for Displaying Virtual Object Corresponding Respective Distance
KR20120026711A (en) Method for outputting audio-object, augmented reality device
JP6708384B2 (en) Output control device, output control method, setting device, setting method, and program
KR102339710B1 (en) Method and electronic device for displaying video information

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
AMND Amendment
A107 Divisional application of patent