KR20120000695A - System for generating 3d mobile augmented reality based on the user - Google Patents

System for generating 3d mobile augmented reality based on the user Download PDF

Info

Publication number
KR20120000695A
KR20120000695A KR1020100061094A KR20100061094A KR20120000695A KR 20120000695 A KR20120000695 A KR 20120000695A KR 1020100061094 A KR1020100061094 A KR 1020100061094A KR 20100061094 A KR20100061094 A KR 20100061094A KR 20120000695 A KR20120000695 A KR 20120000695A
Authority
KR
South Korea
Prior art keywords
content
module
user
live
augmented reality
Prior art date
Application number
KR1020100061094A
Other languages
Korean (ko)
Other versions
KR101132512B1 (en
Inventor
이정선
권연희
정용욱
김무항
김승경
김동환
김한철
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Priority to KR1020100061094A priority Critical patent/KR101132512B1/en
Publication of KR20120000695A publication Critical patent/KR20120000695A/en
Application granted granted Critical
Publication of KR101132512B1 publication Critical patent/KR101132512B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Abstract

PURPOSE: A three dimensional mobile augmented reality creation system and method thereof are provided to enable a user to search content by providing a mobile augmented reality service to the user. CONSTITUTION: A content storage unit(120) stores content. An actual image acquisition module(160) acquires an actual image. A 3D rendering module(200) searches predetermined content in the content storage unit through the acquired location of the actual image. The 3D rendering model changes the searched content into a 3D virtual model. An image matching module(170) matches the 3D virtual model with the actual image.

Description

사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법{System for generating 3D mobile augmented reality based on the user}System for generating 3D mobile augmented reality based on the user}

본 발명은 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법에 관한 것으로서, 상세하게는 증강현실에 적합한 소셜 네트워크 서비스(SNS)를 제공할 수 있고, 사용자 행동을 그대로 반영할 수 있고, 최대한 현실 세계와 유사하게 하여 3D 모델이 현실로부터 괴리되는 것을 방지할 수 있고, 하드웨어의 성능이 큰 영향을 미치는 모바일 증강현실(혼합현실)에 적합하고, 시간에 따른 컨텐츠 검색이 가능하고, 기존의 단문 메세지를 통한 SNS의 형태를 탈피할 수 있는 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법에 관한 것이다. The present invention relates to a 3D mobile augmented reality generation system and method for user participation, and in detail, can provide a social network service (SNS) suitable for augmented reality, can reflect the user behavior as it is, the real world as possible Similarly, the 3D model can be prevented from being separated from reality, and it is suitable for mobile augmented reality (mixed reality) where hardware performance is greatly influenced, the content can be searched over time, and the existing short message is It relates to a 3D mobile augmented reality generation system and method for user participation that can escape the form of SNS through.

모바일 증강현실(Mobile AR)이 지역 정보 제공을 넘어서서, 증강현실 속에 자신의 흔적을 남기고 소셜 네트워크 서비스(SNS)로도 연결되는 서비스가 등장하기 시작했다. 그러나 현재 시도 되고 있는 Mobile AR과 SNS는 2개의 기능을 합친 것에 불과할 뿐 AR에 적합한 SNS를 제공하지 못하고 있다. 특히, 정보제공 위주의 기존 형태는 2D형태로 보여 지기 때문에 활용하기에는 불편하다고 할 것이다.As mobile AR goes beyond providing local information, services that leave their traces in augmented reality and also connect to social network services (SNS) are beginning to emerge. However, Mobile AR and SNS, which are currently being tried, are merely a combination of two functions and are not providing SNS suitable for AR. In particular, the existing information-oriented forms will be inconvenient to use because they are shown in 2D form.

본 발명의 일 실시예에 따르면, 증강현실에 적합한 소셜 네트워크 서비스(SNS)를 제공할 수 있는 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법을 제공함을 그 목적으로 한다.According to an embodiment of the present invention, an object of the present invention is to provide a 3D mobile augmented reality generation system and method for providing a social network service (SNS) suitable for augmented reality.

또한, 본 발명의 일 실시예에 따르면, 포스트-잇(Post-it)을 붙이는 것과 같이 메모 또는 사진을 남기는 사용자 행동을 그대로 반영할 수 있는 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법을 제공함을 그 목적으로 한다.In addition, according to an embodiment of the present invention, it provides a user participation-oriented 3D mobile augmented reality generating system and method that can reflect the user's behavior of leaving a memo or picture as a post-it (attach) For that purpose.

또한, 본 발명의 일 실시예에 따르면, 최대한 현실 세계와 유사하게 하여, 3D 모델이 현실로부터 괴리되는 것을 방지하는 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법을 제공함을 그 목적으로 한다.In addition, according to an embodiment of the present invention, to provide a user participation-oriented three-dimensional mobile augmented reality generation system and method to prevent the 3D model from being separated from the reality as close to the real world as possible.

또한, 본 발명의 일 실시예에 따르면, 각종 센서의 값을 그대로 이용하기 때문에, 하드웨어의 성능이 큰 영향을 미치는 모바일 증강현실(혼합현실)에 적합한 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법을 제공함을 그 목적으로 한다.In addition, according to an embodiment of the present invention, since the values of various sensors are used as they are, a system and method for generating 3D mobile augmented reality for user participation suitable for mobile augmented reality (mixed reality) having a great effect on hardware performance. To provide that purpose.

또한, 본 발명의 일 실시예에 따르면, 시간에 따른 컨텐츠 검색이 가능한 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법을 제공함을 그 목적으로 한다.In addition, according to an embodiment of the present invention, it is an object of the present invention to provide a 3D mobile augmented reality generation system and method for user content search over time.

또한, 본 발명의 일 실시예에 따르면, 기존의 단문 메세지를 통한 SNS의 형태를 탈피할 수 있는 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법을 제공함을 그 목적으로 한다.In addition, according to an embodiment of the present invention, it is an object of the present invention to provide a 3D mobile augmented reality generation system and method that can escape the form of SNS through the existing short message.

본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템은, 컨텐츠를 저장하는 컨텐츠 저장부; 실사 영상을 획득하는 실사 획득 모듈; 상기 실사 영상을 획득한 위치와 상기 실사 영상을 향해서 바라보는 방향을 이용하여 상기 컨텐츠 저장부에서 소정의 컨텐츠를 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 3D 렌더링 모델; 및 렌더링한 상기 3D 가상 모델과 상기 실사 영상을 정합하여 증강현실을 생성하는 영상 정합 모듈;을 포함한다.3D mobile augmented reality generating system for user participation according to an embodiment of the present invention, the content storage unit for storing the content; A live action acquisition module for acquiring a live action image; A 3D rendering model that searches for a predetermined content in the content storage unit and renders the searched content as a 3D virtual model by using the position at which the live image is obtained and the direction facing toward the live image; And an image registration module for generating an augmented reality by matching the rendered 3D virtual model with the real image.

상기 컨텐츠 저장부에 저장된 각각의 컨텐츠에는, 방향, 위치, 및 시간 정보가 매핑된 것일 수 있다.Direction, location, and time information may be mapped to each content stored in the content storage unit.

상기 컨텐츠 저장부에 저장된 컨텐츠에는, 실사 공간에서의 방향 및 위치 정보가 매핑된 것일 수 있다.The content stored in the content storage unit may be mapped to direction and location information in the actual space.

본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템은, 상기 컨텐츠 저장부에 저장된 컨텐츠들에서 특정 시간이 매핑된 컨텐츠를 검색하기 위한 검색용 시간을 입력받는 사용자 입력 모듈;을 더 포함하며 상기 3D 렌더링 모듈은 상기 실사 영상을 획득한 위치와 상기 실사를 바라보는 방향 및 상기 검색용 시간을 이용하여 상기 컨텐츠 저장부에서 소정의 3D 컨텐츠를 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 것일 수 있다.According to an embodiment of the present invention, a 3D mobile augmented reality generating system for user participation includes: a user input module configured to receive a search time for searching for a content mapped to a specific time in contents stored in the content storage unit; The 3D rendering module may further search for a predetermined 3D content in the content storage unit by using the location where the live image is obtained, the direction in which the live image is viewed, and the search time, and the searched content may be a 3D virtual model. May be rendered as

본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템은, 상기 실사 획득 모듈이 획득하는 실사 영상의 조도를 센싱하는 센서 측정 모듈;을 더 포함하며, 상기 3D 렌더링 모듈은 상기 검색한 컨텐츠를 3D 가상 모델로 렌더링할 때, 상기 센서 측정 모듈에 의해서 센싱된 조도를 반영하여 렌더링하는 것일 수 있다.3D mobile augmented reality generating system for user participation according to an embodiment of the present invention, the sensor measurement module for sensing the illuminance of the live-action image obtained by the live-action acquisition module; The 3D rendering module is the search When rendering a content as a 3D virtual model, the content may be rendered by reflecting the illumination sensed by the sensor measurement module.

본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템은, 상기 실사 획득 모듈의 위치 정보를 획득하는 측위 모듈;을 더 포함하며, 상기 3D 렌더링 모듈은, 상기 실사 획득 모듈의 위치로부터 상기 실사 획득 모듈이 획득한 실사를 향해서 소정 거리 이내에 위치하는 모든 컨텐츠를 상기 컨텐츠 저장부에서 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 것일 수 있다.3D mobile augmented reality generating system for user participation in accordance with an embodiment of the present invention, the positioning module for obtaining the location information of the live-action acquisition module; The 3D rendering module, the location of the live-action acquisition module The content storage unit may search for all content located within a predetermined distance from the real picture acquisition module obtained from the live action acquisition module, and render the searched content as a 3D virtual model.

본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템은, 상기 컨텐츠 저장부에 저장된 컨텐츠들에서 특정 시간이 매핑된 컨텐츠를 검색하기 위한 검색용 시간을 입력받는 사용자 입력 모듈; 및 상기 실사 획득 모듈의 위치 정보를 획득하는 측위 모듈;을 더 포함하며, 상기 3D 렌더링 모듈은, 상기 검색용 시간과 동일한 시간이 매핑된 컨텐츠들 중에서 상기 실사 획득 모듈의 위치로부터 상기 실사 획득 모듈이 획득한 실사를 향해서 소정 거리 이내에 위치하는 모든 컨텐츠를 상기 컨텐츠 저장부에서 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 것일 수 있다.According to an embodiment of the present invention, a 3D mobile augmented reality generating system for user participation includes: a user input module configured to receive a search time for searching for a content mapped to a specific time in contents stored in the content storage unit; And a positioning module for acquiring position information of the due diligence obtaining module, wherein the 3D rendering module includes: The content storage unit may search for all content located within a predetermined distance toward the obtained live-action, and render the searched content as a 3D virtual model.

상기 컨텐츠 저장부에 저장된 컨텐츠들에 매핑된 방향은, 상기 컨텐츠의 정면을 향해 바라보는 방향과는 완전 반대 방향인 법선 벡터 방향으로 정의된 것일 수 있다.The direction mapped to the contents stored in the content storage unit may be defined as a normal vector direction which is completely opposite to the direction facing the front of the content.

상기 3D 렌더링 모듈에 의해서 검색된 컨텐츠는, 상기 실사 획득 모듈의 위치로부터 상기 실사 획득 모듈이 획득한 실사로 향하는 방향과 상기 컨텐츠에 매핑된 법선 벡터 방향의 차이가 180±ΔD °인 것일 수 있다.The content retrieved by the 3D rendering module may have a difference of 180 ± ΔD ° between a direction from the location of the live action acquisition module to the live action acquired by the live action acquisition module and a normal vector direction mapped to the content.

상기 ΔD °의 절대 값은 90 °보다 적은 것일 수 있다.The absolute value of ΔD ° may be less than 90 °.

본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 방법은, 저장부에 컨텐츠를 저장하는 단계; 실사 영상을 획득하는 단계; 상기 실사 영상을 획득한 위치와 상기 실사 영상을 향해서 바라보는 방향을 이용하여 상기 저장부에 저장된 소정의 컨텐츠를 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 단계; 및 렌더링한 상기 3D 가상 모델과 상기 실사 영상을 정합하여 증강현실을 생성하는 단계;를 포함하는 것일 수 있다.A method for generating 3D mobile augmented reality for user participation according to an embodiment of the present invention includes: storing content in a storage unit; Obtaining a live image; Searching for a predetermined content stored in the storage unit by using the position where the actual image is obtained and the direction facing toward the actual image, and rendering the retrieved content as a 3D virtual model; And generating an augmented reality by matching the rendered 3D virtual model with the real image.

상기 저장부에 저장된 각각의 컨텐츠에는, 방향, 위치, 및 시간 정보가 매핑된 것일 수 있다.Direction, position, and time information may be mapped to each content stored in the storage unit.

상기 저장부에 저장된 컨텐츠에는, 실사 공간에서의 방향 및 위치 정보가 매핑된 것일 수 있다.The content stored in the storage unit may be mapped with direction and location information in the actual space.

본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 방법은, 상기 저장부에 저장된 컨텐츠들에서 특정 시간이 매핑된 컨텐츠를 검색하기 위한 검색용 시간을 사용자로부터 입력받는 단계;를 더 포함하며, 상기 3D 렌더링 모듈은 상기 실사 영상을 획득한 위치와 상기 실사를 바라보는 방향 및 상기 검색용 시간을 이용하여 상기 저장부에서 소정의 3D 컨텐츠를 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 것일 수 있다.In accordance with an aspect of the present invention, there is provided a method of generating 3D mobile augmented reality for user participation, comprising: receiving a search time for searching for a content mapped to a specific time from contents stored in the storage unit from a user; The 3D rendering module may search for a predetermined 3D content in the storage unit by using the location where the live image is obtained, the direction of viewing the live image, and the search time, and convert the retrieved content into a 3D virtual model. May be rendering.

본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 방법은, 상기 실사 획득 모듈이 획득하는 실사 영상의 조도를 센싱하는 센서 측정 모듈;을 더 포함하며, 상기 3D 렌더링 모듈은 상기 검색한 컨텐츠를 3D 가상 모델로 렌더링할 때, 상기 센서 측정 모듈에 의해서 센싱된 조도를 반영하여 렌더링하는 것일 수 있다. 3D mobile augmented reality generating method according to an embodiment of the present invention, the sensor measurement module for sensing the illuminance of the live-action image obtained by the live-action acquisition module; The 3D rendering module is the search When rendering a content as a 3D virtual model, the content may be rendered by reflecting the illumination sensed by the sensor measurement module.

본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 방법은, 상기 실사 획득 모듈의 위치 정보를 획득하는 측위 모듈;을 더 포함하며, 상기 3D 렌더링 하는 단계는, 상기 실사 획득 모듈의 위치로부터 상기 실사 획득 모듈이 획득한 실사를 향해서 소정 거리 이내에 위치하는 모든 컨텐츠를 상기 컨텐츠 저장부에서 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 것일 수 있다.3D mobile augmented reality generating method according to an embodiment of the present invention, positioning module for obtaining the location information of the live-action acquisition module; The 3D rendering step, the live action acquisition module The content storage may search for all content located within a predetermined distance from the location toward the live action obtained by the live action acquisition module, and render the searched content as a 3D virtual model.

본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 방법은, 상기 저장부에 저장된 컨텐츠들에서 특정 시간이 매핑된 컨텐츠를 검색하기 위한 검색용 시간을 사용자로부터 입력받는 단계; 및 상기 실사를 획득한 곳의 위치 정보를 획득하는 단계;를 더 포함하며, 상기 렌더링하는 단계는, 상기 검색용 시간과 동일한 시간이 매핑된 컨텐츠들 중에서 상기 실사를 획득한 곳의 위치로부터 상기 실사를 향한 방향으로 소정 거리 이내에 위치하는 모든 컨텐츠를 상기 저장부에서 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 것일 수 있다.According to an embodiment of the present invention, there is provided a method for generating 3D mobile augmented reality for user participation, comprising: receiving a search time for searching for a content mapped to a specific time from contents stored in the storage unit; And acquiring location information of the location where the live action is obtained; wherein the rendering comprises: from the location of the location where the live action is obtained from among contents mapped with the same time as the search time. The storage unit may search for all contents located within a predetermined distance in a direction toward and render the searched contents as a 3D virtual model.

상기 저장부에 저장된 컨텐츠들에 매핑된 방향은, 상기 컨텐츠의 정면을 향해 바라보는 방향과는 완전 반대 방향인 법선 벡터 방향으로 정의된 것일 수 있다. The direction mapped to the contents stored in the storage unit may be defined as a normal vector direction which is completely opposite to the direction facing the front of the contents.

상기 검색된 컨텐츠는, 상기 실사를 획득한 위치로부터 상기 실사로 향하는 방향과 상기 컨텐츠에 매핑된 법선 벡터 방향의 차이가 180±ΔD °인 것일 수 있다.The searched content may have a difference of 180 ± ΔD ° between a direction from the position at which the live action is obtained to the live action and a normal vector direction mapped to the content.

상기 ΔD °의 절대 값은 90 °보다 적은 것일 수 있다.The absolute value of ΔD ° may be less than 90 °.

본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템은, 실사 영상을 획득하는 실사 획득 모듈; 정합할 컨텐츠를 사용자로부터 입력받는 사용자 입력 모듈; 상기 실사 영상을 획득한 위치와, 상기 실사 영상을 향해서 바라보는 방향과 정반대의 방향과, 소정의 시간을 상기 사용자 입력 모듈에 의해 입력받은 컨텐츠에 매핑하여 저장하는 컨텐츠 저장부;를 포함한다.3D mobile augmented reality generating system for user participation according to an embodiment of the present invention, a live-action acquisition module for obtaining a live-action image; A user input module configured to receive content to be matched from a user; And a content storage unit that maps and stores a location obtained from the live image, a direction opposite to a direction viewed toward the live image, and a predetermined time mapped to content received by the user input module.

상기 소정의 시간은 상기 실사 영상을 획득한 시간 또는 사용자가 정의한 시간일 수 있다.The predetermined time may be a time for acquiring the live image or a time defined by a user.

상기 사용자 입력 모듈은, 상기 컨텐츠의 방향을 조정할 수 있는 사용자 인터페이스를 제공할 수 있다.The user input module may provide a user interface for adjusting the direction of the content.

본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 방법은, 실사 영상을 획득하는 단계; 정합할 컨텐츠를 사용자로부터 입력받는 단계; 상기 실사 영상을 획득한 위치와, 상기 실사 영상을 향해서 바라보는 방향과 정반대의 방향과, 소정의 시간을 상기 사용자로부터 입력받은 컨텐츠에 매핑하여 저장하는 단계;를 포함한다.A method for generating 3D mobile augmented reality for user participation according to an embodiment of the present invention includes: obtaining a live-action image; Receiving content to be matched from a user; And mapping and storing a location where the live image is obtained, a direction opposite to a direction viewed toward the live image, and a predetermined time mapped to content received from the user.

상기 소정의 시간은 상기 실사 영상을 획득한 시간 또는 사용자가 정의한 시간일 수 있다.The predetermined time may be a time for acquiring the live image or a time defined by a user.

상기 정합할 컨텐츠를 사용자로부터 입력받는 단계는, 상기 사용자에게 정합할 컨텐츠의 방향을 조정할 수 있는 사용자 인터페이스를 제공할 수 있다.The step of receiving the content to be matched from the user may provide a user interface for adjusting the direction of the content to be matched to the user.

본 발명의 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법은 모바일 증강현실에 적합한 소셜 네트워크 서비스(SNS)를 제공할 수 있다. 3D mobile augmented reality generation system and method for user participation in accordance with an embodiment of the present invention can provide a social network service (SNS) suitable for mobile augmented reality.

또한, 본 발명의 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법은 포스트-잇(Post-it)을 붙이는 것과 같이 메모 또는 사진을 남기는 사용자 행동을 그대로 반영할 수 있는 효과가 있다.In addition, the 3D mobile augmented reality generation system and method for user participation according to an embodiment of the present invention has an effect that can reflect the user's behavior of leaving a memo or a picture as a post-it. .

또한, 본 발명의 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법은 최대한 현실 세계와 유사하게 하여, 3D 모델이 현실로부터 괴리되는 것을 방지하는 효과가 있다.In addition, the 3D mobile augmented reality generation system and method for user participation according to an embodiment of the present invention is as close as possible to the real world, there is an effect of preventing the 3D model from being separated from the reality.

또한, 본 발명의 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법은, 각종 센서의 값을 그대로 이용하기 때문에, 하드웨어의 성능이 큰 영향을 미치는 모바일 증강현실(혼합현실)에 적합한 효과가 있다.In addition, the 3D mobile augmented reality generation system and method for user participation according to an embodiment of the present invention is suitable for mobile augmented reality (mixed reality), which has a large influence on the hardware performance since the values of various sensors are used as they are. It works.

또한, 본 발명의 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법은, 시간에 따른 컨텐츠 검색이 가능한 효과가 있다.In addition, the user participation-oriented 3D mobile augmented reality generating system and method according to an embodiment of the present invention, it is possible to search the content over time.

또한, 본 발명의 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법은 기존의 단문 메세지를 통한 SNS의 형태를 탈피할 수 있도록 하는 효과가 있다.In addition, the 3D mobile augmented reality generation system and method for user participation according to an embodiment of the present invention has the effect of escaping the form of SNS through the existing short message.

또한, 본 발명의 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법은, 기존의 사람 중심의 펠로우(Follow) 형태에서 장소 및 시간 ㅍ펠로우(Follow)가 가능한 효과가 있다.In addition, the 3D mobile augmented reality generation system and method for user participation in accordance with an embodiment of the present invention, there is an effect that can follow the place and time prep (Follow) in the form of a conventional person-centered (Follow).

도 1은 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템의 구성도,
도 2는 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법을 설명하기 위한 좌표계,
도 3은 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법을 설명하기 위한 카메라 좌표계,
도 4는 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법에서의 노멀 벡터(법선 벡터)를 나타낸 도,
도 5는 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법에서의 노멀 벡터(법선 벡터)의 계산을 나타낸 도,
도 6은 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법에서의 사용자 인터페이스를 설명하기 위한 도,
도 7은 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 방법을 설명하기 위한 흐름도,
도 8은 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 방법을 설명하기 위한 흐름도,
도 9는 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 방법을 설명하기 위한 흐름도,
도 10은 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법에 따른 증강현실을 나타낸 사진,
도 11은 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법에 따른 증강현실을 나타낸 사진,
도 12는 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법에 따른 사용자 인터페이스를 나타낸 사진, 그리고
도 13은 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법에 따라서 시간을 달리하여 검색한 결과를 나타낸 사진이다.
1 is a configuration diagram of a 3D mobile augmented reality generating system for user participation according to an embodiment of the present invention;
2 is a coordinate system for explaining a user participation in 3D mobile augmented reality generating system or method according to an embodiment of the present invention,
3 is a camera coordinate system for explaining a 3D mobile augmented reality generation system or method for user participation according to an embodiment of the present invention;
4 is a diagram illustrating a normal vector (normal vector) in a 3D mobile augmented reality generation system or method for user participation according to an embodiment of the present invention;
5 is a diagram illustrating calculation of a normal vector (normal vector) in a 3D mobile augmented reality generation system or method for user participation according to an embodiment of the present invention;
FIG. 6 is a view illustrating a user interface in a 3D mobile augmented reality generating system or method for user participation according to an embodiment of the present invention; FIG.
7 is a flowchart illustrating a method for generating 3D mobile augmented reality for user participation according to an embodiment of the present invention;
8 is a flowchart illustrating a method for generating 3D mobile augmented reality for user participation according to an embodiment of the present invention;
9 is a flowchart illustrating a method for generating 3D mobile augmented reality user participation in accordance with an embodiment of the present invention;
10 is a photograph showing augmented reality according to a user participation in three-dimensional mobile augmented reality generating system or method according to an embodiment of the present invention,
11 is a photograph showing augmented reality according to a user participation in three-dimensional mobile augmented reality generating system or method according to an embodiment of the present invention,
12 is a photo showing a user interface according to a 3D mobile augmented reality generating system or method for user participation according to an embodiment of the present invention, and
FIG. 13 is a photograph showing a result of searching by varying time according to a 3D mobile augmented reality generating system or method for user participation according to an embodiment of the present invention.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다. 본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한 도면들에 있어서, 구성요소들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다. Objects, other objects, features and advantages of the present invention will be readily understood through the following preferred embodiments associated with the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments disclosed herein are provided so that the disclosure can be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. In this specification, when an element is referred to as being on another element, it may be directly formed on another element, or a third element may be interposed therebetween. Also in the figures, the thickness of the components is exaggerated for an effective description of the technical content.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. As used herein, the words 'comprises' and / or 'comprising' do not exclude the presence or addition of one or more other components.

이하, 도면을 참조하여 본 발명을 상세히 설명하도록 한다. 아래의 특정 실시예들을 기술하는데 있어서, 여러 가지의 특정적인 내용들은 발명을 더 구체적으로 설명하고 이해를 돕기 위해 작성되었다. 하지만 본 발명을 이해할 수 있을 정도로 이 분야의 지식을 갖고 있는 독자는 이러한 여러 가지의 특정적인 내용들이 없어도 사용될 수 있다는 것을 인지할 수 있다. 어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다. Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In describing the specific embodiments below, various specific details are set forth in order to explain the invention more specifically and to help understand. However, one of ordinary skill in the art can understand that the present invention can be used without these various specific details. In some cases, it is mentioned in advance that parts of the invention which are commonly known in the description of the invention and which are not highly related to the invention are not described in order to prevent confusion in explaining the invention without cause.

도 1은 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템의 구성도이다.1 is a block diagram of a 3D mobile augmented reality generating system for user participation according to an embodiment of the present invention.

도 1을 참조하면, 사용자 참여향 3차원 모바일 증강현실 생성 시스템은 센서 측정 모듈(100), 측위모듈(110), 사용자 입력 모듈(130), 시간 검색 모듈(140), 영상 획득 모듈(160), 영상 정합 모듈(170), 출력모듈(180), 및 3D 렌더링 모듈(200)을 포함한다. 여기서, 3D 렌더링 모듈(200)은 카메라 메트릭스 생성 모듈(156), 사용자 컨텐츠 모듈(150), 라이트 설정 모듈(153), 시간 검색 모듈(154), 및 3D 환경 구성 모듈(155)을 포함하며, 사용자 컨텐츠 모듈(150)은 입력 오브젝트 생성 모듈(151), 및 입력 오브젝트 메트릭스 생성 모듈(152)을 포함한다. 또한 사용자 입력 모듈(130)은 컨텐츠 입력 모듈(131)과 터치 입력 모듈(133)을 포함한다.Referring to FIG. 1, the 3D mobile augmented reality generating system for user participation includes a sensor measurement module 100, a positioning module 110, a user input module 130, a time retrieval module 140, and an image acquisition module 160. , Image matching module 170, output module 180, and 3D rendering module 200. Here, the 3D rendering module 200 includes a camera matrix generation module 156, a user content module 150, a light setting module 153, a time searching module 154, and a 3D environment configuration module 155. The user content module 150 includes an input object generation module 151 and an input object matrix generation module 152. In addition, the user input module 130 includes a content input module 131 and a touch input module 133.

센서 측정 모듈(100)은 실사에 대한 이미지와 실사까지의 초점 거리를 획득하기 위한 카메라 센서, 절대적 방향을 측정하는 지자기 센서, 카메라 뷰 방향을 측정하기 위한 가속도 센서(및/또는 자이로센서), 및 빛의 밝기를 센싱하는 조도 센서를 포함한다. The sensor measurement module 100 may include a camera sensor for obtaining an image of the actual image and a focal length to the actual image, a geomagnetic sensor for measuring an absolute direction, an acceleration sensor (and / or gyro sensor) for measuring a camera view direction, and It includes an illumination sensor for sensing the brightness of the light.

측위모듈(110)은 실사를 획득한 곳의 위치 정보를 획득한다. 예를 들면, 측위모듈(110)은 GPS 수신기, 및/또는 LBS 기반의 위치 정보 수단을 포함할 수 있다. 본 발명의 일 실시예에 따르면, 측위모듈(110)은 실외인 경우 GPS를 이용해 현재 위치 값을 받고, 실내인 경우에는 RTLS(Real Time Location System)을 이용해 현재 위치를 받을 수 있다. RTLS(Real Time Location System)에는 예를 들면 이동통신망의 기지국을 이용한 측위 방법 및 Wi-Fi를 이용한 측위 방법 등이 있다.The positioning module 110 obtains the location information of the location where the live action is obtained. For example, the positioning module 110 may include a GPS receiver and / or LBS based location information means. According to an embodiment of the present invention, the positioning module 110 may receive a current location value using a GPS when outdoors, and receive a current location using a Real Time Location System (RTLS) when indoors. The Real Time Location System (RTLS) includes, for example, a positioning method using a base station of a mobile communication network and a positioning method using Wi-Fi.

사용자 입력 모듈(130)은 사용자가 실사와 정합할 컨텐츠를 선택하게 하고, 컨텐츠의 방향을 돌리거나 수정할 수 있는 입력 인터페이스를 제공한다. 도 6은 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법에서의 사용자 인터페이스를 설명하기 위한 도이고, 도 12는 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법에 따른 사용자 인터페이스를 나타낸 사진이다. 이들 도면들에 예시되어 있듯이, 사용자 입력 모듈(130)은 사용자에게 컨텐츠를 자유롭게 입력하고 수정할 수 있는 편리성을 제공할 수 있다.The user input module 130 allows the user to select content to match with the live action, and provides an input interface that can rotate or modify the content. FIG. 6 is a diagram illustrating a user interface in a 3D mobile augmented reality generating system or method for user participation in accordance with an embodiment of the present invention, and FIG. 12 is a 3D user participation orientation in accordance with an embodiment of the present invention. A picture showing a user interface according to a mobile augmented reality generation system or method. As illustrated in these figures, the user input module 130 may provide a user with the convenience of freely entering and modifying content.

시간 검색 모듈(140)은 사용자가 특정 시간대의 컨텐츠를 검색하고자 할 때, 사용자에게 시간 입력 인터페이스를 제공할 수 있다. 시간 검색 모듈(140)은 상술한 사용자 입력 모듈(130)과 분리되어 있는 것으로 도시되어 있으나, 이들 양자가 서로 합쳐져서 구현되는 것도 가능하다. The time retrieval module 140 may provide a time input interface to the user when the user wants to search for content in a specific time zone. Although the time retrieval module 140 is illustrated as being separated from the user input module 130 described above, the time retrieval module 140 may be implemented by being combined with each other.

영상 획득 모듈(160)은 실사를 획득하는 모듈로서 센서 측정 모듈(100)이 획득한 영상을 이미지 형태로 처리한다.The image acquisition module 160 is a module for acquiring the due diligence and processes the image acquired by the sensor measurement module 100 in the form of an image.

영상 정합 모듈(170)은 3D 렌더링 모듈(200)에 의해 3차원으로 렌더링된 3D 렌더링 모델과 영상 획득 모듈(160)이 구성한 이미지(이하, "실사 영상")를 정합하여 혼합현실(또는 증강현실이라고도 함)을 생성할 수 있다. 이후, 출력 모듈(180)은 혼합현실을 사용자가 볼 수 있는 형태로 출력할 수 있다. The image matching module 170 matches the 3D rendering model rendered in 3D by the 3D rendering module 200 with the image (hereinafter, referred to as "real image") configured by the image capturing module 160 to mix mixed reality (or augmented reality). (Also called). Thereafter, the output module 180 may output the mixed reality in a form that a user can see.

본 발명의 일 실시예에 따르면, 3D 렌더링 모듈(156)은, 센서 측정 모듈(100)과 영상 획득 모듈(160)을 통해 얻은 현재 사용자가 보고 있는 실사 영상과, 측위모듈(110)을 통해 얻어진 현재 위치 값(이하, '위치' 또는 '위치 정보'라고도 함)을 이용해 현 위치에서 보일 수 있는 컨텐츠를 컨텐츠 저장소(120)에서 검색하여 로딩하고, 로딩한 컨텐츠를 3D 컨텐츠 모델로 렌더링할 수 있다. 이렇게 렌더링된 3D 컨텐츠는 3D 환경으로 구성된 후, 영상 정합 모듈(170)에 의해서 실사 영상과 정합될 수 있다.According to an embodiment of the present invention, the 3D rendering module 156 may include a photorealistic image currently viewed by the user obtained through the sensor measurement module 100 and the image acquisition module 160, and obtained through the positioning module 110. Content that can be viewed at the current location using the current location value (hereinafter, also referred to as 'location' or 'location information') can be retrieved from the content storage 120 and loaded, and the loaded content can be rendered as a 3D content model. . The rendered 3D content may be configured as a 3D environment and then matched with the live image by the image matching module 170.

본 발명의 일 실시예에 따른 컨텐츠 저장소(120)는 복수의 컨텐츠를 저장하며, 이들 각각의 컨텐츠에 대하여 방향, 위치, 및 시간 정보가 매핑되어 있다. 예를 들면, <표1>과 같은 정보가 저장되어 있을 수 있다.The content store 120 according to an embodiment of the present invention stores a plurality of contents, and directions, locations, and time information are mapped to the respective contents. For example, information as shown in Table 1 may be stored.

컨텐츠 IDContent ID 위치 location 방향direction 시간time 컨텐츠가 저장된 물리적 디스크의 주소 Address of the physical disk where the content is stored C1C1 P1P1 D1(정북향)D1 (north facing) T1T1 주소 1Address 1 C2C2 P2P2 D3(정남향)D3 (North facing) T2T2 주소 2Address 2 C3C3 P3P3 D1(정남향)D1 (north facing) T3T3 주소 3Address 3 C4C4 P1P1 D1(정남향)D1 (north facing) T1T1 주소 4Address 4 .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

<표1>을 참조하면, 컨텐츠 저장소(120)에 저장된 컨텐츠 각각에 대하여, 위치, 방향, 및 시간이 매핑되어 있다. 이처럼, 컨텐츠 마다 매핑된 위치, 방향, 및 시간을 이용하여, 컨텐츠 저장소(120)에 저장된 컨텐츠들 중에서 원하는 컨텐츠를 검색할 수 있게 된다. 여기서, 카메라(영상 획득 모듈)가 위치 P1에 있고, 카메라 방향이 정남향인 경우를 기준으로 설명하면, 위치 P1에 있는 컨텐츠는 C1과 C4이지만, 카메라 방향과 180도의 차이가 있는 방향을 가지는 컨텐츠는 C1이다. 따라서, 컨텐츠 C4는 정남향 방향을 가지므로, 카메라 쪽에서는 컨텐츠 C4의 내용이 보이지 않으며, 결국 컨텐츠 C4는 검색의 대상이 되지 않는다.Referring to Table 1, locations, directions, and times are mapped to each of the contents stored in the content repository 120. As such, using the location, direction, and time mapped for each content, the desired content may be searched among the contents stored in the content storage 120. Here, if the camera (image acquisition module) is located at position P1 and the camera direction is true south, the content at position P1 is C1 and C4, but the content having a direction different from the camera direction is 180 degrees. C1. Therefore, since the content C4 has a true south-facing direction, the content of the content C4 is not visible from the camera side, and thus the content C4 is not a search target.

이처럼, 위치 P1에 있는 카메라의 뷰 방향이 정남향인 경우, 검색의 대상이 되는 컨텐츠는 정북향을 바라보는 컨텐츠(즉, 법선벡터가 정북향인 컨텐츠)를 포함하며, 정북향 ± D°(여기서, D°는 90도 미만임)의 방향을 가진 컨텐츠도 포함될 수 있다.As such, when the view direction of the camera at the position P1 is true south, the content to be searched for includes the content facing north north (that is, the content whose normal vector is north north), and north north ± D ° (where , D ° may be less than 90 degrees).

본 발명의 일 실시예에 따른 사용자 입력 모듈(130)은 컨텐츠 입력 모듈(130)과 터치 입력 모듈(131)을 포함한다. 여기서, 컨텐츠 입력 모듈(130)에 의해 사용자로부터 입력되는 컨텐츠는 3D 렌더링 모듈(156)에 의해서 3차원 가상 모델이 되고, 3차원 가상 모델은 3D 환경으로 구성된 후 영상 정합 모듈(170)에 의해 실사 영상과 정합될 수 있다. 한편, 실사 영상과 정합된 혼합현실 영상에서, 컨텐츠는 사용자에 의해 직접 위치 변경이 가능하며, 이를 위해서 터치 입력 모듈(131)이 사용될 수 있다. 도 6을 참조하면, 사용자가 터치 입력 모듈(131)을 통해 좌/우/상/하 조정이 가능하여 자신이 원하는 위치와 각도에 맞게 컨텐츠를 등록할 수 있다. 예를 들어 도 6을 참조하면, 사용자 입력 모듈(130)의 터치 입력 모듈(131)에서 현재 컨텐츠의 수정요청이 있을 경우, 현재 3D 모델의 노멀 벡터(Normal Vector)를 아래 수학식 1의 쿼터니온(Quaternion) 형태의 4원수로 변환한다.The user input module 130 according to an embodiment of the present invention includes a content input module 130 and a touch input module 131. Here, the content input from the user by the content input module 130 becomes a 3D virtual model by the 3D rendering module 156, and the 3D virtual model is configured by the image matching module 170 after being configured in a 3D environment. Can be matched with the image. Meanwhile, in the mixed reality image matched with the live image, the content may be directly changed by the user, and the touch input module 131 may be used for this purpose. Referring to FIG. 6, the user may adjust left / right / up / down through the touch input module 131 to register content according to a desired position and angle. For example, referring to FIG. 6, when the touch input module 131 of the user input module 130 has a request for modification of the current content, the normal vector of the current 3D model is converted into a quaternion of Equation 1 below. Convert to quaternion).

4원수로 변환 후 축을 중심으로 도 6과 같은 사용자의 터치 입력에 따라 회전 메트릭스(tation Matrix)를 생성하여 3D 모델을 회전시킨다. 도 6에서 점선으로 표시한 동그라미는 사용자의 터치 가능 지역을 나타낸 것이다. 컨텐츠의 오른쪽을 터치하면(500) 오른쪽으로 일정간격 회전(510)하며, 컨텐츠의 왼쪽을 터치하면(520) 왼쪽으로 일정간격 회전(530)한다. 상하 회전(540, 550, 560, 570)도 같다.After converting to 4 enemies, the 3D model is rotated by generating a rotation matrix based on a user's touch input as shown in FIG. 6. Circles indicated by dotted lines in FIG. 6 indicate touchable areas of the user. Touching the right side of the content (500) rotates a predetermined interval 510 to the right, and touching the left side of the content (520) rotates a predetermined interval to the left (530). The same applies to the vertical rotation (540, 550, 560, 570).

컨텐츠 입력 모듈(130)로부터 입력되는 컨텐츠(ex: 글, 낙서, 사진, 동영상 등)는 텍스쳐 처리 후 텍스처 ID가 부여되어 컨텐츠 저장소(120)에 저장되며, 3D 렌더링 모듈의 입력 오브젝트 생성 모듈(151)로도 넘겨져, 3D 가상 모델의 텍스쳐로 입혀진다. 여기서, '텍스쳐 처리'란 컨텐츠의 2n*2n 이미지화를 의미한다.Content input from the content input module 130 (eg: text, graffiti, photo, video, etc.) is given a texture ID after texture processing and is stored in the content storage 120, and is an input object generation module 151 of the 3D rendering module. ), Which is then applied to the texture of the 3D virtual model. Here, "texture processing" means 2n * 2n imaging of the content.

카메라 메트릭스(Camera Matrix) 생성 모듈(150)은 카메라(즉, 카메라 뷰)의 현재 위치와 센서 측정 모듈(100)에서 받은 회전(값)을 이용해 현재 카메라 자세를 측정하여 카메라 뷰의 방향과 위치를 결정한다. 본 발명의 일 실시예에 따르면 카메라 메트릭스 생성 모듈(150)은 카메라 뷰의 방향과 위치를 메트릭스 형태로 생성할 수 있다.  The camera matrix generation module 150 measures the current camera pose using the current position of the camera (ie, camera view) and the rotation (value) received from the sensor measurement module 100 to determine the direction and position of the camera view. Decide According to an embodiment of the present invention, the camera matrix generation module 150 may generate a direction and a position of the camera view in a matrix form.

도 2는 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법을 설명하기 위한 좌표계이고, 도 3은 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법을 설명하기 위한 카메라 좌표계이다. 이들 도면을 참조하여 카메라 메트릭스 생성 모듈(150)이 카메라의 위치를 결정하는 방법을 설명하기로 한다.2 is a coordinate system for explaining a system or method for generating 3D mobile augmented reality user participation in accordance with an embodiment of the present invention, Figure 3 is a 3D mobile augmented reality creation of the user participation in accordance with an embodiment of the present invention Camera coordinate system for describing the system or method. A method of determining a camera position by the camera matrix generation module 150 will be described with reference to these drawings.

카메라 메트릭스 생성 모듈(150)은 예를 들면 2가지 방법으로 카메라의 위치를 결정할 수 있다.The camera matrix generation module 150 may determine the position of the camera in two ways, for example.

첫 번째 방법은 GPS로부터 수신하는 절대적 위치를 이용하는 방법이다. GPS로부터 수신한 위치는 도 2와 같이 지구좌표계(or 구좌표계)로 표기되어 있으므로 (latitude λ, longitude φ, altitude ρ)를 그대로 위치 벡터(Position vector)로 사용할 수 있다. The first method is to use absolute position received from GPS. Since the position received from the GPS is represented by the earth coordinate system (or spherical coordinate system) as shown in FIG. 2, (latitude λ, longitude φ, altitude ρ) may be used as a position vector as it is.

두 번째 방법은, RTLS를 통해 획득하는 상대적 위치를 이용하는 방법이다. RTLS를 통해서 획득한 위치는 상대적인 위치이므로 이 상대적 위치를 절대적 위치로 변환하는 수식을 이용하면, 위치 벡터를 결정할 수 있다. 예를 들면, (x,y) 좌표만 얻는다면 z는 현 사용자의 키를 입력받아 위치 벡터를 결정할 수 있다. The second method is to use the relative position obtained through RTLS. Since the position obtained through RTLS is a relative position, a position vector can be determined by using a formula that converts the relative position into an absolute position. For example, if only (x, y) coordinates are obtained, z can determine the position vector by receiving the current user's key.

위치 벡터가 결정되었으므로, 룩엣 벡터(Look at Vector)만 결정되면 카메라 뷰의 방향과 위치가 일의적으로 결정될 수 있다. 룩엣 벡터는 상술한 바 있지만, 센서 측정 모듈(100)에 포함된 지자기 센서와 가속도 센서(및/또는 자이로 센서)에 의해 센싱된 값을 이용하여 결정할 수 있다. Since the position vector is determined, if only a look at vector is determined, the direction and position of the camera view may be uniquely determined. Although the looket vector has been described above, it may be determined using values sensed by the geomagnetic sensor and the acceleration sensor (and / or the gyro sensor) included in the sensor measurement module 100.

이상과 같이 룩엣 벡터와 위치 벡터가 모두 결정되면, 카메라 메트릭스 생성 모듈(150)은 그들 벡터를 이용하여 카메라 뷰 메트릭스를 생성할 수 있다. As described above, when both the looket vector and the position vector are determined, the camera matrix generation module 150 may generate the camera view metrics using the vectors.

사용자 컨텐츠 모듈(150)은 입력 오브젝트를 생성하고, 입력 오브젝트의 위치와 방향을 결정할 수 있다. 본 발명의 일 실시예에 따르면 사용자 컨텐츠 모듈(150)은 입력 오브젝트 생성 모듈(151)과 입력 오브젝트 메트릭스 생성 모듈(152)을 포함한다.The user content module 150 may generate an input object and determine a position and a direction of the input object. According to an embodiment of the present invention, the user content module 150 includes an input object generation module 151 and an input object matrix generation module 152.

도 4는 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법에서의 노멀 벡터(법선 벡터)를 나타낸 도이고, 도 5는 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법에서의 노멀 벡터(법선 벡터)의 계산을 나타낸 도이다. 이들 도면을 참조하여, 입력 오브젝트 메트릭스를 결정하는 방법을 설명하기로 한다.FIG. 4 is a diagram illustrating a normal vector (normal vector) in a 3D mobile augmented reality generating system or method for user participation according to an embodiment of the present invention, and FIG. 5 is a diagram illustrating user participation according to an embodiment of the present invention. A diagram illustrating the calculation of normal vectors (normal vectors) in a 3D mobile augmented reality generation system or method. With reference to these figures, a method of determining input object metrics will be described.

사용자 컨텐츠 모듈(150)의 입력 오브젝트 생성 모듈(151)은 새로운 3D 모델을 생성하고, 사용자에 의해서 텍스쳐로 등록된 컨텐츠를 상기 새로운 3D 모델의 표면에 입힌다(이와 같은 동작을 '텍스쳐링'이라고 한다).The input object generation module 151 of the user content module 150 generates a new 3D model and applies content registered as a texture by the user to the surface of the new 3D model (this operation is referred to as 'texturing'). .

입력 오브젝트 메트릭스 생성 모듈(152)은 컨텐츠가 텍스쳐링 된 3D 모델의 위치와 방향 벡터를 설정한다. 도 4와 5를 참조하면, 카메라의 룩엣 벡터(400)와 3D 모델은 떨어져 있다고 가정하고, 카메라 위치 벡터에서 오프셋(예를 들면 촛점 거리)만큼 더하고 뺀 값들(latitude, longitude, altitude±offset)을 3D 모델의 위치 벡터로 결정할 수 있다. 또한, 입력 오브젝트 메트릭스 생성 모듈(152)은, 카메라의 룩엣 벡터와 정반대 방향을 가진 벡터를 3D 모델의 방향 벡터로서 결정할 수 있다. 설명의 편의를 위해서 본원 명세서에서는, 카메라의 룩엣 벡터와 정반대 방향을 가진 벡터를 3D 모델의 방향 벡터(또는 법선 벡터 또는 노멀 벡터)라고 한다. The input object matrix generation module 152 sets the position and direction vector of the 3D model of which the content is textured. Referring to FIGS. 4 and 5, it is assumed that the looket vector 400 and the 3D model of the camera are separated, and the values added and subtracted by the offset (for example, focal length) from the camera position vector (latitude, longitude, altitude ± offset) This can be determined by the position vector of the 3D model. In addition, the input object matrix generation module 152 may determine a vector having a direction opposite to that of the camera, as a direction vector of the 3D model. For convenience of description, in the present specification, a vector having a direction opposite to the looket vector of the camera is referred to as a direction vector (or normal vector or normal vector) of the 3D model.

입력 오브젝트 메트릭스 생성 모듈(152)은 상술한 바와 같이 3D 모델에 대한 위치와 방향을 결정하며, 메트릭스의 형태로 위치와 방향을 생성할 수 있다.As described above, the input object matrix generation module 152 may determine a position and a direction with respect to the 3D model, and generate the position and the direction in the form of a matrix.

라이트 설정 모듈(153)에서는 조도 센서로부터 빛의 세기 값을 받아 현재 위치에서의 라이트에 맞는 조도 값을 설정하여 3D 환경 구성 모듈(155)로 전달할 수 있다. 3D 환경 구성 모듈(155)은, 라이트 설정 모듈(153)로부터 전달 받은 조도 값, 카메라 메트릭스 생성 모듈(156)이 생성한 카메라 메트릭스, 사용자 컨텐츠 모듈이 생성한 입력 오브젝트 메트릭스, 및 사용자로부터 입력받은 시간을 이용하여 3D 모델의 가상 환경을 구성한다. The light setting module 153 may receive an intensity value of light from an illuminance sensor, set an illuminance value corresponding to the light at the current position, and transmit it to the 3D environment configuration module 155. The 3D environment configuration module 155 may include an illuminance value received from the light setting module 153, a camera matrix generated by the camera matrix generation module 156, an input object matrix generated by the user content module, and a time input from the user. Construct a virtual environment of 3D model using.

예를 들면, 현재 시각이 밤이라고 가정한다. 만약 조도의 고려 없이, 3D 증강현실을 구현하면 컴컴하여 증강현실을 눈으로 볼 수 없을 수 있다. 이러한 경우, 3D 환경 구성 모듈(155)은 증강현실을 눈으로 볼 수 있을 정도로 조도를 설정하여 렌더링할 수 있다. 한편, 조도 센서로부터 센싱된 빛의 세기에 기초하여, 현재 햇빛의 위치에 따라서 증강현실에 포함된 3D 가상 모델의 명암이 달라지도록 할 수도 있다. 이로써, 더욱 실감나는 증강현실을 사용자가 체험할 수 있을 것이다.For example, suppose the current time is night. If 3D augmented reality is implemented without consideration of illuminance, it may not be possible to see augmented reality visually. In this case, the 3D environment configuration module 155 may set and render the illumination so that the augmented reality can be seen by the eye. On the other hand, based on the intensity of the light sensed from the illumination sensor, the contrast of the 3D virtual model included in the augmented reality may be changed according to the current position of sunlight. As a result, the user may experience a more realistic augmented reality.

시간 검색 모듈(154)은 시간 필터로서 현 위치에서 보이는 컨텐츠를 모두 로딩하는 것이 아니라 사용자가 설정한 시간 구간에서 보일 수 있는 컨텐츠만을 컨텐츠 저장소(120)로부터 로딩한다. 3D 렌더링 모듈에 있는 모든 모듈들(150~154)의 결과물은 3D 환경 구성 모듈(155)에서 합쳐져 사용자의 현재위치에서 Δlatitude, Δlongitude에 있으며 특정 시간 구간에 있는 모든 컨텐츠를 기반하여 하나의 3D 씬(scene)이 구성되어 렌더링 된다.  The time retrieval module 154 loads only the content that can be seen in the time interval set by the user from the content store 120, rather than loading all the content that is visible at the current location as a time filter. The output of all modules 150-154 in the 3D rendering module are combined in the 3D configuration module 155 and are in Δlatitude, Δlongitude at the user's current location and based on all the content in a particular time interval, The scene is constructed and rendered.

이후, 영상 획득 모듈(160)을 통해 얻은 실사 영상과 3D 환경 구성 모듈(155)을 통해 얻어진 렌더링 프레임(3D 가상 모델)을 영상 정합 모듈(170)이 정합하면, 출력 모듈(180)이 사용자가 시청 가능한 형태로 표시한다.Subsequently, when the image matching module 170 matches the actual image obtained through the image acquisition module 160 with the rendering frame (3D virtual model) obtained through the 3D environment configuration module 155, the output module 180 may display Display in a viewable form.

도 7은 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 방법을 설명하기 위한 흐름도로서, 사용자가 3D 가상 모델에 사용되는 컨텐츠를 컨텐츠 저장소에 저장하는 과정을 예시적으로 나타낸 것이다.FIG. 7 is a flowchart illustrating a method for generating 3D mobile augmented reality for user participation according to an embodiment of the present invention, and exemplarily illustrates a process of a user storing content used in a 3D virtual model in a content repository. .

도 7을 참조하면, 측위 모듈이 GPS 또는 RTLS로부터 현재의 위치 정보를 취득하고(S701), 카메라가 현재 위치한 곳에서의 각종 센서 값을 취득한다(S703). 여기서, 각종 센서 값은 카메라가 위치하는 곳에서의 카메라의 방향을 결정하는 데 필요한 값들이다. 예를 들면, 카메라 방향은 지자기 센서와 자이로 센서(또는 가속도 센서)에 의해 센싱된 값들에 의해 결정될 수 있다. Referring to FIG. 7, the positioning module acquires current location information from GPS or RTLS (S701), and acquires various sensor values at the current location of the camera (S703). Here, the various sensor values are values necessary to determine the direction of the camera at the camera location. For example, the camera orientation may be determined by values sensed by the geomagnetic sensor and the gyro sensor (or acceleration sensor).

사용자로부터 컨텐츠를 입력받으면(S705: Y), 입력받은 컨텐츠를 텍스쳐화하고 3D 모델에 입힌다(S707). 즉, 컨텐츠를 3D 가상 모델에 텍스쳐링한다. 이후, 3D 환경 구성 모델은 텍스쳐링된 3D 가상 모델과, 그러한 3D 가상 모델의 위치 벡터와 방향을 이용하여 3D 환경을 구성한다(S709). 본 발명의 일 실시예에 따르면, 조도 센서로부터 획득되는 빛의 세기를 고려하여 3D 가상 환경을 구성한다. When the content is input from the user (S705: Y), the received content is textured and applied to the 3D model (S707). That is, the content is textured to the 3D virtual model. Thereafter, the 3D environment configuration model constructs the 3D environment using the textured 3D virtual model and the position vector and the direction of the 3D virtual model (S709). According to an embodiment of the present invention, a 3D virtual environment is configured in consideration of the intensity of light obtained from the illuminance sensor.

이후, 영상 획득 모듈에 의해 획득된 영상(S704)과 3D 가상 환경을 영상 정합 모듈이 정합하며, 정합된 혼합현실 영상은 출력 모듈에 의해 표시될 수 있다(S713). 만약, 사용자가 혼합현실 영상에 사용된 컨텐츠를 저장하고자 한다면(S715: Y). 3D 렌더링 모듈은 컨텐츠를 텍스쳐화하고 ID를 부여한 후 컨텐츠 저장소에 저장한다. 다만, 3D 렌더링 모듈은 컨텐츠를 저장소에 저장할 때 반드시 위치, 방향, 및 시간을 컨텐츠마다 매핑하여 저장한다. 여기서 컨텐츠에 매핑되는 위치는 상기 실사 영상을 획득한 곳의 위치(즉, 카메라의 위치)이고, 방향은 카메라의 룩엣 벡터의 정반대 방향(즉, 3D 모델의 노멀 벡터 또는 법선 벡터)이며, 시간은 혼합현실을 생성한 시간이다. 한편, 시간은 혼합현실을 생성한 시간이 아닌 사용자가 입력하는 시간도 될 수 있다. Thereafter, the image matching module matches the image S704 acquired by the image capturing module with the 3D virtual environment, and the matched mixed reality image may be displayed by the output module (S713). If the user wants to store the content used in the mixed reality image (S715: Y). The 3D rendering module textifies the content, gives it an ID, and stores it in the content repository. However, when storing the content in the storage, the 3D rendering module always maps and stores the position, direction, and time for each content. Here, the position mapped to the content is a position where the real image is acquired (that is, the position of the camera), the direction is the opposite direction of the lookout vector of the camera (that is, the normal vector or the normal vector of the 3D model), and the time is It is time to create mixed reality. Meanwhile, the time may be a time input by the user, not a time of generating the mixed reality.

도 8은 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 방법을 설명하기 위한 흐름도로서, 컨텐츠 저장소(120)에 저장된 컨텐츠를 로딩하여 3D 혼합현실을 구성하는 과정을 예시적으로 나타낸 것이다.8 is a flowchart illustrating a method for generating 3D mobile augmented reality for user participation according to an embodiment of the present invention. The process of configuring 3D mixed reality by loading content stored in the content repository 120 is illustrated. It is shown.

도 8을 참조하면, 측위 모듈이 GPS 또는 RTLS로부터 현재의 위치 정보를 취득하고(S801), 영상 획득 모듈이 위치하는 곳에서의 각종 센서 값을 취득한다(S803). 여기서, 각종 센서 값은 카메라가 위치하는 곳에서의 카메라의 방향을 결정하는 데 필요한 값들이다. 예를 들면, 카메라 방향은 지자기 센서와 자이로 센서(또는 가속도 센서)에 의해 센싱된 값들에 의해 결정될 수 있다. Referring to FIG. 8, the positioning module acquires current position information from GPS or RTLS (S801), and acquires various sensor values at the location of the image acquisition module (S803). Here, the various sensor values are values necessary to determine the direction of the camera at the camera location. For example, the camera orientation may be determined by values sensed by the geomagnetic sensor and the gyro sensor (or acceleration sensor).

사용자가 특정 시간에 생성된 컨텐츠만을 실사에 정합하고자 하는 경우에는, 사용자로부터 시간을 입력받을 수 있다. 예를 들면, 시간 검색 모듈(140)을 통해서 특정 시간을 입력 받으면(S805: Y), 3D 렌더링 모듈은 입력받은 시간, 현재 위치에서 측위 모듈이 획득한 위치, 및 센서 측정 모듈로부터 획득한 카메라의 방향에 기초하여 특정 시간, 특정 위치, 및 특정 방향이 매핑된 컨텐츠를 로딩한다(S809). 여기서 특정 시간은 사용자가 입력한 시간이고, 특정 위치는 측위 모듈이 획득한 위치이고, 특정 방향은 카메라의 방향과 정반대되는 방향이다. 특히, 특정 방향은 카메라의 방향과 정반대 방향, 즉, 카메라 방향 벡터와 180도 차이가 있는 방향이며, 180도의 절대값 보다 소정 각도(주로 90도 미만)만큼 차이가 있는 방향도 해당될 수 있다.When the user wants to match only the content generated at a specific time to the live action, the user may receive a time from the user. For example, when a specific time is input through the time search module 140 (S805: Y), the 3D rendering module may determine the input time, the position obtained by the positioning module at the current position, and the camera acquired from the sensor measurement module. The content mapped to a specific time, a specific location, and a specific direction is loaded based on the direction (S809). The specific time is a time input by the user, the specific position is a position obtained by the positioning module, and the specific direction is a direction opposite to the direction of the camera. In particular, the specific direction is a direction opposite to the direction of the camera, that is, a direction that is 180 degrees different from the camera direction vector, and may also correspond to a direction that is different from the absolute value of 180 degrees by a predetermined angle (mainly less than 90 degrees).

이후, 3D 환경 구성 모듈은 3D 가당 모델로 3D 가상 환경을 구성하여 영상 정합 모듈로 전달하고, 영상 정합 모듈은 영상 획득 모듈이 획득한 실사 영상과 3D 가상 모델이 포함된 3D 환경을 정합하여 혼합현실을 구성한다(S813). 이후, 출력 모듈은 혼합현실을 사용자에게 표시한다(S815).After that, the 3D environment configuration module constructs a 3D virtual environment using a 3D sweetened model and delivers the image to the image matching module, and the image matching module matches the real-world image obtained by the image acquisition module with the 3D environment including the 3D virtual model and mixed reality. (S813). Thereafter, the output module displays the mixed reality to the user (S815).

도 9는 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating a method for generating 3D mobile augmented reality for user participation according to an embodiment of the present invention.

도 9를 참조하면, 도 8의 동작과 유사하며, 컨텐츠 저장소로부터 특정 시간, 특정 위치, 및 특정 방향이 매핑된 컨텐츠를 로딩한 후, 추가적으로 사용자가 컨텐츠를 입력하는 경우가 더 포함된다는 점에서 차이가 있다. 컨텐츠 저장소로부터 특정 시간, 특정 위치, 및 특정 방향이 매핑된 컨텐츠를 로딩하여 혼합현실을 구성하는 과정은 도 8을 참조하여 설명한 바 있으므로, S901 내지 S909까지의 동작은 생략하기로 한다. 도 9의 S911 이하부터는, 컨텐츠 저장소로부터 특정 시간, 특정 위치, 및 특정 방향이 매핑된 컨텐츠를 로딩한 후, 사용자가 다른 컨텐츠를 다시 부가하고 싶은 경우를 예시적으로 설명한 것이다. S911에서는 사용자로부터 입력되는 컨텐츠가 있는 경우(S911: Y), 3D 렌더링 모듈은 사용자로부터 입력받은 컨텐츠와 S909에서 로딩된 컨텐츠를 모두 3D 가상 모델화하고 3D 환경을 재구성한다(S917). 이후, S917 단계에서 구성한 3D 환경을 실사 영상과 정합하여(S919)하여 외부로 표시한다(S921).Referring to FIG. 9, the operation is similar to that of FIG. 8, and further includes a case in which a user inputs content after loading content mapped from a specific time, a specific location, and a specific direction from the content repository. There is. Since the process of configuring the mixed reality by loading content mapped to a specific time, a specific location, and a specific direction from the content repository has been described with reference to FIG. 8, operations from S901 to S909 will be omitted. Hereinafter, after S911 of FIG. 9, a case in which a user wants to add another content again after loading a content mapped with a specific time, a specific location, and a specific direction from the content store is illustrated. In S911, when there is content input from the user (S911: Y), the 3D rendering module 3D virtualizes both the content input from the user and the content loaded in S909 and reconstructs the 3D environment (S917). Thereafter, the 3D environment configured in step S917 is matched with the real image (S919) and displayed externally (S921).

도 10은 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법에 따른 증강현실을 나타낸 사진이고, 도 11은 본 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 또는 방법에 따른 증강현실을 나타낸 사진이다. 이들 사진을 참조하면 본원 발명의 일 실시예에 따른 사용자 참여향 3차원 모바일 증강현실 생성 시스템 및 방법을 보다 잘 이해할 수 있을 것이다. 도 10과 도 11을 참조하면, 사용자가 가진 카메라의 방향을 고려하여 혼합 영상이 생성되는 것을 알 수 있으며, 더구나 주위의 조도도 같이 감안하여 생성된 것을 알 수 있다. FIG. 10 is a photograph showing augmented reality according to a system or method for generating 3D mobile augmented reality user participation in accordance with an embodiment of the present invention, and FIG. 11 is a 3D mobile augmentation flavor according to an embodiment of the present invention. It is a picture showing augmented reality according to the reality generation system or method. Referring to these pictures, it will be better to understand a user participation-oriented 3D mobile augmented reality generating system and method according to an embodiment of the present invention. Referring to FIGS. 10 and 11, it can be seen that a mixed image is generated in consideration of the direction of the camera of the user, and moreover, it is generated in consideration of the illumination of the surroundings.

이상 설명한 것과 같이, 혼합 영상을 실현하는 과정이 시작되면, 영상 정합 모듈을 통한 영상과 컨텐츠 정합이 실시간으로 이루어진다. 이를 위해 카메라 동작이 시작되면 영상획득 모듈을 카메라 영상 프레임을 가져오는 프로세스와 측위모듈로 취득한 현재 위치정보과 센서 측정 모듈로 얻은 센서 값으로 현 위치에서 보일 수 있는 컨텐츠들을 로딩하여 3D 가상 환경으로 재구성하는 프로세스는 쓰레드로 실행될 수 있다.As described above, when a process of realizing a mixed image is started, image and content registration is performed in real time through the image matching module. To do this, when the camera starts, the image acquisition module reconstructs the 3D virtual environment by loading the contents that can be seen at the current location with the process of obtaining the camera image frame and the current position information acquired by the positioning module and the sensor values obtained by the sensor measurement module. The process can run as a thread.

본 발명의 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.Methods according to an embodiment of the present invention can be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.

상기와 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Although the present invention as described above has been described by way of limited embodiments and drawings, the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from this description. This is possible. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.

100 : 센서 측정 모듈 110 : 측위모듈
130 : 사용자 입력 모듈 131 : 컨텐츠 입력 모듈
133 : 터치 입력 모듈 140 : 시간 검색 모듈
150 : 사용자 컨텐츠 모듈 151 : 입력 오브젝트 생성 모듈
152 : 입력 오브젝트 메트릭스 생성 모듈 153 : 라이트 설정 모듈
154 : 시간 검색 모듈 155 : 3D 환경 구성 모듈
160 : 영상 획득 모듈 170 : 영상 정합 모듈
180 : 출력모듈(180) 200 : 3D 렌더링 모듈
100: sensor measurement module 110: positioning module
130: user input module 131: content input module
133: touch input module 140: time search module
150: user content module 151: input object generation module
152: input object matrix generation module 153: light setting module
154: time search module 155: 3D environment configuration module
160: image acquisition module 170: image registration module
180: output module 180 200: 3D rendering module

Claims (26)

컨텐츠를 저장하는 컨텐츠 저장부;
실사 영상을 획득하는 실사 획득 모듈;
상기 실사 영상을 획득한 위치와 상기 실사 영상을 향해서 바라보는 방향을 이용하여 상기 컨텐츠 저장부에서 소정의 컨텐츠를 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 3D 렌더링 모델; 및
렌더링한 상기 3D 가상 모델과 상기 실사 영상을 정합하여 증강현실을 생성하는 영상 정합 모듈;을 포함하는 것을 특징으로 하는 사용자 참여향 3차원 모바일 증강현실 생성 시스템.
A content storage unit for storing content;
A live action acquisition module for acquiring a live action image;
A 3D rendering model that searches for a predetermined content in the content storage unit and renders the searched content as a 3D virtual model by using the position at which the live image is obtained and the direction facing toward the live image; And
And an image registration module for generating an augmented reality by matching the rendered 3D virtual model with the real image. 3.
제1항에 있어서,
상기 컨텐츠 저장부에 저장된 각각의 컨텐츠에는, 방향, 위치, 및 시간 정보가 매핑된 것을 특징으로 하는 사용자 참여향 3차원 모바일 증강현실 생성 시스템.
The method of claim 1,
Each content stored in the content storage unit, the direction, location, and time information, the user participation in three-dimensional mobile augmented reality generating system characterized in that the mapping.
제1항에 있어서,
상기 컨텐츠 저장부에 저장된 컨텐츠에는, 실사 공간에서의 방향 및 위치 정보가 매핑된 것을 특징으로 하는 사용자 참여향 3차원 모바일 증강현실 생성 시스템.
The method of claim 1,
The content stored in the content storage unit, the user participation-oriented three-dimensional mobile augmented reality generation system, characterized in that the direction and location information in the actual space is mapped.
제2항에 있어서,
상기 컨텐츠 저장부에 저장된 컨텐츠들에서 특정 시간이 매핑된 컨텐츠를 검색하기 위한 검색용 시간을 입력받는 사용자 입력 모듈;을 더 포함하며
상기 3D 렌더링 모듈은 상기 실사 영상을 획득한 위치와 상기 실사를 바라보는 방향 및 상기 검색용 시간을 이용하여 상기 컨텐츠 저장부에서 소정의 3D 컨텐츠를 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 시스템.
The method of claim 2,
And a user input module configured to receive a search time for searching for a content mapped to a specific time in the contents stored in the content storage unit.
The 3D rendering module searches for the predetermined 3D content in the content storage unit by using the location where the live image is obtained, the direction of viewing the live image, and the search time, and renders the retrieved content as a 3D virtual model. 3D augmented reality generation system for user participation.
제2항에 있어서,
상기 실사 획득 모듈이 획득하는 실사 영상의 조도를 센싱하는 센서 측정 모듈;을 더 포함하며,
상기 3D 렌더링 모듈은 상기 검색한 컨텐츠를 3D 가상 모델로 렌더링할 때, 상기 센서 측정 모듈에 의해서 센싱된 조도를 반영하여 렌더링하는 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 시스템.
The method of claim 2,
And a sensor measurement module configured to sense illuminance of the live image obtained by the live image acquisition module.
And the 3D rendering module reflects the illuminance sensed by the sensor measurement module when rendering the retrieved content as a 3D virtual model.
제 1 항에 있어서,
상기 실사 획득 모듈의 위치 정보를 획득하는 측위 모듈;을 더 포함하며,
상기 3D 렌더링 모듈은, 상기 실사 획득 모듈의 위치로부터 상기 실사 획득 모듈이 획득한 실사를 향해서 소정 거리 이내에 위치하는 모든 컨텐츠를 상기 컨텐츠 저장부에서 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 시스템.
The method of claim 1,
It further includes a positioning module for obtaining position information of the live action acquisition module,
The 3D rendering module searches for all contents located within a predetermined distance from the position of the actual image acquisition module toward the actual image obtained by the actual image acquisition module in the content storage unit, and renders the retrieved content as a 3D virtual model. 3D augmented reality generation system characterized by user participation.
제 2 항에 있어서,
상기 컨텐츠 저장부에 저장된 컨텐츠들에서 특정 시간이 매핑된 컨텐츠를 검색하기 위한 검색용 시간을 입력받는 사용자 입력 모듈; 및
상기 실사 획득 모듈의 위치 정보를 획득하는 측위 모듈;을 더 포함하며,
상기 3D 렌더링 모듈은, 상기 검색용 시간과 동일한 시간이 매핑된 컨텐츠들 중에서 상기 실사 획득 모듈의 위치로부터 상기 실사 획득 모듈이 획득한 실사를 향해서 소정 거리 이내에 위치하는 모든 컨텐츠를 상기 컨텐츠 저장부에서 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 시스템.
The method of claim 2,
A user input module configured to receive a search time for searching for a content mapped to a specific time in the contents stored in the content storage unit; And
It further includes a positioning module for obtaining position information of the live action acquisition module,
The 3D rendering module searches in the content storage unit for all contents located within a predetermined distance from the location of the live-action acquisition module to the live-action acquisition module obtained from the location of the live-action acquisition module among the contents mapped with the same time as the search time. And rendering the retrieved content as a 3D virtual model.
제 7 항에 있어서,
상기 컨텐츠 저장부에 저장된 컨텐츠들에 매핑된 방향은, 상기 컨텐츠의 정면을 향해 바라보는 방향과는 완전 반대 방향인 법선 벡터 방향으로 정의된 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 시스템.
The method of claim 7, wherein
And a direction mapped to the contents stored in the content storage unit is defined as a normal vector direction which is completely opposite to a direction facing the front of the content.
제 8 항에 있어서,
상기 3D 렌더링 모듈에 의해서 검색된 컨텐츠는,
상기 실사 획득 모듈의 위치로부터 상기 실사 획득 모듈이 획득한 실사로 향하는 방향과 상기 컨텐츠에 매핑된 법선 벡터 방향의 차이가 180±ΔD °인 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 시스템.
The method of claim 8,
The content retrieved by the 3D rendering module,
And a difference between a direction from the location of the live action acquisition module toward the live action acquired by the live action acquisition module and a normal vector direction mapped to the content is 180 ± ΔD °.
제 9 항에 있어서,
상기 ΔD °의 절대 값은 90 °보다 적은 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 시스템.
The method of claim 9,
The absolute value of the ΔD ° is less than 90 ° user participation flavor three-dimensional augmented reality generating system.
저장부에 컨텐츠를 저장하는 단계;
실사 영상을 획득하는 단계;
상기 실사 영상을 획득한 위치와 상기 실사 영상을 향해서 바라보는 방향을 이용하여 상기 저장부에 저장된 소정의 컨텐츠를 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 단계; 및
렌더링한 상기 3D 가상 모델과 상기 실사 영상을 정합하여 증강현실을 생성하는 단계;를 포함하는 것을 특징으로 하는 사용자 참여향 3차원 모바일 증강현실 생성 방법.
Storing the content in the storage unit;
Obtaining a live image;
Searching for a predetermined content stored in the storage unit by using the position where the actual image is obtained and the direction facing toward the actual image, and rendering the retrieved content as a 3D virtual model; And
And generating an augmented reality by matching the rendered 3D virtual model with the photorealistic image.
제11항에 있어서,
상기 저장부에 저장된 각각의 컨텐츠에는, 방향, 위치, 및 시간 정보가 매핑된 것을 특징으로 하는 사용자 참여향 3차원 모바일 증강현실 생성 방법.
The method of claim 11,
Each content stored in the storage unit, the direction, location, and time information, characterized in that the user participation orientation 3D mobile augmented reality generating method characterized in that the mapping.
제11항에 있어서,
상기 저장부에 저장된 컨텐츠에는, 실사 공간에서의 방향 및 위치 정보가 매핑된 것을 특징으로 하는 사용자 참여향 3차원 모바일 증강현실 생성 방법.
The method of claim 11,
The content stored in the storage unit, the user participation orientation 3D mobile augmented reality generation method characterized in that the direction and location information in the actual space is mapped.
제12항에 있어서,
상기 저장부에 저장된 컨텐츠들에서 특정 시간이 매핑된 컨텐츠를 검색하기 위한 검색용 시간을 사용자로부터 입력받는 단계;를 더 포함하며
상기 3D 렌더링 모듈은 상기 실사 영상을 획득한 위치와 상기 실사를 바라보는 방향 및 상기 검색용 시간을 이용하여 상기 저장부에서 소정의 3D 컨텐츠를 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 방법.
The method of claim 12,
Receiving a search time for searching for a content mapped to a specific time from contents stored in the storage, from a user;
The 3D rendering module searches for the predetermined 3D content in the storage unit by using the location where the real image is obtained, the direction of viewing the live image, and the search time, and renders the retrieved content as a 3D virtual model. 3D augmented reality generation method characterized by user participation.
제12항에 있어서,
상기 실사 획득 모듈이 획득하는 실사 영상의 조도를 센싱하는 센서 측정 모듈;을 더 포함하며,
상기 3D 렌더링 모듈은 상기 검색한 컨텐츠를 3D 가상 모델로 렌더링할 때, 상기 센서 측정 모듈에 의해서 센싱된 조도를 반영하여 렌더링하는 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 방법.
The method of claim 12,
And a sensor measurement module configured to sense illuminance of the live image obtained by the live image acquisition module.
And the 3D rendering module reflects the illuminance sensed by the sensor measuring module when rendering the searched content as a 3D virtual model.
제 11 항에 있어서,
상기 실사 획득 모듈의 위치 정보를 획득하는 측위 모듈;을 더 포함하며,
상기 3D 렌더링 하는 단계는, 상기 실사 획득 모듈의 위치로부터 상기 실사 획득 모듈이 획득한 실사를 향해서 소정 거리 이내에 위치하는 모든 컨텐츠를 상기 컨텐츠 저장부에서 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 방법.
The method of claim 11,
It further includes a positioning module for obtaining position information of the live action acquisition module,
In the 3D rendering, the content storage unit may search for all contents located within a predetermined distance from the position of the actual image acquisition module to the actual image obtained by the actual image acquisition module, and render the searched content as a 3D virtual model. Method for generating 3D augmented reality user participation flavor, characterized in that.
제 12 항에 있어서,
상기 저장부에 저장된 컨텐츠들에서 특정 시간이 매핑된 컨텐츠를 검색하기 위한 검색용 시간을 사용자로부터 입력받는 단계; 및
상기 실사를 획득한 곳의 위치 정보를 획득하는 단계;를 더 포함하며,
상기 렌더링하는 단계는, 상기 검색용 시간과 동일한 시간이 매핑된 컨텐츠들 중에서 상기 실사를 획득한 곳의 위치로부터 상기 실사를 향한 방향으로 소정 거리 이내에 위치하는 모든 컨텐츠를 상기 저장부에서 검색하고, 검색한 컨텐츠를 3D 가상 모델로 렌더링하는 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 방법.
The method of claim 12,
Receiving a search time for searching for content mapped to a specific time from contents stored in the storage unit from a user; And
Acquiring the location information of the location where the live action is obtained;
The rendering may include searching and retrieving, in the storage unit, all content located within a predetermined distance in a direction toward the live action from a location where the live action is obtained, among the contents mapped with the same time as the search time. 3D augmented reality generation method for user participation characterized in that to render a content as a 3D virtual model.
제 17 항에 있어서,
상기 저장부에 저장된 컨텐츠들에 매핑된 방향은, 상기 컨텐츠의 정면을 향해 바라보는 방향과는 완전 반대 방향인 법선 벡터 방향으로 정의된 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 방법.
The method of claim 17,
And a direction mapped to the contents stored in the storage unit is defined as a normal vector direction which is completely opposite to a direction facing the front of the contents.
제 18 항에 있어서,
상기 검색된 컨텐츠는,
상기 실사를 획득한 위치로부터 상기 실사로 향하는 방향과 상기 컨텐츠에 매핑된 법선 벡터 방향의 차이가 180±ΔD °인 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 방법.
The method of claim 18,
The searched content,
And a difference between a direction from the position at which the photorealistic is acquired to the photorealistic direction and a normal vector direction mapped to the content is 180 ± ΔD °.
제 19 항에 있어서,
상기 ΔD °의 절대 값은 90 °보다 적은 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 방법.
The method of claim 19,
The absolute value of the ΔD ° is less than 90 ° user participation flavor three-dimensional augmented reality generation method characterized in that.
실사 영상을 획득하는 실사 획득 모듈;
정합할 컨텐츠를 사용자로부터 입력받는 사용자 입력 모듈;
상기 실사 영상을 획득한 위치와, 상기 실사 영상을 향해서 바라보는 방향과 정반대의 방향과, 소정의 시간을 상기 사용자 입력 모듈에 의해 입력받은 컨텐츠에 매핑하여 저장하는 컨텐츠 저장부;를 포함하는 사용자 참여향 3차원 증강현실 생성 시스템.
A live action acquisition module for acquiring a live action image;
A user input module configured to receive content to be matched from a user;
And a content storage unit configured to map and store a position obtained from the live image, a direction opposite to a direction viewed toward the live image, and a predetermined time mapped to the content input by the user input module. Incense 3D Augmented Reality Generation System.
제21항에 있어서,
상기 소정의 시간은 상기 실사 영상을 획득한 시간 또는 사용자가 정의한 시간일 수 있는 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 시스템.
The method of claim 21,
The predetermined time may be a time for acquiring the live-action image or a time defined by a user.
제21항에 있어서,
상기 사용자 입력 모듈은,
상기 컨텐츠의 방향을 조정할 수 있는 사용자 인터페이스를 제공하는 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 시스템.
The method of claim 21,
The user input module,
3D augmented reality generation system for user participation, characterized in that to provide a user interface that can adjust the direction of the content.
실사 영상을 획득하는 단계;
정합할 컨텐츠를 사용자로부터 입력받는 단계;
상기 실사 영상을 획득한 위치와, 상기 실사 영상을 향해서 바라보는 방향과 정반대의 방향과, 소정의 시간을 상기 사용자로부터 입력받은 컨텐츠에 매핑하여 저장하는 단계;를 포함하는 사용자 참여향 3차원 증강현실 생성 방법.
Obtaining a live image;
Receiving content to be matched from a user;
And mapping and storing a location where the live image is acquired, a direction opposite to a direction viewed toward the live image, and a predetermined time mapped to content received from the user. 3D Augmented Reality How to produce.
제24항에 있어서,
상기 소정의 시간은 상기 실사 영상을 획득한 시간 또는 사용자가 정의한 시간일 수 있는 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 방법.
25. The method of claim 24,
The predetermined time may be a time for acquiring the live image or a time defined by a user. 3.
제24항에 있어서,
상기 정합할 컨텐츠를 사용자로부터 입력받는 단계는,
상기 사용자에게 정합할 컨텐츠의 방향을 조정할 수 있는 사용자 인터페이스를 제공하는 것을 특징으로 하는 사용자 참여향 3차원 증강현실 생성 방법.
25. The method of claim 24,
The step of receiving the content to be matched from the user,
And a user interface for adjusting a direction of content to be matched to the user.
KR1020100061094A 2010-06-28 2010-06-28 System for generating 3D mobile augmented reality based on the user KR101132512B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100061094A KR101132512B1 (en) 2010-06-28 2010-06-28 System for generating 3D mobile augmented reality based on the user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100061094A KR101132512B1 (en) 2010-06-28 2010-06-28 System for generating 3D mobile augmented reality based on the user

Publications (2)

Publication Number Publication Date
KR20120000695A true KR20120000695A (en) 2012-01-04
KR101132512B1 KR101132512B1 (en) 2012-04-02

Family

ID=45608480

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100061094A KR101132512B1 (en) 2010-06-28 2010-06-28 System for generating 3D mobile augmented reality based on the user

Country Status (1)

Country Link
KR (1) KR101132512B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140065043A (en) * 2012-11-21 2014-05-29 주식회사 엘지유플러스 Apparatus and method for providing augmented reality based on time
CN105160581A (en) * 2015-08-25 2015-12-16 何庆怀 Generation method for Image-Based Virtual Space
KR101879130B1 (en) * 2017-06-13 2018-07-16 이강호 Social network service system using augmented reality
WO2024043484A1 (en) * 2022-08-26 2024-02-29 삼성전자주식회사 Method and device for displaying information in virtual space

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100755187B1 (en) * 2006-02-23 2007-09-03 주식회사 엔씨소프트 Digital apparatus capable of displaying imaginary object on real image and method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140065043A (en) * 2012-11-21 2014-05-29 주식회사 엘지유플러스 Apparatus and method for providing augmented reality based on time
CN105160581A (en) * 2015-08-25 2015-12-16 何庆怀 Generation method for Image-Based Virtual Space
CN105160581B (en) * 2015-08-25 2019-04-02 何庆怀 The generation method of virtual reality
KR101879130B1 (en) * 2017-06-13 2018-07-16 이강호 Social network service system using augmented reality
WO2024043484A1 (en) * 2022-08-26 2024-02-29 삼성전자주식회사 Method and device for displaying information in virtual space

Also Published As

Publication number Publication date
KR101132512B1 (en) 2012-04-02

Similar Documents

Publication Publication Date Title
US11756229B2 (en) Localization for mobile devices
CN107850779B (en) Virtual position anchor
EP3095092B1 (en) Method and apparatus for visualization of geo-located media contents in 3d rendering applications
US9558559B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
CN106164982B (en) Electronic equipment positioning based on image
CN102695032B (en) Information processor, information sharing method and terminal device
US20190088030A1 (en) Rendering virtual objects based on location data and image data
EP2974509B1 (en) Personal information communicator
US20120256917A1 (en) Augmented Reality System
US20120044264A1 (en) Apparatus and method for providing augmented reality
US9398408B2 (en) Gaze-directed content delivery
US10984586B2 (en) Spatial mapping fusion from diverse sensing sources
KR101132512B1 (en) System for generating 3D mobile augmented reality based on the user
JP5981371B2 (en) Information terminal, system, program, and method for controlling display of augmented reality by posture
Sudarshan Augmented reality in mobile devices
KR20190047922A (en) System for sharing information using mixed reality
KR101265554B1 (en) 3D advertising method and system
US20200351608A1 (en) Locating Content in an Environment
CN113592997A (en) Object drawing method, device and equipment based on virtual scene and storage medium
JP6833925B2 (en) Image processing program, image processing device and image processing method
US20230419530A1 (en) Augmented reality image reproduction assistant
EP3923121A1 (en) Object recognition method and system in augmented reality enviroments
WO2013073727A1 (en) System and method for three-dimensional advertising
Blanco Pons Analysis and development of augmented reality applications for the dissemination of cultural heritage
EP4298599A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141231

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151228

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170102

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20171213

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190102

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20200121

Year of fee payment: 9