KR20230060769A - 증강 현실 컨텐츠를 기반으로 안내 정보를 제공하는 방법 및 장치 - Google Patents

증강 현실 컨텐츠를 기반으로 안내 정보를 제공하는 방법 및 장치 Download PDF

Info

Publication number
KR20230060769A
KR20230060769A KR1020210145318A KR20210145318A KR20230060769A KR 20230060769 A KR20230060769 A KR 20230060769A KR 1020210145318 A KR1020210145318 A KR 1020210145318A KR 20210145318 A KR20210145318 A KR 20210145318A KR 20230060769 A KR20230060769 A KR 20230060769A
Authority
KR
South Korea
Prior art keywords
content
augmented reality
target space
electronic device
information
Prior art date
Application number
KR1020210145318A
Other languages
English (en)
Other versions
KR102579892B1 (ko
Inventor
채수근
Original Assignee
주식회사 아낌없이주는나무
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아낌없이주는나무 filed Critical 주식회사 아낌없이주는나무
Priority to KR1020210145318A priority Critical patent/KR102579892B1/ko
Publication of KR20230060769A publication Critical patent/KR20230060769A/ko
Application granted granted Critical
Publication of KR102579892B1 publication Critical patent/KR102579892B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • G06Q30/0203Market surveys; Market polls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/04Architectural design, interior design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Geometry (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Graphics (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Game Theory and Decision Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 개시는 전자 장치가 인테리어 대상 공간에 대한 증강현실 컨텐츠를 제공하는 방법 및 이를 수행하는 전자 장치에 관한 것이다. 일 실시예에 따른 전자 장치가 인테리어 대상 공간에 대한 증강 현실 컨텐츠를 제공하는 방법은 사용자의 연령, 성별 또는 성격 중 적어도 하나에 관한 사용자 정보를 획득하는 단계; 상기 대상 공간에 대한 영상 정보를 3차원 모델링함으로써 3차원 공간 컨텐츠를 생성하는 단계; 상기 사용자 정보에 기초하여 결정되는 상기 사용자의 성격 특성에 따라, 상기 대상 공간 인테리어를 위한 가상 컨텐츠들이 배치될 가이드 배치 정보를 생성하는 단계; 상기 가이드 배치 정보에 따라 상기 대상 공간에 배치될 인테리어 객체에 대한 가상 컨텐츠를 결정하는 단계; 상기 3차원 공간 컨텐츠 상에서 상기 가상 컨텐츠가 배치될 위치 정보를 식별하는 단계; 및 상기 위치 정보에 기초하여 상기 3차원 가상 컨텐츠를 상기 3차원 공간 컨텐츠 상에 합성함으로써 증강 현실 컨텐츠를 생성하는 단계; 를 포함할 수 있다.

Description

증강 현실 컨텐츠를 기반으로 안내 정보를 제공하는 방법 및 장치 {APPARATUS PROVIDING GUIDE INFORMATION BASED ON AUGMENTED REALITY CONTENT AND METHOD THEREOF}
본 개시는 증강 현실 컨텐츠를 기반으로 안내 정보를 제공하는 방법 및 장치에 관한 것이다. 보다 상세하게는, 대상 공간을 촬영함으로써 획득되는 이미지 상에 증강 현실 컨텐츠를 합성함으로써 안내 컨텐츠를 생성하는 방법 및 이를 수행하는 전자 장치에 관한 것이다.
종래 관광지나 시설물에 설치되는 안내판의 경우 관광지나 시설물에 대한 정보 업데이트 시 마다 안내판을 새로 수정하거나 설치하여야 하는 한계가 있다. 따라서, 안내판 설치 및 관리 비용으로 인하여 효과적으로 안내판을 관리하지 못하는 한계가 있다.
또한, 종래 안내판의 경우, 안내판에서 제공 가능한 물리적인 면적의 한계로 인하여 복수의 사람들에게 제공 가능한 안내 컨텐츠의 양에 한계가 있으며, 단순히 텍스트를 통하여 목적하는 대상물에 대한 안내 정보를 제공하기 때문에 영상이나 청각적 정보를 통한 정보 전달 효율 측면에서 한계가 있다.
따라서, 다량의 안내 정보를 효과적으로 전달하기 위한 스마트 안내판 기술 개발이 요구되고 있다.
한국공개특허 제2021-0010395호
일 실시 예에 따르면, 증강 현실 컨텐츠를 기반으로 안내 컨텐츠를 제공하는 방법 및 이를 수행하는 전자 장치가 제공될 수 있다.
일 실시 예에 의하면, 대상 공간 이미지로부터 미리 설정된 타입의 QR 코드를 식별하고, 식별된 QR 코드를 이용하여 획득되는 증강 현실 컨텐츠를 대상 공간 이미지상에 합성함으로써 안내 컨텐츠를 제공하는 방법 및 이를 수행하는 전자 장치가 제공될 수 있다.
상술한 기술적 과제를 달성하기 위한 본 개시의 일 실시 예에 따라, 전자 장치가 증강 현실 컨텐츠를 기반으로 안내 컨텐츠를 제공하는 방법은 상기 전자 장치의 카메라를 통하여, 안내 대상이 되는 대상 공간을 촬영함으로써 상기 대상 공간에 대한 대상 공간 이미지를 획득하는 단계; 상기 획득된 대상 공간 이미지로부터 미리 설정된 타입의 QR 코드를 식별하는 단계; 상기 식별된 QR 코드를 이용하여 상기 대상 공간 이미지상에 합성하기 위한 적어도 하나의 증강현실 컨텐츠를 획득하는 단계; 상기 적어도 하나의 증강 현실 컨텐츠를 상기 대상 공간 이미지상에 합성함으로써 안내 컨텐츠를 생성하는 단계; 및 상기 생성된 안내 컨텐츠를 출력하는 단계; 를 포함할 수 있다.
상술한 기술적 과제를 달성하기 위한 또 다른 실시 예에 의하면, 증강 현실 컨텐츠를 기반으로 안내 컨텐츠를 제공하는 전자 장치는 디스플레이; 카메라; 네트워크 인터페이스; 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서; 를 포함하고, 상기 적어도 하나의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 전자 장치의 카메라를 통하여, 안내 대상이 되는 대상 공간을 촬영함으로써 상기 대상 공간에 대한 대상 공간 이미지를 획득하고, 상기 획득된 대상 공간 이미지로부터 미리 설정된 타입의 QR 코드를 식별하고, 상기 식별된 QR 코드를 이용하여 상기 대상 공간 이미지상에 합성하기 위한 적어도 하나의 증강현실 컨텐츠를 획득하고, 상기 적어도 하나의 증강 현실 컨텐츠를 상기 대상 공간 이미지상에 합성함으로써 안내 컨텐츠를 생성하고, 상기 생성된 안내 컨텐츠를 출력할 수 있다.
또한, 상술한 기술적 과제를 달성하기 위한 또 다른 실시 예에 의하면, 전자 장치가 증강 현실 컨텐츠를 기반으로 안내 컨텐츠를 제공하는 방법에 있어서, 상기 전자 장치의 카메라를 통하여, 안내 대상이 되는 대상 공간을 촬영함으로써 상기 대상 공간에 대한 대상 공간 이미지를 획득하는 단계; 상기 획득된 대상 공간 이미지로부터 미리 설정된 타입의 QR 코드를 식별하는 단계; 상기 식별된 QR 코드를 이용하여 상기 대상 공간 이미지상에 합성하기 위한 적어도 하나의 증강현실 컨텐츠를 획득하는 단계; 상기 적어도 하나의 증강 현실 컨텐츠를 상기 대상 공간 이미지상에 합성함으로써 안내 컨텐츠를 생성하는 단계; 및 상기 생성된 안내 컨텐츠를 출력하는 단계; 를 포함하는, 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체가 제공될 수 있다.
본 개시의 일 실시 예에 의하면, 증강 현실 기반의 다양한 디지털 컨텐츠를 효과적으로 원격 관리할 수 있다.
또한, 별도 애플리케이션의 설치 없이, 웹 기반 인터페이스의 플랫폼을 이용하여 보다 편리하게 안내 정보를 제공 및 관리할 수 있다.
도 1은 일 실시 예에 따른 전자 장치가 증강 현실 컨텐츠를 기반으로 안내 컨텐츠를 제공하는 과정을 개략적으로 나타내는 도면이다.
도 2는 일 실시 예에 따른 전자 장치가 QR 코드 타입에 따른 안내 컨텐츠를 제공하는 예를 설명하기 위한 도면이다.
도 3은 일 실시 예에 따른 전자 장치가 증강 현실 컨텐츠를 기반으로 안내 컨텐츠를 제공하는 방법의 흐름도이다.
도 4는 일 실시 예에 따른 전자 장치가 QR 코드를 이용하여 증강 현실 컨텐츠를 획득하는 구체적인 방법의 흐름도이다.
도 5는 일 실시 예에 따른 전자 장치가 안내판 타입의 QR 코드를 이용하여 안내 컨텐츠를 제공하는 구체적인 방법의 흐름도이다.
도 6은 일 실시 예에 따른 전자 장치가 포토존 타입의 QR 코드를 이용하여 안내 컨텐츠를 제공하는 구체적인 방법의 흐름도이다.
도 7은 일 실시 예에 따른 전자 장치가 트릭아트 타입의 QR 코드를 이용하여 안내 컨텐츠를 제공하는 구체적인 방법의 흐름도이다.
도 8은 일 실시 예에 따른 전자 장치가 안내 컨텐츠를 생성하는 구체적인 방법을 설명하기 위한 도면이다.
도 9는 일 실시 예에 따른 전자 장치가 안내 컨텐츠를 제공하는 예를 설명하기 위한 도면이다.
도 10은 또 다른 실시 예에 따른 전자 장치가 안내 컨텐츠를 제공하는 예를 설명하기 위한 도면이다.
도 11은 또 다른 실시 예에 따른 전자 장치가 안내 컨텐츠를 제공하는 예를 설명하기 위한 도면이다.
도 12는 일 실시 예에 따른 전자 장치의 블록도이다.
도 13은 일 실시 예에 따른 전자 장치가 QR 코드를 인식한 결과에 기초하여 해당 지역의 미세먼지 컨텐츠를 획득하는 예를 설명하기 위한 도면이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다.
본 개시에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 일 실시 예에 따른 전자 장치가 증강 현실 컨텐츠를 기반으로 안내 컨텐츠를 제공하는 과정을 개략적으로 나타내는 도면이다.
일 실시 예에 따른 전자 장치(1000)는 증강 현실 컨텐츠를 기반으로 안내 정보를 제공할 수 있다. 또한, 일 실시 예에 의하면, 전자 장치(1000)는 증강 현실(Augmented Reality) 및 가상 현실(Virtual Reality)이 결합된 혼합 현실(Mixed Reality) 기반의 안내 정보를 제공할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 서버(2000)와 연동함으로써 증강 현실 컨텐츠를 기반으로 소정의 안내 정보를 포함하는 안내 컨텐츠를 제공할 수도 있다.
일 실시 예에 의하면, 전자 장치(1000)는 종래의 안내판의 기능을 개선함으로써, 정보를 수정할 필요 없이, 디지털 컨텐츠의 적용 효과(전환, fade-in/out)나 모션, 오디오 등을 원격으로 관리할 수 있는 웹 기반 인터페이스의 플랫폼을 제공함으로써, 낮은 비용으로 안내 정보를 효과적으로 관리할 수 있도록 한다. 또한, 전자 장치(1000)는 증강 현실 컨텐츠 기반의 안내 정보를 제공하는 방법을 수행하는 관리 플랫폼을 제공함으로써, 구글 어낼리틱스와 연동하여 방문 현황이나 방문자에 대한 데이터 정보도 함께 제공할 수 있다.
일 실시 예에 의하면, 전자 장치(1000)는 카메라를 이용하여 대상 공간을 촬영함으로써 대상 공간 이미지(110)를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 대상 공간을 복수회 촬영함으로써, 미리 설정된 프레임 간격을 가지는 복수의 대상 공간 이미지들을 획득할 수도 있다. 일 실시 예에 의하면, 전자 장치(1000)는 카메라를 이용하여 대상 공간을 촬영함으로써 대상 공간에 대한 영상을 획득할 수도 있다.
전자 장치(1000)는 획득된 대상 공간 이미지로부터 QR 코드(120)를 식별할 수 있다. 예를 들어, 전자 장치(1000)는 대상 공간에 미리 설치되는 기 설정된 타입의 QR 코드(120)를 포함하는 대상 공간 이미지를 획득하고, 획득된 대상 공간 이미지로부터 QR 코드(120)를 식별할 수 있다.
일 실시 예에 의하면, 전자 장치(1000)는 대상 공간 이미지로부터 획득되는 기 설정된 타입의 QR 코드를 이용하여 증강 현실 컨텐츠(130)를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 미리 설정된 타입의 QR 코드를 이용하여 복수의 후보 증강 현실 컨텐츠들을 제공하고, 제공된 후보 증강 현실 컨텐츠들 중 하나를 선택하는 사용자 입력에 기초하여 적어도 하나의 증강 현실 컨텐츠(132, 134)를 결정할 수 있다.
일 실시 예에 의하면, 전자 장치(1000)는 결정된 적어도 하나의 증강 현실 컨텐츠(132, 134)를 대상 공간 이미지상에 합성함으로써 안내 컨텐츠(140)를 생성할 수 있다. 예를 들어, 전자 장치(1000)가 생성하는 안내 컨텐츠(140)는 대상 공간 이미지상에 증강 현실 컨텐츠가 합성된 컨텐츠일 수 있다. 전자 장치(1000)의 사용자는 대상 공간 이미지에 합성된 증강 현실 컨텐츠를 통해서 안내 정보를 효과적으로 인식할 수 있다.
도 2는 일 실시 예에 따른 전자 장치가 QR 코드 타입에 따른 안내 컨텐츠를 제공하는 예를 설명하기 위한 도면이다.
도 2를 참조하면, 전자 장치(1000)가 QR 코드 타입에 기초하여 제공하는 안내 컨텐츠들이 도시된다. 예를 들어, 전자 장치(1000)는 대상 공간 이미지로부터 QR 코드를 식별하고, 식별된 QR 코드의 타입을 결정할 수 있다. 예를 들어, 전자 장치(1000)는 식별된 QR 코드가 안내판 타입으로 식별되는 경우, 그림 (210)에 도시된 바와 같이, 대상 공간 이미지상의 안내판(212)에 중첩하여 표시되는 증강 현실 컨텐츠(214)를 대상 공간 이미지상에 합성할 수 있다.
또한, 전자 장치(1000)는 식별된 QR 코드가 포토존 타입으로 식별되는 경우, 그림 (220)에 도시된 바와 같이, 대상 공간 이미지상에서 나타나는 포토존 영역(포토존 조형물을 포함하는 대상 공간 이미지의 부분 영역)에 증강 현실 컨텐츠(222, 224, 226)를 합성하여 표시할 수 있다. 또한, 전자 장치(1000)는 식별된 QR 코드가 트릭아트 타입으로 식별되는 경우, 그림 (230)에 도시된 바와 같이, 대상 공간 이미지상에서 나타나는 조형물 영역(예컨대 조형물을 포함하는 대상 공간 이미지의 부분 영역)에 증강 현실 컨텐츠(232)를 합성함으로써 안내 컨텐츠를 생성할 수 있다.
도 3은 일 실시 예에 따른 전자 장치가 증강 현실 컨텐츠를 기반으로 안내 컨텐츠를 제공하는 방법의 흐름도이다.
S310에서, 전자 장치(1000)는 전자 장치의 카메라를 통하여 안내 대상이 되는 대상 공간을 촬영함으로써 대상 공간에 대한 공간 이미지를 획득할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 대상 공간에 대해 미리 설정된 프레임 간격의 복수 이미지들을 포함하는 영상을 획득할 수도 있다.
S320에서, 전자 장치(1000)는 대상 공간 이미지로부터 미리 설정된 타입의 QR 코드를 식별할 수 있다. 예를 들어, 전자 장치(1000)는 대상 공간 이미지상에서 나타나는 픽셀 값에 기초하여, QR 코드 이미지를 포함하는 QR 코드 영역을 식별하고, QR 코드 영역 내 기 설정된 검출 패턴들을 식별할 수 있다. 전자 장치(1000)는 식별된 검출 패턴들에 기초하여 대상 공간 이미지 내 QR 코드의 타입을 식별할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 안내판 타입, 포토존 타입 또는 트릭아트 타입 중 적어도 하나를 포함하는 QR 코드 타입을 식별할 수 있다.
S330에서, 전자 장치(1000)는 식별된 QR 코드를 이용하여 대상 공간 이미지상에 합성하기 위한 적어도 하나의 증강 현실 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 식별된 QR 코드로부터 위치 정보를 획득하고, 획득된 위치 정보 및 QR 코드 타입에 기초하여 적어도 하나의 후보 증강 현실 컨텐츠들을 획득할 수 있다. 전자 장치(1000)는 적어도 하나의 후보 증강 현실 컨텐츠들 중 임의 후보 증강 현실 컨텐츠를 결정하고, 결정된 후보 증강 현실 컨텐츠를 대상 공간 이미지상에 합성할 수도 있지만, 적어도 하나의 후보 증강 현실 컨텐츠들 중 적어도 하나의 증강 현실 컨텐츠를 선택하는 사용자 입력에 기초하여 대상 공간 이미지상에 합성할 소정의 증강 현실 컨텐츠를 결정할 수도 있다.
S340에서, 전자 장치(1000)는 S330에서 획득된 적어도 하나의 증강 현실 컨텐츠를 대상 공간 이미지상에 합성함으로써 안내 컨텐츠를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 대상 공간 이미지상에서 소정의 영역을 선택하는 사용자 입력에 기초하여 증강 현실 컨텐츠가 합성될 합성 영역을 식별하고, 식별된 합성 영역에 증강 현실 컨텐츠를 합성할 수 있다. 그러나, 일 실시 예에 의하면, 전자 장치(1000)는 대상 공간 이미지상에서 나타나는 안내판, 조형물, 포토존에 대한 타겟 영역을 식별하고, 식별된 타겟 영역에 상기 증강 현실 컨텐츠를 합성할 수도 있다.
S350에서, 전자 장치(1000)는 생성된 안내 컨텐츠를 출력할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 생성된 안내 컨텐츠를 전자 장치의 디스플레이를 통해 출력할 수도 있지만, 전자 장치(1000)와 연결된 외부 디바이스(예컨대 헤드마운트 디스플레이 장치, 웨어러블 디바이스 또는 서버)로 안내 컨텐츠에 대한 정보를 전송할 수도 있다.
도 4는 일 실시 예에 따른 전자 장치가 QR 코드를 이용하여 증강 현실 컨텐츠를 획득하는 구체적인 방법의 흐름도이다.
S410에서, 전자 장치(1000)는 대상 공간 이미지 내 식별되는 QR 코드로부터 QR 코드가 위치하는 위치 정보를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 대상 공간 이미지상에서 나타나는 QR 코드 영역 내 미리 설정된 흑백 패턴을 식별하고, 식별된 흑백 패턴에 기초하여 현재 QR 코드가 설치된 위치 정보를 식별할 수 있다. 일 실시 예에 의하면, 위치 정보는 QR 코드가 설치된 지역의 GPS 정보일 수 있으나, 이에 한정되는 것은 아니다.
일 실시 예에 의하면, 전자 장치(1000)는 획득된 대상 공간 이미지 내 노이즈가 많을 경우(예컨대 블러, 떨림으로 인한 흐림 영역) 대상 공간 이미지로부터 정확한 QR 코드를 식별하지 못함에 따라, QR 코드가 나타내는 위치 정보를 정확하게 식별하지 못할 수도 있다. 전자 장치(1000)는 대상 공간 이미지 내 QR 코드로부터 위치 정보가 식별되지 않거나, 촬영된 대상 공간 이미지 내 블러 값이 기 설정된 임계값 이상인 경우, 대상 공간 이미지를 획득한 시점에, 전자 장치 내 위치 센서로부터 획득된 센서 값을 이용하여 전자 장치의 좌표를 식별하고, 식별된 좌표 값에 기초하여 QR 코드가 설치된 위치 정보를 추정할 수도 있다.
S420에서, 전자 장치(1000)는 식별된 QR 코드의 타입 및 위치 정보에 대응되는 타입의 증강 현실 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 식별된 위치 정보에 대응되는 적어도 하나의 후보 증강 현실 컨텐츠들을 식별하고, 식별된 후보 증강 현실 컨텐츠들 중, QR 코드의 타입에 매칭되는 소정의 후보 증강 현실 컨텐츠들을 제공할 수 있다.
또한, 일 실시 예에 의하면, 전자 장치(1000)는 QR 코드가 미리 설치되는 위치 정보들과 각 위치 정보들에 설치된 QR 코드 타입들을 매칭하여 미리 저장해둘 수 있다. 전자 장치(1000)는 QR 코드가 미리 설치되는 위치 정보 및 각 위치 정보에 설치된 QR 코드의 타입 정보들을 매칭하여 테이블로 저장할 수 있다.
예를 들어, 대상 공간 이미지 내 노이즈 정보(예컨대 블러, 떨림으로 인한 흐림 영역)가 존재함에 따라, 전자 장치(1000)는 대상 공간 이미지로부터 정확한 QR 코드를 식별하지 못할 수 있다. 이러한 경우, 전자 장치(1000)는 대상 공간 이미지를 촬영한 시점에서, 위치 센서로부터 획득된 센서 값에 기초하여, 현재 QR 코드가 위치하는 위치 정보를 식별하고, 상기 기 저장된 테이블로부터 위치 정보에 미리 매칭된 QR 코드의 타입을 식별할 수도 있다. 즉, 전자 장치(1000)는 대상 공간 이미지가 정확하게 식별되지 않는 경우에도, 현재 전자 장치의 위치 센서 값을 기초로, 전자 장치에 인접한 QR 코드의 위치 정보 및 QR 코드의 타입을 식별하고, 식별된 위치 정보 및 QR 코드의 타입에 기초하여 소정의 증강 현실 컨텐츠들을 획득할 수 있다.
또한, 도 4에는 도시되지 않았지만, S410에서 전자 장치(1000)는 QR 코드가 위치하는 위치 정보에 기초하여, 해당 지역에 대한 미세먼지 농도 데이터를 더 획득할 수도 있다. 예를 들어, 전자 장치(1000)는 S420에서, QR 코드의 타입 및 상기 위치 정보에 대응되는 타입의 증강 현실 컨텐츠를 획득함과 함께, 해당 지역의 미세먼지 농도 정보를 획득하고, 획득된 미세먼지 농도 출력을 요청하는 사용자 인터페이스를 화면상에 출력할 수 있다. 전자 장치(1000)는 미세먼지 농도 출력을 요청하는 사용자 인터페이스에 대한 사용자 입력에 기초하여, QR 코드로부터 인식된 위치 정보가 나타내는 지역의 미세먼지 농도를 출력할 수 있다.
도 5는 일 실시 예에 따른 전자 장치가 안내판 타입의 QR 코드를 이용하여 안내 컨텐츠를 제공하는 구체적인 방법의 흐름도이다.
S510에서, 전자 장치(1000)는 대상 공간 이미지상에서 QR 코드의 타입이 안내판 타입으로 식별되는 경우, 위치 정보에 기초하여 대상 공간 주변 코스 안내를 위한 증강 현실 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 대상 공간 이미지상에서 QR 코드의 타입이 안내판으로 식별되는 경우, QR 코드에 대응되는 위치 정보에 기초하여 대상 공간 및 상기 대상 공간 주변의 코스 안내를 위한 증강 현실 컨텐츠를 획득할 수도 있다.
일 실시 예에 의하면, 대상 공간 주변의 코스 안내를 위한 증강 현실 컨텐츠는 상기 대상 공간 주변에 위치하는 지역 및 시설 안내를 위한 네비게이션 컨텐츠를 포함할 수 있고, 대상 공간 주변의 코스의 시작지로부터 목적지까지 안내를 위한 지시자 증강 현실 컨텐츠를 더 포함할 수 있다.
S520에서, 전자 장치(1000)는 대상 공간 이미지로부터 식별되는 텍스트의 번역 컨텐츠에 관한 증강 현실 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 대상 공간 이미지상에서 식별되는 QR 코드의 타입이 안내판 타입으로 식별되는 경우, 대상 공간 이미지상에서 안내판 이미지를 포함하는 영역으로부터 소정의 텍스트를 영역을 식별할 수 있다.
전자 장치(1000)는 텍스트 영역이 식별되면, OCR 기능을 수행함으로써 텍스트 영역으로부터 텍스트를 식별할 수 있다. 전자 장치(1000)는 텍스트가 식별되면, 번역 대상 언어를 선택하는 사용자 인터페이스를 대상 공간 이미지상에 중첩하여 출력할 수 있다. 전자 장치(1000)는 대상 공간 이미지상에 중첩하여 출력된 사용자 인터페이스를 통하여, 목적하는 번역 대상 언어를 선택하는 사용자 입력에 기초하여, 식별된 텍스트를, 상기 번역 대상 언어로 번역할 수 있다. 전자 장치(1000)는 번역된 대상 언어를 포함하는 번역 컨텐츠에 관한 증강 현실 컨텐츠를 획득하고, 획득된 증강 현실 컨텐츠를 대상 공간 이미지의 텍스트 영역에 중첩하여 표시할 수 있다.
일 실시 예에 의하면, 전자 장치(1000)는 대상 공간 이미지의 텍스트 영역으로부터 텍스트가 식별되면, 식별된 텍스트에 대한 정보 및 사용자 인터페이스를 통해 획득된 번역 대상 언어에 대한 정보를 전자 장치와 연결된 서버로 전송할 수 있다. 전자 장치(1000)는 서버로부터 번역 대상 언어로 번역된 번역 컨텐츠에 대한 정보를 획득하고, 획득된 번역 컨텐츠를 증강 현실 기반의 컨텐츠로 변환한 후, 변환된 증강 현실 기반의 컨텐츠를 대상 공간 이미지상의 텍스트 영역에 중첩하여 표시할 수도 있다.
S530에서, 전자 장치(1000)는 위치 정보에 기초하여 구분되는 지역 별로 미리 결정되는 캐릭터를 통한 캐릭터 기반 증강 현실 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 위치 정보에 기초하여 식별 가능한 지역 단위로 소정의 캐릭터를 미리 매칭하여 저장할 수 있다. 전자 장치(1000)는 대상 공간 이미지의 QR 코드로부터 위치 정보가 식별되면, 식별된 위치 정보에 따른 소정의 캐릭터를 식별할 수 있다. 전자 장치(1000)는 식별된 캐릭터에 대한 증강 현실 컨텐츠를 획득할 수 있을 뿐만 아니라, 식별된 캐릭터를 통하여 표현 가능한 캐릭터 기반 증강 현실 컨텐츠를 획득할 수 있다.
예를 들어, 전자 장치(1000)는 위치 정보에 따른 장소를 관광하는데 사용되는 관광 가이드 증강 현실 컨텐츠, 상기 위치 정보에 따른 장소 및 상기 장소 주변의 시설물 안내에 관한 시설물 안내 증강 현실 컨텐츠 또는 상기 위치 정보에 따른 장소의 시간 별 날씨에 관한 날씨 안내 증강 현실 컨텐츠 중 적어도 하나를 캐릭터 기반 증강 현실 컨텐츠로 획득할 수 있다. 전자 장치(1000)가 획득하는 캐릭터 기반 증강 현실 컨텐츠는 실제 가이드가 없더라도, 가이드 역할을 수행하는 캐릭터를 통해, 관광 가이드 정보, 시설물 안내 정보, 날씨 정보 등을 안내하는 컨텐츠일 수 있다.
도 6은 일 실시 예에 따른 전자 장치가 포토존 타입의 QR 코드를 이용하여 안내 컨텐츠를 제공하는 구체적인 방법의 흐름도이다.
S610에서, 전자 장치(1000)는 식별된 QR 코드가 포토존 타입으로 식별되는 경우, 동화 구연 서비스를 제공하기 위한 동화 구현 증강 현실 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 대상 공간 이미지로부터 식별되는 QR 코드가 포토존 타입으로 식별되는 경우, 동화 구연을 수행하는 제스처를 취하는 캐릭터 및 상기 캐릭터를 통하여 상기 포토존이 설치된 장소에 대한 동화 내용에 대한 텍스트를 상기 동화 구현 증강 현실 컨텐츠로 획득할 수 있다.
S620에서, 전자 장치(1000)는 식별된 QR 코드가 포토존 타입으로 식별되는 경우, 대상 공간 이미지상에서 식별되는 포토존 및 상기 포토존을 포함한 주위 배경 영역에 각각 적용됨으로써 계절 효과를 나타내는 가상배경 증강 현실 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 식별된 QR 코드가 포토존 타입으로 식별되는 경우, 소정의 계절 효과를 나타내는 후보 가상 배경 증강 현실 컨텐츠를 제공하고, 제공된 후보 가상 배경 증강 현실 컨텐츠들 중 소정의 가상 배경 증강 현실 컨텐츠를 선택하는 사용자 입력에 기초하여 하나의 가상 배경 증강 현실 컨텐츠를 획득할 수 있다.
S630에서, 전자 장치(1000)는 식별된 QR 코드가 포토존 타입으로 식별되는 경우, 대상 공간 이미지상에서 식별되는 인물 객체를 포함하는 이미지 영역에 적용됨으로써, 상기 인물 객체가 한복을 입은 효과를 나타내도록 하는 전통 한복 증강 현실 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 QR 코드가 포토존 타입으로 식별되는 경우, 대상 공간 이미지상에서 식별되는 인물 객체 또는 캐릭터 객체가 착용 가능한 후보 한복 증강 현실 컨텐츠들을 제공하고, 제공된 후보 한복 증강 현실 컨텐츠들 중 하나를 선택하는 사용자 입력에 기초하여 식별되는 후보 한복 증강 현실 컨텐츠를 대상 공간 이미지상의 인물 객체 또는 캐릭터 객체 영역에 합성하게 된다.
S640에서, 전자 장치(1000)는 QR 코드가 포토존 타입으로 식별되는 경우, 대상 공간 이미지상에서 식별되는 포토 존을 이용하여 사용자들이 이용 가능한 게임 증강 현실 컨텐츠들을 획득할 수 있다. 예를 들어, 사용자들은 전자 장치가 제공하는 게임 증강 현실 컨텐츠들을 이용하여, 게임속에 사용자가 참여한 듯한 연출 효과를 느낄 수 있고, 포토존을 이용한 간단한 증강 현실 게임들을 통해 재미를 느낄 수 있다.
S650에서, 전자 장치(1000)는 대상 공간 이미지상에서 나타나는 포토존 및 포토존을 포함한 주위 배경 영역에 적용 가능한 소재 아이템 증강 현실 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 정원, 바다 등 다양한 소재에 관한 증강 현실 컨텐츠를 제공함으로써, 사용자들이 화면을 가상으로 꾸미는 경험을 제공할 수 있다.
도 7은 일 실시 예에 따른 전자 장치가 트릭아트 타입의 QR 코드를 이용하여 안내 컨텐츠를 제공하는 구체적인 방법의 흐름도이다.
S710에서, 전자 장치(1000)는 식별된 QR 코드가 트릭아트 타입으로 식별되는 경우, 대상 공간 이미지상에 적용 가능한 3차원 객체에 관한 증강 현실 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 식별된 QR 코드가 트릭아트 타입으로 식별되는 경우, 식별된 트릭 아트에 어울리는 3D(예컨대 3차원) 객체 또는 상기 3D 객체의 움직임에 관한 3D 모션 객체에 관한 증강 현실 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 식별된 QR 코드가 트릭 아트 타입으로 식별되는 경우, 식별된 QR 코드의 위치 정보에 기초하여 미리 설치된 트릭 아트의 종류를 식별하고, 식별된 트릭 아트의 종류에 따른 소정의 3D 객체 컨텐츠를 상기 증강 현실 컨텐츠로 획득할 수 있다.
S720에서, 전자 장치(1000)는 3차원 객체를 포함하고, 대상 공간 이미지상에 나타나는 조형물의 타입에 따라 결정되는 소정의 타입의 트릭아트 증강 현실 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 식별된 QR 코드 타입이 트릭 아트 타입으로 식별되는 경우, 대상 공간 이미지상에 나타나는 조형물의 타입을 결정할 수 있다. 예를 들어, 전자 장치(1000)는 대상 공간 이미지상에서 나타나는 조형물이 건축물 조형인지, 조각 조형인지, 바닥 영역을 포함하는 다리 조형인지, 계단 영역을 포함하는 계단 조형물인지 여부를 식별하고, 식별된 조형물의 타입에 따른 소정의 트릭아트 증강 현실 컨텐츠를 획득할 수 있다.
예를 들어, 전자 장치(1000)는 QR 코드 타입이 트릭 아트 타입으로 식별되고, 대상 공간 이미지상에서 나타나는 조형물이 건축물 조형으로 식별되는 경우, 건축물 조형의 벽면 영역에 적용 가능한 타입의 트릭아트 증강 현실 컨텐츠를 획득할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 QR 코드 타입이 트릭 아트 타입으로 식별되고, 대상 공간 이미지상에서 나타나는 조형물이 바닥 영역을 포함하는 조형물로 식별되는 경우, 바닥 영역 상에 적용 가능한 타입의 트릭아트 증강 현실 컨텐츠를 획득할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 QR 코드 타입이 트릭 아트 타입으로 식별되고, 대상 공간 이미지상에서 나타나는 조형물이 계단 영역을 포함하는 조형물로 식별되는 경우, 계단 영역 상에 적용 가능한 타입의 트릭 아트 증강 현실 컨텐츠(예컨대 폭포수 트릭아트)를 획득할 수 있다.
전자 장치(1000)는 트릭 아트에 어울리는 3D 객체의 출현과 애니메이션 효과를, 트릭아트 증강 현실 컨텐츠를 통하여 제공할 수 있을 뿐만 아니라, 트릭아트의 이미지가 전자 장치 화면에서 자연스럽게 움직이도록 함으로써 실제 트릭 아트 증강 현실 컨텐츠가 대상 공간 이미지상에 적용되도록 하는 느낌을 제공할 수 있다. 또한, 전자 장치(1000)는 조형물의 타입에 따른 소정의 트릭 아트 증강 현실 컨텐츠를 제공함으로써, 사용자들이 트릭아트 속으로 직접 들어가 트릭 아트 속에 사는 동물 캐릭터를 만나도록 하는 효과를 제공할 수도 있다.
S730에서, 전자 장치(1000)는 대상 공간 이미지상에서 트릭아트 증강 현실 컨텐츠와 함께 제공 가능한 효과음 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 트릭아트 증강 현실 컨텐츠와 함께 제공 가능한 효과음 컨텐츠로써 수족관에 대한 트릭아트 증강 현실 컨텐츠의 경우 수족관 효과음, 바다에 대한 트릭아트 증강 현실 컨텐츠의 경우 바다 소리에 대한 효과음, 폭포수에 대한 트릭아트 증강 현실 컨텐츠의 경우 폭포수 효과음 컨텐츠를 더 획득할 수 있다.
도 8은 일 실시 예에 따른 전자 장치가 안내 컨텐츠를 생성하는 구체적인 방법을 설명하기 위한 도면이다.
도 8을 참조하여, 전자 장치(1000)가 포토존 및 포토존을 포함한 주위 배경 영역에 계절 효과를 나타내는 가상 배경 증강 현실 컨텐츠를 획득하고, 획득된 가상 배경 증강 현실 컨텐츠를 대상 공간 이미지상에 합성함으로써 안내 컨텐츠를 생성하는 구체적인 방법을 설명하기로 한다.
S810에서, 전자 장치(1000)는 대상 공간 이미지상에서 나무 영역을 추출할 수 있다. 예를 들어, 전자 장치(1000)는 대상 공간 이미지상에 나타나는 픽셀 값 및 상기 픽셀 값들이 나타내는 경계에 기초하여 대상 공간 이미지상에서 나무 영역을 추출할 수 있다. S820에서, 전자 장치(1000)는 S810에서 추출된 나무 영역으로부터 나무 줄기 영역을 식별할 수 있다. 예를 들어, 전자 장치(1000)는 S810에서 추출된 나무 영역에 인접한 픽셀 값들에 기초하여 나무 줄기 영역을 식별할 수 있다. S830에서, 전자 장치(1000)는 나무 줄기 영역 내 나뭇가지 영역을 식별할 수 있다. 예를 들어, 전자 장치(1000)는 대상 공간 이미지로부터 식별된 나무 영역으로부터 나무 줄기 영역 및 상기 나무 줄기 영역에서 연결되는 나뭇가지 영역을 식별할 수 있다.
도 8에는 도시되지 않았지만, 전자 장치(1000)는 이미지가 입력되면, 이미지 내 소정의 나무 영역, 이에 포함된 나무 줄기 영역 및 이에 연결된 나뭇가지 영역을 식별하도록 학습된 인공 지능 모델을 이용하여 이미지로부터 나무 영역 및 줄기 영역을 식별할 수도 있다.
S840에서, 전자 장치(1000)는 가상 배경 증강 현실 컨텐츠로부터, 식별된 나무 줄기 영역을 따라 배치될 수 있는 제1 타입의 꽃잎 증강 현실 컨텐츠를 획득할 수 있다. S850에서, 전자 장치(1000)는 가상 배경 증강 현실 컨텐츠로부터, 나뭇가지 영역으로부터 미리 설정된 거리만큼 떨어진 거리에서 배치 가능한 제2 타입의 꽃잎 증강 현실 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)가 획득한 제1 타입의 꽃잎 증강 현실 컨텐츠는 나무 줄기 영역의 경계에 합성되는 증강 현실 컨텐츠일 수 있고, 제2 타입의 꽃잎 증강 현실 컨텐츠는 나무 줄기 영역의 경계로부터 소정의 거리만큼 떨어진 영역에 합성될 수 있는 증강 현실 컨텐츠일 수 있다.
S860에서, 전자 장치(1000)는 나무 줄기 영역 및 나뭇가지 영역 각각에서 제1 타입의 꽃잎 증강 현실 컨텐츠 및 제2 타입의 꽃잎 증강 현실 컨텐츠가 적용될 위치를 식별할 수 있다. 예를 들어, 전자 장치(1000)는 대상 공간 이미지상에서 식별되는 나무 줄기 영역의 경계영역을 제1 타입의 꽃잎 증강 현실 컨텐츠가 합성될 위치로 식별하고, 나무 줄기 영역의 경계로부터 소정의 거리만큼 떨어진 영역 또는 나뭇 가지 영역의 경계 영역을 제2 타입의 꽃잎 증강 현실 컨텐츠가 적용될 위치로 식별할 수 있다.
S870에서, 전자 장치(1000)는 S860에서 식별된 위치에 기초하여, 제1 타입의 꽃잎 증강 현실 컨텐츠 및 상기 제2 타입의 꽃잎 증강 현실 컨텐츠를 대상 공간 이미지상의 나무 줄기 영역 및 나뭇가지 영역 각각에 합성함으로써 안내 컨텐츠를 생성할 수 있다.
또 다른 실시 예에 의하면, 도 8에는 도시되지 않았지만, 전자 장치(1000)는 대상 공간 이미지를 획득하기 이전에, 상기 대상 공간에 대한 다른 대상 공간 이미지들을 획득할 수 있다. 전자 장치(1000)는 대상 공간 이미지를 획득하기 이전에 획득된 다른 대상 공간 이미지와의 비교를 통해, 상기 대상 공간 이미지상에서 바람의 세기를 나타내는 파라미터 정보를 식별할 수 있다.
전자 장치(1000)는 바람의 세기를 나타내는 파라미터 정보에 기초하여, S860에서, 대상 공간 이미지상에서 식별되는 나무 줄기 영역 및 나뭇가지 영역 각각에서 결정된 위치를 조정할 수 있다. 즉, 전자 장치(1000)는 바람의 세기를 나타내는 파라미터 정보를 결정하고, 결정된 파라미터 정보를 이용하여 제1 타입의 꽃잎 증강 현실 컨텐츠 및 제2 타입의 꽃잎 증강 현실 컨텐츠가 적용될 위치를 조정함으로써, 실제 대상 공간 이미지상에서 바람이 적용됨에 따라, 증강 현실 컨텐츠 내의 꽃잎이 흔들리는 효과를 나타낼 수 있다.
즉, 전자 장치(1000)는 조정된 위치에 기초하여, 제1 타입의 꽃잎 증강 현실 컨텐츠 및 제2 타입의 꽃잎 증강 현실 컨텐츠를 대상 공간 이미지상의 나무 줄기 영역 및 나뭇가지 영역 각각에 합성함으로써, 실제 바람의 효과가 적용된 실제와 같은 증강 현실 기반의 안내 컨텐츠를 생성할 수 있다.
도 9는 일 실시 예에 따른 전자 장치가 안내 컨텐츠를 제공하는 예를 설명하기 위한 도면이다.
도 9를 참조하면, 전자 장치(1000)가 대상 공간 이미지상에서 나타나는 QR 코드의 타입이 안내판 타입으로 식별되는 경우 제공하는 대상 공간 주변 코스 안내를 위한 증강 현실 컨텐츠(910), 대상 공간 이미지로부터 식별되는 텍스트의 번역 컨텐츠에 관한 증강 현실 컨텐츠(920) 및 지역 별로 미리 결정된 캐릭터를 통한 캐릭터 기반 증강 현실 컨텐츠(930)가 도시된다.
도 10은 또 다른 실시 예에 따른 전자 장치가 안내 컨텐츠를 제공하는 예를 설명하기 위한 도면이다.
도 10을 참조하면, 전자 장치(1000)가 대상 공간 이미지상에서 나타나는 QR 코드의 타입이 포토존 타입으로 식별되는 경우 제공하는, 동화 구현 증강 현실 컨텐츠(1010), 대상 공간 이미지 상에서 식별되는 포토존 및 포토존을 포함한 주위 배경 영역에 각각 적용됨으로써 소정의 계절 효과를 나타내는 가상배경 증강 현실 컨텐츠(1020) 및 대상 공간 이미지상에서 식별되는 인물 객체가 한복을 입은 효과를 나타내도록 하는 전통 한복 증강 현실 컨텐츠(1030)가 도시된다.
도 11은 또 다른 실시 예에 따른 전자 장치가 안내 컨텐츠를 제공하는 예를 설명하기 위한 도면이다.
도 11을 참조하면, 전자 장치(1000)가 대상 공간 이미지상에서 나타나는 QR 코드의 타입이 트릭아트 타입으로 식별되는 경우, 제공하는, 건축 조형물 타입에 적용가능한 증강 현실 컨텐츠(1110), 바닥 영역에 적용 가능한 증강 현실 컨텐츠(1120) 및 대상 공간 이미지 내 계단 영역에 적용 가능한 증강 현실 컨텐츠(1130)가 도시된다.
도 12는 일 실시 예에 따른 전자 장치의 블록도이다.
일 실시 예에 의하면, 전자 장치(1000)는 디스플레이부(1210), 프로세서(1300), 네트워크 인터페이스(1500), 카메라(1610) 및 메모리(1700)를 포함할 수 있다. 그러나 상술한 예에 한정되는 것은 아니며, 전자 장치(1000)는 증강 현실 컨텐츠를 기반으로 안내 컨텐츠를 제공하기 위해 필요한 기타 구성들을 더 포함할 수도 있다. 일 실시 예에 의하면, 전자 장치(1000)는 전자 장치를 제어하기 위해 사용자 입력에 따른 시퀀스를 획득하는 사용자 입력 인터페이스(미도시)를 더 포함할 수도 있다.
사용자 입력 인터페이스(미도시)는, 사용자가 전자 장치 (1000)를 제어하기 위한 시퀀스를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력 인터페이스(미도시)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. 사용자 입력 인터페이스(미도시)는 전자 장치(1000)가 디스플레이 상에 출력한 화면에 대한 사용자의 입력 시퀀스를 수신할 수 있다. 또한, 사용자 입력 인터페이스(미도시)는 디스플레이를 터치하는 사용자의 터치 입력 또는 디스플레이상 그래픽 사용자 인터페이스를 통한 키 입력을 수신할 수도 있다.
디스플레이부(1210)는 오디오 신호 또는 비디오 신호 중 적어도 하나를 출력할 수 있다. 예를 들어, 디스플레이부(1210)는 전자 장치(1000)에서 처리되는 정보를 표시 출력하기 위한 화면을 포함할 수 있다. 디스플레이부(1210)는 전자 장치에서 결정된 증강 현실 컨텐츠, 대상 공간 이미지, 상기 대상 공간 이미지에 증강 현실 컨텐츠를 합성함으로써 생성되는 안내 컨텐츠를 출력할 수 있다. 또한, 디스플레이(1210)는 대상 공간 이미지상에 증강 현실 컨텐츠를 중첩하여 표시할 수 있을 뿐만 아니라, 안내 컨테츠 상에 부가될 수 있는 부가 컨텐츠들을 더 출력할 수도 있다.
네트워크 인터페이스(1500)는 전자 장치(1000)와 연결된 외부 디바이스 사이에 데이터를 송수신할 수 있다. 네트워크 인터페이스(1500)는 증강 현실 컨텐츠를 전자 장치(1000)와 연결된 서버로 전송하거나, 서버(2000)로부터 QR 코드의 타입 및 위치 정보에 대응되는 소정의 증강 현실 컨텐츠들을 획득할 수 있다. 또한, 네트워크 인터페이스(1500)는 전자 장치(1000)와 연결된 외부 디바이스로부터 대상 공간을 촬영함으로써 획득되는 대상 공간 이미지 또는 복수의 대상 공간 이미지들의 소정의 프레임 간격으로 배열된 공간 영상 정보를 획득할 수도 있다.
프로세서(1300)는, 통상적으로 전자 장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력 인터페이스(미도시), 디스플레이부(1210), 네트워크 인터페이스(1500), 카메라 모듈(1610)을 전반적으로 제어할 수 있다. 또한, 프로세서(1300)는 메모리(1700)에 저장된 프로그램들을 실행함으로써, 도1 내지 도 11에 기재된 전자 장치(1000)의 기능을 수행할 수 있다.
구체적으로, 프로세서(1300)는 사용자 입력 인터페이스를 제어함으로써 전자 장치의 화면을 터치하는 사용자의 입력을 획득할 수 있다.
일 실시 예에 의하면, 프로세서(1300)는 상기 전자 장치의 카메라를 통하여, 안내 대상이 되는 대상 공간을 촬영함으로써 상기 대상 공간에 대한 대상 공간 이미지를 획득하고, 상기 획득된 대상 공간 이미지로부터 미리 설정된 타입의 QR 코드를 식별하고, 상기 식별된 QR 코드를 이용하여 상기 대상 공간 이미지상에 합성하기 위한 적어도 하나의 증강현실 컨텐츠를 획득하고, 상기 적어도 하나의 증강 현실 컨텐츠를 상기 대상 공간 이미지상에 합성함으로써 안내 컨텐츠를 생성하고, 상기 생성된 안내 컨텐츠를 출력할 수 있다.
일 실시 예에 의하면, 프로세서(1300)는 기 설정된 프레임 간격에 기초하여 상기 대상 공간을 복수회 촬영함으로써 복수의 대상 공간 이미지를 획득할 수 있다.
일 실시 예에 의하면, 프로세서(1300)는 상기 대상 공간 이미지상에서 QR 코드 이미지를 포함하는 QR 코드 영역을 식별하고, 상기 QR 코드 영역 내 기 설정된 검출 패턴들을 식별하고, 상기 식별된 검출 패턴들에 기초하여 상기 QR 코드의 타입을 식별할 수 있다.
또한, 일 실시 예에 의하면, 프로세서(1300)는 도 1 내지 도 11에서 상술한 전자 장치가 증강 현실 컨텐츠를 기반으로 안내 컨텐츠를 제공하는 방법 중 적어도 일부를 수행할 수 있다.
카메라 (1610)는 화상 또는 촬영 모드에서 이미지 센서를 통해 대상 공간에 대한 정지 영상 또는 동영상 등의 화상 프레임을 획득할 수 있다. 예를 들어, 카메라(1610)는 대상 공간을 촬영함으로써 QR 코드를 포함하는 대상 공간 이미지를 획득할 수 있다. 또한 카메라(1610)는 대상 공간을 복수회 촬영함으로써 미리 설정된 프레임 간격의 복수의 정지 이미지들을 포함하는 대상 공간 영상을 획득할 수도 있다.
메모리(1700)는, 프로세서(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나, 출력되는 데이터를 저장할 수도 있다. 또한, 메모리(1700)는 전자 장치(1000)가 식별한 QR 코드의 타입, QR 코드가 나타내는 위치 정보, 서버로부터 획득된 증강 현실 컨텐츠에 대한 정보들이 저장될 수 있다.
메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
도 13은 일 실시 예에 따른 전자 장치가 QR 코드를 인식한 결과에 기초하여 해당 지역의 미세먼지 컨텐츠를 획득하는 예를 설명하기 위한 도면이다.
일 실시 예에 의하면, 전자 장치(1000)는 대상 공간 이미지 내 식별되는 QR 코드로부터 QR 코드(1502)가 위치하는 위치 정보를 식별할 수 있다. 또한, 전자 장치(1000)는 QR 코드가 위치하는 위치 정보를 획득함과 함께 QR 코드로부터 전자 장치와 연결되는 서버에 액세스 하기 위한 링크 정보를 획득할 수 있다. 전자 장치(1000)는 서버에 액세스함으로써, QR 코드에 기초하여 획득된 위치 정보가 나타내는 지역의 미세먼지 농도 데이터를 획득할 수도 있다.
또 다른 실시 예에 의하면, 전자 장치(1000)는 QR 코드(1502)에 기초하여 식별되는 해당 지역의 온도 정보, 습도 정보, 오존 정보, 토양에 대한 습도 정보를 서버로부터 더 획득할 수도 있다. 전자 장치(1000)는 서버(2000)로부터 획득되는 미세먼지 농도 데이터, 온도 데이터, 습도 데이터, 오존 데이터, 토양 습도 데이터에 기초하여 환경 컨텐츠를 생성하고, 생성된 환경 컨텐츠(1504)를 화면상에 출력할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 서버로부터 획득된 미세먼지 농도 데이터가 속하는 미리 설정된 미세 먼지 농도 구간을 식별하고, 식별된 미세 먼지 농도 구간에 대응되는 소정의 시각적 컨텐츠들을 출력함으로써, 사용자들이 현재 지역의 미세먼지 농도 데이터를 직관적으로 인식하도록 할 수 있다.
일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 개시를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
또한, 상기 일 실시 예에 다른 방법을 수행하도록 하는 프로그램이 저장된 기록매체를 포함하는 컴퓨터 프로그램 장치가 제공될 수 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 이상에서 본 개시의 실시예에 대하여 상세하게 설명하였지만 본 개시의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 개시의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 개시의 권리범위에 속한다.

Claims (15)

  1. 전자 장치가 인테리어 대상 공간에 대한 증강현실 컨텐츠를 제공하는 방법에 있어서,
    사용자의 연령, 성별 또는 성격 중 적어도 하나에 관한 사용자 정보를 획득하는 단계;
    상기 대상 공간에 대한 영상 정보를 3차원 모델링함으로써 3차원 공간 컨텐츠를 생성하는 단계;
    상기 사용자 정보에 기초하여 결정되는 상기 사용자의 성격 특성에 따라, 상기 대상 공간 인테리어를 위한 가상 컨텐츠들이 배치될 가이드 배치 정보를 생성하는 단계;
    상기 가이드 배치 정보에 따라 상기 대상 공간에 배치될 인테리어 객체에 대한 가상 컨텐츠를 결정하는 단계;
    상기 3차원 공간 컨텐츠 상에서 상기 가상 컨텐츠가 배치될 위치 정보를 식별하는 단계; 및
    상기 위치 정보에 기초하여 상기 3차원 가상 컨텐츠를 상기 3차원 공간 컨텐츠 상에 합성함으로써 증강 현실 컨텐츠를 생성하는 단계; 를 포함하는, 방법.
  2. 제1항에 있어서, 상기 방법은
    상기 생성된 증강 현실 컨텐츠를 상기 전자 장치의 디스플레이를 통해 출력하는 단계;
    상기 출력된 증강 현실 컨텐츠를 상기 전자 장치와 연결된 서버로 전송하는 단계;
    상기 서버로부터 상기 증강 현실 컨텐츠에 대한 평가 결과 또는 개선안 중 적어도 하나를 포함하는 코칭 정보를 획득하는 단계; 및
    상기 획득된 코칭 정보를 상기 출력된 증강 현실 컨텐츠에 중첩하여 출력하는 단계; 를 더 포함하는, 방법.
  3. 제1항에 있어서, 상기 사용자 정보를 획득하는 단계는
    소정의 인터뷰 설문 컨텐츠를 제공하는 단계; 및
    상기 제공된 설문 컨텐츠에 대한 사용자 응답에 기초하여 사용자의 성별, 연령 또는 사용자의 성격 중 적어도 하나를 포함하는 사용자 정보를 획득하는 단계; 를 포함하는, 방법.
  4. 제1항에 있어서, 상기 3차원 공간 컨텐츠를 생성하는 단계는
    상기 대상 공간에 대한 영상 정보를 획득하는 단계; 및
    상기 획득된 영상 정보를 소정의 3차원 모델링함으로써 상기 대상 공간에 대한 입체 정보를 포함하는 상기 3차원 공간 컨텐츠를 생성하는 단계; 를 포함하는, 방법.
  5. 제1항에 있어서, 상기 가이드 배치 정보를 생성하는 단계는
    상기 획득된 사용자 정보에 기초하여, 상기 사용자의 성격에 대한 제1 타입의 성격 특성을 식별하는 단계;
    상기 획득된 사용자 정보에 기초하여, 상기 사용자의 성격에 대한 제2 타입의 성격 특성을 식별하는 단계;
    상기 제1 타입의 성격 특성에 따른 인테리어 객체 배치 패턴을 결정하는 단계;
    상기 제2 타입의 성격 특성에 기초하여 상기 인테리어 객체 배치 패턴에 따라 배치될 인테리어 객체 및 상기 인테리어 객체에 인접한 바닥의 색상 패턴을 결정하는 단계; 및
    상기 결정된 색상 패턴을 상기 인테리어 객체 배치 패턴에 적용함으로써 상기 가이드 배치 정보를 생성하는 단계; 를 포함하는, 방법.
  6. 제1항에 있어서, 상기 대상 공간에 배치될 상기 인테리어 객체에 대한 가상 컨텐츠를 결정하는 단계는
    상기 3차원 대상 공간 컨텐츠 상에 배치될 수 있는 인테리어 객체 후보들에 대한 후보 가상 컨텐츠를 출력하는 단계; 및
    상기 출력된 후보 가상 컨텐츠 중 적어도 하나를 선택하는, 상기 전자 장치에 대한 사용자 입력에 기초하여, 상기 대상 공간에 배치될 상기 인테리어 객체에 대한 가상 컨텐츠를 결정하는 단계; 를 포함하는, 방법.
  7. 제1항에 있어서, 상기 3차원 공간 컨텐츠 상에서 상기 가상 컨텐츠가 배치될 위치 정보를 식별하는 단계는
    상기 3차원 대상 공간 컨텐츠의 적어도 일 지점을 선택하는 사용자 입력에 따른 위치 또는 상기 3차원 대상 공간에 대해 마커리스 증강현실 알고리즘을 적용함에 따른 위치 중 적어도 하나에 기초하여, 상기 가상 컨텐츠가 배치될 위치 정보를 식별하는 단계; 를 포함하는, 방법.
  8. 제1항에 있어서, 상기 증강현실 컨텐츠를 생성하는 단계는
    위치 정보에 기초하여 상기 3차원 공간 컨텐츠 상에, 상기 가상 컨텐츠가 배치될 영역을 식별하는 단계;
    상기 식별된 영역에 배치될 가상 컨텐츠를 렌더링하는 단계;
    상기 식별된 영역에 상기 렌더링된 가상 컨텐츠를 병합함으로써, 상기 증강현실 컨텐츠를 생성하는 단계; 를 포함하는, 방법.
  9. 제2항에 있어서, 상기 방법은
    상기 전자 장치의 디스플레이를 통해 출력된 증강 현실 컨텐츠상의 상기 가상 컨텐츠에 대응되는 인테리어 객체들이 배치된 대상 공간의 공기 흐름 패턴을 식별하는 단계;
    상기 식별된 공기 흐름 패턴의 이상 여부를 결정하는 단계; 및
    상기 이상 여부에 기초하여 상기 증강 현실 컨텐츠에 대한 수정 개선안을 포함하는 코칭 정보를 재획득하는 단계; 를 포함하는, 방법.
  10. 인테리어 대상 공간에 대한 증강현실 컨텐츠를 제공하는 전자 장치에 있어서,
    네트워크 인터페이스;
    하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서; 를 포함하고,
    상기 적어도 하나의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    사용자의 연령, 성별 또는 성격 중 적어도 하나에 관한 사용자 정보를 획득하고,
    상기 대상 공간에 대한 영상 정보를 3차원 모델링함으로써 3차원 공간 컨텐츠를 생성하고,
    상기 사용자 정보에 기초하여 결정되는 상기 사용자의 성격 특성에 따라, 상기 대상 공간 인테리어를 위한 가상 컨텐츠들이 배치될 가이드 배치 정보를 생성하고,
    상기 가이드 배치 정보에 따라 상기 대상 공간에 배치될 인테리어 객체에 대한 가상 컨텐츠를 결정하고,
    상기 3차원 공간 컨텐츠 상에서 상기 가상 컨텐츠가 배치될 위치 정보를 식별하고,
    상기 위치 정보에 기초하여 상기 3차원 가상 컨텐츠를 상기 3차원 공간 컨텐츠 상에 합성함으로써 증강 현실 컨텐츠를 생성하는, 전자 장치.
  11. 제10항에 있어서, 상기 적어도 하나의 프로세서는
    상기 생성된 증강 현실 컨텐츠를 상기 전자 장치의 디스플레이를 통해 출력하고,
    상기 출력된 증강 현실 컨텐츠를 상기 전자 장치와 연결된 서버로 전송하고,
    상기 서버로부터 상기 증강 현실 컨텐츠에 대한 평가 결과 또는 개선안 중 적어도 하나를 포함하는 코칭 정보를 획득하고,
    상기 획득된 코칭 정보를 상기 출력된 증강 현실 컨텐츠에 중첩하여 출력하는, 전자 장치.
  12. 제10항에 있어서, 상기 적어도 하나의 프로세서는
    소정의 인터뷰 설문 컨텐츠를 제공하고,
    상기 제공된 설문 컨텐츠에 대한 사용자 응답에 기초하여 사용자의 성별, 연령 또는 사용자의 성격 중 적어도 하나를 포함하는 사용자 정보를 획득하는, 전자 장치.
  13. 제10항에 있어서, 상기 적어도 하나의 프로세서는
    상기 대상 공간에 대한 영상 정보를 획득하고,
    상기 획득된 영상 정보를 소정의 3차원 모델링함으로써 상기 대상 공간에 대한 입체 정보를 포함하는 상기 3차원 공간 컨텐츠를 생성하는, 전자 장치.
  14. 제10항에 있어서, 상기 적어도 하나의 프로세서는
    상기 획득된 사용자 정보에 기초하여, 상기 사용자의 성격에 대한 제1 타입의 성격 특성을 식별하고,
    상기 획득된 사용자 정보에 기초하여, 상기 사용자의 성격에 대한 제2 타입의 성격 특성을 식별하고,
    상기 제1 타입의 성격 특성에 따른 인테리어 객체 배치 패턴을 결정하고,
    상기 제2 타입의 성격 특성에 기초하여 상기 인테리어 객체 배치 패턴에 따라 배치될 인테리어 객체 및 상기 인테리어 객체에 인접한 바닥의 색상 패턴을 결정하고,
    상기 결정된 색상 패턴을 상기 인테리어 객체 배치 패턴에 적용함으로써 상기 가이드 배치 정보를 생성하는, 전자 장치.
  15. 전자 장치가 인테리어 대상 공간에 대한 증강현실 컨텐츠를 제공하는 방법에 있어서,
    사용자의 연령, 성별 또는 성격 중 적어도 하나에 관한 사용자 정보를 획득하는 단계;
    상기 대상 공간에 대한 영상 정보를 3차원 모델링함으로써 3차원 공간 컨텐츠를 생성하는 단계;
    상기 사용자 정보에 기초하여 결정되는 상기 사용자의 성격 특성에 따라, 상기 대상 공간 인테리어를 위한 가상 컨텐츠들이 배치될 가이드 배치 정보를 생성하는 단계;
    상기 가이드 배치 정보에 따라 상기 대상 공간에 배치될 인테리어 객체에 대한 가상 컨텐츠를 결정하는 단계;
    상기 3차원 공간 컨텐츠 상에서 상기 가상 컨텐츠가 배치될 위치 정보를 식별하는 단계; 및
    상기 위치 정보에 기초하여 상기 3차원 가상 컨텐츠를 상기 3차원 공간 컨텐츠 상에 합성함으로써 증강 현실 컨텐츠를 생성하는 단계; 를 포함하는, 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
KR1020210145318A 2021-10-28 2021-10-28 증강 현실 컨텐츠를 기반으로 안내 정보를 제공하는 방법 및 장치 KR102579892B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210145318A KR102579892B1 (ko) 2021-10-28 2021-10-28 증강 현실 컨텐츠를 기반으로 안내 정보를 제공하는 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210145318A KR102579892B1 (ko) 2021-10-28 2021-10-28 증강 현실 컨텐츠를 기반으로 안내 정보를 제공하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20230060769A true KR20230060769A (ko) 2023-05-08
KR102579892B1 KR102579892B1 (ko) 2023-09-18

Family

ID=86381846

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210145318A KR102579892B1 (ko) 2021-10-28 2021-10-28 증강 현실 컨텐츠를 기반으로 안내 정보를 제공하는 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102579892B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180122572A (ko) * 2018-11-01 2018-11-13 양현수 3차원 가상공간의 인테리어 설계 및 가구 판매 어플리케이션의 설치 및 실행이 가능한 사용자 단말 장치
KR20210010395A (ko) 2019-07-17 2021-01-27 서상화 증강현실을 이용한 정류장 정보 안내 서비스 시스템 및 방법
JP2021103526A (ja) * 2019-12-24 2021-07-15 株式会社ベガコーポレーション 情報提供装置、情報提供システム、情報提供方法及び情報提供プログラム
KR102295699B1 (ko) * 2021-06-21 2021-08-30 김소나 가상현실 기반의 사용자 맞춤형 인테리어 디자인 서비스 제공방법
JP6937948B1 (ja) * 2020-09-07 2021-09-22 Bulb株式会社 家具レイアウトvrシステム、家具レイアウトvr方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180122572A (ko) * 2018-11-01 2018-11-13 양현수 3차원 가상공간의 인테리어 설계 및 가구 판매 어플리케이션의 설치 및 실행이 가능한 사용자 단말 장치
KR20210010395A (ko) 2019-07-17 2021-01-27 서상화 증강현실을 이용한 정류장 정보 안내 서비스 시스템 및 방법
JP2021103526A (ja) * 2019-12-24 2021-07-15 株式会社ベガコーポレーション 情報提供装置、情報提供システム、情報提供方法及び情報提供プログラム
JP6937948B1 (ja) * 2020-09-07 2021-09-22 Bulb株式会社 家具レイアウトvrシステム、家具レイアウトvr方法及びプログラム
KR102295699B1 (ko) * 2021-06-21 2021-08-30 김소나 가상현실 기반의 사용자 맞춤형 인테리어 디자인 서비스 제공방법

Also Published As

Publication number Publication date
KR102579892B1 (ko) 2023-09-18

Similar Documents

Publication Publication Date Title
KR102417645B1 (ko) Ar 장면 이미지 처리 방법, 장치, 전자 기기 및 저장 매체
US11080937B2 (en) Wearable augmented reality devices with object detection and tracking
US10437347B2 (en) Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US20240045509A1 (en) Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
Romli et al. Mobile augmented reality (AR) marker-based for indoor library navigation
KR20190088545A (ko) 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들
KR101692335B1 (ko) 증강현실 영상표시 시스템 및 증강현실 영상표시 방법
KR20140007427A (ko) 포토레프리젠터티브 뷰의 테마 기반 증강
CN107689082B (zh) 一种数据投影方法以及装置
US12020667B2 (en) Systems, methods, and media for displaying interactive augmented reality presentations
CN107656615A (zh) 大量同时远程数字呈现世界
CN106484115A (zh) 用于增强和虚拟现实的系统和方法
KR20130080442A (ko) 표정의 실시간 애니메이션화
JP6656382B2 (ja) マルチメディア情報を処理する方法及び装置
KR20190009081A (ko) 클라우드 소싱 기반의 ar 컨텐츠 템플릿을 수집하여 ar 컨텐츠를 자동으로 생성하는 방법 및 시스템
KR20210028198A (ko) 아바타 애니메이션
US11423625B2 (en) Augmented reality scene image processing method and apparatus, electronic device and storage medium
CN114358822A (zh) 一种广告展示方法、装置、介质及设备
US20240104870A1 (en) AR Interactions and Experiences
CN114554240A (zh) 直播中的交互方法及装置、存储介质、电子设备
Kontogiorgakis et al. Gamified VR Storytelling for Cultural Tourism Using 3D Reconstructions, Virtual Humans, and 360° Videos
KR20230060769A (ko) 증강 현실 컨텐츠를 기반으로 안내 정보를 제공하는 방법 및 장치
KR20110107707A (ko) 증강현실을 이용한 온라인 학습 장치 및 그 방법
CN112804546A (zh) 基于直播的互动方法、装置、设备和存储介质
KR20200060202A (ko) 증강현실 기반의 동화 구현 방법 및 장치

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant