KR102482053B1 - 증강현실 콘텐츠 저작 방법 및 장치 - Google Patents

증강현실 콘텐츠 저작 방법 및 장치 Download PDF

Info

Publication number
KR102482053B1
KR102482053B1 KR1020210111546A KR20210111546A KR102482053B1 KR 102482053 B1 KR102482053 B1 KR 102482053B1 KR 1020210111546 A KR1020210111546 A KR 1020210111546A KR 20210111546 A KR20210111546 A KR 20210111546A KR 102482053 B1 KR102482053 B1 KR 102482053B1
Authority
KR
South Korea
Prior art keywords
augmented reality
reality content
information
location
authoring
Prior art date
Application number
KR1020210111546A
Other languages
English (en)
Inventor
이종원
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020210111546A priority Critical patent/KR102482053B1/ko
Application granted granted Critical
Publication of KR102482053B1 publication Critical patent/KR102482053B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Abstract

본 발명은 증강현실 콘텐츠 저작 방법 및 장치를 개시한다. 본 발명에 따르면, 프로세서; 및 상기 프로세서에 연결되는 메모리를 포함하되, 상기 메모리는, 상기 장치의 위치를 추적하고, 제1 위치에서 증강현실 콘텐츠가 표시될 기준객체 선택 정보를 입력 받고, 상기 제1 위치에서의 미리 설정된 저작자 시점 기반으로 상기 기준객체의 위치를 결정하고, 상기 저작자 시점과 상기 결정된 기준객체 위치를 이용하여 가이드라인 또는 가이드면을 생성하고, 상기 가이드라인 또는 가이드면 상에 콘텐츠 DB에서 상기 저작자에 의해 선택된 증강현실 콘텐츠를 배치하고, 상기 증강현실 콘텐츠의 배치 정보 및 설명 정보를 포함하는 증강현실 콘텐츠 저작 정보를 저작 콘텐츠 DB에 저장하도록, 상기 프로세서에 의해 실행 가능한 프로그램 명령어들을 포함하는 증강현실 콘텐츠 저작 장치가 제공된다.

Description

증강현실 콘텐츠 저작 방법 및 장치{Augmented reality content authoring method and apparatus}
본 발명은 증강현실 콘텐츠 저작 방법 및 장치에 관한 것으로서, 보다 상세하게는 소정 기준객체에 증강된 콘텐츠를 표시하는 것을 용이하게 할 수 있는 방법 및 장치에 관한 것이다.
최근 모바일 시장의 활성화에 따른 모바일 기기의 사용량의 급격한 증가로 인하여 이와 관련된 스마트폰 어플리케이션이 많이 생겨나고 있다. 특히 모바일 기기를 이용한 증강현실(Augmented Reality: AR) 서비스는 현실 세계(실제 공간)에 증강된 콘텐츠(가상 객체)를 보여주는 기술로서, 현실 세계에 실시간으로 부가정보를 갖는 증강된 콘텐츠를 합쳐 하나의 영상으로 보여주는 것으로 혼합현실(Mixed Reality)라 하여 1990년대 후반부터 다양한 연구 개발이 진행되고 있다.
그러나, 지금까지의 증강현실 서비스는 마커 등의 인식을 통해 증강된 콘텐츠를 디스플레이해주는 것만을 의미할 뿐, 아직까지 모바일 증강현실 환경에서 상호작용에 대한 연구는 부족한 상황이다.
또한 근래에는 헤드마운트 디스플레이(HMD)를 이용한 증강현실 서비스도 제공되고 있는 실정이다.
지금까지 대부분 증강현실 콘텐츠 저작은 2차원 화면에서 간접적인 상호작용 방법으로 일반적인 PC 환경에서 마우스와 키보드를 사용합니다.
증강현실 구현에 많이 활용되는 Unity MARs와 Vuforia에서는 증강현실 콘텐츠 저작을 위해 실제 공간에 가상 객체를 증강하는 손쉬운 방법을 제공하고 있으나 증강현실 콘텐츠 개발을 위해 코드가 필요하여 일반 사용자가 쉽게 증강현실 콘텐츠를 저작하는데 어려움이 있다.
대한민국등록특허 10-1940720
상기한 종래기술의 문제점을 해결하기 위해, 본 발명은 실제 공간의 다양한 위치에서 편리하게 가상 객체를 증강할 수 있는 증강현실 콘텐츠 저작 방법 및 장치를 제안하고자 한다.
상기한 바와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 따르면, 증강현실 콘텐츠 저작 장치로서, 프로세서; 및 상기 프로세서에 연결되는 메모리를 포함하되, 상기 메모리는, 상기 장치의 위치를 추적하고, 제1 위치에서 증강현실 콘텐츠가 표시될 기준객체 선택 정보를 입력 받고, 상기 제1 위치에서의 미리 설정된 저작자 시점 기반으로 상기 기준객체의 위치를 결정하고, 상기 저작자 시점과 상기 결정된 기준객체 위치를 이용하여 가이드라인 또는 가이드면을 생성하고, 상기 가이드라인 또는 가이드면 상에 콘텐츠 DB에서 상기 저작자에 의해 선택된 증강현실 콘텐츠를 배치하고, 상기 증강현실 콘텐츠의 배치 정보 및 설명 정보를 포함하는 증강현실 콘텐츠 저작 정보를 저작 콘텐츠 DB에 저장하도록, 상기 프로세서에 의해 실행 가능한 프로그램 명령어들을 포함하는 증강현실 콘텐츠 저작 장치가 제공된다.
상기 미리 설정된 저작자 시점은 상기 장치에 설치된 카메라의 위치, 각도 및 방향 정보로 정의될 수 있다.
상기 증강현실 콘텐츠의 선택 및 설명 정보는 상기 저작자의 음성 또는 제스쳐를 인식하여 수행될 수 있다.
상기 증강현실 콘텐츠 저작 정보는 체험자의 시점 차이를 보상하기 위한 가상 객체, 가상 객체의 높이 및 반투명 렌더링 관련 정보 중 하나를 포함할 수 있다.
상기 체험자의 시점 차이를 보상하기 위한 가상 객체는 가상의 경사면 및 사다리 중 하나를 포함할 수 있다.
상기 반투명 렌더링 관련 정보는 상기 가이드라인 또는 가이드면 상에 배치된 증강현실 콘텐츠가 반투명으로 표시되는 변경된 위치 정보를 포함할 수 있다.
상기 가상 객체의 디스플레이 또는 상기 증강현실 콘텐츠의 반투명 렌더링은 체험자 장치가 체험자 시점과 저작자 시점의 차이가 미리 설정된 임계치 이상인 것으로 판단하는 경우에 수행될 수 있다.
상기 장치의 위치는 GPS, WiFi 신호 강도 및 실내 모델링 정보를 이용하여 추적될 수 있다.
본 발명의 다른 측면에 따르면, 프로세서 및 메모리를 포함하는 장치에서 증강현실 콘텐츠를 저작하는 방법으로서, 상기 장치의 위치를 추적하는 단계; 제1 위치에서 증강현실 콘텐츠가 표시될 기준객체 선택 정보를 입력 받는 단계; 상기 제1 위치에서의 미리 설정된 저작자 시점 기반으로 상기 기준객체의 위치를 결정하는 단계; 상기 저작자 시점과 상기 결정된 기준객체 위치를 이용하여 가이드라인 또는 가이드면을 생성하는 단계; 상기 가이드라인 또는 가이드면 상에 콘텐츠 DB에서 상기 저작자에 의해 선택된 증강현실 콘텐츠를 배치하는 단계; 및 상기 증강현실 콘텐츠의 배치 정보 및 설명 정보를 포함하는 증강현실 콘텐츠 저작 정보를 저작 콘텐츠 DB에 저장하는 단계를 포함하는 증강현실 콘텐츠 저작 방법이 제공된다.
본 발명의 또 다른 측면에 따르면, 상기한 방법을 수행하는 컴퓨터 판독 가능한 프로그램이 제공된다.
본 발명에 따르면, 저작자가 손쉬운 방법으로 증강현실 콘텐츠를 기준객체와의 관계에서 저작할 수 있고, 체험자의 시점도 보상할 수 있는 장점이 있다.
도 1은 본 실시예에 따른 증강현실 콘텐츠 저작 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 바람직한 일 실시예에 따른 증강현실 콘텐츠 저작 장치의 구성을 도시한 도면이다.
도 3은 본 발명의 바람직한 일 실시예에 따른 증강현실 콘텐츠 저작 과정의 흐름도이다.
도 4는 본 실시예에 따른 가이드라인 또는 가이드면의 생성 과정을 예시적으로 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 체험자 시점 보상을 위한 가상 객체를 도시한 도면이다.
도 6은 본 실시예에 따른 반투명 렌더링 되는 환경을 예시적으로 도시한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
도 1은 본 실시예에 따른 증강현실 콘텐츠 저작 시스템의 구성을 도시한 도면이다.
도 1을 참조하면, 본 실시예에 따른 증강현실 콘텐츠 저작 시스템은 증강현실 콘텐츠 저작 장치(100) 및 체험자 장치(102)와 이와 네트워크를 통해 연결되는 지역 데이터베이스(104), 콘텐츠 데이터베이스(106) 및 저작 콘텐츠 데이터베이스(108)를 포함할 수 있다.
여기서, 네트워크는 유무선 인터넷망, 위성망 및 이동통신망을 모두 포함할 수 있다.
증강현실 콘텐츠 저작 장치(100)는 증강현실 콘텐츠 저작을 위한 프로그램 명령어들이 실행되며 디스플레이를 구비하는 헤드마운트 장치 또는 스마트폰과 같은 모바일 장치일 수 있고, 체험자 장치(102)는 증강현실 콘텐츠의 이용이 가능한 헤드마운트 장치 또는 모바일 장치일 수 있다.
본 실시예에 따른 증강현실 콘텐츠 저작 장치(100)는 저작자의 이동에 따른 위치를 추적하고, 저작자가 선택한 위치에서 증강현실 콘텐츠가 보여지도록 저작을 수행하는 경우, 저작 관련 정보를 입력 받아 저장한다.
증강현실 콘텐츠 저작 장치(100)는 지역 데이터베이스(104)와 연동하여 증강현실 콘텐츠가 표시될 위치(이하의 기준객체 위치)에 관한 정보를 저장하며, 콘텐츠 데이터베이스(106)는 저작된 증강현실 콘텐츠 관련 정보를 저장한다.
저작이 완료되는 경우, 소정 위치에서 증강현실 컨텐츠 식별 정보, 위치 정보 및 체험자의 시점 차이를 반영할 수 있는 정보 등이 저작 콘텐츠 데이터베이스(108)에 저장된다.
이하에서는 도면을 참조하여 본 실시예에 따른 증강현실 콘텐츠 저작 과정을 상세하게 설명한다.
도 2는 본 발명의 바람직한 일 실시예에 따른 증강현실 콘텐츠 저작 장치의 구성을 도시한 도면이다.
도 2에 도시된 바와 같이, 본 실시예에 따른 장치는 프로세서(200) 및 메모리(202)를 포함할 수 있다.
프로세서(100)는 컴퓨터 프로그램을 실행할 수 있는 CPU(central processing unit)나 그밖에 가상 머신 등을 포함할 수 있다.
메모리(202)는 고정식 하드 드라이브나 착탈식 저장 장치와 같은 불휘발성 저장 장치를 포함할 수 있다. 착탈식 저장 장치는 컴팩트 플래시 유닛, USB 메모리 스틱 등을 포함할 수 있다. 메모리(202)는 각종 랜덤 액세스 메모리와 같은 휘발성 메모리도 포함할 수 있다.
이와 같은 메모리(202)에는 프로세서(200)에 의해 실행 가능한 프로그램 명령어들이 저장된다.
도 3은 본 발명의 바람직한 일 실시예에 따른 증강현실 콘텐츠 저작 과정의 흐름도이다.
도 3의 과정은 증강현실 콘텐츠 장치의 프로세서(200)에 의해 실행되는 프로그램 명령어들의 수행 과정으로 정의할 수 있다.
도 3을 참조하면, 본 실시예에 따른 저작 장치는 장치의 위치를 추적한다(단계 300).
실외인 경우, 장치의 위치는 GPS 신호를 이용하여 결정될 수 있고, 실내인 경우에는 복수의 액세스 포인트로부터의 무선 신호(WiFi 신호)의 강도 또는 실내에 대해 미리 구축된 모델링 정보를 이용하여 결정될 수 있다.
단계 300에서 추적되는 위치는 장치에 설치된 카메라의 위치, 각도 및 방향 정보 등을 포함할 수 있다. 카메라의 각도 및 방향은 장치 내부에 포함된 가속도 센서 또는 자이로 센서를 이용하여 추적될 수 있다.
일반적으로 증강현실 서비스는 소정 위치에서 카메라가 소정 방향을 바라보는 경우에 제공될 수 있으므로 상기한 바와 같이, 카메라의 위치, 각도 및 방향 정보를 함께 추적한다.
다음으로, 저작 장치는 소정의 제1 위치에서 증강현실 콘텐츠가 표시될 기준객체 선택 정보를 입력 받는다(단계 302).
여기서, 기준객체는 현실 세계에 존재하는 현판, 표지판, 기둥, 현관, 창문과 같은 다양한 객체일 수 있고, 저작자는 카메라를 통해 촬영되어 디스플레이에 보여지는 이미지에서 기준객체를 선택할 수 있다.
이후, 저작 장치는 미리 설정된 저작자 시점 기반으로 상기 기준객체의 위치를 결정한다(단계 304).
여기서, 미리 설정된 저작자 시점은 저작자의 신체 중 손, 상체 등으로 설정할 수 있으며, 바람직하게는 기준객체를 선택한 시점에서의 카메라의 위치, 각도 및 방향 정보로 정의될 수 있다.
또한, 기준객체의 위치는 미리 설정된 저작자 시점과의 거리 및 각도로 정의될 수 있고, 상기한 지역 데이터베이스(104)를 참조하여 결정될 수 있다.
기준객체 위치를 결정하기에 앞서, 본 실시예에 저작 장치는 저작자가 모바일 장치 또는 헤드마운트 장치에 디스플레이되는 이미지 중 한 지점을 터치하거나 가리키는 경우 저작자가 선택한 지점에 대한 특징(예를 들어, 현판의 모서리)을 추출할 수 있다.
예를 들어, 기준객체의 복수의 모서리 정보가 특징 정보로 추출되는 경우, 저작 장치는 미리 설정된 저작자 시점을 기준으로 기준객체의 중심점의 위치를 결정할 수 있다.
상기에서는 터치 등을 통해 기준객체를 선택하는 것으로 설명하였으나, 이에 한정됨이 없이 음성 또는 제스쳐 인식을 통해 기준객체를 선택할 수도 있을 것이다.
저작 장치는 기준객체의 위치가 결정된 이후, 저작자 시점과 기준객체의 위치를 이용하여 가이드라인 또는 가이드면을 생성한다(단계 306).
도 4는 본 실시예에 따른 가이드라인 또는 가이드면의 생성 과정을 예시적으로 도시한 도면이다.
도 4를 참조하면, 본 실시예에 따른 가이드라인은 저작자 시점(400)과 기준객체의 소정 지점(402)을 연결하는 선(404)으로 정의될 수 있고, 가이드면은 상기한 가이드라인을 포함하는 2차원 평면(406)으로 정의될 수 있다.
저작 장치는 저작자의 요청에 따라 콘텐츠 데이터베이스(106)에서 증강하고자 하는 콘텐츠(410)를 독출하여 가이드라인 또는 가이드면의 소정 위치에 배치한다.
이처럼 가이드라인 또는 가이드면을 배치하는 경우, 기준객체와의 관계에서 증강현실 콘텐츠를 표시할 위치를 손쉽게 결정할 수 있다.
이후, 저작 장치는 증강현실 콘텐츠의 배치 정보 및 설명 정보를 포함하는 증강현실 컨텐츠 저작 정보를 저작 콘텐츠 데이터베이스(108)에 저장한다(단계 308).
본 실시예에 따른 증강현실 콘텐츠 배치 정보는 저작자 시점 및 기준객체 위치를 통해 결정된 가이드라인 또는 가이드면 상에서의 콘텐츠 배치 정보이다.
본 실시예에 따른 저작 콘텐츠 데이터베이스(108)에는 체험자 속성을 반영하기 위한 정보가 추가로 저장될 수 있다.
예를 들어, 체험자가 저작자보다 키가 작은 어린이인 경우, 저작자 시점을 기준으로 증강현실 콘텐츠를 보여주는 것은 체험자의 불편을 초래할 수 있다.
이러한 점을 고려하여 본 실시예에 따른 저작 콘텐츠 데이터베이스(108)에는 체험자의 시점 차이를 보상하기 위한 가상 객체에 관한 정보가 추가로 저장될 수 있으며, 보상을 위한 가상 객체는 도 5에 도시된 바와 같이 가상의 경사면 또는 사다리를 포함할 수 있다.
상기한 가상 객체(500)는 체험자가 헤드마운트 장치를 착용한 상태에서 증강현실 콘텐츠를 확인하는 경우에 유용하게 이용될 수 있다.
헤드마운트 장치는 체험자의 위치에서 기준객체를 바라보는 경우, 체험자의 시점이 저작자 시점과 미리 설정된 임계치 이상 차이가 나는지 여부를 판단하고, 체험자의 시점 보상이 필요한 경우 상기한 가상 객체를 디스플레이에 출력함으로써 체험자가 보다 높은 위치에서 증강현실 콘텐츠를 확인할 수 있도록 한다.
또한, 모바일 장치를 이용하는 체험자의 시점을 보상하기 위해 저작 콘텐츠 데이터베이스(108)에는 반투명 렌더링 관련 정보가 저장 될 수 있다.
여기서, 반투명 렌더링 관련 정보는 가이드라인 또는 가이드면 상에 배치된 증강현실 콘텐츠가 반투명으로 표시되는 변경된 위치 정보를 포함할 수 있다.
도 6은 본 실시예에 따른 반투명 렌더링 되는 환경을 예시적으로 도시한 도면이다.
도 6을 참조하면, 체험자의 시점이 저작자와 차이가 있어 증강현실 콘텐츠를 제대로 확인할 수 없는 것으로 판단되는 경우, 모바일 장치는 반투명 렌더링 관련 정보를 이용하여 저작 시 생성된 가이드라인 또는 가이드면 상에 배치된 증강현실 콘텐츠가 체험자쪽으로 반투명으로 표시되도록 제어한다.
반투명 렌더링은 고스트 이펙트(GHOST EFFECT)라고도 하며, 체험자 시점에서 높이 있는 증강현실 콘텐츠를 보다 앞선 위치로 변경하여 체험자가 증강현실 콘텐츠의 전체적인 형상을 확인할 수 있도록 한다.
도 6에서는 증강현실 콘텐츠의 원래 위치에서 체험자 쪽으로 증강현실 콘텐츠가 반투명으로 렌더링되는 것을 예시로 도시하였으나, 체험자 쪽으로 증강현실 콘텐츠가 보여지고, 원래 위치의 증강현실 콘텐츠가 반투명으로 렌더링 되는 것도 가능할 것이다.
본 실시예에 따르면, 상기한 바와 같이 헤드마운트 장치 또는 모바일 장치를 통해 손쉽게 증강현실 콘텐츠를 저작하고 체험자의 시점 차이를 반영하기 때문에 증강현실 서비스의 편의성을 한층 높일 수 있다.
상기한 본 발명의 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대한 통상의 지식을 가지는 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.

Claims (10)

  1. 증강현실 콘텐츠 저작 장치로서,
    프로세서; 및
    상기 프로세서에 연결되는 메모리를 포함하되,
    상기 메모리는,
    상기 장치의 위치를 추적하고,
    제1 위치에서 증강현실 콘텐츠가 표시될 기준객체 선택 정보를 입력 받고,
    상기 제1 위치에서의 미리 설정된 저작자 시점 기반으로 상기 기준객체의 위치를 결정하고,
    상기 저작자 시점과 상기 결정된 기준객체 위치를 이용하여 가이드라인 또는 가이드면을 생성하고,
    상기 가이드라인 또는 가이드면 상에 콘텐츠 DB에서 상기 저작자에 의해 선택된 증강현실 콘텐츠를 배치하고,
    상기 증강현실 콘텐츠의 배치 정보 및 설명 정보를 포함하는 증강현실 콘텐츠 저작 정보를 저작 콘텐츠 DB에 저장하도록,
    상기 프로세서에 의해 실행 가능한 프로그램 명령어들을 포함하되,
    상기 증강현실 콘텐츠 저작 정보는 체험자의 시점 차이를 보상하기 위한 가상 객체, 가상 객체의 높이 및 반투명 렌더링 관련 정보 중 하나를 포함하는 증강현실 콘텐츠 저작 장치.
  2. 제1항에 있어서,
    상기 미리 설정된 저작자 시점은 상기 장치에 설치된 카메라의 위치, 각도 및 방향 정보로 정의되는 증강현실 콘텐츠 저작 장치.
  3. 제1항에 있어서,
    상기 증강현실 콘텐츠의 선택 및 설명 정보는 상기 저작자의 음성 또는 제스쳐를 인식하여 수행되는 증강현실 콘텐츠 저작 장치.
  4. 삭제
  5. 제1항에 있어서,
    상기 체험자의 시점 차이를 보상하기 위한 가상 객체는 가상의 경사면 및 사다리 중 하나를 포함하는 증강현실 콘텐츠 저작 장치.
  6. 제1항에 있어서,
    상기 반투명 렌더링 관련 정보는 상기 가이드라인 또는 가이드면 상에 배치된 증강현실 콘텐츠가 반투명으로 표시되는 변경된 위치 정보를 포함하는 증강현실 콘텐츠 저작 장치.
  7. 제1항에 있어서,
    상기 가상 객체의 디스플레이 또는 상기 증강현실 콘텐츠의 반투명 렌더링은 체험자 장치가 체험자 시점과 저작자 시점의 차이가 미리 설정된 임계치 이상인 것으로 판단하는 경우에 수행되는 증강현실 콘텐츠 저작 장치.
  8. 제1항에 있어서,
    상기 장치의 위치는 GPS, WiFi 신호 강도 및 실내 모델링 정보를 이용하여 추적되는 증강현실 콘텐츠 저작 장치.
  9. 프로세서 및 메모리를 포함하는 장치에서 증강현실 콘텐츠를 저작하는 방법으로서,
    상기 장치의 위치를 추적하는 단계;
    제1 위치에서 증강현실 콘텐츠가 표시될 기준객체 선택 정보를 입력 받는 단계;
    상기 제1 위치에서의 미리 설정된 저작자 시점 기반으로 상기 기준객체의 위치를 결정하는 단계;
    상기 저작자 시점과 상기 결정된 기준객체 위치를 이용하여 가이드라인 또는 가이드면을 생성하는 단계;
    상기 가이드라인 또는 가이드면 상에 콘텐츠 DB에서 상기 저작자에 의해 선택된 증강현실 콘텐츠를 배치하는 단계; 및
    상기 증강현실 콘텐츠의 배치 정보 및 설명 정보를 포함하는 증강현실 콘텐츠 저작 정보를 저작 콘텐츠 DB에 저장하는 단계를 포함하되,
    상기 증강현실 콘텐츠 저작 정보는 체험자의 시점 차이를 보상하기 위한 가상 객체, 가상 객체의 높이 및 반투명 렌더링 관련 정보 중 하나를 포함하는 증강현실 콘텐츠 저작 방법.
  10. 제9항에 따른 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능한 저장매체.

KR1020210111546A 2021-08-24 2021-08-24 증강현실 콘텐츠 저작 방법 및 장치 KR102482053B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210111546A KR102482053B1 (ko) 2021-08-24 2021-08-24 증강현실 콘텐츠 저작 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210111546A KR102482053B1 (ko) 2021-08-24 2021-08-24 증강현실 콘텐츠 저작 방법 및 장치

Publications (1)

Publication Number Publication Date
KR102482053B1 true KR102482053B1 (ko) 2022-12-27

Family

ID=84567903

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210111546A KR102482053B1 (ko) 2021-08-24 2021-08-24 증강현실 콘텐츠 저작 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102482053B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120010041A (ko) * 2010-07-23 2012-02-02 세종대학교산학협력단 이동 단말 환경에서 증강 현실 콘텐츠를 저작하는 방법 및 시스템
KR20160112898A (ko) * 2015-03-20 2016-09-28 한국과학기술원 증강현실 기반 동적 서비스 제공 방법 및 장치
KR101940720B1 (ko) 2016-08-19 2019-04-17 한국전자통신연구원 공간 기반 증강현실을 위한 콘텐츠 저작 장치 및 그 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120010041A (ko) * 2010-07-23 2012-02-02 세종대학교산학협력단 이동 단말 환경에서 증강 현실 콘텐츠를 저작하는 방법 및 시스템
KR20160112898A (ko) * 2015-03-20 2016-09-28 한국과학기술원 증강현실 기반 동적 서비스 제공 방법 및 장치
KR101940720B1 (ko) 2016-08-19 2019-04-17 한국전자통신연구원 공간 기반 증강현실을 위한 콘텐츠 저작 장치 및 그 방법

Similar Documents

Publication Publication Date Title
KR102534637B1 (ko) 증강 현실 시스템
JP7079231B2 (ja) 情報処理装置及び情報処理システム及び制御方法、プログラム
US9224237B2 (en) Simulating three-dimensional views using planes of content
DK202070603A1 (en) Systems, Methods, and Graphical User Interfaces for Annotating, Measuring, and Modeling Environments
US9437038B1 (en) Simulating three-dimensional views using depth relationships among planes of content
KR102056175B1 (ko) 증강현실 콘텐츠 생성 방법 및 이를 구현하는 휴대단말장치
US9304651B2 (en) Method of real-time incremental zooming
US9041734B2 (en) Simulating three-dimensional features
US10754418B1 (en) Using body surfaces for placing augmented reality content
US8830238B1 (en) Display of shaded objects on computing device
CN111742281B (zh) 用于针对显示在显示器上的第一内容提供根据外部对象的移动的第二内容的电子装置及其操作方法
CN113359986B (zh) 增强现实数据展示方法、装置、电子设备及存储介质
US10748000B2 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
US11758218B2 (en) Integrating overlaid digital content into displayed data via graphics processing circuitry
JP2015087909A (ja) 情報処理システム、情報処理装置、情報処理サーバ、情報処理方法、及びプログラム
US20220351425A1 (en) Integrating overlaid digital content into data via processing circuitry using an audio buffer
KR101864717B1 (ko) 오브젝트 조립 형상에 따른 무(無)마커 맞춤공간표출형 증강현실 컨텐츠 형성장치 및 방법
KR102482053B1 (ko) 증강현실 콘텐츠 저작 방법 및 장치
Abbas et al. Augmented reality-based real-time accurate artifact management system for museums
KR101047615B1 (ko) 해상도 차이를 이용한 증강현실 정합 시스템 및 방법
KR102175519B1 (ko) 실제 사물의 사용성을 증강하는 가상 콘텐츠 제공 장치 및 방법
KR102149105B1 (ko) 혼합현실 기반 3차원 스케치 장치 및 방법
KR20140078083A (ko) 증강 현실이 구현된 만화책
JP2022138285A (ja) 表示装置、表示方法、プログラム
US20180184148A1 (en) Electronic device and operation method thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant