KR20120010041A - 이동 단말 환경에서 증강 현실 콘텐츠를 저작하는 방법 및 시스템 - Google Patents
이동 단말 환경에서 증강 현실 콘텐츠를 저작하는 방법 및 시스템 Download PDFInfo
- Publication number
- KR20120010041A KR20120010041A KR1020100071594A KR20100071594A KR20120010041A KR 20120010041 A KR20120010041 A KR 20120010041A KR 1020100071594 A KR1020100071594 A KR 1020100071594A KR 20100071594 A KR20100071594 A KR 20100071594A KR 20120010041 A KR20120010041 A KR 20120010041A
- Authority
- KR
- South Korea
- Prior art keywords
- augmented reality
- marker
- reality content
- mobile terminal
- image
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 138
- 238000000034 method Methods 0.000 title claims abstract description 39
- 239000003550 marker Substances 0.000 claims abstract description 129
- 230000004044 response Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241001422033 Thestylus Species 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035755 proliferation Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 이동 단말을 이용하여 증강 현실 콘텐츠를 저작하는 방법 및 시스템에 관한 것으로서, 보다 상세하게는, 이동 단말을 이용하여 현장에서 마커를 획득하고, 획득한 마커를 이용하여 간단하게 증강 현실 콘텐츠를 저작할 수 있는 방법 및 시스템에 관한 것이다.
이동 단말 환경에서 증강 현실 콘텐츠를 저작하는 방법은 (a) 이동 단말이 촬영한 하나 이상의 영상으로부터 마커를 획득하는 단계, (b) 상기 마커에 매칭되는 객체를 설정하는 단계 및 (c) 상기 마커 및 객체를 이용하여 증강 현실 콘텐츠를 생성하는 단계를 포함하고, 상기 이동 단말의 화면에 상기 마커가 디스플레이되는 경우, 상기 이동 단말은 상기 생성한 증강 현실 콘텐츠를 구동하여 상기 객체를 상기 이동 단말의 화면에 디스플레이할 수 있다.
이동 단말 환경에서 증강 현실 콘텐츠를 저작하는 방법은 (a) 이동 단말이 촬영한 하나 이상의 영상으로부터 마커를 획득하는 단계, (b) 상기 마커에 매칭되는 객체를 설정하는 단계 및 (c) 상기 마커 및 객체를 이용하여 증강 현실 콘텐츠를 생성하는 단계를 포함하고, 상기 이동 단말의 화면에 상기 마커가 디스플레이되는 경우, 상기 이동 단말은 상기 생성한 증강 현실 콘텐츠를 구동하여 상기 객체를 상기 이동 단말의 화면에 디스플레이할 수 있다.
Description
본 발명은 이동 단말을 이용하여 증강 현실 콘텐츠를 저작하는 방법 및 시스템에 관한 것으로서, 보다 상세하게는, 이동 단말을 이용하여 현장에서 마커를 획득하고, 획득한 마커를 이용하여 간단하게 증강 현실 콘텐츠를 저작할 수 있는 방법 및 시스템에 관한 것이다.
유비쿼터스 컴퓨팅 개념의 확산은 개발자 중심의 시스템에서 사용자 중심의 시스템으로 컴퓨팅 패러다임의 변화를 가지고 왔다. 이로 인해 정보나 콘텐츠를 실제 정보와 가상의 정보가 혼합된 증강현실에 대한 관심이 고조되고 있다.
이와 동시에 스마트폰, PDA(personal personal digital assistant) 등의 모바일 장치의 성능이 향상되고 빠르게 보급되면서 증강 현실 기술을 모바일 장치에 적용이 가능하게 되었다. 이러한 모바일 장치의 사용으로 인해 누구나 때와 장소를 가리지 않고 증강현실 기술을 사용할 수 있게 되었다.
모바일 장치에서 증강 현실 기술을 적용하기 위하여, 모바일 장치 사용에 있어 발생하는 이동간의 문제점들을 해결하고 사용자에게 효율적인 인터페이스를 제공하고, 다양한 증강 현실 콘텐츠를 제공하고자 하는 많은 노력이 있었다.
종래의 기술에 따른 증강 현실 콘텐츠는 일반적으로 사용자의 위치만을 기준으로 하여 주위 환경에 대한 증강 현실 정보를 제공하거나, 또는 마커만을 기준으로 증강 현실 정보를 제공하였다.
그러나, 이러한 종래 기술에서, 사용자의 현재 위치가 잘못 측정된 경우에 사용자에게 잘못된 정보를 제공할 수 있으며, 낮은 마커 인식률로 인하여 증강 현실 정보를 제공하지 못하게 되는 문제점이 있었다.
또한, 종래의 기술에 따라 제공되던 증강 현실 콘텐츠는 사용자의 취향과 관계없이 일률적으로 콘텐츠를 제공하였으며, 유비쿼터스 환경에 대한 고려가 충분히 반영되지 못하였다.
이러한 문제점을 극복하기 위해 유비쿼터스 컴퓨팅 환경에 존재하는 다양한 사용자의 맥락 정보를 활용하여 모바일 환경에서 콘텐츠를 제공하는 연구가 진행되고 있다.
맥락 정보를 이용한 모바일 증강현실 환경에서, 사용자는 개인성과 이동성을 갖춘 모바일 장치를 활용하여 이동 또는 작업을 수행하는 도중에 현재의 상황에 맞는 개인화된 콘텐츠를 생성하고, 생성한 콘텐츠를 사용하거나 공유할 수 있어야 한다.
이를 위하여 사용자가 원하는 장소와 시간에 직접 개인화된 맥락 정보 기반의 콘텐츠를 저작할 수 있는 기술의 요구가 점차 많아지고 있으며, 특히 일반 사용자가 직접 C, C++ 등의 로우 레벨(low level) 언어를 활용하여 증강 현실 콘텐츠를 저작할 수 없으므로, 증강 현실 콘텐츠의 저작 툴의 개발이 요구되고 있다.
하지만 종래의 증강 현실 콘텐츠의 저작 툴의 개발은 모두 데스크톱 환경에서의 저작에 대한 것이며, 모바일 환경에서의 증강 현실 콘텐츠의 저작과 데스크톱 환경에서의 증강 현실 콘텐츠의 저작 사이의 존재하는 차이점을 고려하여 모바일 장치에서 증강 현실 콘텐츠의 저작을 지원할 수 있는 증강 현실 콘텐츠 저작 툴이 점차 요구되고 있다.
본 발명의 일 실시예는 사용자가 현장에서 UMPC, 스마트 폰과 같은 이동 단말을 이용하여 마커를 획득한 현장에서 간단하게 객체를 선택하고 속성을 부여하여 증강 현실 콘텐츠를 생성할 뿐만 아니라, 이동 단말의 무선 네트워크 기능을 이용하여 획득한 마커 또는 생성 중인 증강 현실 콘텐츠를 다른 단말과 공유하여 협업을 통해 증강 현실 콘텐츠를 저작할 수 있는 방법 및 시스템을 제공하고자 한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면은 (a) 이동 단말이 촬영한 하나 이상의 영상으로부터 마커를 획득하는 단계, (b) 상기 마커에 매칭되는 객체를 설정하는 단계 및 (c) 상기 마커 및 객체를 이용하여 증강 현실 콘텐츠를 생성하는 단계를 포함하고, 상기 이동 단말의 화면에 상기 마커가 디스플레이되는 경우, 상기 이동 단말은 상기 생성한 증강 현실 콘텐츠를 구동하여 상기 객체를 상기 이동 단말의 화면에 디스플레이하는 것인 이동 단말 환경에서 증강 현실 콘텐츠를 저작하는 방법을 제공할 수 있다.
본 발명의 제 1 측면에서, (d) 상기 하나 이상의 영상이 생성된 위치의 정보를 획득하는 단계를 더 포함하며, 상기 위치 정보는 상기 증강 현실 콘텐츠에 포함되어 상기 객체와 함께 이동 단말의 화면에 디스플레이될 수 있다.
본 발명의 제 1 측면에서, 상기 (b) 단계는 (b1) 상기 이동 단말의 저장 장치에 미리 저장된 객체, 상기 이동 단말에 포함된 텍스트 입력 장치를 통해 입력된 텍스트 또는 상기 이동 단말에 포함된 영상 촬영 장치를 통해 촬영된 객체 중에서 상기 마커에 매칭되는 객체를 선택하는 단계 및 (b2) 상기 선택된 객체가 상기 이동 단말의 화면에 디스플레이되는 경우의 위치, 방향, 크기 및 그림자 중 적어도 하나를 설정하는 단계를 포함할 수 있으며, (b3) 상기 생성한 증강 현실 콘텐츠의 구동 시 상기 객체가 상기 이동 단말의 화면 내에서 이동하는 경로를 설정하는 단계를 포함할 수 있다.
본 발명의 제 2 측면은 특정 형상에 대한 하나 이상의 정지 영상을 생성하는 카메라부, 상기 생성한 하나 이상의 정지 영상으로부터 마커를 획득하는 마커 획득부, 상기 획득된 마커에 매칭되는 객체를 선택하는 객체 선택부 및 상기 마커가 화면에 노출되는 것에 응답하여 상기 객체를 제공하는 증강 현실 콘텐츠를 생성하는 콘텐츠 생성부를 포함하는 이동 단말 환경에서의 증강 현실 콘텐츠 저작 시스템을 제공할 수 있다.
본 발명의 제 2 측면에서, 상기 하나 이상의 정지 영상이 생성된 위치에 대한 정보를 획득하는 위치 정보 획득부를 더 포함하고, 상기 생성된 증강 현실 콘텐츠는 상기 객체와 함께 상기 위치 정보를 제공할 수 있다.
본 발명의 제 2 측면에서, 상기 증강 현실 콘텐츠 저작 시스템은 상기 획득한 마커 또는 상기 생성한 증강 현실 콘텐츠를 무선 네트워크를 통해 다른 단말과 공유하는 협업 수행부를 더 포함하고, 상기 이동 단말은 상기 마커 또는 증강 현실 콘텐츠의 공유를 통해 다른 단말과 증강 현실 콘텐츠의 생성을 위한 작업을 공유할 수 있다.
또한, 본 발명의 제 2 측면에서, 상기 객체 선택부는 상기 카메라부에 의해 생성된 정지 영상에 포함된 이미지를 상기 마커에 매칭되는 객체로 선택할 수 있다.
본 발명의 제 3 측면은 마커 획득을 위하여 이동 단말의 촬영부에 의해 생성된 하나 이상의 이미지를 디스플레이하는 촬상 이미지 제공부, 획득된 마커에 대한 객체를 선택하는 수단을 제공하는 객체 선택 제공부 및 선택된 객체의 이동 경로를 포함하는 속성을 설정하는 수단을 제공하는 객체 속성 설정 제공부를 포함하는 증강 현실 콘텐츠 저작을 위한 이동 단말 인터페이스를 제공할 수 있다.
본 발명의 제 3 측면에서, 상기 객체 선택 제공부는 선택된 객체에 대한 위치, 방향, 크기 및 그림자 중 적어도 하나를 설정하기 위한 시각적 큐를 제공할 수 있으며, 상기 설정되는 이동 경로는 스타일러스 펜을 통해 상기 객체 속성 설정 제공부에 의해 제공되는 영역에 입력될 수 있다.
전술한 본 발명의 과제 해결 수단에 의하면, 사용자가 이동 단말을 이용하여 현장에서 마커를 획득하고, 획득한 마커에 매칭되는 객체를 선택하고 조작하여 마커를 획득한 현장에서 증강 현실 콘텐츠를 용이하게 저작할 수 있다.
또한, 전술한 본 발명의 과제 해결 수단에 의하면, 현장에서 마커를 획득하는 경우 마커를 획득한 현장의 위치 정보를 함께 획득하고, 증강 현실 콘텐츠에 획득한 위치 정보를 포함하므로, 사용자는 증강 현실 콘텐츠를 통해 마커가 획득된 위치 정보를 함께 제공받을 수 있다. 이로 인하여, 위치 정보와 마커 인식을 통해 획득한 정보를 이용하여, 사용자의 주위 환경이 보다 정확히 파악되고, 이를 통해 보다 정확한 증강 현실 정보가 사용자에게 제공될 수 있다.
또한, 전술한 본 발명의 과제 해결 수단에 의하면, 사용자는 현장에서 획득한 마커 또는 저작한 증강 현실 콘텐츠를 이동 단말의 무선 네트워크 기능을 이용하여 다른 장소에 있는 단말과 공유할 수 있으므로, 마커를 획득한 현장에서도 다른 장소의 단말과 협업을 수행하여 증강 현실 콘텐츠를 저작할 수 있다.
도 1은 본 발명의 일 실시예에 따른 이동 단말 환경에서의 증강 현실 콘텐츠 저작 시스템을 도시한 도면,
도 2는 본 발명의 일 실시예에 따른 이동 단말 환경에서의 증강 현실 콘텐츠 저작 방법의 흐름을 도시한 순서도,
도 3은 본 발명의 일 실시예에 따른 증강 현실 콘텐츠 저작을 위한 이동 단말의 구성을 도시한 블록도,
도 4는 본 발명의 일 실시예에 따른 증강 현실 콘텐츠 저작 방법에서 사용자에게 제공되는 하나 이상의 정지 영상 중 마커 획득 대상인 정지 영상을 선택하는 방법의 예시를 도시하는 도면,
도 5는 본 발명의 일 실시예에 따른 증강 현실 콘텐츠 저작 방법에서 증강 현실 콘텐츠에서 마커에 매칭되어 제공되는 객체를 선택하고 조작하는 방법의 예시를 도시한 도면.
도 2는 본 발명의 일 실시예에 따른 이동 단말 환경에서의 증강 현실 콘텐츠 저작 방법의 흐름을 도시한 순서도,
도 3은 본 발명의 일 실시예에 따른 증강 현실 콘텐츠 저작을 위한 이동 단말의 구성을 도시한 블록도,
도 4는 본 발명의 일 실시예에 따른 증강 현실 콘텐츠 저작 방법에서 사용자에게 제공되는 하나 이상의 정지 영상 중 마커 획득 대상인 정지 영상을 선택하는 방법의 예시를 도시하는 도면,
도 5는 본 발명의 일 실시예에 따른 증강 현실 콘텐츠 저작 방법에서 증강 현실 콘텐츠에서 마커에 매칭되어 제공되는 객체를 선택하고 조작하는 방법의 예시를 도시한 도면.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1은 본 발명의 일 실시예에 따른 이동 단말 환경에서의 증강 현실 콘텐츠 저작 시스템을 도시한 도면이다.
본 발명의 일 실시예에 따른 증강 현실 콘텐츠 저작 시스템에서 사용자는 증강 현실 콘텐츠 저작 인터페이스를 포함하는 이동 단말(100)을 이용하여 증강 현실 콘텐츠를 저작하고, 유선 또는 무선 네트워크를 통해 저작한 증강 현실 콘텐츠 또는 저작 과정에 있는 콘텐츠를 하나 이상의 단말과 공유하여 하나 이상의 단말과 협업을 수행할 수 있는 환경을 구축할 수 있다.
즉, 이동 단말(100)은 포함된 카메라를 통해 마커(21)로 등록하기 위한 현실의 형상(10)에 대한 이미지를 획득한다. 이동 단말(100)은 현실의 형상(10)에 대한 이미지를 획득하는 경우, 형상(10)을 획득한 위치에 대한 정보를 위성(31) 또는 기지국(32) 등을 통해 GPS(global positioning system), 이동 통신 시스템 등으로부터 수신할 수 있다.
이동 단말(100)은 획득한 형상(10)의 이미지를 마커(21)로 등록하고, 마커(21)에 대한 객체(22)를 매칭시켜 증강 현실 콘텐츠(23)를 저작한다. 마커(21)에 매칭되는 객체(22)는 사용자의 입력에 의해 크기, 회전 여부 또는 이동 경로 등의 속성이 부여될 수 있다.
또한, 이동 단말(100)은 저작하는 증강 현실 콘텐츠(23)에 GPS, 이동 통신 시스템 등으로부터 수신한 위치 정보를 포함시킬 수 있다.
이동 단말(100)은 저작한 증강 현실 콘텐츠(23) 또는 현실의 형상(10)으로부터 획득한 마커(21), 위치 정보 등을 유선 또는 무선 네트워크를 통해 증강 현실 콘텐츠의 저작이 가능한 하나 이상의 단말(210 내지 230)과 공유하여, 증강 현실 콘텐츠의 저작을 위한 협업 환경을 구축할 수 있다.
본 발명의 일 실시예에서, 이동 단말(100)은 증강 현실 콘텐츠 저작 인터페이스를 포함하는 UMPC(ultra mobile PC), 스마트폰(smartphone), PDA(personal digital assistant) 등 휴대 기능이 강화된 단말을 포함할 수 있다.
또한, 이동 단말(100)과 증강 현실 콘텐츠 저작의 협업 환경을 구축하는 하나 이상의 단말(210 내지 230)는 UMPC(ultra mobile PC), 스마트폰, PDA(personal digital assistant) 등의 이동 단말뿐만 아니라 노트북(notebook), 데스크톱(desktop) 등의 단말도 포함할 수 있다.
도 2는 본 발명의 일 실시예에 따른 이동 단말 환경에서의 증강 현실 콘텐츠 저작 방법의 흐름을 도시한 순서도이다.
단계(S105)에서, 이동 단말은 구비된 카메라 등을 이용하여 증강 현실 콘텐츠에 포함될 현실 세계의 형상에 대한 영상을 촬영한다. 이동 단말은 형상에 대한 정지 영상 또는 동영상을 촬영할 수 있다.
이동 단말은 형상에 대한 하나의 정지 영상뿐만 아니라 다양한 각도의 형상에 대한 다수의 정지 영상을 획득할 수 있다. 또한, 형상에 대한 동영상이 촬영된 경우, 이동 단말은 촬영된 동영상으로부터 하나 이상의 정지 영상을 획득할 수 있다.
이동 단말은 형상에 대한 영상의 촬영과 함께, 형상이 위치한 위치 정보를 GPS(global positioning system) 또는 이동 통신 시스템 등으로부터 획득할 수 있다. 예를 들어, 특정 음식점의 간판에 대한 영상을 촬영하는 경우, 이동 단말은 특정 음식점의 간판에 대한 영상과 함께, 특정 음식점의 위치에 대한 정보를 GPS 또는 이동 통신 시스템 등으로부터 획득할 수 있다.
단계(S110)에서, 이동 단말은 단계(S105)에서 획득한 영상을 분석하여 증강 현실 콘텐츠에 포함될 마커를 획득한다. 이동 단말은 단계(S105)에서 획득한 하나 이상의 정지 영상을 사용자에게 제공할 수 있으며, 사용자에 의해 선택된 하나 이상의 정지 영상을 분석하여 정지 영상에 포함된 마커를 획득할 수 있다.
사용자에게 하나 이상의 정지 영상을 제공하는 구체적인 실시예에 대하여 도 4를 참조하여 아래에서 설명한다.
도 4는 본 발명의 일 실시예에 따른 증강 현실 콘텐츠 저작 방법에서 사용자에게 제공되는 하나 이상의 정지 영상 중 마커 획득 대상인 정지 영상을 선택하는 방법의 예시를 도시하는 도면이다.
도 4의 (a)에서, 이동 단말은 사용자에게 4 방위에 해당하는 방향 선택 버튼(41)을 제공하고, 사용자에 의해 선택된 방향 선택 버튼(41)에 대응하는 정지 영상을 화면에 디스플레이한다.
즉, 이동 단말은 다양한 각도에서의 마커가 촬영된 하나 이상의 영상들을 마커에 대한 카메라 위치를 기준으로 4방위로 설정하고, 사용자에 의한 방향 선택 버튼(41)의 입력에 응답하여 사용자가 원하는 각도의 마커를 포함하는 영상을 제공하여, 사용자가 원하는 방향의 마커를 정밀하게 제공할 수 있다.
도 4의 (b)에서, 이동 단말은 획득한 하나 이상의 영상(21-1 내지 21-5)을 마커가 디스플레이되는 화면에 포함된 또 다른 창을 통해 추가적으로 제공할 수 있다. 이 경우 하나 이상의 영상(21-1 내지 21-5)이 정렬되어 화면에 디스플레이되기 때문에, 사용자는 다양한 각도를 갖는 마커를 포함하는 하나 이상의 영상을 한꺼번에 보며 원하는 각도의 영상을 선택할 수 있다.
단계(S115)에서, 이동 단말은 단계(S110)에서 획득한 마커를 등록한다. 이동 단말은 등록한 마커를 마커 저장을 위한 메모리 등의 저장부에 저장할 수 있다.
단계(S120)에서, 이동 단말은 단계(S115)에서 등록한 마커를 외부의 단말과 공유할 것인지 여부를 판단한다.
즉, 이동 단말은 등록한 마커를 외부의 단말과 무선 네트워크를 이용하여 공유하고, 외부의 단말과의 협업을 통해 증강 현실 콘텐츠를 저작할 것인지 여부를 판단한다. 이동 단말은 공유 여부에 대한 선택을 사용자로부터 입력 받아 등록한 마커의 공유 여부를 판단할 수 있다.
단계(S125)에서, 단계(S120)에서 등록한 마커를 외부의 단말과 공유하는 것으로 판단된 경우, 이동 단말은 단계(S115)에서 등록한 마커를 무선 네트워크 등을 통해 외부의 단말로 전송한다.
등록한 마커의 전송 대상이 되는 외부의 단말은 미리 설정될 수 있으며, 또는 사용자가 마커 공유 여부의 확인과 함께 공유하고자 하는 외부 단말의 정보를 입력하여 마커 전송 대상 단말을 설정할 수도 있다.
단계(S130)에서, 이동 단말은 단계(S115)에서 등록한 마커에 매칭되어 증강 현실 콘텐츠에 포함될 객체를 선택하고, 선택된 객체를 조작하여 객체의 위치, 회전, 크기, 그림자 등을 설정한다.
이하에서, 도 5를 참조하여, 본 발명의 일 실시예에 따른 객체의 조작에 대하여 설명하도록 한다.
도 5는 본 발명의 일 실시예에 따른 증강 현실 콘텐츠 저작 방법에서 증강 현실 콘텐츠에서 마커에 매칭되어 제공되는 객체를 선택하고 조작하는 방법의 예시를 도시한 도면이다.
본 발명의 일 실시예에서, 기본적으로 텍스트, 2차원 이미지, 3D 메시(mesh)를 이용한 객체 증강이 제공될 수 있다. 객체의 등록의 경우, 텍스트의 경우 자판을 이용한 입력 또는 문자 인식 등의 기능을 이용한 직관적인 입력이 가능하며, 2차원 또는 3차원 객체는 웹 등을 통하여 다운로드 받거나, 이동 단말에 미리 저장된 파일을 직접 선택하여 불러올 수도 있다.
특히 2차원 객체의 경우, 콘텐츠 저작 과정에서 이동 단말이 사진을 촬영하여 현장에서 획득될 수 있다. 예를 들어, 특정 음식점의 간판을 마커로 등록한 경우, 해당 음식점의 대표 음식의 이미지를 촬영하여 등록한 마커의 객체로 선택할 수 있다.
따라서, 도 5의 (a)에 도시된 바와 같이, 사용자는 등록한 마커(21)에 대해 증강된 객체로서 이동 단말에 미리 저장된 3차원 객체(22)를 선택할 수 있다.
이동 단말은 마커(21)에 대하여 선택된 3차원 객체(22)의 이동, 회전, 크기 변환 또는 그림자 설정을 위한 조작을 사용자에게 제공할 수 있다.
일반적으로, 3차원 공간에 대한 증강된 객체들의 조작은 이동, 회전 및 크기 변경을 포함할 수 있다. 그러나 모바일 환경에서 조작을 할 경우, 모바일 환경의 특성상 사용자는 이동 단말에 구비된 2차원 디스플레이에 대해 간단한 터치(touch), 드래그(drag) 등만을 사용하여 3차원 공간에 대한 객체들의 조작을 수행할 수 있어야 한다.
따라서, 본 발명의 일 실시예에서 조작할 객체가 선택된 후, 이동 단말은 사용자가 조작 가능한 속성, 예를 들어 이동, 회전 크기 변환 등을 메뉴에서 선택하여 제어할 수 있도록 사용자에게 시각적 큐를 제공할 수 있다.
이처럼 제공되는 시각적 큐를 이용하여 사용자는 객체의 위치를 설정할 수 있다. 즉, 도 5의 (b)에 도시된 바와 같이, 사용자는 이동 단말의 2차원 화면에서의 시각적 큐를 이용하여 축(42)을 선택하고 마커(21)에 대한 객체(22)의 위치를 선택할 수 있으며, 이동 단말은 화면상에 클릭되거나 드래그되는 좌표 값들을 3차원 공간의 좌표 값으로 변환하여 사용자가 원하는 위치에 객체(22)를 배치한다.
또한, 사용자는 객체를 회전시켜 화면상에 나타나는 객체의 방향을 설정할 수 있다. 증강 객체들 중에서 텍스트, 이미지 등과 같은 객체들은 콘텐츠 저작에 있어 정보 제공의 역할을 수행할 수 있다.
이처럼 정보 제공의 목적으로 증강 현실 콘텐츠가 저작될 경우, 객체들이 화면에서 항상 사용자를 바라보는 것이 정보 제공의 효율성을 높일 수 있다.
따라서, 도 5의 (c)에 도시된 바와 같이, 본 발명의 일 실시예에서 이동 단말은 사용자가 객체(22)에 대한 회전을 설정할 수 있도록 객체(22)에 대한 회전 축(43)을 제공할 수 있으며, 특히 이미지, 텍스트와 같은 객체에 대하여 사용자는 빌보드(billboard) 여부를 지정하여 이동 단말의 카메라가 어떠한 각도에서 마커(21)를 향하던 간에 사용자가 저작물, 즉 객체를 정면에서 바라볼 수 있도록 마커(21)에 대한 객체(22)를 설정할 수 있다.
또한, 도 5의 (d)에 도시된 바와 같이, 본 발명의 일 실시예에서 이동 단말은 객체(22)의 크기를 설정할 수 있는 크기 변환 툴(44)을 제공할 수 있으며, 사용자는 이러한 크기 변환 툴(44)을 이용하여 마커(21)에 대한 객체(22)의 상대적인 크기를 설정할 수 있다.
본 발명의 일 실시예에서, 이동 단말은 객체에 대한 그림자 효과를 설정할 수도 있다. 컴퓨터 그래픽에서 그림자는 공간 인지, 몰입, 사실성에 큰 역할을 하며, 실제와 가상이 혼합되는 증강 현실의 경우에는 더더욱 그러하다.
따라서, 도 5의 (e)에 도시된 바와 같이 본 발명의 일 실시예에서, 이동 단말은 객체(22)에 대해 그림자(45)를 설정할 수 있는 기능을 제공할 수 있으며, 이처럼 객체에 설정된 그림자(45)는 3차원 공간 인지 및 사실성을 향상시킬 수 있다.
단계(S135)에서, 이동 단말은 객체의 속성, 예를 들어 객체의 이동 경로 정보 또는 회전 정보 등을 설정한다.
저작되는 증강 현실 콘텐츠에 포함된 객체는 마커에 대하여 일정한 위치에 고정되도록 설정될 수도 있으나, 이동 단말의 이동 등으로 인해 객체의 위치의 변화가 수행되어야만 하는 경우가 발생할 수 있다. 또한, 증강 현실 콘텐츠에 대한 흥미도 또는 몰입도를 향상시키기 위하여, 마커에 대하여 객체가 시간의 경과에 따라 일정한 경로를 이동하는 것이 요구될 수도 있으며, 3차원 형상인 객체가 임의의 방향으로 회전하는 것이 요구될 수 있다.
이처럼 객체의 시간에 따른 이동을 위하여 객체가 움직일 경로의 지정이 필요하다. 본 발명의 일 실시예에서, 마커 및 객체가 이동 단말의 화면에 디스플레이된 상태에서 사용자로부터 경로가 입력되어 객체의 이동 경로가 설정되는 방법을 제공하며, 특히 아래와 같은 두 가지의 방법을 제공할 수 있다.
첫 번째로, 이동 단말은 사용자가 직접 스타일러스 펜 등을 이용하여 이동 단말의 화면에 입력한 이동 경로를 이용하여 객체의 이동 경로를 설정할 수 있다. 이동 단말은 화면 등을 통해 입력받은 이동 경로의 2차원 공간의 좌표 값을 화면에 표시된 마커를 기준하는 3차원 공간의 좌표에 매칭하여 이동 경로의 좌표를 설정할 수 있다.
이처럼 화면을 통해 사용자로부터 이동 경로를 입력 받는 경우, 이동 단말은 사용자가 경로를 입력하는 속도와 경로상에서의 객체의 이동 속도를 동일하게 설정할 수 있다.
두 번째로, 이동 단말은 스플라인 알고리즘, 특히 베이지어 스플라인 알고리즘을 적용하여 정밀한 객체의 이동 경로를 설정할 수 있다. 스플라인 알고리즘을 이용한 이동 경로 설정 방법에서, 사용자는 이동 단말의 마커 및 객체가 디스플레이된 화면에 대하여 컨트롤 포인트를 지정하여 입력하고, 이동 단말은 입력된 컨트롤 포인트들의 위치를 고려하여 부드러운 곡선을 생성하여 객체의 이동 경로를 설정할 수 있다. 이처럼 사용자가 지정한 컨트롤 포인트를 기준으로 이동 경로를 설정하는 경우, 사용자가 원하는 부드러운 곡선을 객체의 이동 경로로 설정할 수 있다.
단계(S140)에서, 이동 단말은 단계(S115)에서 등록한 마커 및 단계(S130)에서 조작되고 단계(S135)에서 속성이 설정된 객체를 이용하여 증강 현실 콘텐츠를 저작한다.
즉, 이동 단말은, 단계(S115)에서 등록한 마커가 이동 단말의 카메라 등을 통해 이동 단말의 화면에 디스플레이되는 경우, 이에 응답하여 단계(S130) 및 단계(S135)에서 설정된 객체가 디스플레이되는 증강 현실 콘텐츠를 생성한다.
단계(S145)에서, 이동 단말은 단계(S140)에서 생성한 증강 현실 콘텐츠를 외부의 단말과 공유할 것인지 여부를 판단한다.
즉, 이동 단말은 생성한 증강 현실 콘텐츠를 외부의 단말과 무선 네트워크를 이용하여 공유하고, 외부의 단말과의 협업을 통해 단계(S140)에서 생성한 증강 현실 콘텐츠의 수정 등을 수행할 것인지 여부를 판단한다.
단계(S150)에서, 단계(S145)에서 증강 현실 콘텐츠를 외부의 단말과 공유하는 것으로 판단된 경우, 이동 단말은 단계(S140)에서 저작된 증강 현실 콘텐츠를 무선 네트워크 등을 통해 외부의 단말로 전송한다.
증강 현실 콘텐츠의 전송 대상이 되는 외부의 단말은 미리 설정될 수 있으며, 또는 사용자가 증강 현실 콘텐츠 공유 여부의 확인과 함께 공유하고자 하는 외부 단말의 정보를 입력하여 증강 현실 콘텐츠 전송 대상 단말을 설정할 수도 있다.
이처럼 본 발명의 일 실시예에 따르면, 이동 단말은 Wi-Fi, 블루투스, 적외선 통신과 같은 무선 네트워크를 통해 생성한 증강 현실 콘텐츠를 다른 단말로 전송하고 협업을 수행하여 증강 정보를 수정함으로써, 현장에 없는 사용자도 증강 현실 콘텐츠의 저작에 참여할 수 있게 된다.
도 3은 본 발명의 일 실시예에 따른 증강 현실 콘텐츠 저작을 위한 이동 단말의 구성을 도시한 블록도이다.
본 발명의 일 실시예에 따른 증강 현실 콘텐츠 저작을 위한 이동 단말(100)은 카메라부(110), 마커 획득부(120), 마커 등록부(130), 객체 선택부(140), 객체 속성 부여부(150), 위치 정보 획득부(160), 콘텐츠 생성부(170), 협업 수행부(180), 마커 데이터베이스(131), 객체 데이터베이스(141) 및 콘텐츠 데이터베이스(171)를 포함한다.
카메라부(110)는 증강 현실 콘텐츠에 포함될 현실 세계의 형상에 대한 영상을 촬영하고, 촬영한 영상을 마커 획득부(120)에 제공한다. 또한, 카메라부(110)는 사용자로부터 현실 세계의 형상에 대한 영상 촬영 요청을 수신하였음을 위치 정보 획득부(160)에 전송할 수 있다.
카메라부(110)는 현실 세계의 형상을 정지 영상 또는 동영상으로 촬영할 수 있으며, 동영상으로 형상을 촬영한 경우, 동영상으로부터 형상에 대한 정지 영상을 획득하여 마커 획득부(120)에 제공할 수 있다.
마커 획득부(120)는 카메라부(110)로부터 수신한 영상을 분석하여 증강 현실 콘텐츠에 포함될 마커를 획득한다. 즉, 마커 획득부(120)는 카메라부(110)로부터 획득한 하나 이상의 정지 영상을 사용자에게 제공하고, 사용자는 제공된 이미지를 이용하여 마커로 사용될 형상을 포함하는 이미지를 선택하고, 마커 획득부(120)가 사용자에 의해 선택된 형상의 이미지를 분석하여 증강 현실 콘텐츠에 포함될 마커를 획득할 수 있다.
마커 등록부(130)는 마커 획득부(120)에 의해 획득된 마커를 마커 데이터베이스(131)에 저장하여 획득한 마커를 등록한다. 마커 획득부(120)에 의해 획득된 마커에 대한 명칭을 사용자로부터 별도로 입력 받은 경우, 마커 등록부(130)는 입력 받은 명칭을 마커에 매칭시켜 마커 데이터베이스(131)에 저장시켜 마커를 등록시킬 수 있다.
객체 선택부(140)는 객체 선택을 위한 사용자의 입력을 수신하여 증강 현실 콘텐츠에 포함된 객체를 선택한다. 객체 선택부(140)는 객체 데이터베이스(141)에 저장된 객체, 사용자에 의해 입력된 텍스트 등의 객체 또는 마커 획득과 별도로 카메라부(110)에 의해 획득된 영상으로부터 추출된 객체 중에서 사용자가 선택한 객체를 증강 현실 콘텐츠에 이용될 객체로 선택할 수 있다.
또한, 객체 선택부(140)는 선택한 객체의 위치, 방향, 크기 또는 그림자 여부 등을 설정한다. 즉, 객체 선택부(140)는 객체의 위치, 방향, 크기, 그림자 설정 등을 위한 메뉴 등을 사용자에게 제공하고, 제공된 메뉴를 통한 사용자의 입력에 응답하여 선택된 객체의 위치, 방향, 크기 또는 그림자 등을 설정할 수 있다.
객체 속성 부여부(150)는 객체 선택부(140)에 의해 선택되고 위치, 크기 등이 조작된 객체의 속성, 예를 들어 객체의 이동 경로 등을 설정한다. 객체 속성 부여부(150)는 이동 단말(100)에 포함된 터치 스크린(도시 생략) 등을 통해 사용자로부터 이동 경로를 직접 입력 받을 수 있다.
이러한 경우, 사용자는 스타일러스 펜 등을 이용하여 이동 단말(100)의 터치 스크린 등에 이동 경로를 직접 그려서 입력할 수 있고, 객체 속성 부여부(150)는 사용자기 입력한 이동 경로를 객체의 이동 경로로 설정할 수 있다.
또한, 객체 속성 부여부(150)는 사용자에 의해 입력된 컨트롤 포인트를 이용하여 직선, 곡선 등의 연속된 선을 생성하고, 생성한 연속된 선을 객체의 이동 경로로 설정할 수 있다.
위치 정보 획득부(160)는 카메라부(110)로부터 수신한 사용자의 현실 세계의 형상에 대한 영상 촬영 요청에 대응하여 현실 세계의 형상에 대한 영상 촬영이 요청될 당시의 이동 단말(100)의 위치에 대한 정보를 획득한다. 위치 정보 획득부(160)는 GPS(global positioning system), 이동 통신 시스템 등을 이용하여 이동 단말(100)의 위치 정보를 획득할 수 있다.
콘텐츠 생성부(170)는 마커 등록부(130)에 의해 마커 데이터베이스(131)에 저장된 마커 및 객체 선택부(140)에 의해 선택되고 조작되어 객체 속성 부여부(150)에 의해 속성이 설정된 객체를 이용하여 증강 현실 콘텐츠를 생성한다.
콘텐츠 생성부(170)는 위치 정보 획득부(160)에 의해 획득된 위치 정보를 생성한 증강 현실 콘텐츠에 포함시킬 수 있다. 증강 현실 콘텐츠에 포함된 위치 정보는 이동 단말(100)의 카메라에 의해 촬영된 마커에 대응하여 증강 현실 콘텐츠가 제공되는 경우, 즉 객체가 이동 단말(100)의 화면에 디스플레이될 때 함께 디스플레이될 수 있다. 이처럼 마커에 매칭되어 증강 현실 콘텐츠에서 제공되는 위치 정보를 통해 사용자는 해당 마커가 어떤 장소에서 획득되었는지를 파악할 수 있다.
상기 위치 정보는 동일한 마커가 여러 지역에 존재하는 경우, 각각의 마커가 어떠한 지역에서 획득되었는지를 식별할 수 있다. 따라서, 증강 현실을 구현함에 있어 마커에 부속되어 있는 위치 정보에 기반하여 특정 위치의 마커에 대응하는 증강 현실 콘텐츠의 객체를 디스플레이 할수 있다.
콘텐츠 생성부(170)는 생성한 증강 현실 콘텐츠를 콘텐츠 데이터베이스(171)에 저장한다.
협업 수행부(180)는 마커 등록부(130)에 의해 등록되어 마커 데이터베이스(131)에 저장된 마커 또는 콘텐츠 생성부(170)에 의해 생성되어 콘텐츠 데이터베이스(171)에 저장된 증강 현실 콘텐츠를 미리 설정된 단말로 전송하거나 또는 사용자에 의해 입력된 정보에 매칭되는 단말로 전송한다.
협업 수행부(180)는 이동 단말(100)과 마커 또는 증강 현실 콘텐츠를 공유하는 외부의 단말로 마커 또는 증강 현실 콘텐츠를 전송할 뿐만 아니라, 외부 단말로부터 마커 또는 증강 현실 콘텐츠를 수신하고, 수신한 마커 또는 증강 현실 콘텐츠를 사용자에게 제공할 수 있다.
이를 통해, 사용자는 수신한 마커를 이용하여 증강 현실 콘텐츠를 저작하거나 수신한 증강 현실 콘텐츠를 수정하여 보다 보완된 증강 현실 콘텐츠를 저작할 수 있으며, 저작하거나 수정한 증강 현실 콘텐츠를 다시 공유하여 이동 단말(100)의 사용자는 현재 현장에 있지 않은 사용자와 협업을 통해 증강 현실 콘텐츠를 생성할 수 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍처를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
10 : 현실 세계의 형상
21 : 마커
22 : 객체
23 : 증강 현실 콘텐츠
100 : 이동 단말
21 : 마커
22 : 객체
23 : 증강 현실 콘텐츠
100 : 이동 단말
Claims (15)
- 이동 단말 환경에서 증강 현실 콘텐츠를 저작하는 방법에 있어서,
(a) 이동 단말이 촬영한 하나 이상의 영상으로부터 마커를 획득하는 단계,
(b) 상기 마커에 매칭되는 객체를 설정하는 단계 및
(c) 상기 마커 및 객체를 이용하여 증강 현실 콘텐츠를 생성하는 단계
를 포함하고,
상기 이동 단말의 화면에 상기 마커가 디스플레이되는 경우, 상기 이동 단말은 상기 생성한 증강 현실 콘텐츠를 구동하여 상기 객체를 상기 이동 단말의 화면에 디스플레이하는 것인 증강 현실 콘텐츠 저작 방법.
- 제 1 항에 있어서,
(d) 상기 하나 이상의 영상이 생성된 위치의 정보를 획득하는 단계
를 더 포함하며,
상기 위치 정보는 상기 증강 현실 콘텐츠에 포함되어 상기 객체와 함께 이동 단말의 화면에 디스플레이되는 것인 증강 현실 콘텐츠 저작 방법.
- 제 1 항에 있어서,
상기 (a) 단계는,
(a1) 상기 이동 단말이 동일한 형상을 다양한 각도에서 촬영한 하나 이상의 영상을 획득하는 단계,
(a2) 상기 하나 이상의 영상 및 상기 하나 이상의 영상에 대한 선택 메뉴를 사용자에게 제공하는 단계 및
(a3) 상기 제공된 하나 이상의 영상 중에서 상기 선택 메뉴를 통한 입력에 기초하여 선택된 영상으로부터 마커를 획득하는 단계
를 포함하는 것인 증강 현실 콘텐츠 저작 방법.
- 제 1 항에 있어서,
상기 (b) 단계는,
(b1) 상기 이동 단말의 저장 장치에 미리 저장된 객체, 상기 이동 단말에 포함된 텍스트 입력 장치를 통해 입력된 텍스트 또는 상기 이동 단말에 포함된 영상 촬영 장치를 통해 촬영된 객체 중에서 상기 마커에 매칭되는 객체를 선택하는 단계 및
(b2) 상기 선택된 객체가 상기 이동 단말의 화면에 디스플레이되는 경우의 위치, 방향, 크기 및 그림자 중 적어도 하나를 설정하는 단계
를 포함하는 것인 증강 현실 콘텐츠 저작 방법.
- 제 1 항이 있어서,
상기 (b) 단계는,
(b3) 상기 생성한 증강 현실 콘텐츠의 구동 시 상기 객체가 상기 이동 단말의 화면 내에서 이동하는 경로를 설정하는 단계
를 포함하는 것인 증강 현실 콘텐츠 저작 방법.
- 제 1 항에 있어서,
(d) 상기 획득한 마커 또는 상기 생성한 증강 현실 콘텐츠를 무선 네트워크를 통하여 다른 단말과 공유하는 단계
를 더 포함하는 증강 현실 콘텐츠 저작 방법.
- 이동 단말 환경에서의 증강 현실 콘텐츠 저작 시스템에 있어서,
특정 형상에 대한 하나 이상의 정지 영상을 생성하는 카메라부,
상기 생성한 하나 이상의 정지 영상으로부터 마커를 획득하는 마커 획득부,
상기 획득된 마커에 매칭되는 객체를 선택하는 객체 선택부 및
상기 마커가 화면에 노출되는 것에 응답하여 상기 객체를 제공하는 증강 현실 콘텐츠를 생성하는 콘텐츠 생성부
를 포함하는 증강 현실 콘텐츠 저작 시스템.
- 제 7 항에 있어서,
상기 하나 이상의 정지 영상이 생성된 위치에 대한 정보를 획득하는 위치 정보 획득부
를 더 포함하고,
상기 생성된 증강 현실 콘텐츠는 상기 객체와 함께 상기 위치 정보를 제공하는 것인 증강 현실 콘텐츠 저작 시스템.
- 제 7 항에 있어서,
상기 획득한 마커 또는 상기 생성한 증강 현실 콘텐츠를 무선 네트워크를 통해 다른 단말과 공유하는 협업 수행부
를 더 포함하고,
상기 이동 단말은 상기 마커 또는 증강 현실 콘텐츠의 공유를 통해 다른 단말과 증강 현실 콘텐츠의 생성을 위한 작업을 공유하는 것인 증강 현실 콘텐츠 저작 시스템.
- 제 7 항에 있어서,
상기 마커의 위치에 대한 상기 객체의 상대적인 이동 경로를 설정하는 객체 속성 부여부
를 더 포함하는 증강 현실 콘텐츠 저작 시스템.
- 제 7 항에 있어서,
상기 객체 선택부는 상기 카메라부에 의해 생성된 정지 영상에 포함된 이미지를 상기 마커에 매칭되는 객체로 선택하는 것인 증강 현실 콘텐츠 저작 시스템.
- 제 7 항에 있어서,
상기 객체 선택부는 상기 선택된 객체의 위치, 방향, 크기 및 그림자 중 적어도 하나를 설정하는 것인 증강 현실 콘텐츠 저작 시스템.
- 증강 현실 콘텐츠 저작을 위한 이동 단말 인터페이스에 있어서,
마커 획득을 위하여 이동 단말의 촬영부에 의해 생성된 하나 이상의 이미지를 디스플레이하는 촬상 이미지 제공부,
획득된 마커에 대한 객체를 선택하는 수단을 제공하는 객체 선택 제공부 및
선택된 객체의 이동 경로를 포함하는 속성을 설정하는 수단을 제공하는 객체 속성 설정 제공부
를 포함하는 이동 단말 인터페이스.
- 제 13 항에 있어서,
상기 객체 선택 제공부는 선택된 객체에 대한 위치, 방향, 크기 및 그림자 중 적어도 하나를 설정하기 위한 시각적 큐를 제공하는 것인 이동 단말 인터페이스.
- 제 13 항에 있어서,
상기 설정되는 이동 경로는 스타일러스 펜을 통해 상기 객체 속성 설정 제공부에 의해 제공되는 영역에 입력되는 것인 이동 단말 인턴페이스.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100071594A KR20120010041A (ko) | 2010-07-23 | 2010-07-23 | 이동 단말 환경에서 증강 현실 콘텐츠를 저작하는 방법 및 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100071594A KR20120010041A (ko) | 2010-07-23 | 2010-07-23 | 이동 단말 환경에서 증강 현실 콘텐츠를 저작하는 방법 및 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20120010041A true KR20120010041A (ko) | 2012-02-02 |
Family
ID=45834728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100071594A KR20120010041A (ko) | 2010-07-23 | 2010-07-23 | 이동 단말 환경에서 증강 현실 콘텐츠를 저작하는 방법 및 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20120010041A (ko) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101578343B1 (ko) * | 2014-08-05 | 2015-12-16 | 주식회사 골프존유원홀딩스 | 모바일 단말기를 이용하여 골프 정보를 제공하는 방법, 사용자의 모바일 단말기를 통해 전송받은 정보를 이용하여 골프 정보를 제공하는 서버의 정보 처리 방법 및 이를 기록한 컴퓨팅 장치에 의해 판독 가능한 기록매체 |
KR20180042589A (ko) * | 2016-10-18 | 2018-04-26 | 디에스글로벌 (주) | 사용자 편집 이미지를 이용한 증강현실 콘텐츠 제공 방법 및 시스템 |
WO2018128472A1 (en) * | 2017-01-05 | 2018-07-12 | Samsung Electronics Co., Ltd. | Virtual reality experience sharing |
KR101879586B1 (ko) * | 2016-12-16 | 2018-07-18 | 경희대학교 산학협력단 | 증강 현실 구현 관리 방법 및 시스템 |
KR20180111970A (ko) * | 2016-03-29 | 2018-10-11 | 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 | 타겟 대상 표시 방법 및 디바이스 |
KR20190056935A (ko) * | 2017-11-17 | 2019-05-27 | 주식회사 코이노 | 휴대단말과 원격관리장치 및 이를 이용한 증강현실 기반 원격 가이던스 방법 |
KR102482053B1 (ko) * | 2021-08-24 | 2022-12-27 | 세종대학교산학협력단 | 증강현실 콘텐츠 저작 방법 및 장치 |
-
2010
- 2010-07-23 KR KR1020100071594A patent/KR20120010041A/ko not_active Application Discontinuation
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101578343B1 (ko) * | 2014-08-05 | 2015-12-16 | 주식회사 골프존유원홀딩스 | 모바일 단말기를 이용하여 골프 정보를 제공하는 방법, 사용자의 모바일 단말기를 통해 전송받은 정보를 이용하여 골프 정보를 제공하는 서버의 정보 처리 방법 및 이를 기록한 컴퓨팅 장치에 의해 판독 가능한 기록매체 |
KR20180111970A (ko) * | 2016-03-29 | 2018-10-11 | 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 | 타겟 대상 표시 방법 및 디바이스 |
US10832086B2 (en) | 2016-03-29 | 2020-11-10 | Tencent Technology (Shenzhen) Company Limiited | Target object presentation method and apparatus |
KR20180042589A (ko) * | 2016-10-18 | 2018-04-26 | 디에스글로벌 (주) | 사용자 편집 이미지를 이용한 증강현실 콘텐츠 제공 방법 및 시스템 |
KR101879586B1 (ko) * | 2016-12-16 | 2018-07-18 | 경희대학교 산학협력단 | 증강 현실 구현 관리 방법 및 시스템 |
WO2018128472A1 (en) * | 2017-01-05 | 2018-07-12 | Samsung Electronics Co., Ltd. | Virtual reality experience sharing |
US10769797B2 (en) | 2017-01-05 | 2020-09-08 | Samsung Electronics Co., Ltd. | Virtual reality experience sharing |
KR20190056935A (ko) * | 2017-11-17 | 2019-05-27 | 주식회사 코이노 | 휴대단말과 원격관리장치 및 이를 이용한 증강현실 기반 원격 가이던스 방법 |
KR102482053B1 (ko) * | 2021-08-24 | 2022-12-27 | 세종대학교산학협력단 | 증강현실 콘텐츠 저작 방법 및 장치 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110168478B (zh) | 表面识别镜头 | |
US11450051B2 (en) | Personalized avatar real-time motion capture | |
US11763481B2 (en) | Mirror-based augmented reality experience | |
CN112243583B (zh) | 多端点混合现实会议 | |
US9142062B2 (en) | Selective hand occlusion over virtual projections onto physical surfaces using skeletal tracking | |
KR101306288B1 (ko) | 가상 객체를 이용한 증강 현실 제공 장치 및 방법 | |
US9161168B2 (en) | Personal information communicator | |
KR20230107655A (ko) | 신체 애니메이션 공유 및 재혼합 | |
EP4238091A1 (en) | Side-by-side character animation from realtime 3d body motion capture | |
KR20120010041A (ko) | 이동 단말 환경에서 증강 현실 콘텐츠를 저작하는 방법 및 시스템 | |
KR101909994B1 (ko) | 나노블럭을 이용한 3d 증강현실 서비스 제공 방법 | |
CN106125937B (zh) | 一种信息处理方法和处理器 | |
Negulescu et al. | Open project: a lightweight framework for remote sharing of mobile applications | |
US20240288946A1 (en) | Shared augmented reality eyewear device with hand tracking alignment | |
US20240345665A1 (en) | Device-to-device collocated ar using hand tracking | |
WO2024182548A1 (en) | Alignment of user devices in a shared extended reality environment based on hand tracking | |
Kang | Design and Implementation of Digital Map Products Contributing GIS Perspective based on Cloud Computing | |
Li | Using Auto-Ordering to Improve Object Transfer between Mobile Devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E601 | Decision to refuse application |