KR102569419B1 - 사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 증강현실 기반 공연 컨텐츠 제공 장치 및 그 동작 방법 - Google Patents
사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 증강현실 기반 공연 컨텐츠 제공 장치 및 그 동작 방법 Download PDFInfo
- Publication number
- KR102569419B1 KR102569419B1 KR1020220045144A KR20220045144A KR102569419B1 KR 102569419 B1 KR102569419 B1 KR 102569419B1 KR 1020220045144 A KR1020220045144 A KR 1020220045144A KR 20220045144 A KR20220045144 A KR 20220045144A KR 102569419 B1 KR102569419 B1 KR 102569419B1
- Authority
- KR
- South Korea
- Prior art keywords
- gesture
- performance
- augmented reality
- performer
- content
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 118
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000000007 visual effect Effects 0.000 title claims abstract description 6
- 238000005516 engineering process Methods 0.000 title abstract description 9
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 9
- 239000003550 marker Substances 0.000 claims description 40
- 230000033001 locomotion Effects 0.000 claims description 26
- 238000013507 mapping Methods 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 5
- 238000011017 operating method Methods 0.000 claims description 2
- 230000006854 communication Effects 0.000 description 88
- 238000004891 communication Methods 0.000 description 86
- 230000005540 biological transmission Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 14
- 238000000605 extraction Methods 0.000 description 10
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 7
- 238000010295 mobile communication Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000012790 confirmation Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- VIKNJXKGJWUCNN-XGXHKTLJSA-N norethisterone Chemical compound O=C1CC[C@@H]2[C@H]3CC[C@](C)([C@](CC4)(O)C#C)[C@@H]4[C@@H]3CCC2=C1 VIKNJXKGJWUCNN-XGXHKTLJSA-N 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Human Computer Interaction (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Architecture (AREA)
- User Interface Of Digital Computer (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
Abstract
위 실시예들은 실시예들은 사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 증강현실 기반 공연 컨텐츠 제공 장치 및 그 동작 방법에 관한 것으로, 구체적으로 공연자의 제스처에 따라 공연 영상에 다양한 증강현실 컨텐츠를 합성하여 공연 컨텐츠를 생성하고, 사용자의 관람 위치에 따라 증강현실 컨텐츠를 제어하는 방법 및 그 장치에 관한 것이다.
Description
아래 실시예들은 증강현실 기반 공연 컨텐츠 제공 방법 및 장치에 관한 것으로, 구체적으로 사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 증강현실 기반 공연 컨텐츠 제공 장치 및 그 동작 방법에 관한 것이다.
최근 스마트폰 등 다양한 매체를 실행하고 제공할 수 있는 모바일 기기의 보급으로 사용자에게 컨텐츠를 제공하는 방법이 다양해지고 있다. 이러한 컨텐츠들은 효율성과 편의성의 관점에서 인간과 컴퓨터 사이의 상호작용에 관한 기술 수요의 증대로 이어지면서, HCI(Human Computer Interaction)의 한 분야인 증강현실이 큰 주목을 받고 있으며, 특히 모바일 증강현실(Mobile Augmented Reality)에 관한 관심이 고조되고 있다.
증강현실(Augmented Reality)이란 가상현실(Virtual Reality)과 달리, 현실세계의 이미지와 가상세계의 이미지를 융합하여 사용자에게 제공되는 환경을 의미한다. 일반적으로 증강현실에 나타나는 가상세계의 이미지는 컴퓨터 그래픽을 활용하며, 현실세계의 이미지에 추가적으로 정보를 제공하는 역할을 한다.
종래에 사용자에게 증강현실을 이용하여 제공하는 컨텐츠로써, 모바일 기기의 카메라에 비춰지는 현실 이미지에 GPS, GNSS 등으로 사용자의 위치정보를 추출하여, 추출된 위치정보에서 광고, 네비게이션 정보 등을 제공하기도 하며, 다양한 방면에서 증강현실 컨텐츠를 활용하여 사용자에게 서비스를 제공하고 있다.
최근 공연계에서도 증강현실을 이용하여 사용자에게 공연 좌석을 안내하거나 공연 정보를 제공하는 등의 증강현실 기술이 선보이고 있으나, 이는 증강현실을 제한적으로 이용하는데 그치고 있다. 따라서 공연을 관람하는 사용자에게 현실감있는 공연 컨텐츠를 제공하기 위해 증강현실을 다양하게 적용시킬 수 있는 연구의 필요성이 대두되고 있었다.
이 배경기술 부분에 기재된 사항은 발명의 배경에 대한 이해를 증진하기 위하여 작성된 것으로써, 이 기술이 속하는 분야에서 통상의 지식을 가진 자에게 이미 알려진 종래기술이 아닌 사항을 포함할 수 있다.
아래 실시예들은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 증강현실 기반 공연 컨텐츠 제공 장치 및 그 동작 방법을 제공하는 것을 목적으로 한다.
일 실시예가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위한 일 실시예는 사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 증강현실 기반 공연 컨텐츠 제공 방법 및 장치를 제공한다.
일 실시예는 프로세서를 포함하는 공연 컨텐츠 제공 장치의 동작 방법으로, 상기 프로세서는 공연자 제스처를 인식하여 제스처 인식 신호를 생성하는 단계; 상기 프로세서는 상기 제스처 인식 신호를 분석하여, 상기 공연자 제스처가 기 설정된 제 1 제스처 또는 제 2 제스처 인지 판단하는 단계; 상기 공연자 제스처가 상기 제 1 제스처인 경우, 상기 프로세서는 상기 제 1 제스처에 기초하여 적어도 하나의 카메라 영상에서 공연 영상을 선택하는 단계; 상기 공연자 제스처가 상기 제 2 제스처인 경우, 상기 프로세서는 상기 제 2 제스처에 기초하여 가상현실 컨텐츠를 선택하는 단계; 및 상기 프로세서는 상기 공연 영상과 가상현실 컨텐츠를 오버레이하여, 공연 컨텐츠를 생성하는 단계를 포함하는 공연 컨텐츠 제공 장치의 동작 방법을 제공한다.
일 실시예는 상기 공연 영상 선택 단계는 상기 프로세서는 상기 제 1 제스처의 지시 방향 및 각도 중 적어도 하나를 이용하여, 상기 적어도 하나의 카메라 영상에서 상기 공연 영상을 선택하고, 상기 가상현실 컨텐츠 선택 단계는 상기 프로세서는 기 저장된 맵핑 테이블을 이용하여, 상기 제 2 제스처에 대응하는 상기 가상현실 컨텐츠를 선택한다.
일 실시예는 상기 제스처 판단 단계는 상기 프로세서는 상기 제스처 인식 신호를 분석하여, 상기 공연자 제스처가 제 3 제스처 인지 판단하고, 상기 공연자 제스처가 상기 제 3 제스처인 경우, 상기 프로세서는 상기 제 3 제스처에 기초하여 공연 장비를 제어하는 단계를 더 포함한다.
일 실시예는 상기 프로세서는 사용자의 관람 위치 정보를 수신하는 단계; 상기 프로세서는 상기 관람 위치 정보에 기초하여, 상기 증강현실 컨텐츠를 제어하는 단계; 상기 프로세서는 상기 관람 위치 움직임 정보를 수신하는 단계; 및 상기 프로세서는 상기 관람 위치 움직임 정보에 기초하여, 상기 증강현실 컨텐츠를 제어하는 단계를 더 포함하고, 상기 증강현실 컨텐츠 제어 단계는 상기 프로세서는 상기 증강현실 컨텐츠의 위치, 크기 및 기울기 중 적어도 하나를 조정한다.
일 실시예는 적어도 하나의 프로세서(processor); 및 상기 적어도 하나의 프로세서가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instuctions)을 저장하는 메모리(memory)를 포함하는, 공연 컨텐츠 제공 장치로서, 상기 적어도 하나의 동작은, 공연자 제스처를 인식하여 제스처 인식 신호를 생성하는 단계; 상기 제스처 인식 신호를 분석하여, 상기 공연자 제스처가 기 설정된 제 1 제스처 또는 제 2 제스처 인지 판단하는 단계; 상기 공연자 제스처가 상기 제 1 제스처인 경우, 상기 제 1 제스처에 기초하여 적어도 하나의 카메라 영상에서 공연 영상을 선택하는 단계; 상기 공연자 제스처가 상기 제 2 제스처인 경우, 상기 제 2 제스처에 기초하여 가상현실 컨텐츠를 선택하는 단계; 및 상기 공연 영상과 가상현실 컨텐츠를 오버레이하여, 공연 컨텐츠를 생성하는 단계를 포함하는, 공연 컨텐츠 제공 장치를 제공한다.
이상에서 설명한 바와 같은 일 실시예들에 따르면, 공연자의 제스처에 따라 공연 영상에 다양한 증강현실 컨텐츠를 합성함으로써, 공연자가 원하는 공연 컨텐츠를 자유롭게 실시간으로 생성할 수 있다.
그리고 일 실시예에 따르면, 실제 공연과 가상현실을 융합하여 사용자의 몰입감을 향상시키고, 실제 공연에서 연출할 수 없었던 다양한 장면과 무대 효과를 사용자에게 제공할 수 있다.
그리고 일 실시예에 따르면, 사용자의 관람 위치에 기초하여 사용자 맞춤형 공연 컨텐츠를 생성하여 제공할 수 있다.
일 실시예의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시예에 따른 증강현실 기반 공연 컨텐츠 제공 시스템을 도시한 도면이다.
도 2는 일 실시예에 따른 공연 컨텐츠 제공 장치가 설치된 공연장을 도시한 도면이다.
도 3은 일 실시예에 따른 공연 컨텐츠 제공 장치의 구성도이다.
도 4는 일 실시예에 따른 제어부의 구성도이다.
도 5은 일 실시예에 따른 제스처를 이용한 공연 컨텐츠 생성 방법의 흐름도이다.
도 6은 일 실시예에 따른 방송 장비 제어 방법의 흐름도이다.
도 7은 다른 실시예에 따른 공연 컨텐츠 제공 장치의 구성도이다.
도 8은 다른 실시예에 따른 공연 컨텐츠 제공 방법의 흐름도이다.
도 9는 일 실시예에 따른 공연 컨텐츠 제공 장치의 하드웨어 구성을 도시한 도면이다.
도 10는 일 실시예에 따른 사용자 단말의 구성을 도시한 도면이다.
도 11은 본 발명의 일 실시예에 따른 통신 과정에서 적용될 수 있는 무선 통신 시스템을 나타낸 도면이다.
도 12은 도 11에 따른 무선 통신 시스템에서 기지국을 나타낸 도면이다.
도 13는 도 11에 따른 무선 통신 시스템에서 단말을 나타낸 도면이다.
도 14은 도 11에 따른 무선 통신 시스템에서 통신 인터페이스를 나타낸 도면이다.
도 2는 일 실시예에 따른 공연 컨텐츠 제공 장치가 설치된 공연장을 도시한 도면이다.
도 3은 일 실시예에 따른 공연 컨텐츠 제공 장치의 구성도이다.
도 4는 일 실시예에 따른 제어부의 구성도이다.
도 5은 일 실시예에 따른 제스처를 이용한 공연 컨텐츠 생성 방법의 흐름도이다.
도 6은 일 실시예에 따른 방송 장비 제어 방법의 흐름도이다.
도 7은 다른 실시예에 따른 공연 컨텐츠 제공 장치의 구성도이다.
도 8은 다른 실시예에 따른 공연 컨텐츠 제공 방법의 흐름도이다.
도 9는 일 실시예에 따른 공연 컨텐츠 제공 장치의 하드웨어 구성을 도시한 도면이다.
도 10는 일 실시예에 따른 사용자 단말의 구성을 도시한 도면이다.
도 11은 본 발명의 일 실시예에 따른 통신 과정에서 적용될 수 있는 무선 통신 시스템을 나타낸 도면이다.
도 12은 도 11에 따른 무선 통신 시스템에서 기지국을 나타낸 도면이다.
도 13는 도 11에 따른 무선 통신 시스템에서 단말을 나타낸 도면이다.
도 14은 도 11에 따른 무선 통신 시스템에서 통신 인터페이스를 나타낸 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서는 설명의 편의상 촬영의 대상이 되는 공연 진행자를 공연자"라고 명명하고, 공연을 관람하는 자를 "사용자"로 명명하기로 한다. 공연 진행자가 다수인 경우에는 대표 공연 진행자를 "공연자"로 설정할 수 있다.
그리고 공연 영상은 카메라에 의해 촬영된 영상으로, 공연장에 설치된 카메라가 공연이 진행되는 중에 공연자, 무대, 관객 등을 촬영한 영상이다.
그리고 증강현실 컨텐츠는 미리 제작된 공연 보조 영상들이며, 공연 보조 영상의 일례로, 공연 대본 이미지, 공연 설명 이미지, 공연자 아바타 영상, 공연 소품 이미지, 무대 효과 영상 등이 이에 포함될 수 있다. 다만 일 실시예의 증강현실 컨텐츠는 이에 한정되는 것은 아니며, 그 이외의 다양한 공연 보조 영상들이 포함될 수 있다.
그리고 공연 컨텐츠는 공연 영상에 증강현실 컨텐츠가 오버레이(Overlay)되어 합성된 영상이다.
이하, 첨부된 도면을 참조하여 실시예를 상세하게 설명한다.
도 1은 일 실시예에 따른 증강현실 기반 공연 컨텐츠 제공 시스템(10)을 도시한 도면이다.
도 1을 참조하면, 일 실시예에 따른 증강현실 기반 공연 컨텐츠 제공 시스템(10)은 공연 컨텐츠 제공 장치(100) 및 사용자 단말(200)을 포함할 수 있다.
증강현실 기반 공연 컨텐츠 제공 시스템(10) 내에 포함된 다양한 개체들(entities) 간의 통신은 유/무선 네트워크를 통해 수행될 수 있다. 유/무선 네트워크는 표준 통신 기술 및/또는 프로토콜들이 사용될 수 있다.
증강현실 기반 공연 컨텐츠 제공 시스템(10) 내 공연 컨텐츠 제공 장치(100) 및 사용자 단말(200)는 예를 들어, 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA(Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), PMP(portable multimedia player) 같은 전자 장치 중 하나로서, 일 실시예와 관련된 어플리케이션의 설치 및 실행이 가능한 모든 전자 장치를 포함할 수 있다. 전자 장치는 어플리케이션의 제어 하에 예를 들어, 서비스 화면의 구성, 데이터 입력, 데이터 송수신, 데이터 저장 등과 같은 서비스 전반의 동작을 수행할 수 있다.
일 실시예의 공연 컨텐츠 제공 장치(100)에는 적어도 하나 이상의 카메라, 마이크, 조명, 모니터 등과 같은 공연 장비가 구비되어 있으며, 이들 공연 장비와 연결된 제어 콘솔이 구비될 수 있다.
공연 컨텐츠 제공 장치(100)는 공연자의 제스처를 감지하여, 제스처 신호를 생성할 수 있다.
공연 컨텐츠 제공 장치(100)는 제스처 신호를 기 설정된 기준에 따라 해석하여, 공연자의 제스처를 제 1 제스처, 제 2 제스처 또는 제 3 제스처로 판단할 수 있다.
공연 컨텐츠 제공 장치(100)는 공연자의 제 1 제스처를 기초하여 다수의 카메라 영상에서 공연 영상을 선택하고, 공연자의 제 2 제스처에 기초하여 증강현실 컨텐츠를 선택할 수 있다.
공연 컨텐츠 제공 장치(100)는 선택된 공연 영상과 증강현실 컨텐츠를 합성하여 공연 컨텐츠를 생성할 수 있다.
공연 컨텐츠 제공 장치(100)는 공연자의 제 3 제스처에 기초하여 공연 장비의 제어를 수행할 수 있다.
공연 컨텐츠 제공 장치(100)는 사용자의 관람 위치 정보에 기초하여, 증강현실 컨텐츠의 위치, 크기, 기울기 등을 제어할 수 있다.
일 실시예의 사용자 단말(200)은 사용자가 구비하여 사용하는 단말로, 공연 컨텐츠 제공 장치(100)에서 수신된 공연 컨텐츠를 사용자에게 출력할 수 있다.
사용자 단말(200)은 사용자의 관람 위치 정보를 사용자로부터 입력받을 수 있으며, 사용자 단말(200)의 위치 정보를 관람 위치 정보로 설정할 수 있다. 그리고 사용자 단말(200)은 사용자의 관람 위치 정보를 공연 컨텐츠 제공 장치(100)에 전송할 수 있다.
도 2는 일 실시예에 따른 공연 컨텐츠 제공 장치(100)가 설치된 공연장을 도시한 도면이다.
도 2를 참조하면, 일 실시예에 따른 공연 컨텐츠 제공 장치(100)가 설치된 공연장에는 각 촬영 영역을 갖는 다수의 카메라(11a, 11b, 11c), 공연자의 음성을 입력받는 마이크(12), 촬영 영역에 광을 조사하는 조명(13), 공연자의 제스처를 감지하는 제스처 판단부(14) 및 공연 영상 및 증강현실 컨텐츠가 합성된 공연 컨텐츠를 디스플레이하는 증강현실 모니터(15)가 구비될 수 있다.
다수의 카메라(11a, 11b, 11c)는 각각 일 영역을 촬영하도록 세팅될 수 있으며, 제어부(16)의 제어에 따라 촬영 영역, 이동 속도, 줌인, 줌아웃 등의 촬영 설정이 변경될 수 있다, 다수의 카메라(11a, 11b, 11c)의 촬영 영역에 관한 정보는 제스처 판단부(14)에서 공연자의 위치를 판단하는 정보로 이용될 수 있다.
도 3은 일 실시예에 따른 공연 컨텐츠 제공 장치(100)의 구성도이다.
도 3을 참조하면, 일 실시예에 따른 공연 컨텐츠 제공 장치(100)는, 서로 다른 촬영 영역으로부터 각 영상 신호를 출력하는 다수의 카메라(11a, 11b, 11c), 공연자의 음성 및 주변 음향을 입력받아 음성 신호를 출력하는 마이크(12), 촬영 영역에 광을 조사하는 조명(13), 공연자의 제스처를 감지하여 제스처 신호를 생성하여 출력하는 제스처 판단부(14), 제스처 신호에 대응하여 공연자의 제스처를 해석하고, 공연자의 제 1 제스처에 기초하여 각 카메라(11a, 11b, 11c)로부터 촬영된 카메라 영상에 대해 선택적인 스위칭을 수행하여 공연 영상을 선택하고, 공연자의 제 2 제스처에 기초하여 증강현실 컨텐츠를 선택하고, 선택된 공연 영상과 증강현실 컨텐츠를 합성하여 공연 컨텐츠를 생성하는 제어부(16), 제어부(16)로부터 출력되는 공연 컨텐츠를 송출하는 송출부(17), 시스템 구동을 위한 프로그램을 저장하고 있으며, 제어부(16)로부터 출력되는 공연 컨텐츠를 저장하는 메모리(18), 제어부(16)에서 출력된 공연 컨텐츠를 디스플레이하는 증강 현실 모니터(15)와, 증강현실 컨텐츠를 저장하고 있는 증강현실 컨텐츠 DB(19) 및 음향을 출력시키는 스피커(20)를 포함할 수 있다.
공연 컨텐츠 제공 장치(100)의 하드웨어 구성은 다양하게 구현될 수 있다. 제스처 판단부(14)와 제어부(16)를 통합하거나, 메모리(18)와 증강현실 컨텐츠 DB(19)를 통합하여 하드웨어를 구성할 수 있다. 이와 같이, 공연 컨텐츠 제공 장치(100)의 하드웨어 구성은 본 명세서의 기재에 한정되지 아니하며, 다양한 방법과 조합으로 구현될 수 있다.
제어부(16)는 공연 컨텐츠 제공 장치(100)의 다양한 기능을 수행하도록 공연 컨텐츠 제공 장치(100) 내 구성들을 제어할 수 있다.
제어부(16)는 프로세서(Processor), 컨트롤러(controller), 마이크로 컨트롤러(microcontroller), 마이크로 프로세서(microprocessor), 마이크로 컴퓨터(microcomputer) 등으로도 호칭될 수 있으며, 제어부는 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어 또는 이들의 결합에 의해 구현될 수 있다.
이와 같이 구성된 공연 컨텐츠 제공 장치(100)는 카메라(11a, 11b, 11c), 마이크(12), 조명(13) 등의 공연 장비를 구동시켜 공연자를 촬영하게 되며, 이때 제어부(16)는 공연자의 제스처를 해석하여, 공연 영상 및 증강현실 컨텐츠를 선택할 수 있다. 그리고 제어부(16)는 공연자의 제스처를 해석하여, 공연 장비를 제어할 수 있다. 제스처를 통한 공연 장비 제어의 가장 대표적인 예로서, 공연자의 제스처를 통해 카메라(11a, 11b, 11c)의 줌 인(Zoom In), 줌 아웃(Zoom Out), 초점(Focus), 팬(Pan), 틸트(Tilt) 등을 제어를 수행할 수 있고, 마이크(12)의 불륨 제어, 조명(13)의 밝기 제어 등을 수행할 수 있다.
도 4는 일 실시예에 따른 제어부(16)의 구성도이다.
도 4를 참조하면, 일 실시예에 따른 제어부(16)는 공연자의 위치를 감지 및 판단하여 생성한 위치 신호를 출력하는 위치 판단부(161), 공연자의 제스처를 인식하여 제스처 신호를 출력하는 제스처 인식부(162), 제스처 신호로부터 공연자의 제스처를 제 1 제스처, 제 2 제스처 또는 제 3 제스처로 해석하는 제스처 해석부(163), 위치 신호 및 제 1 제스처를 기초하여 각 카메라(11a, 11b, 11c)로부터 촬영되어 카메라 영상에서 공연 영상을 선택하는 카메라 영상 선택부(164), 카메라 영상 선택부(164)로부터 선택된 공연 영상에 공연 음성을 합성하는 음성 합성부(165), 제 2 제스처에 기초하여 증강현실 컨텐츠를 선택하고 카메라 영상 선택부(164)로부터 선택된 공연 영상에 선택된 증강현실 컨텐츠를 합성하여, 공연 컨텐츠를 생성하는 증강현실 오버레이부(166) 및 제 3 제스처에 기초하여 공연 장비를 제어하는 공연 장비 제어부(167)를 포함할 수 있다.
여기서 증강현실 오버레이부(166)는 사용자의 관림 위치에 기초하여 증강현실 컨텐츠의 위치, 크기, 기울기 등의 제어도 가능하다. 이에 대해서는 도 7 이하에서 자세히 후술하도록 한다.
이와 같이 구성된 제어부(16)는 위치 판단부(161)에서 공연자의 위치를 판단하면, 카메라 영상 선택부(164)는 해당 위치를 촬영하는 카메라(11a, 11b, 11c)의 영상을 출력하도록 스위칭이 이루어지게 되고, 해당 위치에서 공연자에게 필요로 하는 증강현실 컨텐츠 리스트를 증강 현실 모니터(15)에 출력하여 공연자의 제스처를 위한 정보를 공연자에게 제공할 수 있다.
공연자가 증강 현실 모니터(15) 상에 디스플레이된 증강현실 컨텐츠 리스트를 참고하여 제스처를 취하면, 제어부(16)는 제스처 인식 및 제스처 해석을 통해 공연자의 제스처에 대응하는 다양한 제어를 수행할 수 있다.
제어부(16)는 공연자의 제 1 제스처가 인식되면, 인식된 제 1 제스처를 해석하여 다수의 카메라(11a, 11b, 11c)에서 촬영되는 카메라 영상 중에서 공연 영상을 선택할 수 있다. 그리고 제어부(16)는 공연자의 제 2 제스처가 인식되면, 인식된 제 2 제스처를 해석하여 기 저장된 증강현실 컨텐츠 중에서 공연 컨텐츠에 사용할 증강현실 컨텐츠를 선택할 수 있다. 이로써 제어부(16)는 선택된 공연 영상과 선택된 증강현실 컨텐츠를 합성하여, 공연 컨텐츠를 생성할 수 있다.
그리고 제어부(16)는 공연자의 제 3 제스처가 인식되면, 인식된 제 3 제스처를 해석하여 공연 장비의 제어를 수행할 수 있다.
즉 일 실시예는 공연자의 제스처를 이용하여, 공연 컨텐츠를 생성하고, 공연 장비를 제어할 수 있는 것이다.
그러면 여기서 전술한 바와 같이 구성된 시스템을 이용한 일 실시예의 제스처를 이용한 공연 컨텐츠 생성 방법 및 공연 장비 제어 방법에 대해 설명하기로 한다.
도 5은 일 실시예에 따른 제스처를 이용한 공연 컨텐츠 생성 방법의 흐름도이다.
도 5를 참조하여 각 단계에 대해 설명하면, 우선 S101 단계에서 공연자가 제스처를 취하면, 제스처 인식부(162)는 제스처 신호를 생성하여 제스처 해석부(163)에 전달한다.
제스처 인식부(162)는 공연자가 기 설정된 시작 제스처를 취하면, 시작 제스처 이후에 공연자가 취하는 제스처를 인식하여 해당 제스처에 대한 제스처 신호를 생성할 수 있다.
일 실시예의 제스처 신호는 공연자가 시작 제스처 이후에 취하는 제스처의 영상 신호이다. 제스처 인식부(162)는 공연자를 촬영한 영상을 그대로 제스처 신호로 생성할 수 있으며, 공연자를 촬영한 영상을 후처리하여 영상에서 배경이 삭제된 영상 신호를 제스처 신호로 생성할 수 있다.
S102 단계에서 제스처 해석부(163)는 제스처 신호를 이용하여, 공연자의 제스처가 제 1 제스처 인지 또는 제 2 제스처 인지 판단한다.
제 1 제스처 및 제 2 제스처는 기 설정된 제스처로, 본 명세서에서는 제 1 제스처를 공연자의 오른쪽 팔에 관한 제스처로, 제 2 제스처를 공연자의 왼쪽 팔에 관한 제스처인 경우로 설명하도록 한다. 다만 일 실시예는 이에 한정되지 아니하고, 공연자의 다양한 제스처를 제 1 제스처 및 제 2 제스처로 설정할 수 있다.
공연자의 제스처가 제 1 제스처인 경우, S103 단계에서 카메라 영상 선택부(164)는 제 1 제스처에 대응하는 카메라 영상을 공연 영상으로 선택한다.
전술한 바와 같이 다수의 카메라(11a, 11b, 11c)에서 다수의 카메라 영상이 제공되는데, 카메라 영상 선택부(164)는 다수의 카메라 영상 중에 제 1 제스처에 해당하는 카메라 영상을 공연 영상으로 선택할 수 있다.
구체적으로 카메라 영상 선택부(164)는 제 1 제스처의 지시 방향, 각도 등을 이용하여, 공연 영상을 선택할 수 있다.
일례로, 제 1 제스처가 공연자의 오른쪽 팔에 관한 제스처로, 카메라 영상 선택부(164)는 오른쪽 팔이 지시하는 방향을 촬영하는 카메라(11a, 11b, 11c)의 카메라 영상을 공연 영상으로 선택할 수 있다
다른 일례로, 제 1 제스처가 공연자의 오른쪽 팔에 관한 제스처로, 카메라 영상 선택부(164)는 오른쪽 팔의 각도가 설정 각도 이하인 경우 공연자를 촬영하는 카메라(11a, 11b, 11c)의 카메라 영상을 공연 영상으로 선택할 수 있다
또 다른 일례로, 제 1 제스처가 공연자의 오른쪽 팔에 관한 제스처로, 카메라 영상 선택부(164)는 오른쪽 팔의 각도가 설정 각도 미만인 경우 공연 무대를 촬영하는 카메라(11a, 11b, 11c)의 카메라 영상을 공연 영상으로 선택할 수 있다.
공연자의 제스처가 제 2 제스처인 경우, S104 단계에서 증강현실 오버레이부(166)는 제 2 제스처에 대응하는 증강현실 컨텐츠를 선택한다.
증강현실 오버레이부(166)는 맵핑 테이블을 이용하여 증강현실 컨텐츠를 선택할 수 있다.
일 실시예의 맵핑 테이블은 기 설정된 제 2 제스처와 제 2 제스처에 대응하는 증강현실 컨텐츠의 매핑 정보를 포함할 수 있다. 표 1은 일 실시예의 맵핑 테이블의 일례이다.
S105 단계에서 증강현실 오버레이부(166)는 선택된 공연 영상과 선택된 증강현실 컨텐츠를 오버레이하여, 공연 컨텐츠를 생성한다.
S106 단계에서 음성 합성부(165)는 증강현실 오버레이부(166)에서 생성된 공연 컨텐츠에 공연 음성을 결합하여, 공연 컨텐츠를 동영상 데이터로서 송출이 이루어지게 된다.
한편, 일 실시예는 제스처 인식부(162)가 마커 인식부(미도시)를 포함할 수 있다.
마커 인식부는 공연자의 신체의 일 영역을 마커로서 인식할 수 있으며, 일례로 공연자의 손, 팔 등을 마커로 인식할 수 있다. 마커의 위치가 증강현실 컨텐츠의 위치와 같을 때, 증강현실 컨텐츠가 확대될 수 있고, 공연자가 마커를 이동하면 증강현실 컨텐츠도 마커에 따라 이동될 수 있다. 즉, 마커, 증강현실 컨텐츠 및 제스처를 조합하여 공연 컨텐츠를 생성할 수 있다.
도 6은 일 실시예에 따른 방송 장비 제어 방법의 흐름도이다.
도 6을 참조하여 각 단계에 대해 설명하면, 우선 S201 단계에서 공연자가 제스처를 취하면, 제스처 인식부(162)는 제스처 신호를 생성하여 제스처 해석부(163)에 전달한다.
제스처 인식부(162)는 공연자가 기 설정된 시작 제스처를 취하면, 시작 제스처 이후에 공연자가 취하는 제스처를 인식하여 해당 제스처에 대한 제스처 신호를 생성할 수 있다.
S202 단계에서 제스처 해석부(163)는 제스처 신호를 이용하여, 공연자의 제스처가 제 3 제스처 인지 판단한다.
전술한 바와 같이 제 1 제스처 및 제 2 제스처는 기 설정된 제스처이다. 제스처 해석부(163)는 공연자의 제스처가 기 설정된 제 1 제스처 또는 제 2 제스처가 아닌 경우, 공연자의 제스처를 제 3 제스처로 판단할 수 있다.
일례로 제스처 해석부(163)는 공연자의 제스처가 오른쪽 팔 또는 왼쪽 팔에 관한 제스처가 아닌 경우, 공연자의 제스처를 제 3 제스처로 판단할 수 있다.
공연자의 제스처가 제 3 제스처인 경우, S203 단계에서 제스처 해석부(163)는 공연자가 동일한 제 3 제스처를 취하는지 확인한다.
공연자가 동일한 제 3 제스처를 취하는 경우, S203 단계에서 제스처 해석부(163)는 제 3 제스처의 반복 횟수 및 반복 주기를 확인한다.
S204 단계에서 공연 장비 제어부(167)는 제 3 제스처의 반복 횟수 및 반복 주기에 기초하여 공연 장비를 제어한다.
공연 장비 제어부(167)는 제 3 제스처의 반복 횟수를 이용하여, 제어할 공연 장비를 선택할 수 있다. 일례로, 제 3 제스처의 반복 횟수가 2번인 경우, 공연 장비 제어부(167)는 제어할 공연 장비를 카메라(11a, 11b, 11c)의 이동 속도로 선택할 수 있다. 반속 횟수에 따른 제어할 공연 장비는 기 설정될 수 있다.
그리고 공연 장비 제어부(167)는 제 3 제스처의 반복 주기를 이용하여, 선택된 공연 장비의 설정을 변경할 수 있다. 일례로, 제 3 제스처의 반복 주기가 3 sec인 경우, 카메라(11a, 11b, 11c)의 이동 속도를 3 m/s 만큼 빠르거나 느리게 변경할 수 있다.
한편, 일 실시예에서는 공연 장비 제어에서 카메라(11a, 11b, 11c)의 이동에 대해서만 설명하고 있으나, 공연자의 제스처를 통해 카메라(11a, 11b, 11c)의 줌 인(Zoom In), 줌 아웃(Zoom Out), 초점(Focus), 팬(Pan), 틸트(Tilt) 등의 제어를 수행할 수 있고, 마이크(12)의 불륨 제어, 조명(13)의 밝기 제어 등을 수행할 수 있을 것이다.
이상에서는 공연자의 제스처에 따른 공연 컨텐츠를 생성하거나 공연 장비를 제어하는 방법에 대해 설명하였다. 이하에서는 다른 실시예로 사용자의 관람 위치에 따라 공연 컨텐츠를 제어하는 방법에 대해 설명하도록 한다.
도 7은 다른 실시예에 따른 공연 컨텐츠 제공 장치(100)의 구성도이다.
도 7을 참조하면, 다른 실시예에 따른 공연 컨텐츠 제공 장치(100)는 사용자 단말(200)를 사용하는 사용자가 관객인지 확인하는 사용자 확인부(151), 사용자의 관람 위치 정보를 추출하는 관람 위치 확인부(152), 공연에 사용되는 증강현실 컨텐츠를 저장하는 컨텐츠 저장부(153), 공연 영상을 추출하는 공연 영상 추출부(154), 관람 위치의 움직임 정보를 추출하는 움직임 정보 추출부(155), 공연 영상과 증강현실 컨텐츠를 합성하여 공연 컨텐츠를 생성하되, 관람 위치 확인부(152)에서 추출된 사용자의 관람 위치 정보에 따라 증강현실 컨텐츠의 출력을 제어하고, 움직임 정보 추출부(155)에서 추출된 관람 위치의 움직임 정보에 따라 증강현실 컨텐츠의 출력을 제어하는 증강현실 합성부(156) 및 생성된 공연 컨텐츠를 사용자 단말(200)에 전달하는 통신부(157)을 포함할 수 있다.
각 구성에 대해 상세하게 설명하면, 우선 사용자 확인부(151)는 사용자 단말(200)의 사용자가 해당 공연의 관객인지 여부를 확인할 수 있다.
사용자 확인부(151)는 사용자 단말(200) 마다 고유의 ID를 할당하여 사용자가 해당 공연의 관객인지 확인할 수 있고, 사용자 단말기(200)에 사용자가 자신의 ID를 입력하여 관객여부를 확인할 수 있다. 다른 방법으로는 공연 티켓에 일종의 QR코드 또는 특정한 마커를 할당하고, 사용자 단말기(200)이 해당 QR코드 또는 마커를 인식함으로써, 관객 여부를 확인할 수도 있다.
관람 위치 확인부(152)는 사용자의 관람 위치 정보를 추출할 수 있다. 사용자의 관람 위치 정보를 추출하는 것은 후술하는 공연 영상과 증강현실 컨텐츠의 정확한 합성을 위한 것으로써, 사용자의 관람 위치에 따른 시각차를 보정하기 위한 변수로 사용하기 위함이다. 사용자의 관람 위치에 따라 공연장 및 공연자의 크기 및 각도가 변화하고, 변화된 위치에 따라 증강현실 컨텐츠의 크기, 위치 및 기울기 등을 조정할 수 있다. 관림 위치를 확인하는 방법으로는, 사용자가 자신의 관람 위치 정보를 입력할 수 있으며, 사용자가 구매한 관람 티켓에 대응하는 공연장 위치를 관림 위치 정보로 확인할 수 있으며, 또한 사용자가 직접 공연장에 있는 경우에는 사용자 단말(200)의 위치 정보를 관림 위치 정보로 확인할 수 있다.
컨텐츠 저장부(153)는 공연에 사용되는 증강현실 컨텐츠를 저장할 수 있다. 저장되는 증강현실 컨텐츠는 해당 공연에 사용되는 가상현실 그래픽으로 해당 공연에 따라 구분되어 저장될 수 있다.
공연 영상 추출부(154)는 공연장의 공연 영상을 추출할 수 있다. 공연장에 설치된 다수의 카메라에서 촬영되는 공연자, 무대, 관객 등의 모습을 영상 또는 이미지로 추출한다. 공연 영상 추출부(154)로써 카메라 또는 캠코더를 사용할 수 있으며, 스마트폰에 내장된 카메라를 활용할 수도 있다.
움직임 정보 추출부(155)는 관람 위치의 움직임 정보를 추출할 수 있다. 사용자는 고정된 위치에서 공연을 관람할 수 있으나, 공연 도중 관람 위치를 변경할 수 있다. 관람 위치의 움직임에 따라 증강현실 컨텐츠의 크기와 위치를 조정하는 것이 바람직하다. 따라서 관람 위치의 움직임 정보를 사용자가 직접 입력할 수 있으며, 사용자 단말(200)의 이동 정보를 관람 위치의 움직임 정보로 추출할 수 있다. 이를 위해 사용자 단말(200)의 자이로 센서나, 2축 이상의 가속도 센서를 사용할 수 있으며, 3차원 움직임을 인식하기 위해 3축 이상의 가속도 센서를 사용할 수 있다. 사용자의 스마트폰을 활용하는 경우에는 스마트폰에 내장된 자이로 센서 또는 가속도 센서를 사용할 수 있다.
증강현실 합성부(156)는 공연 영상과 증강현실 컨텐츠를 합성하되, 관람 위치 확인부(152)에서 추출된 사용자의 관람 위치 정보에 따라 증강현실 컨텐츠의 위치, 크기 또는 기울기를 조정하고, 움직임 정보 추출부(155)에서 추출된 사용자의 관람 위치의 움직임에 따라 증강현실 컨텐츠의 위치, 크기 또는 기울기를 조정하여 합성할 수 있다. 공연 영상과 증강현실 컨텐츠의 합성은 1회에 그치는 것이 아니라, 증강현실 컨텐츠를 제공하는 시간동안 지속적으로 이루어질 수 있다. 예를 들어, 사용자의 관람 위치 정보와 움직임 정보를 단위 시간(일례로, 1ms(milli second)) 마다 측정하고, 측정된 정보에 따라 단위 시간(일례로, 1ms) 마다 공연 영상과 증강현실 컨텐츠를 합성할 수 있다.
증강현실 컨텐츠와 공연 영상의 정확한 합성을 위해서, 공연의 무대위에 하나 이상의 제 1 마커(31)를 포함할 수 있다. 또한, 공연 컨텐츠 제공 장치(100)에 제 1 마커(31)를 인식할 수 있는 마커 추출부(158)를 더 포함할 수 있다. 제 1 마커(31)는 무대의 고정된 위치에 설치될 수 있으며, 마커 추출부(158)는 공연 영상 추출부(154)에서 추출된 공연 영상에서 제 1 마커(31)를 인식하여 위치 및 크기를 식별할 수 있다.
그리고 공연을 하는 공연자 및 공연에 사용되는 물건 중 적어도 어느 하나에 제 2 마커(32)를 설치할 수 있으며, 마커 추출부(158)에서 제 2 마커(32)도 인식할 수 있다. 제1마커(31)와 제2마커(32)는 마커 추출부(158)에서 식별할 수 있는 특정 무늬로 이루어질 수 있으며, 비콘 또는 적외선 송수신기로 이루어질 수 있다. 마커를 인식하는 방법으로는, 마커가 특정 무늬로 이루어진 경우에 공연 영상을 추출하면서 마커를 함께 추출하여, 마커의 크기와 위치를 식별할 수 있고, 또는, 비콘으로 BLE(Bluetooth Low Energy) 장치를 사용하여, 블루투스 수신기로 비콘의 위치를 식별할 수 있고, 적외선 송수신기를 사용하여 해당 마커의 위치를 식별할 수 있다. 비콘 및 적외선 송수신기를 하나만 사용할 수도 있으나, 하나만 사용하는 경우에는 정확한 위치를 파악하기 어려우므로 3개 이상을 배치하여 삼각측량법을 활용함이 바람직할 것이다. 전술한 바와 같이 제 1 마커(31)와 제 2 마커(32)를 마커 추출부에서 인식하면, 증강현실 컨텐츠와 공연 영상을 합성할 때, 정확한 위치와 크기로 합성할 수 있을 것이다.
통신부(157)는 공연 영상과 증강현실 컨텐츠가 합성된 공연 컨텐츠를 사용자 단말(200)에 전송할 수 있다.
증강현실을 이용한 공연 컨텐츠 제공 시스템은 해당 공연 시간 동안 계속적으로 제공되어질 수 있으며, 또는 일반적인 공연을 진행하면서 필요에 따라 특정 신(scene)에 제한적으로 활용될 수 있다. 일례로, 전쟁신과 같은 대규모 장면을 연출하는 경우에는 무대의 공간 및 인력에 제약이 있으므로, 본 증강현실을 이용한 공연 컨텐츠 제공 시스템을 활용하여, 보다 몰입감 있고 현실감 있는 공연 컨텐츠를 제공할 수 있을 것이다.
도 8은 다른 실시예에 따른 공연 컨텐츠 제공 방법의 흐름도이다.
도 8을 참조하면, 다른 실시예에 따른 공연 컨텐츠 제공 방법은, 사용자가 관객인지 여부를 확인하는 단계(S301), 사용자의 관람 위치 정보를 취득하는 단계(S302), 공연장의 공연 영상을 추출하는 단계(S303), 증강현실 컨텐츠를 선정하는 단계(S304), 사용자의 관람 위치 정보에 따라 증강현실 컨텐츠의 크기, 위치 또는 기울기를 조정하여, 공연 영상과 합성하는 단계(S305) 및 관람 위치의 움직임 정보에 따라 증강현실 컨텐츠의 위치를 조정하는 단계(S306)를 포함한다.
각 단계에 대해 설명하면, 우선 S301 단계에서는 사용자가 관객인지 여부를 확인한다. 해당 공연을 관람하는 사용자는 증강현실 컨텐츠를 시청할 수 있는 사용자 단말(200)를 소지할 수 있는데, 해당 사용자 단말기(200)마다 고유의 ID를 할당하여 사용자가 해당 공연의 관객인지 확인할 수 있고, 또는 사용자 단말(20)에 사용자가 자신의 ID를 입력하여 관객 여부를 확인할 수 있다. 다른 방법으로는 공연 티켓에 일종의 QR코드 또는 특정한 마커를 할당하고, 사용자 단말(200)이 해당 QR코드 또는 마커를 인식함으로써, 관객 여부를 확인할 수도 있다.
S302 단계에서는 사용자의 관람 위치 정보를 취득한다. 사용자의 관람 위치 정보를 추출하는 것은 후술하는 공연 영상과 증강현실 컨텐츠의 정확한 합성을 위한 것으로써, 공연장에서 사용자의 관람 위치에 따라 공연장 및 공연자의 크기 또는 각도가 서로 상이하므로, 증강현실 컨텐츠의 위치, 크기 또는 기울기를 조정하기 위한 변수로 사용할 수 있다. 관림 위치를 확인하는 방법으로는, 사용자가 자신의 관람 위치 정보를 입력할 수 있으며, 사용자가 구매한 관람 티켓에 대응하는 공연장 위치를 관림 위치 정보로 확인할 수 있으며, 또한 사용자가 직접 공연장에 있는 경우에는 사용자 단말(200)의 위치 정보를 관림 위치 정보로 확인할 수 있다.
S303 단계에서는 공연장의 공연 영상을 추출한다. 공연에서 공연장의 모습과 공연을 하는 공연자의 모습을 영상 또는 이미지로 추출한다. 공연 영상을 추출하는 방법으로는 카메라 또는 캠코더를 사용할 수 있으며, 스마트폰에 내장된 카메라를 활용할 수도 있다.
공연 영상을 추출하면서, 무대 및 공연자 중 적어도 어느 하나에 설치되는 마커(30)로부터 마커 정보를 추출하는 단계를 더 포함할 수 있다. 마커는 증강현실 컨텐츠와 공연 영상의 정확한 합성을 위한 것으로써, 식별할 수 있는 특정 무늬로 이루어질 수 있으며, 비콘 또는 적외선 송수신기로 이루어질 수 있다. 마커 정보를 추출하는 방법으로는, 마커(30)가 특정 무늬로 이루어진 경우에 공연 영상을 추출하면서 마커(30)를 함께 추출하여, 마커(30)의 크기와 위치를 식별할 수 있고, 또는, 비콘으로 BLE(Bluetooth Low Energy) 장치를 사용하여, 블루투스 수신기로 비콘의 위치를 식별할 수 있고, 적외선 송수신기를 사용하여 해당 마커(30)의 위치를 식별할 수 있다. 비콘 및 적외선 송수신기를 하나만 사용할 수도 있으나, 하나만 사용하는 경우에는 정확한 위치를 파악하기 어려우므로 3개 이상을 배치하여 삼각측량법을 활용함이 바람직할 것이다.
일 실시예의 마커(30)는 무대의 고정된 위치에 하나 이상 설치될 수 있으며, 또는 공연을 하는 공연자 및 공연에 사용되는 물건 중 적어도 어느 하나에 설치될 수 있다.
S304 단계에서는 증강현실 컨텐츠를 수신한다. 수신받는 증강현실 컨텐츠는 해당 공연에 사용되는 가상현실 그래픽으로, 공연마다 따로 구분되어 수신받을 수 있으며, 전술한바와 같이 공연자의 제스처에 따라 증강현실 컨텐츠를 선택할 수 있다.
S305 단계에서는 사용자의 관람 위치 정보에 따라 증강현실 컨텐츠의 위치, 크기 또는 기울기를 조정하여, 공연 영상과 합성한다. 보다 상세하게 살펴보면, 공연 영상과 증강현실 컨텐츠를 합성하되, 추출된 사용자의 관람 위치 정보에 따라 증강현실 컨텐츠의 위치, 크기 또는 기울기를 조정할 수 있으며, 마커 정보를 포함하여, 증강현실 컨텐츠의 위치, 크기 또는 기울기의 정확성을 향상시킬 수 있다.
S306 단계에서는 관람 위치의 움직임 정보에 따라 증강현실 컨텐츠의 위치, 크기 또는 기울기를 조정한다. 사용자는 고정된 위치에서 공연을 관람할 수 있나, 공연 도중 관람 위치를 변경할 수 있다. 관람 위치의 움직임에 따라 증강현실 컨텐츠의 위치, 크기 또는 기울기를 조정하는 것이 바람직하다. 따라서 관람 위치의 움직임 정보를 사용자가 직접 입력할 수 있으며, 사용자 단말(200)의 이동 정보를 관람 위치의 움직임 정보로 추출할 수 있다. 이를 위해 사용자 단말(200)의 자이로 센서나, 2축 이상의 가속도 센서를 사용할 수 있으며, 3차원 움직임을 인식하기 위해 3축 이상의 가속도 센서를 사용할 수 있다. 사용자의 스마트폰을 활용하는 경우에는 스마트폰에 내장된 자이로 센서 또는 가속도 센서를 사용할 수 있다.
본 증강현실을 이용한 공연 컨텐츠 제공방법은 해당 공연 시간 동안 계속적으로 제공되어질 수 있으며, 또는 일반적인 공연을 진행하면서 필요에 따라 특정 신(scene)에 제한적으로 활용될 수 있다. 예를 들면 전쟁신과 같은 대규모 장면을 연출하는 경우에는 무대의 공간 및 인력에 제약이 있으므로, 본 증강현실을 이용한 공연 컨텐츠 제공방법을 활용하여, 보다 몰입감 있고 현실감 있는 공연 컨텐츠를 제공할 수 있을 것이다.
도 9는 일 실시예에 따른 공연 컨텐츠 제공 장치(100)의 하드웨어 구성을 도시한 도면이다.
도 9에 도시된 바와 같이, 공연 컨텐츠 제공 장치(100)는 통신부(110), 입력부(120), 출력부(130), 메모리(140), 전원 공급부(150) 및 프로세서(160)를 포함할 수 있다.
도 9에 도시된 구성들은 본 발명의 실시 예들을 구현하기 위한 예시도이며, 당업자에게 자명한 수준의 적절한 하드웨어 구성들이 공연 컨텐츠 제공 장치(100)에 추가로 포함될 수 있다.
통신부(110)는 다양한 통신 방식을 통해 외부의 장치와 통신을 수행할 수 있다. 일례로, 통신부(110)는 외부의 사용자 단말(200)과 통신을 수행하여 다양한 데이터를 송수신할 수 있다.
입력부(120)는 공연 컨텐츠 제공 장치(100)의 사용자인 관리자의 다양한 입력을 수신하여 프로세서(160)로 전달할 수 있다. 특히, 입력부(120)는 터치 센서, (디지털) 펜 센서, 압력 센서, 키, 또는 마이크를 포함할 수 있다. 터치 센서는, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. (디지털) 펜 센서는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 마이크는 관리자 음성을 수신하기 위한 구성으로, 공연 컨텐츠 제공 장치(100) 내부에 구비될 수 있으나, 이는 일 실시예에 불과할 뿐, 공연 컨텐츠 제공 장치(100)의 외부에 구비되어 공연 컨텐츠 제공 장치(100)와 전기적으로 연결될 수 있다.
출력부(130)는 다양한 화면을 제공할 수 있다. 일례로, 출력부(130)는 관리자에게 공연 영상, 증강현실 컨텐츠 및 공연 컨텐츠를 출력할 수 있다.
메모리(140)는 공연 컨텐츠 제공 장치(100)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 예를 들어, 메모리(140)는 프로세서(또는 프로세서(160))가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장할 수 있다. 후술하는 서버(100)의 각종 동작은 상기 적어도 하나의 동작에 포함될 수 있다. 특히, 메모리(140)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 메모리(140)는 프로세서(160)에 의해 액세스되며, 프로세서(160)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 본 발명에서 메모리라는 용어는 메모리(140), 프로세서(160) 내 롬(미도시), 램(미도시) 또는 공연 컨텐츠 제공 장치(100)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱)를 포함할 수 있다. 또한, 메모리(140)에는 출력부(130)의 디스플레이 영역에 표시될 각종 화면을 구성하기 위한 프로그램 및 데이터 등이 저장될 수 있다.
전원 공급부(150)는 프로세서(160)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
프로세서(160)는 통신부(110), 입력부(120), 출력부(130), 메모리(140) 및 전원 공급부(150)와 전기적으로 연결되어, 공연 컨텐츠 제공 장치(100)의 전반적인 동작 및 기능을 제어할 수 있다.
이상에서 설명되는 공연 컨텐츠 제공 장치(100) 상의 다양한 동작은 프로세서(160)의 제어에 의해서 수행될 수 있음은 자명할 것이다.
도 10는 일 실시예에 따른 사용자 단말(200)의 구성을 도시한 도면이다. 이하, 도 10에 도시된 사용자 단말(200)를 구성하는 구성요소들에 대해 차례로 살펴본다.
무선 통신부(210)는 사용자 단말(200)와 무선 통신 시스템 사이의 무선 통신 또는 사용자 단말(200)와 사용자 단말(200)가 위치한 네트워크 사이의 무선 통신을 수행하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 무선 통신부(210)는 공연 수신 모듈(211), 이동통신 모듈(212), 무선 인터넷 모듈(213), 근거리 통신 모듈(214) 및 위치정보 모듈(215) 등을 포함할 수 있다.
공연 수신 모듈(211)은 공연 채널을 통하여 외부의 공연 관리 서버로부터 공연 신호 및/또는 공연 관련된 정보를 수신한다. 여기에서, 공연 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 한편, 공연 관련 정보는 이동통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 이동통신 모듈(312)에 의해 수신될 수 있다.
또한, 이동통신 모듈(212)은 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(213)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 사용자 단말(200)에 내장되거나 외장 될 수 있다.
근거리 통신 모듈(214)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
또한, 위치정보 모듈(215)은 사용자 단말(200)의 위치를 확인하거나 얻기 위한 모듈이다. 일례로 GPS(Global Position System) 모듈을 들 수 있다. GPS 모듈은 복수 개의 인공위성으로부터 위치 정보를 수신한다. 여기에서, 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다.
한편, A/V(Audio/Video) 입력부(220)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(221)와 마이크(222) 등이 포함될 수 있다. 카메라(221)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(251)에 표시될 수 있다.
카메라(221)에서 처리된 화상 프레임은 메모리(360)에 저장되거나 무선 통신부(210)를 통하여 외부로 전송될 수 있다. 카메라(221)는 사용자 단말(200)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크(222)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고, 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(212)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(222)는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 구현할 수 있다.
사용자 입력부(230)는 사용자로부터 입력 동작을 받아들여, 사용자 단말(200)의 동작 제어를 위한 입력 데이터를 발생시킨다.
센싱부(240)는 사용자 단말(200)의 위치, 사용자 접촉 유무, 사용자 단말(200)의 방위, 사용자 단말(200)의 가속/감속 등과 같이, 사용자 단말(200)의 현 상태를 감지하여 사용자 단말(200)의 동작을 제어하기 위한 센싱 신호를 발생시킨다.
인터페이스부(270)는 사용자 단말(200)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 포함될 수 있다.
출력부(250)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것으로, 이에는 디스플레이부(251)와 음향 출력 모듈(252), 알람부(253) 등이 포함될 수 있다.
디스플레이부(251)는 사용자 단말(200)에서 처리되는 정보를 표시 출력한다. 예를 들어, 단말기가 통화 모드인 경우, 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고, 사용자 단말(200)가 화상 통화 모드 또는 촬영 모드인 경우, 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
한편, 전술한 바와 같이, 디스플레이부(251)와 터치 패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(251)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(251)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고, 사용자 단말(200)의 구현 형태에 따라, 디스플레이부(251)는 2개 이상 존재할 수도 있다. 예를 들어, 사용자 단말(200)에 외부 디스플레이부(미도시)와 내부 디스플레이부(미도시)가 동시에 구비될 수 있다.
음향 출력 모듈(252)은 호 신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 공연수신 모드 등에서, 무선 통신부(210)로부터 수신되거나 메모리(260)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력 모듈(352)은 사용자 단말(200)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(252)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
알람부(253)는 사용자 단말(200)의 이벤트 발생을 알리기 위한 신호를 출력한다. 단말기에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다.
메모리(260)는 제어부(280)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다.
메모리(260)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
제어부(280)는 통상적으로 단말기의 전반적인 동작을 제어한다. 예를 들어, 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(280)는 멀티 미디어 재생을 위한 멀티미디어 모듈(281)을 구비할 수도 있다. 멀티미디어 모듈(281)은 제어부(280) 내에 구현될 수도 있고, 제어부(280)와 별도로 구현될 수도 있다.
전원 공급부(290)는 제어부(280)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
한편, 상술한 공연 컨텐츠 제공 장치(100)의 동작 중 적어도 일부 또는 전부는 사용자 단말(200)에서 구현될 수도 있다. 이때, 사용자 단말(200)에는 공연 컨텐츠 제공 장치(100)와 통신하여 상술한 공연 컨텐츠 제공 장치(100)의 동작을 수행하기 위한 애플리케이션이 미리 설치될 수 있다.
도 11은 본 발명의 일 실시예에 따른 통신 과정에서 적용될 수 있는 무선 통신 시스템을 나타낸 도면이다. 도 12은 도 11에 따른 무선 통신 시스템에서 기지국을 나타낸 도면이다. 도 13는 도 11에 따른 무선 통신 시스템에서 단말을 나타낸 도면이다. 도 14은 도 11에 따른 무선 통신 시스템에서 통신 인터페이스를 나타낸 도면이다.
이하에서는 각종 서버들과 단말들 사이의 통신을 지원하는 무선 통신 네트워크 시스템의 일례를 구체적으로 예를 들어 설명한다. 다음 설명에서, 제1 노드(장치)는 앵커/도너 노드 또는 앵커/도너 노드의 CU(centralized unit) 일 수 있고, 제2 노드(장치)는 앵커/도너 노드 또는 릴레이 노드의 DU(distributed unit) 일 수 있다.
무선 통신 시스템에서 무선 채널을 사용하는 노드의 일부로 기지국(base station, BS), 단말, 서버 등이 포함될 수 있다.
기지국은 단말 및 단말에 무선 액세스를 제공하는 네트워크 인프라이다. 기지국은 신호가 전송될 수 있는 거리에 따라 소정의 지리적 영역으로 정의된 커버리지를 갖는다.
기지국은 "기지국"과 마찬가지로 "액세스 포인트(access point, AP)", "이노드비(enodeb, eNB)", "5 세대(5th generation, 5G) 노드", "무선 포인트(wireless point)", "송/수신 포인트(transmission/reception point, TRP)" 지칭될 수 있다.
기지국, 단말 및 단말은 밀리미터 파(millimeter wave, mmWave) 대역(예: 28GHz, 30GHz, 38GHz, 60GHz)으로 무선 신호를 송수신할 수 있다. 이때, 채널 이득 향상을 위해 기지국, 단말 및 단말은 빔포밍을 수행할 수 있다. 빔포밍은 송신 빔포밍 및 수신 빔포밍을 포함할 수 있다. 즉, 기지국, 단말 및 단말은 송신 신호와 수신 신호에 지향성을 부여할 수 있다. 이를 위해 기지국, 단말 및 단말은 빔 탐색 절차 또는 빔 관리 절차를 통해 서빙 빔을 선택할 수 있다. 그 후, 통신은 서빙 빔을 운반하는 자원과 준 동일위치(quasi co-located) 관계에 있는 자원을 사용하여 수행될 수 있다.
첫 번째 안테나 포트 및 두 번째 안테나 포트는 첫 번째 안테나 포트의 심볼이 전달되는 채널의 대규모 속성이 두 번째 안테나 포트의 심볼이 전달되는 채널에서 유추될 수 있는 경우 준 동일위치 위치에 있는 것으로 간주된다. 대규모 속성은 지연 확산, 도플러 확산, 도플러 시프트, 평균 이득, 평균 지연 및 공간 Rx 파라미터 중 하나 이상을 포함할 수 있다.
이하에서는 상술한 무선 통신 시스템에서 기지국을 예시한다. 이하에서 사용되는 "-모듈(module)", "-부(unit)"또는 "-er"라는 용어는 적어도 하나의 기능 또는 동작을 처리하는 유닛을 의미할 수 있으며, 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다.
기지국은 무선 통신 인터페이스, 백홀 통신 인터페이스, 저장부(storage unit 및 컨트롤러을 포함할 수 있다.
무선 통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 무선 통신 인터페이스는 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행할 수 있다. 예를 들어, 데이터 전송에서, 무선 통신 인터페이스은 전송 비트 스트림을 인코딩 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신 시 무선 통신 인터페이스는 베이스 밴드 신호를 복조 및 디코딩하여 수신 비트 스트림을 재구성한다.
무선 통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 무선 통신 인터페이스은 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행할 수 있다. 예를 들어, 데이터 전송에서, 무선 통신 인터페이스은 전송 비트 스트림을 인코딩 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신 시 무선 통신 인터페이스은 베이스 밴드 신호를 복조 및 디코딩하여 수신 비트 스트림을 재구성한다.
또한, 무선 통신 인터페이스는 베이스 대역 신호를 RF(Radio Frequency) 대역 신호로 상향 변환하고, 변환된 신호를 안테나를 통해 전송한 후 안테나를 통해 수신된 RF 대역 신호를 베이스 대역 신호로 하향 변환한다. 이를 위해, 무선 통신 인터페이스은 송신 필터(transmission filter), 수신 필터(reception filter), 증폭기(amplifier), 믹서(mixer), 발진기(oscillator), 디지털-아날로그 컨버터(digital-to-analog convertor, DAC), 아날로그-디지털 컨버터(analog-to-digital convertor, ADC) 등을 포함할 수 있다. 또한, 무선 통신 인터페이스는 복수의 송수신 경로를 포함할 수 있다. 또한, 무선 통신 인터페이스는 복수의 안테나 요소를 포함하는 적어도 하나의 안테나 어레이를 포함할 수 있다.
하드웨어 측면에서 무선 통신 인터페이스는 디지털 유닛과 아날로그 유닛을 포함할 수 있고, 아날로그 유닛은 동작 전력, 동작 주파수 등에 따라 복수의 서브 유닛을 포함할 수 있다. 디지털 유닛은 적어도 하나의 프로세서(예를 들어, 디지털 신호 프로세서(digital signal processor, DSP))로 구현될 수 있다.
무선 통신 인터페이스는 전술한 바와 같이 신호를 송수신한다. 따라서, 무선 통신 인터페이스는 "송신기(transmitter)", "수신기(receiver)"또는 "트랜시버(transceiver)"로 지칭될 수 있다. 또한, 이하의 설명에서 무선 채널을 통해 수행되는 송수신은 전술한 바와 같이 무선 통신 인터페이스에서 수행되는 처리를 포함하는 의미로 사용될 수 있다.
백홀 통신 인터페이스는 네트워크 내의 다른 노드와 통신을 수행하기위한 인터페이스를 제공한다. 즉, 백홀 통신 인터페이스는 다른 노드로 전송되는 비트 스트림을 변환하고, 예를 들어, 다른 액세스 노드, 다른 기지국, 상위 노드 또는 기지국으로부터의 코어 네트워크는 물리적 신호로, 다른 노드로부터 수신된 물리적 신호를 비트 스트림으로 변환한다.
저장부는 기본 프로그램, 어플리케이션, 기지국의 동작을 위한 설정 정보 등의 데이터를 저장한다. 저장부는 휘발성 메모리, 비 휘발성 메모리 또는 휘발성 메모리와 비 휘발성 메모리의 조합을 포함할 수 있다.
컨트롤러는 기지국의 전반적인 동작을 제어한다. 예를 들어, 컨트롤러는 무선 통신 인터페이스 또는 백홀 통신 인터페이스를 통해 신호를 송수신한다. 또한 컨트롤러는 저장부에 데이터를 기록하고 기록된 데이터를 읽는다. 컨트롤러는 통신 규격에서 요구하는 프로토콜 스택의 기능을 수행할 수 있다. 다른 구현에 따르면, 프로토콜 스택은 무선 통신 인터페이스에 포함될 수 있다. 이를 위해 컨트롤러는 적어도 하나의 프로세서를 포함할 수 있다.
일 실시 예에 따르면 컨트롤러는 본 발명의 실시 예에 따른 동작을 수행하도록 기지국을 제어할 수 있다.
다양한 실시 예에 따르면, 무선 통신 시스템의 도너 노드는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 동작 가능하게 결합된 트랜시버를 포함하고, 상기 릴레이 노드에 액세스하는 단말에 대한 복수의 라디오 베어러에 관한 상기 도너 노드와 관련된 제1 정보를 포함하는 제1 메시지를 릴레이 노드로 전송하도록 구성되고; 상기 릴레이 노드로부터 상기 단말에 대한 복수의 라디오 베어러에 관한 상기 릴레이 노드와 관련된 제2 정보를 포함하는 제2 메시지를 수신하고; 단말에 대한 데이터를 릴레이 노드로 전송할 수 있다. 데이터는 제1 정보 및 제2 정보에 기초하여 복수의 라디오 베어러를 통해 단말로 전송될 수 있다.
다양한 실시 예에 따르면, 복수의 라디오 베어러 중 라디오 베어러는 복수의 라디오 베어러를 통합시킬 수 있다. 적어도 하나의 프로세서는 또한 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러 및 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정하도록 구성되고; 또는 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러를 결정할 수 있다.
다양한 실시 예에 따르면, 제1 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 접속하는 단말의 종류를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대한 정보; 릴레이 노드에 액세스하는 단말에 의해 전달된 라디오 베어러에 대한 정보; 도너 노드와 릴레이 노드 사이의 라디오 베어러에 대해 설정된 터널에 대한 정보; 통합된 다중 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 도너 노드 측면의 주소에 대한 정보; 릴레이 노드 측의 주소에 대한 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대응하는 표시 정보; 릴레이 노드에 액세스하는 단말에 대해 새로운 주소를 라디오 베어러에 할당하도록 릴레이 노드를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러의 데이터를 전송하는 릴레이 노드가 사용할 수 없는 주소 정보 목록; 및 보안 구성과 관련된 정보.
다양한 실시 예에 따르면, 제2 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 의해 승인된 라디오 베어러에 대한 정보; 릴레이 노드에 의해 승인되지 않은 라디오 베어러에 대한 정보; 릴레이 노드에 의해 부분적으로 승인된 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 릴레이 노드가 생성한 릴레이 노드에 접속하는 단말의 구성 정보; 릴레이 노드 측의 주소에 대한 정보; 및 보안 구성과 관련된 정보.
다양한 실시 예에 따르면, 제2 메시지는 통합된 다중 라디오 베어러에 대한 정보를 더 포함할 수 있다.
다양한 실시 예에 따르면, 도너 노드는 도너 노드의 중앙 유닛을 포함하고, 릴레이 노드는 도너 노드의 분산 유닛을 포함할 수 있다.
다양한 실시 예에 따르면, 무선 통신 시스템의 릴레이 노드는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 동작 가능하게 결합된 트랜시버를 포함하고, 도너 노드로부터, 릴레이 노드에 액세스하는 단말에 대한 복수의 라디오 베어러에 관한 도너 노드와 관련된 제1 정보를 포함하는 제1 메시지를 수신하도록 구성되고; 단말에 대한 복수의 라디오 베어러에 관한 릴레이 노드와 관련된 제2 정보를 포함하는 제2 메시지를 도너 노드로 전송하고; 도너 노드로부터 단말기에 대한 데이터를 수신할 수 있다. 데이터는 제1 정보 및 제2 정보에 기초하여 복수의 라디오 베어러를 통해 단말로 전송될 수 있다.
다양한 실시 예에 따르면, 복수의 라디오 베어러 중 라디오 베어러는 복수의 라디오 베어러를 통합시킬 수 있다. 적어도 하나의 프로세서는 또한 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러 및 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정하도록 구성되고; 또는 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정할 수 있다.
다양한 실시 예에 따르면, 제1 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 접속하는 단말의 종류를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대한 정보; 릴레이 노드에 액세스하는 단말에 의해 전달된 라디오 베어러에 대한 정보; 도너 노드와 릴레이 노드 사이의 라디오 베어러에 대해 설정된 터널에 대한 정보; 통합된 다중 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 도너 노드 측면의 주소에 대한 정보; 릴레이 노드 측의 주소에 대한 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대응하는 표시 정보; 릴레이 노드에 액세스하는 단말에 대해 새로운 주소를 라디오 베어러에 할당하도록 릴레이 노드를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러의 데이터를 전송하는 릴레이 노드가 사용할 수 없는 주소 정보 목록; 및 보안 구성과 관련된 정보.
다양한 실시 예에 따르면, 제2 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 의해 승인된 라디오 베어러에 대한 정보; 릴레이 노드에 의해 승인되지 않은 라디오 베어러에 대한 정보; 릴레이 노드에 의해 부분적으로 승인된 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 릴레이 노드가 생성한 릴레이 노드에 접속하는 단말의 구성 정보; 릴레이 노드 측의 주소에 대한 정보; 및 보안 구성과 관련된 정보.
다양한 실시 예에 따르면, 제2 메시지는 통합된 다중 라디오 베어러에 대한 정보를 더 포함할 수 있다.
다양한 실시 예에 따르면, 도너 노드는 도너 노드의 중앙 유닛을 포함하고, 릴레이 노드는 도너 노드의 분산 유닛을 포함할 수 있다.
이하에서는 상술한 무선 통신 시스템에서 단말의 구성요소를 도시한다. 이하에서는 설명하는 단말의 구성요소는 무선 통신 시스템에서 지원하는 범용적인 단말의 구성요소로서 전술한 내용들에 따른 단말의 구성요소와 병합되거나 통합될 수 있고, 일부 중첩되거나 상충되는 범위에서 앞서 도면을 참조하여 설명한 내용이 우선적용되는 것으로 해석될 수 있다. 이하에서 사용되는 "-모듈", "-유닛"또는 "-er"라는 용어는 적어도 하나의 기능을 처리하는 유닛을 의미할 수 있다.
단말은 통신 인터페이스, 저장부 및 컨트롤러를 포함한다.
통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 통신 인터페이스는 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행한다. 예를 들어, 데이터 전송에서 통신 인터페이스는 전송 비트 스트림을 인코딩 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신시 통신 인터페이스는 베이스 대역 신호를 복조 및 복호화하여 수신 비트 스트림을 재구성한다. 또한, 통신 인터페이스는 베이스 대역 신호를 RF 대역 신호로 상향 변환하고, 변환된 신호를 안테나를 통해 전송한 후 안테나를 통해 수신된 RF 대역 신호를 기저 대역 신호로 하향 변환한다. 예를 들어, 통신 인터페이스는 송신 필터(transmission filter), 수신 필터(reception filter), 증폭기(amplifier), 믹서(mixer), 발진기(oscillator), 디지털-아날로그 컨버터(digital-to-analog convertor, DAC), 아날로그-디지털 컨버터(analog-to-digital convertor, ADC) 등을 포함할 수 있다.
또한, 통신 인터페이스는 복수의 송수신 경로를 포함할 수 있다. 또한, 통신 인터페이스는 복수의 안테나 요소를 포함하는 적어도 하나의 안테나 어레이를 포함할 수 있다. 하드웨어 측에서 무선 통신 인터페이스는 디지털 회로 및 아날로그 회로(예를 들어, radio frequency integrated circuit, RFIC)를 포함할 수 있다. 디지털 회로는 적어도 하나의 프로세서(예: DSP)로 구현될 수 있다. 통신 인터페이스는 복수의 RF 체인을 포함할 수 있다. 통신 인터페이스는 빔포밍을 수행할 수 있다.
통신 인터페이스는 전술한 바와 같이 신호를 송수신한다. 따라서, 통신 인터페이스는 "송신기(transmitter)", "수신기(receiver)"또는 "트랜시버(transceiver)"로 지칭될 수 있다. 또한, 이하의 설명에서 무선 채널을 통해 수행되는 송수신은 전술한 바와 같이 통신 인터페이스에서 수행되는 처리를 포함하는 의미로 사용될 수 있다.
저장부는 단말기의 동작을 위한 기본 프로그램, 어플리케이션, 설정 정보 등의 데이터를 저장한다. 저장부는 휘발성 메모리, 비 휘발성 메모리 또는 휘발성 메모리와 비 휘발성 메모리의 조합을 포함할 수 있다. 또한, 저장부는 컨트롤러의 요청에 따라 저장된 데이터를 제공한다.
컨트롤러는 단말의 전반적인 동작을 제어한다. 예를 들어, 컨트롤러는 통신 인터페이스를 통해 신호를 송수신한다. 또한 컨트롤러는 저장부에 데이터를 기록하고 기록된 데이터를 읽는다. 컨트롤러는 통신 규격에서 요구하는 프로토콜 스택의 기능을 수행할 수 있다. 다른 구현에 따르면, 프로토콜 스택은 통신 인터페이스에 포함될 수 있다. 이를 위해, 컨트롤러는 적어도 하나의 프로세서 또는 마이크로 프로세서를 포함하거나 프로세서의 일부를 재생할 수 있다. 또한, 통신 인터페이스 또는 컨트롤러의 일부를 통신 프로세서(communication processor, CP)라고 할 수 있다.
본 발명의 일 실시 예에 따르면, 컨트롤러는 본 발명의 실시 예에 따른 동작을 수행하도록 단말을 제어할 수 있다.
이하에서는 무선 통신 시스템에서 통신 인터페이스를 예시한다.
통신 인터페이스는 인코딩 및 변조 회로, 디지털 빔포밍 회로, 복수의 전송 경로 및 아날로그 빔포밍 회로를 포함한다.
인코딩 및 변조 회로는 채널 인코딩을 수행한다. 채널 인코딩을 위해 low-density parity check(LDPC) 코드, 컨볼루션 코드 및 폴라 코드 중 적어도 하나가 사용될 수 있다. 인코딩 및 변조 회로는 성상 매핑(constellation mapping)을 수행함으로써 변조 심볼을 생성한다.
디지털 빔포밍 회로는 디지털 신호(예를 들어, 변조 심볼)에 대한 빔 형성을 수행한다. 이를 위해, 디지털 빔포밍 회로는 빔포밍 가중 값에 의해 변조 심볼을 다중화한다. 빔포밍 가중치는 신호의 크기 및 문구를 변경하는데 사용될 수 있으며, "프리코딩 매트릭스(precoding matrix)"또는 "프리코더(precoder)"라고 할 수 있다. 디지털 빔포밍 회로는 디지털 빔포밍된 변조 심볼을 복수의 전송 경로로 출력한다. 이때, 다중 안테나 기술(multiple input multiple output, MIMO) 전송 방식에 따라 변조 심볼이 다중화 되거나 동일한 변조 심볼이 복수의 전송 경로에 제공될 수 있다.
복수의 전송 경로는 디지털 빔포밍된 디지털 신호를 아날로그 신호로 변환한다. 이를 위해, 복수의 전송 경로 각각은 인버스 고속 푸리에 변환(inverse fast fourier transform, IFFT) 계산 유닛, 순환 전치(cyclic prefix, CP) 삽입 유닛, DAC 및 상향 변환 유닛을 포함할 수 있다. CP 삽입 부는 직교 주파수 분할 다중화(orthogonal frequency division multiplexing, OFDM) 방식을 위한 것으로 다른 물리 계층 방식(예: 필터 뱅크 다중 반송파(a filter bank multi-carrier): FBMC) 적용시 생략될 수 있다. 즉, 복수의 전송 경로는 디지털 빔포밍을 통해 생성된 복수의 스트림에 대해 독립적인 신호 처리 프로세스를 제공한다. 그러나, 구현에 따라 복수의 전송 경로의 일부 요소는 공통적으로 사용될 수 있다.
아날로그 빔포밍 회로는 아날로그 신호에 대한 빔포밍을 수행한다. 이를 위해, 디지털 빔포밍 회로는 빔포밍 가중 값에 의해 아날로그 신호를 다중화한다. 빔포밍된 가중치는 신호의 크기와 문구를 변경하는데 사용된다. 보다 구체적으로, 복수의 전송 경로와 안테나 사이의 연결 구조에 따라, 아날로그 빔포밍 회로는 다양한 방식으로 구성될 수 있다. 예를 들어, 복수의 전송 경로 각각은 하나의 안테나 어레이에 연결될 수 있다. 다른 예에서, 복수의 전송 경로는 하나의 안테나 어레이에 연결될 수 있다. 또 다른 예에서, 복수의 전송 경로는 하나의 안테나 어레이에 적응적으로 연결될 수 있거나 2개 이상의 안테나 어레이에 연결될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
Claims (1)
- 사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 공연 컨텐츠 제공 장치에 포함된 프로세서에 의해 수행되는 상기 공연 컨텐츠 제공 장치의 동작 방법으로,
공연자 제스처를 인식하고, 인식된 상기 공연자 제스처에 대응하는 제스처 인식 신호를 생성하는 단계;
상기 제스처 인식 신호를 분석하여, 상기 공연자 제스처가 기 설정된 제 1 제스처, 제 2 제스처 또는 제 3 제스처 인지 판단하는 단계;
상기 공연자 제스처가 상기 제 1 제스처인 경우, 상기 제 1 제스처에 기초하여 적어도 하나의 카메라 영상에서 공연 영상을 선택하는 단계;
상기 공연자 제스처가 상기 제 2 제스처인 경우, 상기 제 2 제스처에 기초하여 증강현실 컨텐츠를 선택하는 단계;
상기 공연자 제스처가 상기 제 3 제스처인 경우, 상기 제 3 제스처에 기초하여 공연 장비를 제어하는 단계; 및
상기 공연 영상과 상기 증강현실 컨텐츠를 오버레이하여, 공연 컨텐츠를 생성하는 단계를 포함하고,
상기 공연 영상을 선택하는 단계는,
상기 제 1 제스처에 따른 지시 방향 및 각도 중 적어도 하나를 이용하여, 상기 적어도 하나의 카메라 영상에서 상기 공연 영상을 선택하되, 상기 제 1 제스처가 공연자의 오른팔에 관한 제스처인 경우, 상기 공연자의 오른팔이 지시하는 방향을 촬영하는 카메라의 카메라 영상을 상기 공연 영상으로 선택하고,
상기 증강현실 컨텐츠를 선택하는 단계는,
기 설정된 상기 제 2 제스처와 상기 제 2 제스처에 대응하는 증강현실 컨텐츠에 대한 매핑 정보를 포함하는 맵핑 테이블을 이용하여, 상기 제 2 제스처에 대응하는 상기 증강현실 컨텐츠를 선택하고,
상기 증강현실 컨텐츠는, 공연 대본 이미지, 공연 설명 이미지, 공연자 아바타 영상, 공연 소품 이미지, 및 무대 효과 영상을 포함하고,
상기 제 3 제스처에 기초하여 공연 장비를 제어하는 단계는, 상기 제 3 제스처의 반복 횟수를 이용하여 카메라의 이동 속도, 줌인, 줌 아웃, 초점, 팬, 및 틸트, 마이크의 볼륨, 및 조명의 밝기 중에서 어느 하나를 선택하고, 상기 제 3 제스처의 반복 주기를 이용하여 선택된 공연 장비의 설정을 변경하고,
상기 공연 컨텐츠를 생성하는 단계는,
사용자의 사용자 단말에 대한 이동 정보를 상기 사용자에 대한 관람 위치 정보로서 획득하는 단계;
획득된 상기 관람 위치 정보에 따라 상기 증강현실 컨텐츠의 위치, 크기 및 기울기 중 어느 하나를 조정하는 단계; 및
조정된 상기 증강현실 컨텐츠를 상기 공연 영상과 합성하는 단계를 포함하고,
상기 합성하는 단계는,
공연장 내의 무대 위 고정된 위치에 설치된 제 1 마커 및 공연자 또는 공연에 사용되는 물건에 설치된 제 2 마커를 인식하는 단계;
인식된 상기 제 1 마커 및 상기 제 2 마커의 크기와 위치에 기초하여 상기 증강현실 컨텐츠의 위치와 크기를 조정하는 단계; 및
조정된 상기 증강현실 컨텐츠를 상기 공연 영상과 합성하는 단계를 포함하는,
공연 컨텐츠 제공 장치의 동작 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220045144A KR102569419B1 (ko) | 2021-05-21 | 2022-04-12 | 사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 증강현실 기반 공연 컨텐츠 제공 장치 및 그 동작 방법 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210065674A KR102387355B1 (ko) | 2021-05-21 | 2021-05-21 | 증강현실 기반 공연 컨텐츠 제공 방법 및 장치 |
KR1020220045144A KR102569419B1 (ko) | 2021-05-21 | 2022-04-12 | 사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 증강현실 기반 공연 컨텐츠 제공 장치 및 그 동작 방법 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210065674A Division KR102387355B1 (ko) | 2021-05-21 | 2021-05-21 | 증강현실 기반 공연 컨텐츠 제공 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220157872A KR20220157872A (ko) | 2022-11-29 |
KR102569419B1 true KR102569419B1 (ko) | 2023-08-24 |
Family
ID=81390653
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210065674A KR102387355B1 (ko) | 2021-05-21 | 2021-05-21 | 증강현실 기반 공연 컨텐츠 제공 방법 및 장치 |
KR1020220045144A KR102569419B1 (ko) | 2021-05-21 | 2022-04-12 | 사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 증강현실 기반 공연 컨텐츠 제공 장치 및 그 동작 방법 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210065674A KR102387355B1 (ko) | 2021-05-21 | 2021-05-21 | 증강현실 기반 공연 컨텐츠 제공 방법 및 장치 |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102387355B1 (ko) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240067414A (ko) | 2022-11-09 | 2024-05-17 | 제이에스씨(주) | 대규모 가상 공연 네트워크 시스템에서의 데이터 최적화 및 동기화 방법 |
KR102709180B1 (ko) * | 2023-04-13 | 2024-09-24 | 국민대학교산학협력단 | Ar 기반의 연출 증진 장치 및 방법 |
KR102635477B1 (ko) | 2023-08-01 | 2024-02-08 | 김재하 | 증강현실 기반의 공연 콘텐츠 제공장치 및 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101703924B1 (ko) * | 2015-09-22 | 2017-02-07 | 하태진 | 관람위치 변경이 가능한 가상현실안경을 포함하는 가상현실 시스템 |
KR101839270B1 (ko) | 2017-08-01 | 2018-03-15 | 서울과학기술대학교 산학협력단 | 공연장의 가상현실 동영상 형성방법 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101961015B1 (ko) * | 2017-05-30 | 2019-03-21 | 배재대학교 산학협력단 | 가상 스튜디오 연동 스마트 증강현실 서비스 시스템 및 방법 |
KR20200024441A (ko) * | 2018-08-28 | 2020-03-09 | 김영대 | 가상 및 증강 현실 강의실에서 인공지능 기능의 자동 장면 전환 기술을 이용한 스마트-원격 강의 방법 및 그 장치 |
KR102186607B1 (ko) * | 2019-05-22 | 2020-12-03 | 백향은 | 증강현실을 통한 발레 공연 시스템 및 방법 |
-
2021
- 2021-05-21 KR KR1020210065674A patent/KR102387355B1/ko active IP Right Grant
-
2022
- 2022-04-12 KR KR1020220045144A patent/KR102569419B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101703924B1 (ko) * | 2015-09-22 | 2017-02-07 | 하태진 | 관람위치 변경이 가능한 가상현실안경을 포함하는 가상현실 시스템 |
KR101839270B1 (ko) | 2017-08-01 | 2018-03-15 | 서울과학기술대학교 산학협력단 | 공연장의 가상현실 동영상 형성방법 |
Also Published As
Publication number | Publication date |
---|---|
KR20220157872A (ko) | 2022-11-29 |
KR102387355B1 (ko) | 2022-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102569419B1 (ko) | 사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 증강현실 기반 공연 컨텐츠 제공 장치 및 그 동작 방법 | |
KR102616384B1 (ko) | 촬영룸 키오스크를 통해 촬영된 이미지들에 기초하여 사진 프레임을 생성하는 장치 및 방법 | |
KR20120027876A (ko) | 이동 단말기 및 그의 3d 이미지 합성방법 | |
KR20180092621A (ko) | 단말기 및 그 제어 방법 | |
KR102623181B1 (ko) | 무선 디바이스 및 무선 시스템 | |
KR20150109764A (ko) | 단말기 및 상기 단말기에서 데이터 처리 방법 | |
KR20090002848A (ko) | 주변 기기 식별 방법 및 장치 | |
CN105827866A (zh) | 一种移动终端及控制方法 | |
KR20170111000A (ko) | 디스플레이 장치 및 그의 동작 방법 | |
KR102673444B1 (ko) | 빔 북 정보에 기반하여 영역별 차별화된 서비스 제공 방법 및 장치 | |
KR20150091798A (ko) | 단말기 및 상기 단말기에서의 이미지 합성 방법 | |
CN105049916B (zh) | 一种视频录制方法及装置 | |
WO2013005736A1 (ja) | 表示装置、表示制御方法、およびプログラム | |
CN107071275B (zh) | 一种图像合成方法及终端 | |
KR101988897B1 (ko) | 이동 단말기 및 그의 오디오 줌잉 공유방법 | |
KR101951419B1 (ko) | 이동 단말기 및 그의 오디오/비디오 듀얼 포커싱 방법 | |
CN109473117B (zh) | 音频特效叠加方法、装置及其终端 | |
CN109275038B (zh) | 一种游戏直播方法、终端及计算机可读存储介质 | |
CN104902100B (zh) | 一种控制移动终端应用的方法及装置 | |
KR20180061908A (ko) | 디스플레이 장치 및 그 제어 방법 | |
KR20180017944A (ko) | 이동 단말기 및 그의 동작 방법 | |
KR20180020702A (ko) | 이동단말기 및 그 제어방법 | |
KR101969802B1 (ko) | 이동 단말기 및 재생 영상의 오디오 줌잉 방법 | |
CN106506473A (zh) | 一种信息处理方法及投影终端 | |
KR20160041233A (ko) | 이동 단말기 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |