KR101839270B1 - Method of forming virtual reality of performance - Google Patents

Method of forming virtual reality of performance Download PDF

Info

Publication number
KR101839270B1
KR101839270B1 KR1020170097546A KR20170097546A KR101839270B1 KR 101839270 B1 KR101839270 B1 KR 101839270B1 KR 1020170097546 A KR1020170097546 A KR 1020170097546A KR 20170097546 A KR20170097546 A KR 20170097546A KR 101839270 B1 KR101839270 B1 KR 101839270B1
Authority
KR
South Korea
Prior art keywords
information
led
seats
signage
virtual reality
Prior art date
Application number
KR1020170097546A
Other languages
Korean (ko)
Inventor
정은영
김동호
Original Assignee
서울과학기술대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울과학기술대학교 산학협력단 filed Critical 서울과학기술대학교 산학협력단
Priority to KR1020170097546A priority Critical patent/KR101839270B1/en
Application granted granted Critical
Publication of KR101839270B1 publication Critical patent/KR101839270B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • H04B10/114Indoor or close-range type systems
    • H04B10/116Visible light communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Disclosed is a method for forming a virtual reality video of a theater without separate three-dimensional digital capturing. The method for forming a virtual reality video of a theater comprises the following steps of: capturing image information from multiple seats; acquiring a relative coordinate of the multiple seats in which a stage where performance is performed and the image are captured; collecting the relative coordinate and the image information; and synthesizing the acquired image information from each seat based on the relative coordinate.

Description

공연장의 가상현실 동영상 형성방법{METHOD OF FORMING VIRTUAL REALITY OF PERFORMANCE}METHOD OF FORMING VIRTUAL REALITY OF PERFORMANCE [0002]

본 발명은 공연장의 가상현실 동영상 형성방법에 관한 것으로, 보다 상세히 아이돌 콘서트, 클래식 공연, 연극 등 공연장의 가상현실 동영상 형성방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for forming a virtual reality video in a theater, and more particularly, to a method for forming a virtual reality video in a theater such as an idol concert, a classical performance, and a play.

공연이란 무대에서 관객을 대상으로 춤, 음악, 연기를 비롯한 다양한 볼거리를 직접 제공하는 현장 예술로서, 무용, 연극, 판토마임, 인형극, 오페라 등 다양한 장르가 존재한다. 공연은 연기자와 관객이 같은 공간에서 상호교감한다는 점에서 영화 등 다른 콘텐츠와 차이점을 갖는다.Performances are a variety of genres such as dance, drama, pantomime, puppet theater, and opera, which provide the audience with various dances, music, and performances. The performance differs from other contents such as movies in that actors and spectators interact in the same space.

그러나, 공연이 공연을 공급하는 공연자와 수요자인 관객 사이의 상호교감이 이루어진다는 장점이 있으나, 반면 공연은 일시적이고, 좁은 공연장 내로 한정되는 등 시공간적인 제한으로 인해서 공급가격(공연의 티켓가격)이 높아질 수 밖에 없다. 이로 인해서, 공연을 즐길 수 인원은 제한적이며, 다수에게 제공하지 못하는 문제점이 발생된다.However, there is an advantage in that the concert is performed between performers who provide the performances and the audience who is the buyer. However, due to the temporal limitations such as the performance being limited to the temporary and narrow theaters, the supply price There is no choice but to increase. As a result, the number of people who can enjoy the performance is limited, and a problem that can not be provided to a large number occurs.

따라서, 이러한 공연을 영화와 같이, 반복 재생성을 갖도록 하는 움직임이 있다. 그러나, 공연의 경우, 2차원 영상으로 제작되면, 공연의 현장감이 떨어지기 때문에 가상현실로서 구현하려는 움직임이 있다.Therefore, there is a movement of making such a performance as a movie with a repetitive regeneration. However, in the case of performance, there is a movement to realize it as a virtual reality because the sense of presence of the performance is lowered when it is produced as a two - dimensional image.

대한민국 공개특허 10-2009-0016234, '가상현실 공연 시스템 및 그 방법'에 의하면, 관객이 원하는 객석의 위치에서 가상현실상에서도 현실 공원과 동일하게 원하는 객석을 선택하여 감상할 수 있도록 하는 기술이 개시되어 있다.Korean Unexamined Patent Application Publication No. 10-2009-0016234, 'Virtual Reality Performance System and Method' discloses a technique for allowing a viewer to select and appreciate a desired audience in the same manner as a reality park on a virtual reality in a desired audience position have.

이러한 기술에 의하면, 3차원 디지털 촬영을 통해서 제작된 디지털화된 공연 정보를 저장하고, 관객이 원하는 객석을 선택하면, 선택된 객석에서의 자료를 공연 데이터베이스에서 추출하여 전송한다.According to this technique, digitalized performance information produced through 3D digital photography is stored, and when a viewer selects a desired audience, data from the selected audience is extracted from the performance database and transmitted.

그러나, 공연을 가상현실도 구현하는 과정에서 별도의 3차원 디지털 촬영을 통해서 구현되므로 공연의 가상현실 데이터베이스 제작에 많은 경비를 요하게 되는 문제점이 발생된다.However, since the performance is realized through a separate 3D digital photography in the process of implementing the virtual reality, there arises a problem that the production of the virtual reality database of the performance requires a lot of expenses.

대한민국 공개특허 10-2009-0016234Korean Patent Publication No. 10-2009-0016234

그에 따라서, 본 발명이 해결하고자 하는 과제는, 별도의 3차원 디지털 촬영 없이, 공연장의 가상현실 동영상 형성방법을 제공하는 것이다.Accordingly, a problem to be solved by the present invention is to provide a method of forming a virtual reality moving picture in a theater without a separate three-dimensional digital photographing.

이러한 과제를 해결하기 위한 본 발명의 예시적인 일 실시예에 의한 공연장의 가상현실 동영상 형성방법은, 다수의 객석에서 영상정보를 촬영하는 단계와, 공연이 진행되는 무대와 영상이 촬영되는 다수의 객석의 상대적인 좌표를 획득하는 단계와, 상기 상대적인 좌표 및 상기 영상정보를 수집하는 단계, 및 상기 상대적인 좌표를 기초로, 각각의 객석에서 획득된 영상정보를 합성하는 단계를 포함한다.According to an exemplary embodiment of the present invention, there is provided a method for forming a virtual reality video of a theater, the method including: capturing image information from a plurality of seats; Acquiring the relative coordinates and the image information, and synthesizing the image information obtained in each of the seats based on the relative coordinates.

예컨대, 상기 상대적인 좌표를 획득하는 단계는, 무대에서의 GPS 정보를 수신하여 상기 무대의 좌표를 획득하는 단계와, 다수의 객석에서의 GPS 정보를 수신하여 상기 다수의 객석의 좌표를 획득하는 단계, 및 상기 무대의 좌표에 대한, 상기 다수의 객석에서의 상대좌표를 획득하는 단계를 포함할 수 있다.For example, the step of acquiring the relative coordinates may include receiving GPS information on the stage to obtain coordinates of the stage, receiving GPS information in a plurality of seats to obtain coordinates of the plurality of seats, And obtaining relative coordinates in the plurality of seats for the coordinates of the stage.

이와 다르게, 상기 상대적인 좌표를 획득하는 단계는, 다수의 객석에서 영상정보를 통해서 획득될 수도 있다.Alternatively, the step of obtaining the relative coordinates may be obtained through image information in a plurality of seats.

이때, 상기 영상정보에는 상기 무대 뒷편의 LED 사이니지의 영상을 포함하고, 본 발명의 일 실시예에 의한 공연장의 가상현실 동영상 형성방법은 상기 다수의 객석에서 영상정보를 촬영하는 단계 이전에, LED 사이니지의 GPS 정보 및 LED 인텐시티 정보를 획득하는 단계와, 상기 LED 사이니지의 GPS 정보 및 LED 인텐시티 정보를 인코딩하는 단계, 및 인코딩된 상기 LED 사이니지의 GPS 정보 및 LED 인텐시티 정보를 상기 LED 사이니지를 통해서 가시광통신으로 전송하는 단계를 더 포함할 수 있다.At this time, the image information includes an image of an LED signage behind the stage, and in the method of forming a virtual reality moving image of a theater according to an embodiment of the present invention, before the step of photographing image information from the plurality of seats, Comprising the steps of: obtaining GPS information and LED intensity information of the signage; encoding GPS information and LED intensity information of the LED signage; and transmitting GPS information and LED intensity information of the encoded LED signage to the LED signage And transmitting the information through visible light communication.

이때, 상기 LED 사이니지의 GPS 정보 및 LED 인텐시티 정보를 인코딩하는 단계는 OOK(On-Off Keying)를 통해서 이루어질 수 있다.At this time, the step of encoding the GPS information and the LED intensity information of the LED signage may be performed through On-Off Keying (OOK).

바람직하게, 상기 LED 사이니지의 GPS 정보 및 LED 인텐시티 정보는 2회 이상 동일한 정보를 전송할 수 있다.Preferably, the GPS information and LED intensity information of the LED signage may transmit the same information more than once.

또한, 상기 LED 사이니지의 GPS 정보 및 LED 인텐시티 정보는 다수의 프레임에 나누어서 전송될 수 있다.In addition, the GPS information and the LED intensity information of the LED signage may be transmitted in a plurality of frames.

한편, 공연이 진행되는 무대와 영상이 촬영되는 다수의 객석의 상대적인 좌표를 획득하는 단계는 일정 주기마다 반복적으로 수행될 수 있다.On the other hand, the step of acquiring the relative coordinates of the stage where the performances are performed and the plurality of seats where the images are taken can be repeatedly performed at predetermined intervals.

또한, 상기 상대적인 좌표 및 상기 영상정보를 수집하는 단계는 클라우딩에 의해 이루어질 수 있다.In addition, the step of collecting the relative coordinates and the image information may be performed by clouding.

이와 같이 본 발명에 의한 공연장의 가상현실 동영상 형성방법은 별도의 3차원 디지털 촬영 없이, 각 객석에 위치한 스마트폰에 의해서 공연장의 가상현실을 구현할 수 있다.As described above, the virtual reality moving image forming method according to the present invention can realize a virtual reality of a theater by a smartphone located in each audience without a separate three-dimensional digital photographing.

또한, 무대 및 객석의 GPS정보를 이용하여 무대와 객석의 상대좌표를 획득함으로써 용이하게 공연장의 가상현실을 구현할 수 있다.Also, it is possible to easily realize the virtual reality of the theater by acquiring the relative coordinates of the stage and the audience using the GPS information of the stage and the audience.

또한, LED 사이니지를 이용하여 인텐시티 정보를 송신하고, 스마트폰에서 이를 수신하여 상대좌표를 획득하는 경우, GPS 정보를 수신할 수 없는 곳에서도 공연장의 가상현실을 구현할 수 있으며, 높낮이의 단차가 있는 경우, 이를 반영하여 공연장의 가상현실을 구현할 수 있다.In addition, when the intensity information is transmitted using the LED signage and the smart phone receives it and acquires the relative coordinates, the virtual reality of the performance site can be realized even where the GPS information can not be received, In this case, it is possible to realize the virtual reality of the theater by reflecting this.

또한, LED 사이니지의 GPS 정보 및 LED 인텐시티 정보는 2회 이상 동일한 정보를 전송하는 경우, 일정한 LED의 프레임 레이트 대비 일정하지 않은 스마트폰 카메라의 프레임 레이트의 경우에도 보다 안정적으로 LED 사이니지의 GPS 정보 및 LED 인텐시티 정보를 획득할 수 있다.In addition, the GPS information and the LED intensity information of the LED signage can be more reliably transmitted to the LED signage information even when the same information is transmitted twice or more at a frame rate of a certain smartphone camera, And LED intensity information.

또한, 공연이 진행되는 무대와 영상이 촬영되는 다수의 객석의 상대적인 좌표를 획득하는 단계는 일정 주기마다 반복적으로 수행하는 경우, 데이터가 누적되어 계산되는 위치정확도를 향상시킬 수 있다.Also, the step of acquiring the relative coordinates of the stage where the performance is performed and the plurality of seats in which the image is captured can be improved in the accuracy of the position in which data is accumulated and calculated when it is repeatedly performed every predetermined period.

도 1은 본 발명에 의한 공연장의 가상현실 동영상 형성방법을 설명하기 위한 개념도이다.
도 2는 본 발명의 예시적인 일 실시예에 의한 공연장의 가상현실 동영상 형성방법을 도시한 순서도이다.
도 3은 도 1에서 도시된 사이니지(송신단)와 스마트폰(수신단)의 동작을 도시한 순서도이다.
도 4는 도 3에서 도시된 LED 인텐시티 정보와 GPS 정보의 데이터 구조를 도시한 개념도이다.
도 5는 LED 인텐시티 정보를 이용하여 위치를 계산하는 원리를 도시한 개념도이다.
FIG. 1 is a conceptual diagram for explaining a method of forming a virtual reality moving picture in a theater according to the present invention.
FIG. 2 is a flowchart illustrating a method for forming a virtual reality moving picture in a theater according to an exemplary embodiment of the present invention.
FIG. 3 is a flowchart showing the operation of the signage (transmitter) and the smartphone (receiver) shown in FIG.
4 is a conceptual diagram showing the data structure of the LED intensity information and the GPS information shown in FIG.
5 is a conceptual diagram showing a principle of calculating a position using LED intensity information.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조 부호를 유사한 구성 요소에 대해 사용하였다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 과장하여 도시한 것일 수 있다. The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It should be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing. In the accompanying drawings, the dimensions of the structures may be exaggerated to illustrate the present invention.

제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

본 출원에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 또한, A와 B가'연결된다', '결합된다'라는 의미는 A와 B가 직접적으로 연결되거나 결합하는 것 이외에 다른 구성요소 C가 A와 B 사이에 포함되어 A와 B가 연결되거나 결합되는 것을 포함하는 것이다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprising" or "having ", and the like, are intended to specify the presence of stated features, integers, steps, operations, elements, parts, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, parts, or combinations thereof. In addition, A and B are 'connected' and 'coupled', meaning that A and B are directly connected or combined, and other component C is included between A and B, and A and B are connected or combined .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 또한, 방법 발명에 대한 특허청구범위에서, 각 단계가 명확하게 순서에 구속되지 않는 한, 각 단계들은 그 순서가 서로 바뀔 수도 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not. Also, in the claims of a method invention, each step may be reversed in order, unless the steps are clearly constrained in order.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명하고자 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings.

도 1은 본 발명에 의한 공연장의 가상현실 동영상 형성방법을 설명하기 위한 개념도이다.FIG. 1 is a conceptual diagram for explaining a method of forming a virtual reality moving picture in a theater according to the present invention.

도 1을 참조하면, 본 발명에 의한 공연장의 가상현실 동영상 형성방법은 다수의 관객들의 보유하고 있는 스마트폰을 이용하여 구현된다.Referring to FIG. 1, a method for forming a virtual reality moving picture in a theater according to the present invention is implemented using a smartphone possessed by a plurality of audiences.

공연장의 경우, 일반적인 가상현실 동영상과는 다른 특징을 갖는다. 즉, 즉 공연장의 경우, 촬영방향이 고정적이며, 좌석이 고정적이다. 이러한 특징들로 인해서 공연장의 경우 다른 환경보다 용이하게 가상현실을 구현할 수 있다.In the case of a theater, it has characteristics different from general virtual reality video. That is, in the case of the performance hall, the shooting direction is fixed and the seat is fixed. Because of these features, virtual reality can be realized more easily than other environments in a theater.

아이돌의 콘서트장등에서는 관객들이 스마트폰으로 공연현장을 동영상으로 촬영하는 것을 흔히 볼수 있다. 관객들을 이용하여 구현되는 것이 아니더라고, 리허설 중에 다수의 스텝들을 동원하여 구현되어질 수도 있다. 이렇게 촬영된 영상들과 촬영된 위치를 매핑시킬 수 있는 경우, 특수촬영 장비를 이용하지 않고서도 가상현실을 구현할 수 있다.At idol concert venues, it is common for audiences to shoot videos of performances on their smartphones. It may not be implemented using audiences, but may be implemented with multiple steps during rehearsal. In the case where the photographed images and the photographed positions can be mapped, a virtual reality can be realized without using special shooting equipment.

이러한 영상들을 클라우딩하여 영상을 수집한 후, 이를 합성하여 공연의 가상현실을 구현한다.After the images are collected by clouding them, they are synthesized to realize the virtual reality of the performance.

이하, 구체적인 방법을 보다 상세히 설명한다.Hereinafter, the specific method will be described in more detail.

도 2는 본 발명의 예시적인 일 실시예에 의한 공연장의 가상현실 동영상 형성방법을 도시한 순서도이다.FIG. 2 is a flowchart illustrating a method for forming a virtual reality moving picture in a theater according to an exemplary embodiment of the present invention.

도 2를 참조하면, 본 발명의 예시적인 일 실시예에 의한 공연장의 가상현실 동영상 형성방법에 의하면, 먼저 다수의 객석에서 영상정보를 촬영한다(단계 S110). 앞서 설명한 바와 같이, 다수의 객석에서 영상정보를 촬영하는 주체는 관객이 될 수도 있으며, 스텝진에 의해서 영상정보를 촬영할 수도 있다. 상기 영상정보내에는 공연자의 퍼포먼스 이외에도, 공연장 뒤의 디지털 사이니지가 포함될 수도 있다.Referring to FIG. 2, according to a method of forming a virtual reality moving picture of a theater according to an exemplary embodiment of the present invention, image information is first captured from a plurality of seats (step S110). As described above, the subject who shoots the image information from a plurality of seats may be an audience, or the step information may be photographed by the steppe. In addition to the performance of the performer, the image information may include digital signage behind the performance site.

디지털 사이니지는 무대 뒤편에 설치되어 무대에서 멀리있는 객석에서 무대를 볼수 있도록 형성하는 예컨대 스크린으로서, 다수의 LED 광원들이 화소를 구성하여 이미지를 구현하게 된다.Digital signage is, for example, a screen that is installed behind the stage and is formed so that a stage can be seen from a seat far away from the stage, and a plurality of LED light sources constitute pixels to implement an image.

이후, 공연이 진행되는 무대와 영상이 촬영되는 다수의 객석의 상대적인 좌표를 획득한다(단계 S120). 이러한 무대와 객석의 상대적인 좌표는 GPS 정보를 이용하여 획득될 수 있다.Thereafter, the relative coordinates of the stage where the performance is performed and the number of seats where the image is captured are obtained (step S120). The relative coordinates of the stage and the audience can be obtained using GPS information.

먼저, 무대에서의 GPS 정보를 수신하여 상기 무대의 좌표를 획득한다. 이후, 다수의 객석에서의 GPS 정보를 수신하여 상기 다수의 객석의 좌표를 획득한다. 그런 이후, 상기 무대의 좌표에 대한, 상기 다수의 객석에서의 상대좌표를 획득한다. 즉, 다수의 객석에서의 좌표에서 상기 무대의 좌표를 차감함으로써, 무대의 좌표를 원점으로 한, 다수의 객석의 상대 좌표를 획득한다.First, GPS information on the stage is received to acquire the coordinates of the stage. Thereafter, GPS information in a plurality of seats is received and coordinates of the plurality of seats are obtained. Thereafter, relative coordinates in the plurality of seats are obtained for the coordinates of the stage. That is, by subtracting the coordinates of the stage from the coordinates of a plurality of seats, relative coordinates of a plurality of seats are obtained, with the stage coordinates being the origin.

이후, 상대적인 좌표 및 상기 영상정보를 수집한다(단계 S130). 앞서 설명한 바와 같이, 상대적인 좌표 및 영상정보들은 클라우딩을 통해서 수집될 수 있다.Then, relative coordinates and the image information are collected (step S130). As described above, relative coordinate and image information can be collected through clouding.

이후, 이렇게 수집된 상기 상대적인 좌표를 기초로, 각각의 객석에서 획득된 영상정보를 합성한다(단계 S140).Then, based on the relative coordinates thus collected, the image information obtained from each seat is synthesized (step S140).

이와 같이 본 발명에 의한 공연장의 가상현실 동영상 형성방법은 별도의 3차원 디지털 촬영 없이, 각 객석에 위치한 스마트폰에 의해서 공연장의 가상현실을 구현할 수 있다.As described above, the virtual reality moving image forming method according to the present invention can realize a virtual reality of a theater by a smartphone located in each audience without a separate three-dimensional digital photographing.

그러나, GPS를 이용하여 상대적인 좌표를 획득하게 되는 경우, GPS 신호를 수신할 수 없는 공연장에서는 문제가 발생될 수 있으며, 특히 객석의 높낮이 단차가 있는 경우, 예컨대, 2차원적인 위치 좌표만으로는 부족하게 된다.However, in the case of obtaining relative coordinates using GPS, a problem may arise in a venue where GPS signals can not be received. In particular, when there is a height difference in the height of the audience, for example, .

이하, 상대적인 위치정보를 3차원적으로 획득하여 보다 정확한 공연장의 가상현실 동영상 형성방법을 개시한다.Hereinafter, a method of forming a virtual reality moving picture with a more accurate performance by acquiring relative position information three-dimensionally is disclosed.

본 발명의 예시적인 다른 실시예에 의한 공연장의 가상현실 동영상 형성방법은, 도 1에서 도시된 바와 같이, 무대 뒤에 있는 LED 사이니지를 트랜스미터로 활용하고, 객석의 스마트폰을 리시버로 활용하여 가시광 통신함으로써 보다 정확한 객석의 상대적인 위치정보를 획득할 수 있다. 이하, 도 3을 참조하여, 본 발명의 예시적인 다른 실시예를 보다 상세히 설명한다.As shown in FIG. 1, a method of forming a virtual reality moving picture in a theater according to another exemplary embodiment of the present invention uses LED signage behind the stage as a transmitter, and utilizes a smartphone of the audience as a receiver, The relative position information of the seat can be acquired more accurately. Hereinafter, another exemplary embodiment of the present invention will be described in more detail with reference to FIG.

도 3은 도 1에서 도시된 사이니지(송신단)와 스마트폰(수신단)의 동작을 도시한 순서도이다.FIG. 3 is a flowchart showing the operation of the signage (transmitter) and the smartphone (receiver) shown in FIG.

도 3을 참조하면, 송신단에서 LED 사이니지의 위치를 획득하기 위한 GPS 정보 및 LED 사이니지의 인텐시티 정보를 획득한다(단계 T110).Referring to FIG. 3, the GPS information and the intensity information of the LED signage for acquiring the position of the LED signage at the transmitting end are obtained (step T110).

이후, 상기 GPS 정보 및 LED 사이니지의 인텐시티 정보를 인코딩한다(단계 T120). 예컨대, OOK(On-Off Keying)를 통해서 이루어질 수 있다. 즉, LED 광원을 고속으로 온오프 시킴으로써 2진법의 시그널을 생성할 수 있으며, 고속으로 점멸하기 때문에 LED 사이니지가 점멸하는 것을 객석의 관객은 육안으로는 식별할 수 없다.Then, the GPS information and the intensity information of the LED signal are encoded (step T120). For example, OOK (On-Off Keying). That is, a binary signal can be generated by turning the LED light source on and off at high speed, and the audience can not visually recognize that the LED sign flashes because the LED flashes at high speed.

이후, 이렇게 인코딩된 상기 GPS 정보 및 LED 사이니지의 인텐시티 정보를 LED 사이니지를 통해서 온오프 동작을 수행함으로써 전송한다(단계 T130).Thereafter, the encoded GPS information and the intensity information of the LED signage are transmitted by performing an on-off operation through LED signatures (step T130).

한편, 다수의 객석에서는, 공연자의 공연과 함께, LED 사이니지가 점별하는 동작을 촬영하여(단계 R110), 스마트폰이 신호의 리시버로 동작하게 된다.On the other hand, in many audiences, the performance of the performer is photographed by the LED signage (step R110), and the smartphone operates as a receiver of the signal.

한편, 스마트폰 내부에서는 촬영된 LED 사이니지의 점별 동작을 분석하여 GPS 정보 및 LED 인텐시티 정보를 추출하고(단계 R120), 정보 추출을 요하는 프레임이 남았는지를 판단하여(단계 R130), 정보 추출을 요하는 프레임이 남은 경우, 다음 프레임으로 진행하여 정보를 추출하고(단계 R120), 정보 추출을 요하는 프레임이 남지 않은 경우 디코딩을 수행한다(단계 R140).Meanwhile, in the smart phone, GPS operation and LED intensity information are extracted (step R120) by analyzing the point-by-point operation of the photographed LED signage, and it is judged whether a frame requiring information extraction is left (step R130) (Step R120). If the frame requiring information extraction is not left, decoding is performed (step R140).

정보 추출을 요하는 프레임이 남았는지를 판단(단계 R130)하는 이유는, 하나의 프레임에 GPS 정보 및 LED 인텐시티 정보를 싣지 못하기 때문이다.The reason for determining whether a frame requiring information extraction is left (step R130) is that the GPS information and the LED intensity information can not be stored in one frame.

이하, 도 4를 참조로, LED 인텐시티 정보와 GPS 정보의 데이터 구조를 설명한다.Hereinafter, the data structure of the LED intensity information and the GPS information will be described with reference to FIG.

도 4는 도 3에서 도시된 LED 인텐시티 정보와 GPS 정보의 데이터 구조를 도시한 개념도이다.4 is a conceptual diagram showing the data structure of the LED intensity information and the GPS information shown in FIG.

도 4를 참조하면, 본 발명에 의한 실시예들에서 촬영되는 영상 정보는 다수의 프레임(Frame1, Frame2, ..., FrameN-1, Frame N)으로 구성되며, 각각의 프레임은 동일한 두 개의 블럭으로 구성된다. 예컨대, FrameN-1에서는 동일한 두 개의 블럭 BlockN-1 및 BlockN-1로 구성된다. Referring to FIG. 4, the image information captured in the embodiments of the present invention is composed of a plurality of frames (Frame1, Frame2, ..., FrameN-1, FrameN) . For example, in Frame N-1, it is composed of two identical blocks BlockN-1 and BlockN-1.

사이니지의 LED의 프레임 레이트(rate)는 일정하지만, 스마트폰 카메라의 프레임 레이트는 일정하지 않다. 따라서, 송신단의 시그널을 수신단에서 신호를 누락시켜 수신할 가능성이 존재한다. 따라서, 동일한 두 개의 블럭을 연속해서 송수신하고, 동일한 두 개의 블럭을 보완하여 각 블럭에서 누락된 정보를 보충하는 경우, 보다 안정적으로 LED 사이니지의 GPS 정보 및 LED 인텐시티 정보를 획득할 수 있다.The frame rate of the LED of the signage is constant, but the frame rate of the smartphone camera is not constant. Therefore, there is a possibility that the signal of the transmitting end is received by missing the signal from the receiving end. Accordingly, when two identical blocks are successively transmitted and received, and two identical blocks are supplemented to supplement the missing information in each block, the GPS information and the LED intensity information of the LED signage can be acquired more stably.

한편, 각 블럭에는 블럭의 시작임을 알리는 헤더(Header), 블럭 시퀀스 넘버(BSN), 32비트의 데이터 및 블럭의 마지막임을 알리는 트레일러(Trailer)로 구성될 수 있는데, LED의 인텐시티는 8비트를 요하고, GPS 신호는 64비트를 요하므로, 전체 72비트가 요구되어 32비트의 데이터에 이를 모두 전송할 수 없다.Each block may include a header indicating a start of a block, a block sequence number (BSN), a 32-bit data, and a trailer indicating the end of the block. The intensity of the LED is 8 bits And the GPS signal requires 64 bits, so that a total of 72 bits are required and can not transmit all of them to 32-bit data.

따라서, 두 개의 블럭인 64비트에도 데이터를 실을 수 없으므로, 두개의 블럭으로 구성되는 하나의 프레임의 데이터 공간인 64비트에 데이터를 실을 수 없다.Therefore, since data can not be stored in 64 bits, which is two blocks, data can not be stored in 64 bits which is a data space of one frame composed of two blocks.

따라서, 본 발명에서는 하나의 프레임에 동일한 블럭을 구성하고, 3개의 프레임에 나누어(32 x 3 =96비트), LED 사이니지의 GPS 정보 및 LED 인텐시티 정보를 송수신한다.Accordingly, in the present invention, the same block is formed in one frame, and divided into three frames (32 x 3 = 96 bits) to transmit and receive GPS information and LED intensity information of the LED signage.

한편, 이와 다르게 3개의 프레임을 구성하는 6개의 블럭에 순차적으로 LED 사이니지의 GPS 정보 및 LED 인텐시티 정보를 송수신하고, 동일한 정보를 다시 송수신 할 수 있다. 즉, 앞선 예에서는 AA,BB,CC의 데이터를 송수신 하였으나, ABC,ABC순으로 데이터를 송수신 할 수도 있다.On the other hand, the GPS information and the LED intensity information of the LED signage can be transmitted and received sequentially to the six blocks constituting the three frames, and the same information can be transmitted and received again. That is, although data of AA, BB, and CC is transmitted and received in the above example, data may be transmitted and received in the order of ABC and ABC.

다시 도 3을 참조하면, 3개의 프레임으로부터 정보추출이 이루어졌는지 판단(단계 R130)하여, 3개 미만의 프레임으로부터 정보추출이 이루어진 경우, 다음 프레임으로부터 정보를 추출하고(단계 R120), 3개 프레임으로부터 정보추출이 완료된 경우. 추출된 정보를 디코딩한다(단계 R140).Referring again to FIG. 3, when information is extracted from three frames or less (step R130), information is extracted from the next frame (step R120), and three frames The information extraction is completed. And decodes the extracted information (step R140).

이후, 디코딩된 정보를 이용하여 LED 사이니지 및 촬영이 진행된 객석의 상대좌표값을 구하게 된다.Thereafter, the decoded information is used to obtain the LED signage and the relative coordinate values of the audience in which the photographing is performed.

이하, 도 5를 참조로, LED 사이니지 및 촬영이 진행된 객석의 상대좌표값을 구하는 원리를 설명한다.Hereinafter, with reference to FIG. 5, the principle of obtaining the LED coordinate and the relative coordinate values of the audience in which photographing has been performed will be described.

도 5는 LED 인텐시티 정보를 이용하여 위치를 계산하는 원리를 도시한 개념도이다. 도 5는 위에서 본 평면도이다.5 is a conceptual diagram showing a principle of calculating a position using LED intensity information. 5 is a plan view as viewed from above.

도 5를 참조하면, 사이니지는, 예컨대 사각형의 플레이트에 다수의 LED가 매트릭스 형태로 배열되어, 각각의 LED가 화소에 대응하도록 발광함으로써 영상을 표시한다.Referring to FIG. 5, the signage displays an image by, for example, arranging a plurality of LEDs in a matrix form on a rectangular plate, and causing each LED to correspond to a pixel.

한편, A위치 객석에서는 좌측의 LED1과의 거리(L1A)는 상대적으로 가깝고, 우측의 LED2와의 거리(L2A)는 상대적으로 멀다. 반대로, B위치 객석에서는 좌측의 LED1과의 거리(L1B)는 상대적으로 멀고, 우측의 LED2와의 거리(L2B)는 상대적으로 가깝다. On the other hand, the distance L1A from the LED 1 on the left side is relatively close to the distance L2A from the LED 2 on the right side in the A-seat audience. On the other hand, in the B position, the distance L1B from the LED 1 on the left side is relatively long and the distance L2B from the LED 2 on the right side is relatively close.

한편, 광원의 인텐시티는 거리의 제곱에 반비례해서 인텐시티가 약해지게 되므로, 이를 이용하여 각 객석의 위치를 결정할 수 있게 된다. 보다 상세히, 도면에서 도시된 바와 같이, 사이니지가 일렬로 배치된 경우, LED1을 중심으로 L1A를 반지름으로 하는 원을 그리고, LED2를 중심으로 L2A를 반지름으로 하는 원을 그리는 경우, 두 원의 교점을 A좌표로 구할 수 있게 되는 것이다.On the other hand, since the intensity of the light source is inversely proportional to the square of the distance, the intensity of the intensity is weakened, so that the position of each audience can be determined. More specifically, in the case where the signage is arranged in a line, as shown in the drawing, when a circle having L1A as a radius around the LED 1 is drawn and a circle having L2A as a radius around the LED 2 is drawn, Can be obtained by the A coordinate.

이를 확장하여 직사각형의 적어도 3군데 코너에서 거리에 의한 구를 그리고, 3개의 구의 교점을 구하면 3차원적인 A위치의 좌표를 구할 수 있다.Extend it to find the coordinates of the three-dimensional A position by calculating the sphere by the distance at at least three corners of the rectangle and the intersection of the three sphere.

따라서, GPS 정보 없이도, 인텐시티만을 이용하여, LED 사이니지에 대한 각 객석에서의 상대적인 좌표를 구할 수 있으나, GPS 정보를 활용하는 경우, 연산 과정을 감소시킬 수 있다.Therefore, without using GPS information, it is possible to obtain the relative coordinates of the LED signage in each audience using only the intensity. However, if GPS information is used, the calculation process can be reduced.

다시 도 3을 참조하면, 이러한 방법을 통해서 객석의 위치가 계산된 후(단계 R150), 일정 시간이 경과되었는지를 체크하여(단계 R160), 일정시간이 경과되지 않은 경우, 공연이 종료되었는지를 체크하고(단계 R170), 공연이 종료된 경우 상대위치 추출을 종료하고, 일정 시간이 경과되었는지를 체크한 후(단계 R160), 일정시간이 경과되었거나, 공연이 종료되지 않은 경우, GPS 정보 및 LED 인텐시티 정보를 추출하는 과정(단계 R120)을 반복한다.Referring again to FIG. 3, after the seat position is calculated through this method (step R150), it is checked whether a predetermined time has elapsed (step R160). If the predetermined time has not elapsed, (Step R170). When the performance is finished, the relative position extraction is terminated, and it is checked whether a predetermined time has elapsed (step R160). If the predetermined time has elapsed or the performance is not finished, the GPS information and LED intensity The process of extracting information (step R120) is repeated.

이와 같이, 공연이 진행되는 무대와 영상이 촬영되는 다수의 객석의 상대적인 좌표를 획득하는 단계는 일정 주기마다 반복적으로 수행하는 경우, 데이터가 누적되어 계산되는 위치정확도를 향상시킬 수 있다.In this way, the step of acquiring the relative coordinates of the stage where the performances are performed and the plurality of seats in which the images are captured can be improved in the accuracy of the position in which the data are accumulated and calculated when it is repeatedly performed every predetermined period.

앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been described in connection with what is presently considered to be practical and exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

사이니지(트랜스미터)
스마트폰(리시버)
Signage (transmitter)
Smartphone (receiver)

Claims (5)

다수의 객석에서 영상정보를 촬영하는 단계;
공연이 진행되는 무대와 영상이 촬영되는 다수의 객석의 상대적인 좌표를 획득하는 단계;
상기 상대적인 좌표 및 상기 영상정보를 수집하는 단계; 및
상기 상대적인 좌표를 기초로, 각각의 객석에서 획득된 영상정보를 합성하는 단계;
를 포함하고,
상기 상대적인 좌표를 획득하는 단계는,
다수의 객석에서 영상정보를 통해서 획득되고,
상기 영상정보에는 상기 무대 뒷편의 LED 사이니지의 영상을 포함하고,
상기 다수의 객석에서 영상정보를 촬영하는 단계 이전에,
LED 사이니지의 GPS 정보 및 LED 인텐시티 정보를 획득하는 단계;
상기 LED 사이니지의 GPS 정보 및 LED 인텐시티 정보를 인코딩하는 단계; 및
인코딩된 상기 LED 사이니지의 GPS 정보 및 LED 인텐시티 정보를 상기 LED 사이니지를 통해서 가시광통신으로 전송하는 단계;
를 더 포함하는 것을 특징으로 하는 공연장의 가상현실 동영상 형성방법.
Capturing image information from a plurality of seats;
Obtaining relative coordinates of a stage where a performance is performed and a plurality of seats where a video is shot;
Collecting the relative coordinates and the image information; And
Synthesizing image information obtained from each of the seats based on the relative coordinates;
Lt; / RTI >
Wherein the obtaining of the relative coordinates comprises:
And is acquired through image information from a plurality of seats,
Wherein the image information includes an image of LED signage behind the stage,
Before the step of photographing the image information from the plurality of seats,
Obtaining GPS information and LED intensity information of the LED signage;
Encoding GPS information and LED intensity information of the LED signage; And
Transmitting GPS information and LED intensity information of the encoded LED signage via visible light communication through the LED signage;
The method of claim 1, further comprising:
삭제delete 제1 항에 있어서,
상기 LED 사이니지의 GPS 정보 및 LED 인텐시티 정보는 2회 이상 동일한 정보를 전송하고,
상기 LED 사이니지의 GPS 정보 및 LED 인텐시티 정보는 다수의 프레임에 나누어서 전송하는 것을 특징으로 하는 공연장의 가상현실 동영상 형성방법.
The method according to claim 1,
The GPS information and the LED intensity information of the LED signage transmit the same information two or more times,
Wherein the GPS information and the LED intensity information of the LED signage are divided into a plurality of frames and transmitted.
제1 항에 있어서,
공연이 진행되는 무대와 영상이 촬영되는 다수의 객석의 상대적인 좌표를 획득하는 단계는 일정 주기마다 반복적으로 수행되는 것을 특징으로 하는 공연장의 가상현실 동영상 형성방법.

The method according to claim 1,
Wherein the step of obtaining the relative coordinates of the stage where the performance is performed and the plurality of seats in which the video is captured is repeatedly performed every predetermined period.

제1 항에 있어서,
상기 상대적인 좌표 및 상기 영상정보를 수집하는 단계는 클라우딩에 의해 이루어지는 것을 특징으로 하는 공연장의 가상현실 동영상 형성방법.
The method according to claim 1,
Wherein the step of collecting the relative coordinates and the image information is performed by clouding.
KR1020170097546A 2017-08-01 2017-08-01 Method of forming virtual reality of performance KR101839270B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170097546A KR101839270B1 (en) 2017-08-01 2017-08-01 Method of forming virtual reality of performance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170097546A KR101839270B1 (en) 2017-08-01 2017-08-01 Method of forming virtual reality of performance

Publications (1)

Publication Number Publication Date
KR101839270B1 true KR101839270B1 (en) 2018-03-15

Family

ID=61659719

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170097546A KR101839270B1 (en) 2017-08-01 2017-08-01 Method of forming virtual reality of performance

Country Status (1)

Country Link
KR (1) KR101839270B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102387355B1 (en) * 2021-05-21 2022-04-18 주식회사 버드핸드 The method and apparatus for providing perpormance contents based on augmented reality
CN116033254A (en) * 2022-12-30 2023-04-28 浙江省广播电视工程公司 5G-based broadcast television video recording equipment positioning analysis management system and method
KR20240044206A (en) 2022-09-28 2024-04-04 배재대학교 산학협력단 Virtual reality-based adaptation performance content experience system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002271815A (en) * 2001-03-08 2002-09-20 Mixed Reality Systems Laboratory Inc Viewing system and its control method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002271815A (en) * 2001-03-08 2002-09-20 Mixed Reality Systems Laboratory Inc Viewing system and its control method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102387355B1 (en) * 2021-05-21 2022-04-18 주식회사 버드핸드 The method and apparatus for providing perpormance contents based on augmented reality
KR20220157872A (en) * 2021-05-21 2022-11-29 주식회사 버드핸드 Augmented reality-based performance content providing device that supports a technology for correcting a visual difference according to a user's viewing position and performing method thereof
KR102569419B1 (en) 2021-05-21 2023-08-24 주식회사 버드핸드 Augmented reality-based performance content providing device that supports a technology for correcting a visual difference according to a user's viewing position and performing method thereof
KR20240044206A (en) 2022-09-28 2024-04-04 배재대학교 산학협력단 Virtual reality-based adaptation performance content experience system
CN116033254A (en) * 2022-12-30 2023-04-28 浙江省广播电视工程公司 5G-based broadcast television video recording equipment positioning analysis management system and method
CN116033254B (en) * 2022-12-30 2024-03-29 浙江省广播电视工程公司 5G-based broadcast television video recording equipment positioning analysis management system and method

Similar Documents

Publication Publication Date Title
CN107534789B (en) Image synchronization device and image synchronization method
CN109565605B (en) Imaging technology generation method and image processing device
US9591349B2 (en) Interactive binocular video display
CN101002471B (en) Method and apparatus to encode image, and method and apparatus to decode image data
CN110709892A (en) Method and system for rendering virtual reality content based on two-dimensional ('2D') captured images of a three-dimensional ('3D') scene
US20160205341A1 (en) System and method for real-time processing of ultra-high resolution digital video
US10645360B2 (en) Methods and systems for transmitting data in a virtual reality system
KR101839270B1 (en) Method of forming virtual reality of performance
CN103959802A (en) Video provision method, transmission device, and reception device
US11055917B2 (en) Methods and systems for generating a customized view of a real-world scene
JP2020522926A (en) Method and system for providing virtual reality content using captured 2D landscape images
CN113099245A (en) Panoramic video live broadcast method, system and computer readable storage medium
KR20190031943A (en) Method and apparatus for providing 6-dof omni-directional stereoscopic image based on layer projection
CN115103138A (en) Method and system for generating virtual-real fusion image based on space-time consistency
Nagao et al. Arena-style immersive live experience (ILE) services and systems: Highly realistic sensations for everyone in the world
CN105228010B (en) A kind of method and device that TV interaction systems interactive information is set
CN107835433B (en) Event wide-view live broadcasting system, associated equipment and live broadcasting method
CN106096578A (en) Multifunctional lift safety control platform
US11792380B2 (en) Video transmission method, video processing device, and video generating system for virtual reality
TWI838050B (en) 3d imaging streaming method and electronic device and server using the same
KR102658474B1 (en) Method and apparatus for encoding/decoding image for virtual view synthesis
CN110290360A (en) Image splicing method and terminal device for panoramic video image
WO2020054605A1 (en) Image display device and image processing device
WO2023029207A1 (en) Video data processing method, decoding device, encoding device, and storage medium
EP3267682A1 (en) Multiview video encoding

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant