KR102568021B1 - Interactive broadcasting system and method for providing augmented reality broadcasting service - Google Patents

Interactive broadcasting system and method for providing augmented reality broadcasting service Download PDF

Info

Publication number
KR102568021B1
KR102568021B1 KR1020200181587A KR20200181587A KR102568021B1 KR 102568021 B1 KR102568021 B1 KR 102568021B1 KR 1020200181587 A KR1020200181587 A KR 1020200181587A KR 20200181587 A KR20200181587 A KR 20200181587A KR 102568021 B1 KR102568021 B1 KR 102568021B1
Authority
KR
South Korea
Prior art keywords
broadcast
data
broadcasting
image
viewers
Prior art date
Application number
KR1020200181587A
Other languages
Korean (ko)
Other versions
KR20220090751A (en
Inventor
박진화
김기현
김민정
이재일
유재영
Original Assignee
주식회사 씨제이이엔엠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 씨제이이엔엠 filed Critical 주식회사 씨제이이엔엠
Priority to KR1020200181587A priority Critical patent/KR102568021B1/en
Publication of KR20220090751A publication Critical patent/KR20220090751A/en
Application granted granted Critical
Publication of KR102568021B1 publication Critical patent/KR102568021B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 증강현실 방송 서비스를 제공하기 위한 양방향 방송 시스템 및 이를 이용한 증강현실 방송 서비스 제공 방법에 관한 것이다. 구체적으로, 객체가 위치한 공간에 대한 영상을 획득하는 촬영 장치 및 상기 영상을 시청하는 방송 시청자들의 방송 참여 데이터를 수집하고, 상기 방송 참여 데이터를 기초로 상기 영상에 표시될 그래픽 객체를 결정하는 방송 제작 서버를 포함함으로써, 관객들과 예술가가 소통하면서 관객들이 직접 콘텐츠 제작에 참여하는 것과 같은 경험을 제공할 수 있게 하는 양방향 방송 시스템에 관한 것이다.The present invention relates to an interactive broadcasting system for providing an augmented reality broadcasting service and a method for providing an augmented reality broadcasting service using the same. Specifically, broadcasting production that collects broadcasting participation data of a photographing device acquiring an image of a space where an object is located and broadcasting viewers who watch the image, and determines a graphic object to be displayed on the image based on the broadcasting participation data. By including a server, it relates to an interactive broadcasting system capable of providing an experience as if the audience directly participates in content production while communicating with the audience.

Description

증강현실 방송 서비스를 제공하는 양방향 방송 시스템 및 방법{INTERACTIVE BROADCASTING SYSTEM AND METHOD FOR PROVIDING AUGMENTED REALITY BROADCASTING SERVICE}Interactive broadcasting system and method for providing augmented reality broadcasting service

본 발명은 증강현실 방송 서비스를 제공하기 위한 양방향 방송 시스템 및 이를 이용한 증강현실 방송 서비스 제공 방법에 관한 것이다. 보다 구체적으로는 실시간으로 진행되는 공연을 중계하면서 이를 시청하는 시청자들의 반응을 그래픽으로 조합함으로써 관객과 소통할 수 있는 증강현실 방송 서비스를 제공하는 장치, 시스템 및 양방향 방송 제공 방법에 관한 것이다.The present invention relates to an interactive broadcasting system for providing an augmented reality broadcasting service and a method for providing an augmented reality broadcasting service using the same. More specifically, it relates to an apparatus, a system, and a method for providing interactive broadcasting for providing an augmented reality broadcasting service capable of communicating with audiences by graphically combining reactions of viewers watching a performance while relaying a performance in real time.

인터넷 라이브 방송은 방송 서버가 방송 콘텐츠를 네트워크로 전송하면 다수의 클라이언트가 해당 콘텐츠를 수신하는 동시에 재생하는 방식으로, 통상 라이브 스트리밍 서비스로 불린다. Internet live broadcasting is a method in which a broadcasting server transmits broadcasting content to a network, and a plurality of clients simultaneously receive and play the content, and is generally referred to as a live streaming service.

라이브 스트리밍 서비스는 하나의 클라이언트가 원하는 콘텐츠를 실시간으로 제공하는 VOD(Video On Demand) 서비스와는 다르게, 하나의 콘텐츠를 동일한 다수의 클라이언트에 동시 제공할 수 있으며, 이러한 서비스를 구현할 수 있도록 하는 플랫폼을 스트리밍 서비스 플랫폼이라 한다. Unlike the VOD (Video On Demand) service, which provides the content desired by one client in real time, the live streaming service can provide one content to multiple clients at the same time. It is called a streaming service platform.

최근 이러한 스트리밍 서비스 플랫폼을 이용하는 사용자(클라이언트)가 기하 급수적으로 증가함에 따라, 방송 환경도 그에 발맞춰 빠르게 변화하고 있다. 즉, 일방적인 정보만을 제공했던 지상파, 위성, 케이블 방송 시스템에서 더 나아가 유/무선 네트워크를 이용한 인터넷 멀티미디어 방송 시스템(IPTV)의 보급이 확산되고 있으며, 양방향 방송 서비스에 대한 관심이 커지고 있다. Recently, as the number of users (clients) using such a streaming service platform increases exponentially, the broadcasting environment is rapidly changing accordingly. That is, Internet multimedia broadcasting systems (IPTV) using wired/wireless networks are spreading beyond terrestrial, satellite, and cable broadcasting systems that provided only one-way information, and interest in interactive broadcasting services is growing.

현재 양방향 방송 서비스를 위한 데이터 송수신은 방송국 서버에서 제작한 영상, 음성, 기능, 화면 배치 정보 등을 스트림으로 생성하고, 시청자에게 제공 받은 텍스트 또는 이미지를 단순히 조합하는 것에 그치고 있어, 실질적인 양방향 방송이라 할 수 없으며, 그에 따라 시청자들의 흥미를 유발시키기에 한계가 있다. Currently, data transmission and reception for interactive broadcasting service is limited to creating a stream of video, audio, function, screen layout information, etc. produced by the broadcasting station server, and simply combining text or images provided to viewers, which can be called practical interactive broadcasting. Therefore, there is a limit to arousing viewers' interest.

아울러, AR(Augmented Reality) 콘텐츠와 같이 양방향 방송 서비스를 적용 가능하면서도 시청자들의 흥미를 유발시킬 수 있는 다양한 콘텐츠를 제작하기 위해서는 고가의 장비가 필요하고, 각 장비 간의 연결이 복잡하여, 기존의 방송 시스템만으로는 다양한 소재의 콘텐츠를 제작하기 어려운 문제점이 있으며, 이는 결국, 다양한 콘텐츠를 원하는 방송 시청자들을 만족시켜주지 못한다는 또 다른 문제점을 가져오게 된다. In addition, in order to produce various contents that can be applied to interactive broadcasting services such as AR (Augmented Reality) contents and can arouse interest from viewers, expensive equipment is required and the connection between each equipment is complicated, so the existing broadcasting system There is a problem that it is difficult to produce contents of various materials only, and this eventually brings another problem that it cannot satisfy broadcast viewers who want various contents.

이에 본 발명은 실시간으로 진행되는 공연에 관객들의 반응을 방송 화면 내 가상의 그래픽으로 결합하여, 공연 무대 위에선 예술가와 관객이 소통하는 하나의 양방향 방송 서비스를 제공하는 장치, 시스템 및 그 방법을 제안한다.Accordingly, the present invention proposes an apparatus, system, and method for providing an interactive broadcasting service in which artists and audiences communicate on a performance stage by combining audience reactions to a performance in real time with virtual graphics in a broadcasting screen. do.

등록특허공보 10-1369273호 (2014.02.25. 등록)Registered Patent Publication No. 10-1369273 (registered on February 25, 2014)

본 발명은 생방송이 진행되는 동안 실시간 방송 시청자 수, 댓글 수, 댓글 내용 등의 시청자 반응을 수집하고, 수집된 반응을 토대로 생방송 화면에 시청자 반응에 대한 그래픽 객체가 표시되도록 함으로써, 관객들과 예술가가 소통하면서 관객들이 직접 콘텐츠 제작에 참여하는 것과 같은 경험을 제공할 수 있는 양방향 방송 시스템 및 방법을 제공하는 것을 목적으로 한다. The present invention collects viewer responses such as the number of real-time broadcast viewers, the number of comments, and the contents of comments while live broadcasting is in progress, and displays graphic objects for viewer reactions on the live broadcast screen based on the collected responses, so that audiences and artists can An object of the present invention is to provide an interactive broadcasting system and method capable of providing an experience as if the audience directly participates in content production while communicating.

동시에 본 발명은 방송 영상을 촬영하는 촬영 장치를 통해 객체의 움직임을 확인하고, 그에 따라 그래픽 객체를 이동시키거나 미리 설정된 특수 효과에 따라 표시되게 함으로써, 관객들의 흥미를 배가시킬 수 있는 양방향 방송 시스템 및 방법을 제공하는 것을 목적으로 한다.At the same time, the present invention is an interactive broadcasting system that can increase the interest of audiences by confirming the motion of an object through a photographing device that shoots a broadcast image, moving a graphic object accordingly, or displaying it according to a preset special effect, and It aims to provide a method.

또한 본 발명은 객체를 인식할 수 있는 다양한 휴대 단말만으로도 방송 서비스를 위한 영상을 획득 가능하게 함으로써, 방송 시스템을 구축하기 위한 비용을 최소화할 수 있으며, 보다 다양한 분야의 영상 및 그에 따른 방송 서비스를 제공할 수 있는 양방향 방송 시스템 및 방법을 제공하는 것을 목적으로 한다. In addition, the present invention makes it possible to obtain images for broadcasting services using only various portable terminals capable of recognizing objects, thereby minimizing the cost of constructing a broadcasting system and providing images in more diverse fields and corresponding broadcasting services. An object of the present invention is to provide an interactive broadcasting system and method capable of

한편, 본 발명이 해결하고자 하는 과제는 앞서 언급한 것에 그치지 않으며, 언급되지 않은 또 다른 과제들은 후술하게 될 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Meanwhile, the problems to be solved by the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description to be described later.

위와 같은 문제점을 해결하기 위하여, 본 발명에 따른 양방향 방송 시스템은 객체가 위치한 공간에 대한 영상을 획득하는 촬영 장치; 및 상기 영상을 시청하는 방송 시청자들의 방송 참여 데이터를 수집하고, 상기 영상으로부터 획득 가능한 데이터 또는 상기 방송 시청자들의 방송 참여 데이터를 기초로 상기 영상에 표시될 그래픽 객체를 결정하는 방송 제작 서버; 를 포함한다.In order to solve the above problem, an interactive broadcasting system according to the present invention includes a photographing device for obtaining an image of a space where an object is located; and a broadcast production server that collects broadcast participation data of broadcast viewers who watch the video and determines a graphic object to be displayed on the video based on data obtainable from the video or broadcast participation data of the broadcast viewers; includes

또한, 상기 양방향 방송 시스템에 있어서 상기 방송 참여 데이터는, 상기 영상을 시청하는 방송 시청자 수, 방송 시청자의 응답 수, 호감 표시 수, 방송 시청자의 식별 데이터, 방송 시청자의 채팅 데이터 및 방송 시청자의 그래픽 객체 구매 데이터 중 적어도 하나를 포함할 수 있다.In addition, in the interactive broadcasting system, the broadcast participation data includes the number of broadcast viewers who watch the video, the number of responses from broadcast viewers, the number of favorable impressions, identification data of broadcast viewers, chatting data of broadcast viewers, and graphic objects of broadcast viewers. At least one of purchase data may be included.

또한, 상기 양방향 방송 시스템에 있어서 상기 영상으로부터 획득 가능한 데이터는, 상기 영상 내 객체의 식별 데이터, 상기 객체 별 움직임에 대한 트래킹 데이터, 및 상기 객체가 위치한 공간에 대한 3차원 공간 데이터 중 적어도 하나를 포함할 수 있다.In addition, in the interactive broadcasting system, the data obtainable from the video includes at least one of identification data of an object in the video, tracking data for movement of each object, and 3D space data for a space where the object is located. can do.

또한, 상기 양방향 방송 시스템에 있어서 상기 방송 제작 서버는, 상기 영상으로부터 획득 가능한 데이터 또는 방송 참여 데이터가 미리 설정된 조건을 만족하는 경우, 상기 영상에 표시될 그래픽 객체의 종류, 색상, 크기, 음향, 특수 효과 및 이동 경로 중 어느 하나의 출력 속성 정보를 결정하는 것을 특징으로 할 수 있다.In addition, in the interactive broadcasting system, the broadcast production server determines the type, color, size, sound, and special properties of graphic objects to be displayed in the video when data obtainable from the video or broadcast participation data satisfy a preset condition. It may be characterized in that output attribute information of any one of an effect and a moving path is determined.

또한, 상기 양방향 방송 시스템에 있어서 상기 방송 제작 서버는, 상기 객체가 소지한 마이크를 통해 상기 객체의 음성 데이터를 획득하고, 상기 방송 참여 데이터 중 상기 음성 데이터가 획득되는 시간과 동일한 시간에 수집된 방송 참여 데이터를 상기 객체와 매핑시키는 것을 특징으로 할 수 있다.In addition, in the interactive broadcasting system, the broadcast production server obtains voice data of the object through a microphone possessed by the object, and broadcasts collected at the same time as the time at which the voice data is acquired among the broadcast participation data It may be characterized in that participation data is mapped with the object.

또한, 상기 양방향 방송 시스템에 있어서 상기 방송 제작 서버는, 상기 채팅 데이터에서 상기 객체와 연관된 텍스트가 존재하는 경우, 상기 텍스트를 나타내는 그래픽 객체의 표시 범위를 상기 객체의 트래킹 데이터와 매핑시키는 것을 특징으로 할 수 있다.In addition, in the interactive broadcasting system, the broadcasting production server may map a display range of a graphic object representing the text to tracking data of the object when text associated with the object exists in the chatting data. can

또한, 상기 양방향 방송 시스템에 있어서 상기 방송 제작 서버는, 상기 영상을 통해 획득된 데이터와 상기 그래픽 객체를 기초로 방송 콘텐츠를 생성하는 것을 특징으로 할 수 있다.Also, in the interactive broadcasting system, the broadcasting production server may generate broadcasting content based on data acquired through the video and the graphic object.

또한, 상기 양방향 방송 시스템에 있어서 상기 방송 제작 서버는, 상기 객체 주변에 배치된 그래픽 객체의 종류를 확인하고, 해당 객체와 상기 객체의 움직임에 따라 상기 그래픽 객체가 교차 배치되는 경우, 상기 그래픽 객체의 출력 속성 정보를 변경하는 것을 특징으로 할 수 있다.In addition, in the interactive broadcasting system, the broadcast production server checks the type of the graphic object arranged around the object, and if the graphic object is intersect with the corresponding object according to the movement of the object, the graphic object It may be characterized by changing output attribute information.

또한, 상기 양방향 방송 시스템에 있어서 상기 방송 제작 서버는, 방송에 참여하는 객체 별로 스트리밍 채널을 생성하고, 상기 채널을 기초로 상기 방송 참여 데이터를 분류하는 것을 특징으로 할 수 있다.Also, in the interactive broadcasting system, the broadcast production server may create a streaming channel for each object participating in broadcasting, and classify the broadcast participation data based on the channel.

또한, 상기 양방향 방송 시스템에 있어서 상기 촬영 장치를 통해 획득된 영상과 상기 방송 제작 서버에 의해 결정된 그래픽 객체를 혼합하여 방송 콘텐츠를 생성하고, 상기 방송 콘텐츠를 출력하는 영상 믹서; 를 더 포함할 수 있다.In addition, in the interactive broadcasting system, a video mixer for generating broadcasting content by mixing an image obtained through the photographing device and a graphic object determined by the broadcast production server, and outputting the broadcasting content; may further include.

한편, 본 발명의 또 다른 실시예에 따른 양방향 방송 서비스 제공 방법은, 객체가 위치한 공간에 대한 영상을 획득하는 단계; 상기 영상을 시청하는 방송 시청자들의 방송 참여 데이터를 수집하는 단계; 및 상기 영상으로부터 획득 가능한 데이터 또는 상기 방송 참여 데이터를 기초로 그래픽 객체를 결정하는 단계; 를 포함할 수 있다.Meanwhile, a method for providing an interactive broadcasting service according to another embodiment of the present invention includes acquiring an image of a space where an object is located; Collecting broadcast participation data of broadcast viewers who watch the video; and determining a graphic object based on data obtainable from the image or broadcast participation data. can include

또한, 상기 양방향 방송 서비스 제공 방법은, 상기 결정하는 단계 이후에, 상기 그래픽 객체를 상기 영상에 혼합한 방송 콘텐츠를 생성하여 방송국 서버 또는 스트리밍 서버로 송신하는 단계; 를 더 포함할 수 있다.In addition, the interactive broadcasting service providing method may include, after the step of determining, generating broadcasting content in which the graphic object is mixed with the video and transmitting the generated broadcasting content to a broadcasting station server or a streaming server; may further include.

또한, 상기 양방향 방송 서비스 제공 방법에 있어서 상기 영상으로부터 획득 가능한 데이터는, 상기 영상 내 객체의 식별 데이터, 상기 객체 별 움직임에 대한 트래킹 데이터, 및 상기 객체가 위치한 공간에 대한 3차원 공간 데이터 중 적어도 하나를 포함할 수 있다.In addition, in the interactive broadcasting service providing method, the data obtainable from the video may include at least one of identification data of an object in the video, tracking data for movement of each object, and 3D space data for a space where the object is located. can include

또한, 상기 양방향 방송 서비스 제공 방법에 있어서 상기 방송 참여 데이터는, 상기 영상을 시청하는 방송 시청자 수, 방송 시청자의 응답 수, 호감 표시 수, 방송 시청자의 식별 데이터, 방송 시청자의 채팅 데이터 및 방송 시청자의 그래픽 객체 구매 데이터 중 적어도 하나를 포함할 수 있다.In addition, in the interactive broadcasting service providing method, the broadcasting participation data includes the number of broadcasting viewers who watch the video, the number of responses from broadcasting viewers, the number of favorable impressions, identification data of broadcasting viewers, chatting data of broadcasting viewers, and the number of broadcasting viewers. It may include at least one of graphic object purchase data.

또한, 상기 양방향 방송 서비스 제공 방법에 있어서 상기 결정하는 단계는, 상기 방송 참여 데이터가 미리 설정된 조건을 만족하는 경우, 상기 영상에 표시될 그래픽 객체의 종류, 색상, 크기, 음향, 특수 효과 및 이동 경로 중 어느 하나의 속성 정보를 결정하는 단계일 수 있다.In addition, in the interactive broadcasting service providing method, the determining may include the type, color, size, sound, special effect, and movement path of a graphic object to be displayed on the image when the broadcasting participation data satisfies a preset condition. It may be a step of determining any one of attribute information.

또한, 상기 양방향 방송 서비스 제공 방법에 있어서 상기 수집하는 단계는, 방송에 참여하는 객체 별로 스트리밍 채널을 생성하고, 상기 스트리밍 채널을 기초로 상기 방송 참여 데이터를 분류하는 단계, 를 더 포함할 수 있다.In the interactive broadcast service providing method, the collecting may further include creating a streaming channel for each object participating in broadcasting and classifying the broadcast participation data based on the streaming channel.

본 발명에 따르면 일방적으로 영상을 제공하는 방송 시스템이 아닌, 시청자들의 반응을 그래픽 객체로 변환하고 이를 즉시 생방송에 송출되게 함으로써, 시청자가 원하는 방향으로의 양방향 방송을 제작할 수 있다는 효과가 있으며, 시청자와 공연 예술가가 하나의 방송 콘텐츠를 만드는 경험을 할 수 있는 효과도 있다. According to the present invention, instead of a broadcasting system that provides images unilaterally, by converting viewers' reactions into graphic objects and immediately sending them to live broadcasting, there is an effect that viewers can produce interactive broadcasting in a desired direction. There is also an effect that a performing artist can experience creating a single broadcasting content.

또한 본 발명에 따르면 방송 중 객체의 움직임에 맞게 그래픽 객체를 이동시키고, 각종 동작에 따라 특수 효과를 제공함으로써 관객들의 흥미를 배가시킬 수 있는 효과가 있다.In addition, according to the present invention, the interest of the audience can be increased by moving the graphic object according to the movement of the object during broadcasting and providing special effects according to various motions.

또한 본 발명에 따르면 객체 데이터 또는 공간 데이터를 포함하는 영상에 시청자의 반응이 적용된 그래픽 객체를 삽입하여 콘텐츠를 생성 및 방송하는 일련의 과정을 구현하기 위해, 고가의 장비를 필요로 하지 않아 전체 시스템 구축 비용을 최소화할 수 있는 효과가 있다. In addition, according to the present invention, in order to implement a series of processes of generating and broadcasting content by inserting a graphic object to which a viewer's reaction is applied to an image including object data or spatial data, expensive equipment is not required, and the entire system is established. It has the effect of minimizing costs.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명이 제안하는 증강현실 방송 서비스의 구현 예를 도시한 것이다.
도 2는 본 발명에 따른 양방향 방송 시스템의 개략적인 구성을 도시한 것이다.
도 3은 본 발명에 따른 방송 제작 서버의 개략적인 구성을 도시한 것이다.
도 4는 본 발명에 따른 방송 제작 서버에서 증강현실 방송 서비스를 제공하기 위한 개략적인 흐름을 도시한 것이다.
도 5 및 도 6은 본 발명에 따른 양방향 방송 서비스의 실제 구현 예를 도시한 것이다.
도 7은 본 발명에 따른 양방향 방송 서비스를 제공하기 위한 인터페이스 화면의 실제 구현 예를 도시한 것이다.
1 illustrates an implementation example of an augmented reality broadcasting service proposed by the present invention.
2 shows a schematic configuration of an interactive broadcasting system according to the present invention.
3 shows a schematic configuration of a broadcast production server according to the present invention.
4 shows a schematic flow for providing an augmented reality broadcasting service in a broadcast production server according to the present invention.
5 and 6 show examples of actual implementation of the interactive broadcasting service according to the present invention.
7 illustrates an actual implementation example of an interface screen for providing an interactive broadcasting service according to the present invention.

본 발명의 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하의 상세한 설명에 의해 보다 명확하게 이해될 것이다. 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다.Objects and technical configurations of the present invention and details of the operational effects thereof will be more clearly understood by the following detailed description based on the accompanying drawings in the specification of the present invention. An embodiment according to the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 개시되는 실시예들은 본 발명의 범위를 한정하는 것으로 해석되거나 이용되지 않아야 할 것이다. 이 분야의 통상의 기술자에게 본 명세서의 실시예를 포함한 설명은 다양한 응용을 갖는다는 것이 당연하다. 따라서, 본 발명의 상세한 설명에 기재된 임의의 실시예들은 본 발명을 보다 잘 설명하기 위한 예시적인 것이며 본 발명의 범위가 실시예들로 한정되는 것을 의도하지 않는다.The embodiments disclosed herein should not be construed or used as limiting the scope of the present invention. It goes without saying that the description, including the embodiments herein, has a variety of applications for those skilled in the art. Therefore, any embodiments described in the detailed description of the present invention are illustrative for better explaining the present invention, and the scope of the present invention is not intended to be limited to the examples.

도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한, 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록들 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합일 수 있다.The functional blocks shown in the drawings and described below are only examples of possible implementations. Other functional blocks may be used in other implementations without departing from the spirit and scope of the detailed description. Also, while one or more functional blocks of the present invention are represented as separate blocks, one or more of the functional blocks of the present invention may be a combination of various hardware and software configurations that perform the same function.

또한, 어떤 구성요소들을 포함한다는 표현은 “개방형”의 표현으로서 해당 구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안 된다.In addition, the expression that certain components are included simply refers to the existence of the corresponding components as an expression of “open type”, and should not be understood as excluding additional components.

나아가 어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급될 때에는, 그 다른 구성요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다.Furthermore, it should be understood that when a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but other components may exist in the middle. do.

도 1과 도 2를 참조하여 본 발명에 따른 증강현실 방송 서비스를 제공하는 양방향 방송 시스템에 대해 살펴보기로 한다. An interactive broadcasting system for providing an augmented reality broadcasting service according to the present invention will be described with reference to FIGS. 1 and 2 .

먼저, 도 1은 본 발명이 제안하는 증강현실 방송 서비스의 구현 예를 도시한 것이다.First, FIG. 1 illustrates an implementation example of an augmented reality broadcasting service proposed by the present invention.

도 1을 살펴보면, 본 발명의 양방향 방송 시스템(1000)은 방송국 서버(20) 또는 스트리밍 서버(30)를 통해 무대 연출이 진행되는 공간(1)을 실시간으로 방송하면서, 방송을 시청하는 시청자(10)들의 반응을 방송 화면 내 그래픽 객체로 띄워줄 수 있다. 구체적으로, 실시간 방송은 촬영 장치(100)가 촬영한 영상을 토대로 진행되며, 방송 제작 서버(200)는 시청자(10)들의 반응을 수집하고, 이를 방송 화면 상에서 다수의 그래픽 객체(a)(b)(c)(d)로 표시될 수 있도록 제어할 수 있다. 여기서, 그래픽 객체는 이미지 형태를 기본으로 하되, 추가로 텍스트, 오디오 형태로 구현될 수 있다. 예를 들어, (a) 그래픽 객체가 나타나거나 사라지는 경우, (d) 그래픽 객체 내 숫자가 올라가거나 내려가는 경우 또는 어느 하나의 객체(A')가 (b) 그래픽 객체와 교차 배치되는 경우에 오디오 효과가 출력될 수 있으며, 어느 하나의 객체(B)에 대한 시청자(10)의 채팅 데이터가 획득되는 경우 텍스트를 포함하는 (c) 그래픽 객체가 출력될 수 있다.Referring to FIG. 1, the interactive broadcasting system 1000 of the present invention broadcasts a space 1 in which a stage production is performed in real time through a broadcasting station server 20 or a streaming server 30, and viewers 10 ) can be displayed as a graphic object in the broadcasting screen. Specifically, real-time broadcasting is performed based on images captured by the photographing device 100, and the broadcasting production server 200 collects responses from viewers 10 and displays them as multiple graphic objects (a) (b) on the broadcasting screen. ) (c) can be controlled to be displayed as (d). Here, the graphic object is basically in the form of an image, but may be additionally implemented in the form of text and audio. For example, audio effects when (a) a graphic object appears or disappears, (d) a number within a graphic object rises or falls, or an object (A') is intersect with (b) a graphic object. may be output, and when chatting data of the viewer 10 for any one object (B) is obtained, (c) graphic object including text may be output.

아울러, 방송 제작 서버(200)는 공간(1)에 배치된 객체(A')(A")(B) 별로 시청자들의 반응을 구분하여 수집할 수 있는데, 여기서의 객체는 방송 출연자, 공연 무대 가수, 사회자 등의 사람, 공간(1)을 특정 지을 수 있는 조형물 등 다양한 사람, 사물, 동물 등을 포함할 수 있다. 다만, 설명의 편의를 위해 이하에서 설명하는 객체는 사람인 것으로 가정한다. 방송 제작 서버(200)는 객체 별로 시청자들의 반응을 구분함에 따라, 객체의 위치와 대응되는 위치에 그래픽 객체를 표시할 수 있으며, 그래픽 객체의 표시와 그 위치에 관하여는 아래에서 더 상세히 설명하기로 한다. In addition, the broadcast production server 200 may classify and collect viewers' reactions for each object (A') (A") (B) disposed in the space (1), where the objects are broadcast performers and performance stage singers. , various people, objects, animals, etc., such as people such as moderators and sculptures that can specify the space 1. However, for convenience of description, it is assumed that the objects described below are people. The server 200 may display a graphic object at a position corresponding to the position of the object by classifying the reaction of viewers for each object, and the display and position of the graphic object will be described in detail below.

도 2는 본 발명에 따른 양방향 방송 시스템의 개략적인 구성을 도시한 것이다. 2 shows a schematic configuration of an interactive broadcasting system according to the present invention.

도 2를 참조하면, 증강현실 방송 서비스를 제공하는 양방향 방송 시스템(1000)은 촬영 장치(100), 방송 제작 서버(200), 영상 믹서(300) 및 시청자 단말(400)을 포함할 수 있다. Referring to FIG. 2 , an interactive broadcasting system 1000 providing an augmented reality broadcasting service may include a photographing device 100, a broadcast production server 200, a video mixer 300, and a viewer terminal 400.

촬영 장치(100)는 객체가 위치한 공간에 대한 영상을 획득할 수 있다. 촬영 장치(100)는 객체를 인식하고, 촬영 공간의 각 지점 위치 좌표, 3차원 공간 정보, 거리 정보를 획득하기 위한 Lidar 센서나 ToF(Time Of Flight) 센서를 포함할 수 있으며, 촬영 장치(100)가 획득한 영상을 통해 방송 제작 서버(200)는 객체의 식별 데이터, 상기 객체 별 움직임에 대한 트래킹 데이터 및 상기 객체가 위치한 공간에 대한 3차원 공간 데이터 중 적어도 하나의 데이터를 획득할 수 있다. The photographing device 100 may obtain an image of a space where an object is located. The photographing device 100 may include a Lidar sensor or a Time Of Flight (ToF) sensor for recognizing an object and acquiring positional coordinates of each point in the photographing space, 3D space information, and distance information. ), the broadcast production server 200 may obtain at least one of object identification data, motion tracking data for each object, and 3D space data for a space where the object is located.

본 발명에서 촬영 장치(100)는 객체, 공간의 데이터를 획득할 수 있는 다양한 종류의 촬영 장치를 포함할 수 있으며, 일 예로 방송용 카메라(예. ENG카메라)는 물론, 카메라를 구비한 스마트 폰, 웹캠(Webcam), 캠코더 등이 촬영 장치(100)가 될 수도 있다. 아울러, 촬영 장치(100)는 유/무선 네트워크를 이용하여 획득한 영상을 방송 제작 서버(200)로 전달할 수 있다. In the present invention, the photographing device 100 may include various types of photographing devices capable of obtaining object and space data, and as an example, a broadcasting camera (eg, an ENG camera), as well as a smart phone equipped with a camera, A webcam, a camcorder, or the like may be the photographing device 100 . In addition, the photographing device 100 may transmit an image acquired using a wired/wireless network to the broadcast production server 200 .

방송 제작 서버(200)는 증강현실 방송 서비스를 제공하기 위한 방송 콘텐츠를 생성할 수 있는 서버로서, 하나의 서버 장치일 수 있거나, 경우에 따라 여러 대의 서버들로 구성된 시스템일 수 있다. 구체적으로, 방송 제작 서버(200)는 영상을 시청하는 방송 시청자들의 방송 참여 데이터를 수집하고, 방송 참여 데이터를 기초로 영상에 표시될 그래픽 객체를 결정할 수 있다. 여기서, 방송 참여 데이터란 방송 시청자들을 통해 얻을 수 있는 모든 데이터의 총칭으로, 방송 제작 서버(200)는 방송 채널 또는 스트리밍 채널을 통해 실시간으로 영상을 업로드함으로써 획득되는, 채널 접속자 수, 시청률, 댓글 수, 호감 표시 수, 댓글 내용, 유료 아이템 구매 정보 등을 포함할 수 있다. The broadcasting production server 200 is a server capable of generating broadcasting content for providing an augmented reality broadcasting service, and may be a single server device or a system composed of several servers in some cases. Specifically, the broadcast production server 200 may collect broadcast participation data of broadcast viewers watching the video, and determine a graphic object to be displayed on the video based on the broadcast participation data. Here, the broadcast participation data is a generic term for all data that can be obtained through broadcast viewers, and the broadcast production server 200 obtains by uploading a video in real time through a broadcast channel or a streaming channel, such as the number of channel users, viewer ratings, and number of comments. , the number of likes, comments, paid item purchase information, etc. may be included.

방송 제작 서버(200)는 방송 참여 데이터가 미리 설정된 조건을 만족하는지 확인하고, 조건이 충족되었을 때 영상에 표시될 그래픽 객체를 결정하고, 객체와 공간의 위치를 고려하여 이를 방송 화면에 표시할 수 있다. 이와 같이, 방송 제작 서버(200)는 종래 시청자들의 반응을 단순히 출력하는 것에서 나아가, 기 설정된 조건이 만족될 시에, 미리 제작된 그래픽 객체를 이용하여 표시함으로써, 시청자들의 반응, 의도가 방송에 반영될 수 있으며, 방송에 참여한 객체는 그래픽 객체를 통해 방송을 진행할 수 있어, 진정한 양방향 방송 서비스가 이루어질 수 있다는 점에서 차이가 있다. The broadcast production server 200 may check whether broadcast participation data satisfies a preset condition, determine a graphic object to be displayed in an image when the condition is met, and display it on the broadcast screen in consideration of the location of the object and space. there is. In this way, the broadcast production server 200 goes beyond simply outputting conventional viewers' reactions and displays them using pre-manufactured graphic objects when a preset condition is satisfied, so that the viewers' reactions and intentions are reflected in the broadcast. The difference is that an object participating in the broadcasting can proceed with the broadcasting through a graphic object, so that a true interactive broadcasting service can be achieved.

한편, 방송 제작 서버(200)는 영상에 대한 시청자들의 반응을 수집하기 위해, 방송 채널 플랫폼(방송국 서버(20)) 또는 스트리밍 채널 플랫폼(스트리밍 서버(30))으로부터 여러 API(Application Programming Interface)를 제공 받을 수 있다. 예를 들어, 방송 제작 서버(200)는 영상을 송출하기 위해 방송을 설정하기 위한 API, 시청자 반응을 수집하기 위한 API를 제공 받을 수 있다. Meanwhile, the broadcasting production server 200 uses various APIs (Application Programming Interfaces) from a broadcasting channel platform (broadcasting station server 20) or a streaming channel platform (streaming server 30) to collect viewers' reactions to the video. can be provided. For example, the broadcast production server 200 may be provided with an API for setting a broadcast and an API for collecting a viewer's reaction in order to transmit a video.

영상 믹서(300)는 촬영 장치(100), 방송 제작 서버(200)로부터 전달 받은 모든 데이터를 취합하여 방송에 송출될 방송 콘텐츠를 최종 생성하는 방송 제작자의 장치로서, 방송 제작자는 영상 믹서(300)를 통해 촬영 장치(100)를 통해 획득된 영상과 방송 제작 서버(200)에 의해 결정된 그래픽 객체를 혼합하여 방송 콘텐츠를 생성하고, 이를 출력할 수 있다. 예를 들어, 영상 믹서(300)는 개별 연결된 촬영 장치(100)와 방송 제작 서버(200)로부터 영상 및 그래픽 객체 표시 데이터를 제공 받아 하나의 방송 콘텐츠를 생성한 후, 이를 방송 신호로 출력할 수 있으며, 다른 예를 들어, 방송 제작 서버(200)에 의해 전달 받은 방송 콘텐츠를 컨버터(미도시)를 사용하여 방송 신호로 변환하여 출력할 수도 있다. 즉, 방송 제작자는 영상 믹서(300)를 통해 방송 제작 서버(200)에 의해 이미 완성된 증강현실 방송 서비스용 방송 콘텐츠를 확인하고, 이를 방송 채널, 스트리밍 채널로 즉시 출력할 수 있어, 시청자의 반응을 일일이 확인하고, 부적절한 내용을 필터링하는 번거로운 과정을 생략할 수 있다. The video mixer 300 is a device of a broadcast producer that collects all the data received from the photographing device 100 and the broadcast production server 200 to finally create broadcast content to be transmitted to the broadcast. Broadcasting content may be generated by mixing an image acquired through the photographing device 100 and a graphic object determined by the broadcasting production server 200 through, and output. For example, the video mixer 300 receives video and graphic object display data from the individually connected photographing device 100 and the broadcast production server 200, generates one broadcast content, and then outputs it as a broadcast signal. For another example, broadcast content delivered by the broadcast production server 200 may be converted into a broadcast signal using a converter (not shown) and then output. That is, the broadcast producer can check the broadcast content for the augmented reality broadcast service already completed by the broadcast production server 200 through the video mixer 300 and immediately output it to a broadcast channel or a streaming channel, and thus the viewer's reaction. You can omit the cumbersome process of manually checking and filtering inappropriate content.

한편, 촬영 장치(100)와 방송 제작 서버(200) 그리고 영상 믹서(400)는 서로 간에 물리적 커넥터(connector)를 통해 연결될 수 있다. 예를 들어, 커넥터는 HDMI(high definition multimedia interface) 커넥터, USB(universal serial bus) 커넥터, SD 카드 커넥터, SDI(Serial Digital Interface) 커넥터 또는 오디오 커넥터 등을 포함할 수 있다.Meanwhile, the photographing device 100, the broadcast production server 200, and the video mixer 400 may be connected to each other through physical connectors. For example, the connector may include a high definition multimedia interface (HDMI) connector, a universal serial bus (USB) connector, an SD card connector, a serial digital interface (SDI) connector, or an audio connector.

시청자 단말(400)은 증강현실 방송 서비스를 이용하는 시청자가 소지한 단말로서, 스마트 폰, PC, 태블릿 PC 등 다양한 전자 장치를 포함할 수 있다. 시청자는 방송 제작 서버(200)가 생성한 스트리밍 채널 또는 방송 채널에 접속하고, 방송을 시청하면서 방송에 대한 의견을 제공하거나, 관심을 표현할 수 있으며, 질문에 대한 답을 남길 수 있다. 여기서, 관심의 표현이나 텍스트를 남기는 동작은 스트리밍 채널 또는 방송 채널에 활성화된 댓글 창에 댓글을 입력함으로써 수행되거나, 방송 화면에 표시된 번호로 문자를 송신함으로써 수행될 수 있다. The viewer terminal 400 is a terminal possessed by a viewer using an augmented reality broadcasting service, and may include various electronic devices such as a smart phone, a PC, and a tablet PC. A viewer accesses a streaming channel or a broadcasting channel created by the broadcast production server 200, provides an opinion on the broadcast, expresses interest, or leaves an answer to a question while watching the broadcast. Here, the expression of interest or the operation of leaving a text may be performed by inputting a comment into a comment window activated on a streaming channel or broadcasting channel, or by sending a text message to a number displayed on a broadcasting screen.

지금까지 본 발명의 증강현실 방송 서비스를 제공하는 양방향 방송 시스템(1000)에 대하여 개략적으로 살펴보았으며, 이하에서는 증강현실을 구현하기 위한 그래픽 객체를 결정하는 방송 제작 서버(200)에 대하여 설명하도록 한다. So far, the interactive broadcasting system 1000 for providing the augmented reality broadcasting service of the present invention has been briefly reviewed, and the broadcasting production server 200 that determines graphic objects for implementing augmented reality will be described below. .

도 3은 본 발명에 따른 방송 제작 서버의 개략적인 구성을 도시한 것이다.3 shows a schematic configuration of a broadcast production server according to the present invention.

도 3을 참조하면, 방송 제작 서버(200)는 통신부(210), 입력부(220), 출력부(230), 저장부(240) 및 프로세서(250)를 포함할 수 있다.Referring to FIG. 3 , a broadcast production server 200 may include a communication unit 210, an input unit 220, an output unit 230, a storage unit 240, and a processor 250.

통신부(210)는 유/무선 네트워크를 이용하여 촬영 장치(100), 영상 믹서(300), 시청자 단말(400), 방송국 서버(20) 및 스트리밍 서버(30)로부터 다양한 데이터를 송수신할 수 있다. 예를 들어, 통신부(210)는 촬영 장치(100)로부터 객체의 식별 데이터, 객체 별 움직임에 대한 트래킹 데이터 및 객체가 위치한 공간에 대한 3차원 공간 데이터 등의 데이터를 포함하는 영상을 수신할 수 있으며, 시청자 단말(400)로부터 방송 시청자의 채팅 데이터, 그래픽 객체 구매 데이터 등의 방송 참여 데이터를 수신할 수 있고, 영상 믹서(300), 방송국 서버(20) 또는 스트리밍 서버(30)로 영상과 그래픽 객체가 혼합된 방송 콘텐츠를 송신할 수 있다. The communication unit 210 may transmit and receive various data from the photographing device 100, the video mixer 300, the viewer terminal 400, the broadcasting station server 20, and the streaming server 30 using a wired/wireless network. For example, the communication unit 210 may receive an image including data such as object identification data, motion tracking data for each object, and 3D space data for a space where the object is located from the photographing device 100. , It is possible to receive broadcasting participation data such as broadcasting viewer's chatting data and graphic object purchase data from the viewer terminal 400, and video and graphic objects to the video mixer 300, broadcasting station server 20 or streaming server 30 can transmit mixed broadcast content.

입력부(220)는 방송 제작자로부터 증강현실 방송 서비스를 제공하기 위한 각종 설정 정보를 획득할 수 있다. 구체적으로, 입력부(220)는 증강현실 방송 서비스를 제공하는 방송 채널 또는 스트리밍 채널 정보를 획득하거나, 방송 제작자의 그래픽 객체 출력 속성 정보를 획득할 수 있다. 예를 들어, 입력부(220)는 방송 제작자로부터 스트리밍 채널을 생성하기 위한 식별 정보와 함께 방송에 참여하는 객체 별로 서로 다른 스트리밍 채널(라이브 채널)을 생성하기 위한 정보를 획득할 수 있으며, 방송 송신 속도 정보를 획득할 수 있다. 다른 예를 들어, 입력부(220)는 방송 제작자로부터 증강현실 방송 서비스가 제공되는 동안 출연하는 방송 참가자(객체) 정보와 객체와 연관된 텍스트를 새롭게 획득할 수 있다. 여기서, 텍스트는 그래픽 객체가 표시될 조건을 의미할 수 있다. 일 예로, 입력부(220)는 방송 제작자로부터 12월 12일 방송하는 증강현실 방송 서비스에 출연하는 방송 출연자 정보와 방송 출연자의 이름, 별명, 유행어 등의 텍스트 정보를 획득할 수 있으며, 이는 그래픽 객체를 결정하기 위해 사용될 수 있다. 또 다른 예를 들어, 입력부(220)는 방송 제작자로부터 그래픽 객체가 표시될 조건을 획득하거나, 어느 하나의 조건을 충족하였을 시에 방송 시청자가 시각적, 청각적으로 확인 가능한 그래픽 객체의 출력 속성 정보를 획득할 수 있다. 아울러, 출력 속성 정보란 그래픽 객체의 종류, 색상, 크기 등의 이미지, 음향, 화면 내 이동 경로 등을 포함할 수 있다. The input unit 220 may obtain various setting information for providing an augmented reality broadcast service from a broadcast producer. Specifically, the input unit 220 may obtain information about a broadcasting channel or a streaming channel providing an augmented reality broadcasting service, or obtain graphic object output attribute information of a broadcaster. For example, the input unit 220 may obtain information for generating different streaming channels (live channels) for each object participating in broadcasting together with identification information for generating a streaming channel from a broadcast producer, and broadcast transmission speed. information can be obtained. For another example, the input unit 220 may newly acquire information about a broadcast participant (object) appearing while an augmented reality broadcast service is being provided and text related to the object from a broadcast producer. Here, the text may indicate a condition in which a graphic object is to be displayed. For example, the input unit 220 may obtain broadcast performer information appearing in the augmented reality broadcast service to be broadcast on December 12, and text information such as the broadcast performer's name, nickname, buzzword, etc., from a broadcast producer. can be used to determine For another example, the input unit 220 obtains a condition for displaying a graphic object from a broadcast producer or, when one condition is met, output property information of a graphic object that can be visually and audibly confirmed by broadcast viewers. can be obtained In addition, the output property information may include images such as the type, color, and size of graphic objects, sounds, and moving paths within a screen.

출력부(230)는 증강현실 방송 서비스를 제공하기 위한 인터페이스와 방송서비스에 표시될 그래픽 객체를 시각적, 청각적으로 출력할 수 있다. 출력부(230)를 통해 방송 제작자는 방송에 표시될 그래픽 객체를 편집할 수 있으며, 영상에 표시될 그래픽 객체의 위치 등을 조정할 수 있다. 아울러, 출력부(230)는 사용자의 터치 입력을 인식할 수 있으며, 그에 따라, 출력부(230)는 입력부(220)와 하나의 물리적 구성 요소로 이루어질 수 있다. 참고로, 상기 출력부(230)를 통해 출력 내지 송출되는 인터페이스 또는 객체 등은 후술하게 될 저장부(240)에 저장된 것일 수 있다. The output unit 230 may visually and audibly output an interface for providing an augmented reality broadcasting service and a graphic object to be displayed on the broadcasting service. Through the output unit 230, a broadcast producer can edit a graphic object to be displayed on a broadcast, and can adjust the position of a graphic object to be displayed on an image. In addition, the output unit 230 may recognize a user's touch input, and accordingly, the output unit 230 and the input unit 220 may be formed as one physical component. For reference, interfaces or objects that are output or transmitted through the output unit 230 may be stored in the storage unit 240 to be described later.

저장부(240)는 그래픽 객체를 결정하기 위한 각종 출력 속성 정보, 조건 정보 등을 저장할 수 있다. 구체적으로, 저장부(240)는 방송 참여 데이터의 종류 별로 표시 가능한 각종 그래픽 객체 정보를 저장할 수 있다. 예를 들어, 저장부(240)는 수치로 나타나는 방송 참여 데이터의 경우, 단계적으로 변화하는 그래픽 객체의 이미지를 저장할 수 있으며, 텍스트로 나타나는 방송 참여 데이터의 경우, 방송 시청자의 식별 정보 및 텍스트가 삽입될 그래픽 객체의 이미지를 저장할 수 있고, 소정의 금액을 지불한 방송 참여 데이터의 경우, 금액에 따라 상이한 그래픽 객체의 이미지를 저장할 수 있다. 또한, 저장부(240)는 그래픽 객체가 표시되거나 전환되기 위한 기준 정보를 저장할 수 있다. 예를 들어, 저장부(240)는 그래픽 객체가 표시되기 위한 방송 시청자 수, 시청률, 댓글 수, 호감 표시 수, 채팅, 댓글 내용, 그래픽 객체의 이미지가 순차적으로 전환되기 위한 시청자 수, 시청률, 댓글 수, 호감 표시 수, 유료 아이템 구매 정보 등을 저장할 수 있다. The storage unit 240 may store various types of output property information and condition information for determining a graphic object. Specifically, the storage unit 240 may store various displayable graphic object information for each type of broadcast participation data. For example, the storage unit 240 may store an image of a graphic object that changes step by step in the case of broadcast participation data represented by numbers, and in the case of broadcast participation data represented by text, identification information of broadcast viewers and text are inserted. An image of a graphic object to be used may be stored, and in the case of broadcast participation data for which a predetermined amount has been paid, images of different graphic objects may be stored according to the amount. Also, the storage unit 240 may store reference information for displaying or converting graphic objects. For example, the storage unit 240 may include the number of broadcasting viewers for displaying graphic objects, ratings, comments, number of likes, chatting, comment content, number of viewers for sequentially switching images of graphic objects, ratings, and comments. number, number of likes, purchase information for paid items, etc. can be stored.

아울러, 저장부(240)는 증강현실 방송 서비스가 제공되는 어느 하나의 방송 콘텐츠와 관련하여 출연자 정보(객체 정보), 출연자 별 출연 시간 정보 등을 저장할 수 있으며, 출연자 별 마이크(미도시) 식별 정보를 저장할 수도 있다. In addition, the storage unit 240 may store performer information (object information), appearance time information for each performer, etc. in relation to any one broadcast content for which augmented reality broadcasting service is provided, and microphone (not shown) identification information for each performer. can also be stored.

한편, 저장부(240)는 각종 데이터, 명령 및 정보를 저장할 수 있는 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 예를 들어, 저장부(240)는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 네트워크 저장 스토리지, 클라우드 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.Meanwhile, the storage unit 240 may include a volatile or non-volatile recording medium capable of storing various data, commands, and information. For example, the storage unit 240 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), RAM, SRAM, ROM, EEPROM, PROM, network storage It may include at least one type of storage medium among storage and cloud.

다른 한편, 저장부(240)에는 방송 제공 서버(200)의 동작을 위한 명령어들이 기록되어 있을 수 있으며, 저장부(240)에는 증강현실 방송 서비스를 제공하기 위한 프로그램이 기록되어 있을 수 있다. 프로그램은 프로세서(250)에 의해 실행될 때, 출력부(230)에서 사용자 인터페이스를 제공하고, 사용자 입력에 따른 적절한 메시지(데이터)를 출력하도록 하는 명령어 또는 프로그램 코드를 저장하는 기록 매체를 포함할 수 있다.On the other hand, commands for operating the broadcast providing server 200 may be recorded in the storage 240, and programs for providing augmented reality broadcasting services may be recorded in the storage 240. When the program is executed by the processor 250, the output unit 230 may provide a user interface and may include a recording medium storing instructions or program codes to output appropriate messages (data) according to user input. .

프로세서(250)는 통신부(210), 입력부(220), 출력부(230) 및 저장부(240)와 동작 가능하게 연결되어, 방송 제공 서버(200)의 전반적인 동작을 제어하며, 그래픽 객체를 결정하고 방송 콘텐츠를 생성하기 위한 다양한 명령들을 수행할 수 있다. The processor 250 is operatively connected to the communication unit 210, the input unit 220, the output unit 230, and the storage unit 240, controls the overall operation of the broadcast providing server 200, and determines graphic objects. and perform various commands for generating broadcast content.

프로세서(250)는 통신부(210)를 통해 객체가 위치한 공간에 대한 영상을 획득하고, 방송 채널 또는 스트리밍 채널에 업로드되어 이를 실시간으로 시청하는 방송 시청자들의 방송 참여 데이터를 수집할 수 있다. 여기서, 방송 참여 데이터란 방송 시청자들을 통해 얻을 수 있는 모든 데이터의 총칭으로, 방송 제작 서버(200)는 방송 채널 또는 스트리밍 채널을 통해 실시간으로 영상을 업로드함으로써 획득되는, 채널 접속자 수, 시청률, 댓글 수, 호감 표시 수, 댓글 내용, 유료 아이템 구매 정보 등을 포함할 수 있다.The processor 250 may obtain an image of a space in which an object is located through the communication unit 210, upload it to a broadcast channel or a streaming channel, and collect broadcast participation data of broadcast viewers watching the image in real time. Here, the broadcast participation data is a generic term for all data that can be obtained through broadcast viewers, and the broadcast production server 200 obtains by uploading a video in real time through a broadcast channel or a streaming channel, such as the number of channel users, viewer ratings, and number of comments. , the number of likes, comments, paid item purchase information, etc. may be included.

아울러, 프로세서(250)는 방송에 참여하는 객체 별로 스트리밍 채널을 생성할 수 있으며, 채널을 기초로 방송 참여 데이터를 분류할 수 있다. 예를 들어, 프로세서(250)는 1번 참가자, 2번 참가자, 3번 참가자를 응원하는 스트리밍 채널을 분리 생성함으로써, 하나의 방송에서 수집되는 방송 참여 데이터를 분류할 수 있으며, 해당 채널을 통해 수집된 방송 참여 데이터는 각각의 참가자(객체)에 매핑시킬 수 있다. 이와 같이, 방송 참여 데이터를 채널 별로 분류함에 따라, 수 만개의 방송 참여 데이터에 대한 그래픽 객체를 특정 객체나 위치에 한정시키기 위해 사용되는 연산량을 큰 폭으로 줄일 수 있다. In addition, the processor 250 may create a streaming channel for each object participating in broadcasting, and may classify broadcast participation data based on the channel. For example, the processor 250 can classify broadcast participation data collected in one broadcast by separately generating streaming channels supporting participants 1, 2, and 3, and collected through the corresponding channels. The broadcast participation data can be mapped to each participant (object). In this way, by classifying the broadcasting participation data for each channel, the amount of calculation used to limit the graphic objects for tens of thousands of broadcasting participation data to a specific object or location can be greatly reduced.

한편, 증강현실 방송 서비스를 구현하기 위한 필수 요소인 그래픽 객체를 결정하기 위해서는, 객체와 영상에 관한 공간 데이터가 필수적이다. 그에 따라, 프로세서(250)는 영상을 통해 객체의 식별 데이터, 객체 별 움직임에 대한 트래킹 데이터 및 객체가 위치한 공간에 대한 3차원 공간 데이터 중 적어도 하나의 데이터를 획득할 수 있다. 예를 들어, 프로세서(250)는 영상 속에 다수의 멤버를 포함하는 하나의 그룹이 존재하는 경우, 각 멤버를 식별하고, 멤버 별 트래킹 데이터를 획득할 수 있으며, 무대의 중심 좌표, 가장자리 영역 좌표 등의 공간 데이터를 획득할 수 있다. 또 다른 한편, 프로세서(250)로서는 영상으로부터 객체의 식별 데이터, 트래킹 데이터, 및 3차원 공간 데이터를 개별적으로 추출 및 획득해 내는 데에 상당한 연산이 필요하여 자칫 지연현상이 발생할 수도 있는데, 본 발명에 따른 양방향 방송 시스템에서는 촬영 장치(100), 즉 방송용 카메라에 화각이 연동되도록 세팅된 뎁스(depth) 카메라를 더 구비시킴으로써 객체(사람)의 식별 데이터 및 3차원 공간 데이터가 동시에 획득되도록 할 수 있다. 즉, 프로세서(250)는 영상으로부터 객체의 식별 데이터 또는 3차원 공간 데이터를 별개로 추출하기 위한 연산을 할 필요 없이 촬영 장치(100) 및 뎁스 카메라에 의해 촬영 및 인식된 영상으로부터 객체의 식별 데이터 및 3차원 공간 데이터를 매칭된 채로 획득할 수 있게 되므로 연산량을 줄일 수 있게 된다. Meanwhile, in order to determine a graphic object, which is an essential element for implementing an augmented reality broadcasting service, spatial data about an object and an image are essential. Accordingly, the processor 250 may obtain at least one of object identification data, motion tracking data for each object, and 3D space data for a space where the object is located through the image. For example, if a group including a plurality of members exists in an image, the processor 250 may identify each member, obtain tracking data for each member, coordinates of the center of the stage, coordinates of the edge area, etc. of spatial data can be obtained. On the other hand, as the processor 250, significant calculations are required to individually extract and obtain object identification data, tracking data, and 3D spatial data from the image, which may cause delay. In the interactive broadcasting system according to the present invention, identification data of an object (person) and 3D space data may be simultaneously obtained by further including a depth camera set to interlock the angle of view with the photographing device 100, that is, a broadcasting camera. That is, the processor 250 extracts the object identification data and object identification data from the image captured and recognized by the photographing device 100 and the depth camera without the need to separately extract object identification data or 3D space data from the image. Since it is possible to acquire 3D spatial data while being matched, it is possible to reduce the amount of calculation.

그래픽 객체와 관련된 모든 데이터를 획득하였다면, 프로세서(250)는 방송 참여 데이터가 미리 설정된 조건을 만족하는지 판단하고, 판단 결과 미리 설정된 조건을 만족하는 경우 영상에 표시될 그래픽 객체를 결정할 수 있다. 이때, 미리 설정된 조건은 방송 제작자/사회자의 시청자 채팅 데이터 요청, 채널 접속자 수 10,000명/20,000명/50,000명 이상, 시청률 1.3% 이상, 호감 표시 수 100,000 이상, 질문에 대한 정답으로 "56" 텍스트를 포함하는 채팅 데이터를 수신하는 경우, 유료 그래픽 객체를 구매하는 경우 등 다양한 조건을 포함할 수 있다.If all data related to the graphic object is obtained, the processor 250 determines whether the broadcast participation data satisfies a preset condition, and determines a graphic object to be displayed on the image if the preset condition is satisfied as a result of the determination. At this time, the pre-set conditions are broadcast producers/hosts requesting viewer chat data, channel accesses of 10,000/20,000/50,000 or more, audience rating of 1.3% or more, number of likes of 100,000 or more, and text "56" as the correct answer to the question. Various conditions may be included, such as when receiving chatting data and purchasing paid graphic objects.

또한, 프로세서(250)가 그래픽 객체를 결정한다고 하는 것은 그래픽 객체의 이미지, 오디오 정보를 결정하고, 이동 경로를 결정하는 것으로 이해될 수 있으며, 보다 구체적으로는 영상에 표시될 그래픽 객체의 종류, 색상, 크기, 음향 및 이동 경로 중 어느 하나의 출력 속성 정보를 결정하는 것으로 이해될 수 있다. In addition, determining the graphic object by the processor 250 can be understood as determining the image and audio information of the graphic object and determining the movement path, and more specifically, the type and color of the graphic object to be displayed on the image. , it can be understood as determining output attribute information of any one of size, sound, and movement path.

그 중에서도, 프로세서(250)는 그래픽 객체의 표시 범위, 즉 위치를 지정하기 위해 방송 시청자의 방송 참여 데이터를 활용할 수 있다. 구체적으로, 프로세서(250)는 채팅 데이터에서 객체와 연관된 텍스트가 존재하는 경우, 텍스트를 나타내는 그래픽 객체의 표시 범위를 객체의 트래킹 데이터와 매핑시킬 수 있다. 예를 들어, 프로세서(250)는 다수의 채팅 데이터 중 Z 객체의 이름, 별명, 유행어와 관련된 채팅 데이터가 존재하는 경우, 해당 채팅 데이터를 그래픽 객체로 표시하면서, 그 움직임을 영상 속에 식별된 Z 객체의 움직임과 매핑시킬 수 있다.Among them, the processor 250 may utilize broadcast participation data of broadcast viewers to designate a display range, ie, a location, of a graphic object. Specifically, when there is text related to the object in the chatting data, the processor 250 may map the display range of the graphic object representing the text to the tracking data of the object. For example, if there is chatting data related to the name, nickname, and buzzword of the Z object among a plurality of chatting data, the processor 250 displays the corresponding chatting data as a graphic object and displays the movement of the Z object identified in the video. can be mapped with the movement of

이 외에도, 프로세서(250)는 객체가 소지한 마이크(미도시)를 통해 객체의 음성 데이터를 획득하고, 방송 참여 데이터 중 음성 데이터가 획득되는 시간과 동일한 시간에 수집된 방송 참여 데이터를 마이크를 소지한 객체와 매핑시킬 수 있다. 예를 들어, 프로세서(250)는 M 객체가 일방적으로 질문을 하는 시간 동안 수집된 방송 참여 데이터를 그래픽 객체로 표시하는 과정에서 그 위치를 M 객체와 인접한 위치로 매핑시킴으로써, M 객체와 시청자가 서로 퀴즈를 맞추며 방송을 진행하는 듯한 체험을 할 수 있다. In addition to this, the processor 250 obtains voice data of the object through a microphone (not shown) possessed by the object, and holds the broadcast participation data collected at the same time as the time at which the voice data is acquired among the broadcast participation data through the microphone. It can be mapped to an object. For example, the processor 250 maps the location to a location adjacent to the M object in the process of displaying the broadcast participation data collected during the time when the M object unilaterally asks a question as a graphic object, so that the M object and the viewer can interact with each other. You can experience it as if you were broadcasting while taking a quiz.

방송 참여 데이터가 상술한 예와 같은 조건을 충족함에 따라, 프로세서(250)는 그래픽 객체를 결정하게 되며, 영상에 지정된 출력 속성 정보에 맞는 그래픽 객체를 혼합하여 방송 콘텐츠를 생성할 수 있다. 생성된 방송 콘텐츠는 방송국 서버(20) 또는 스트리밍 서버(30)로 송신되고, 시청자들은 자신이 소지한 시청자 단말(400)을 통해 생성된 증강현실 방송 서비스를 감상할 수 있다. As the broadcasting participation data satisfies the conditions as described in the above example, the processor 250 determines a graphic object, and may generate broadcasting content by mixing graphic objects suitable for output property information designated for an image. The generated broadcasting content is transmitted to the broadcasting server 20 or the streaming server 30, and viewers can enjoy the created augmented reality broadcasting service through their own viewer terminal 400.

한편, 프로세서(250)에 의해 그래픽 객체가 결정되고, 그래픽 객체가 지정된 위치에 배치되어 있는 동안, 방송에 참여하는 객체의 행동과 그래픽 객체의 출력 속성 정보에 따라 그래픽 객체가 변형될 수 있다. 여기서, 출력 속성 정보는 그래픽 객체에 지정된 특수 효과 정보로서, 영상 속의 객체가 이동함에 따라 객체와 그래픽 객체가 하나의 영상 프레임 안에서 교차 배치되는 경우, 그래픽 객체가 사라지거나 상하/좌우로 이동하거나, 그래픽 객체 상에 또 다른 그래픽 객체가 덧입혀지는 각종 특수 효과가 발생할 수 있다. Meanwhile, a graphic object may be determined by the processor 250 and, while the graphic object is arranged at a designated location, the graphic object may be transformed according to a behavior of an object participating in broadcasting and output property information of the graphic object. Here, the output property information is special effect information assigned to the graphic object. As the object in the image moves, if the object and the graphic object are intersect in one video frame, the graphic object disappears or moves up/down/left/right. Various special effects in which another graphic object is overlaid on an object may occur.

지금까지 본 발명의 증강현실 방송 서비스를 구현하기 위한 방송 제작 서버(200)에 대하여 살펴보았다. 본 발명에 따르면, 방송 제작 서버(200)는 일방적으로 영상을 제공하는 방송 시스템이 아닌, 시청자들의 반응을 그래픽 객체로 변환하고 이를 즉시 생방송에 송출되게 함으로써, 시청자가 원하는 방향으로의 양방향 방송을 제작할 수 있다는 효과가 있다.So far, the broadcasting production server 200 for implementing the augmented reality broadcasting service of the present invention has been looked at. According to the present invention, the broadcasting production server 200 is not a broadcasting system that provides images unilaterally, but converts viewers' reactions into graphic objects and immediately transmits them to live broadcasting, thereby producing interactive broadcasting in a direction desired by viewers. It can be effective.

도 4는 본 발명에 따른 방송 제작 서버에서 증강현실 방송 서비스를 제공하기 위한 개략적인 흐름을 도시한 것이다.4 shows a schematic flow for providing an augmented reality broadcasting service in a broadcast production server according to the present invention.

도 4를 참조하면, 방송 제작 서버(200)는 객체가 위치한 공간에 대한 영상을 획득한다(S110). 방송 제작 서버(200)는 해당 영상을 통해 객체의 식별 데이터, 객체 별 움직임에 대한 트래킹 데이터 및 객체가 위치한 공간에 대한 3차원 공간 데이터 중 적어도 하나의 데이터를 획득할 수 있으며, 이를 토대로 이후 그래픽 객체의 위치 및 종류를 결정할 수 있다.Referring to FIG. 4 , the broadcast production server 200 obtains an image of a space where an object is located (S110). The broadcasting production server 200 may obtain at least one of object identification data, tracking data for movement of each object, and 3D space data for the space where the object is located through the corresponding video, and based on this, later graphic objects The location and type of can be determined.

S110 단계 이후, 방송 제작 서버(200)는 영상을 시청하는 방송 시청자들의 방송 참여 데이터를 수집한다(S120). 구체적으로, 영상은 방송 채널 또는 스트리밍 채널에 업로드되며, 방송 제작 서버(200)는 방송 채널을 통해 수신한 문자 또는 채팅 창 내 댓글을 통해 방송 참여 데이터를 수집할 수 있다. 여기서, 방송 참여 데이터란 방송 시청자들을 통해 얻을 수 있는 모든 데이터의 총칭으로, 방송 제작 서버(200)는 방송 채널 또는 스트리밍 채널을 통해 실시간으로 영상을 업로드함으로써 획득되는, 채널 접속자 수, 시청률, 댓글 수, 호감 표시 수, 댓글 내용, 유료 아이템 구매 정보 등을 포함할 수 있다.After step S110, the broadcast production server 200 collects broadcast participation data of broadcast viewers watching the video (S120). Specifically, the video is uploaded to a broadcast channel or streaming channel, and the broadcast production server 200 may collect broadcast participation data through text messages received through the broadcast channel or comments in a chat window. Here, the broadcast participation data is a generic term for all data that can be obtained through broadcast viewers, and the broadcast production server 200 obtains by uploading a video in real time through a broadcast channel or a streaming channel, such as the number of channel users, viewer ratings, and number of comments. , the number of likes, comments, paid item purchase information, etc. may be included.

한편, 증강현실 방송 서비스의 규모에 따라 방송 참여 데이터의 양은 무한히 증가할 수 있으므로, 방송 제작 서버(200)는 방송에 참여하는 객체 별로 스트리밍 채널을 생성하여, 채널 별로 방송 참여 데이터를 분류함으로써, 그래픽 객체를 위치나 이동 경로를 결정하기 위해 방송 참여 데이터를 일일이 분류하는 작업을 생략할 수 있다. On the other hand, since the amount of broadcasting participation data can increase infinitely according to the size of the augmented reality broadcasting service, the broadcasting production server 200 creates a streaming channel for each object participating in broadcasting, classifies broadcasting participation data for each channel, and It is possible to omit the task of classifying broadcast participation data one by one in order to determine the location or movement path of an object.

S120 단계 이후, 방송 제작 서버(200)는 영상으로부터 획득 가능한 데이터 또는 방송 참여 데이터 중 적어도 하나를 기초로 그래픽 객체를 결정한다(S130).바람직하게는, 방송 제작 서버(200)는 영상 속에서 획득한 데이터와 방송 참여 데이터를 조합하여 그래픽 객체를 결정할 수 있으며, 보다 구체적으로 방송 제작 서버(200)는 영상으로부터 획득한 데이터 또는 방송 참여 데이터가 미리 설정된 조건을 만족하는 경우, 영상에 표시될 그래픽 객체의 종류, 색상, 크기, 음향, 특수 효과 및 이동 경로 중 어느 하나의 속정 정보를 결정할 수 있다. 여기서, 영상으로부터 획득한 데이터에 있어서의 미리 설정된 조건이란, 영상 내에서 객체들(멤버들)이 화면 내 차지하는 면적이 기 설정값 이하여서 그래픽 객체를 표시할 수 있는 화면 내 영역이 충분한 경우, 객체들에 대한 트래킹 데이터를 참조할 때 객체들이 기 설정된 움직임을 행한 경우, 객체들이 3차원 공간 내에서 정해진 위치로부터 벗어나거나 정해진 위치에 서는 경우 등이 포함될 수 있다. 또한, 방송 참여 데이터에 있어서의 미리 설정된 조건이란 목표 수치를 달성한 경우, 특정 텍스트를 수신하는 경우, 유료 그래픽 객체를 구매하는 경우 등 다양한 조건을 포함할 수 있다. After step S120, the broadcast production server 200 determines a graphic object based on at least one of data obtainable from the video or broadcast participation data (S130). Preferably, the broadcast production server 200 acquires from the video A graphic object may be determined by combining the data and broadcast participation data. More specifically, the broadcast production server 200 may determine a graphic object to be displayed in the video when the data obtained from the video or the broadcast participation data satisfies a preset condition. It is possible to determine any one attribute information among type, color, size, sound, special effect, and moving path. Here, the preset condition for the data obtained from the image is when the area occupied by the objects (members) in the image is less than the preset value and the area in the screen where the graphic object can be displayed is sufficient, the object When referring to tracking data for objects, cases in which objects perform preset movements, cases in which objects deviate from or stand at a predetermined position in a 3D space, and the like may be included. In addition, preset conditions in broadcasting participation data may include various conditions such as when a target number is achieved, when a specific text is received, when a paid graphic object is purchased, and the like.

S130 단계 이후, 방송 제작 서버(200)는 그래픽 객체를 영상에 혼합한 방송 콘텐츠를 생성하여 방송국 서버(20) 또는 스트리밍 서버(30)로 송신한다(S140). 즉, 최종적으로 방송 시청자는 본인의 호응이나 텍스트가 실제로 방송 화면에 반영된 모습을 확인할 수 있으며, 그에 따라 방송의 흥미가 배가될 수 있다.After step S130, the broadcasting production server 200 generates broadcasting content in which a graphic object is mixed with an image, and transmits it to the broadcasting station server 20 or the streaming server 30 (S140). That is, finally, broadcast viewers can check how their responses or texts are actually reflected on the broadcast screen, and interest in broadcasting can be doubled accordingly.

S110 단계 내지 S140 단계들을 실제 방송 서비스 제공 환경에 적용시켜 본다면, S110 단계는 5인으로 구성되어 있는 A 아이돌 그룹의 무대공연을 촬영함으로써 영상을 획득하는 단계일 수 있으며, 방송 제작 서버(200)는 이렇게 획득된 영상으로부터 A 아이돌 그룹의 각 멤버들을 식별한 멤버 별 식별 데이터(객체의 식별 데이터), 각 멤버들의 움직임을 트래킹하는 트래킹 데이터, 또는 각 멤버들이 위치한 공간에 대한 3차원 공간 데이터 중 적어도 하나의 데이터를 획득할 수 있다. If steps S110 to S140 are applied to an actual broadcast service providing environment, step S110 may be a step of obtaining an image by filming a stage performance of an idol group consisting of 5 members, and the broadcast production server 200 From the obtained image, at least one of member-specific identification data (object identification data) for identifying each member of idol group A, tracking data for tracking the movement of each member, or 3-dimensional space data for the space where each member is located. of data can be obtained.

또한, S120 단계는 A 아이돌 그룹의 무대공연 영상을 시청하고 있는 다수 시청자들의 단말기들로부터 방송 참여 데이터, 예를 들어 관련 댓글, 유료 아이템 구매 정보, 접속자 수, 호감(좋아요) 개수 등이 수집되는 단계일 수 있다. In addition, step S120 is a step of collecting broadcast participation data, for example, related comments, paid item purchase information, number of visitors, number of likes (likes), etc. can be

이 때, 방송 제작 서버(200)는 각 멤버 별로 생성되어 있는 스트리밍 채널을 통하여 각 멤버들에 대한 방송 참여 데이터를 수집할 수 있으며, 이렇게 객체 별 채널을 활용함으로써 대량의 방송 참여 데이터를 상대적으로 쉽게 처리할 수 있게 된다. 한편, 각 멤버 별 스트리밍 채널이 존재하지 않더라도 방송 제작 서버(200)는 상기 방송 참여 데이터 중 특정 멤버를 향한 것임을 식별할 수 있는 정보들, 예를 들어 댓글 내용 중 포함되어 있는 특정 멤버의 이름/별칭/애칭, 특정 멤버 이름을 포함하는 태그(해시태그) 등을 추출해 냄으로써 상기 방송 참여 데이터들을 각 멤버 별로 분류할 수 있게 구현할 수도 있다. At this time, the broadcast production server 200 may collect broadcast participation data for each member through a streaming channel created for each member, and by utilizing the channel for each object in this way, a large amount of broadcast participation data is relatively easy. be able to process On the other hand, even if there is no streaming channel for each member, the broadcast production server 200 provides information that can identify that the broadcast participation data is directed to a specific member, for example, the name/nickname of the specific member included in the comment contents. / By extracting a tag (hashtag) including a nickname or a specific member name, etc., the broadcasting participation data can be implemented to be classified for each member.

S130 단계는, 상기 방송 제작 서버(200)가 영상으로부터 획득 가능한 데이터 또는 방송 참여 데이터 중 적어도 하나를 기초로 그래픽 객체를 결정하는 단계로, 예를 들어 A 아이돌 그룹 멤버들이 화면 내에서 차지하는 면적이 50% 이하로 낮아지는 경우 방송 제작 서버(200)는 A 아이돌 그룹 멤버들이 차지하고 있는 영역 외의 영역에 3차원적으로 표현된 그룹명이 출력되도록 그래픽 객체를 결정할 수 있으며, 또는 A 아이돌 그룹 멤버들 중 어느 멤버에 대한 응원 메시지가 수신된 경우에는 화면 상에서 해당 멤버 측면으로 메시지를 출력되도록 그래픽 객체를 결정할 수도 있다. In step S130, the broadcast production server 200 determines a graphic object based on at least one of data obtainable from a video or broadcast participation data. % or less, the broadcast production server 200 may determine a graphic object so that the three-dimensionally expressed group name is output in an area other than the area occupied by the A idol group members, or any member of the A idol group members. When a cheering message for is received, a graphic object may be determined so that the message is displayed on the side of the corresponding member on the screen.

도 5 및 도 6은 본 발명에 따른 양방향 방송 서비스의 실제 구현 예를 도시한 것이다. 5 and 6 show examples of actual implementation of the interactive broadcasting service according to the present invention.

도 5a를 참조하면, 방송 시청자는 시청자 단말(400)을 통해 점선을 제외한 그래픽 객체(51)가 존재하는 영상을 시청할 수 있다. 도 5a에서의 그래픽 객체(51)는 현재 영상에 등장하고 있는 그룹의 그룹명이나 이는 다른 콘텐츠로 변경 표시될 수 있다. 또한 여기서, 그래픽 객체(51)는 채널 접속자 수, 시청률, 댓글 수, 호감 표시 수, 유료 아이템 구매 정보 등에 따라 새롭게 전환되어 표시될 수도 있다. Referring to FIG. 5A , a broadcast viewer may view an image in which a graphic object 51 exists except for a dotted line through a viewer terminal 400 . The graphic object 51 in FIG. 5A is the group name of the group currently appearing in the video, but it can be changed and displayed as other content. Also, here, the graphic object 51 may be newly switched and displayed according to the number of channel accesses, viewer ratings, number of comments, number of likes, paid item purchase information, and the like.

한편, 방송 화면 중앙에 배치된 객체의 움직임에 따라 그래픽 객체(51)도 함께 변형될 수 있다. 예를 들어, 객체가 그래픽 객체(51)가 배치되어 있는 1번 영역으로 진입하여 두 객체가 교차 배치되는 경우, 그래픽 객체가 2번, 3번, 4번 영역으로 이동하거나, 사라질 수 있다. Meanwhile, the graphic object 51 may also be transformed according to the movement of the object disposed in the center of the broadcasting screen. For example, when an object enters area 1 where the graphic object 51 is arranged and the two objects cross each other, the graphic object may move to area 2, 3, or 4 or disappear.

도 5b 역시 도 5a와 유사하게 그룹명이 영상 내에 출력되는 실제 구현 예를 도시한 것이나, 도 5b는 방송 시청자들로부터 수신된 방송 참여 데이터의 양이 많이 쌓일수록, 다시 말해 영상 내 그룹을 응원하는 문자 메시지, 채팅 메시지, 좋아요 등이 많이 쌓일수록 그룹명(52)이 완성되어 가는 구현예를 도시한 것으로, 이처럼 본 발명에 따른 양방향 방송 서비스는 방송 참여 데이터와 연계하여 다양한 그래픽 객체들을 출력시킬 수 있다.FIG. 5B also shows an actual implementation example in which group names are output in the video similarly to FIG. 5A, but FIG. 5B shows a text message cheering for the group in the video as the amount of broadcast participation data received from broadcast viewers accumulates. , chatting messages, likes, etc. are piled up to show an implementation example in which the group name 52 is completed. As such, the interactive broadcasting service according to the present invention can output various graphic objects in connection with broadcasting participation data.

다음으로 도 6을 참조하면, 방송 시청자는 시청자 단말(400)을 통해 자신이 작성한 채팅 데이터에 대한 그래픽 객체(63)(64)가 존재하는 영상을 시청할 수 있다. 채팅 데이터에 대한 그래픽 객체(63)(64)는 특정 객체(C')(C")의 주변 영역에 배치되며, 이는 채팅 데이터에 특정 객체(C')(C")에 대한 정보를 포함하고 있을 경우, 자동으로 그 위치가 지정될 수 있다. Next, referring to FIG. 6 , a broadcast viewer can view a video in which graphic objects 63 and 64 for chatting data created by the broadcast viewer are present through the viewer terminal 400 . The graphic objects 63 and 64 for the chatting data are placed in the area around the specific object (C') (C"), which contains information about the specific object (C') (C") in the chatting data and If there is, the location can be assigned automatically.

한편, 객체(C')(C") 상에 배치된 또 다른 그래픽 객체(61)(62)는 방송 제작자에 의해 삽입될 수 있다. Meanwhile, another graphic object (61, 62) disposed on the object (C') (C") may be inserted by a broadcast producer.

도 7은 본 발명에 따른 양방향 방송 서비스를 제공하기 위한 인터페이스 화면의 실제 구현 예를 도시한 것이다. 7 illustrates an actual implementation example of an interface screen for providing an interactive broadcasting service according to the present invention.

방송 제작자는 방송 제작 서버(200)의 인터페이스를 통해 가장 먼저 증강현실 방송 서비스를 제공하기 위한 메뉴(70)를 선택할 수 있으며, 도 7에서는 증강현실 방송 서비스 중 하나인 영상챗 서비스(슈퍼챗 서비스)를 제공하기 위해 메뉴가 선택되는 모습을 도시한 것이다. 영상챗 서비스 메뉴가 선택된 후에는 특정 스트리밍 플랫폼(71; 예: YouTube)이 선택될 수 있으며, 선택된 스트리밍 플랫폼에 대한 정보(예: 로그인 정보 등)가 정보입력란(72)을 통해 입력될 수 있다. 이 때 스트리밍 플랫폼은 방송 시청자들로부터의 방송 참여 데이터를 수집하기 위한 채널일 수 있다. 스트리밍 플랫폼이 선택된 후에는 방송 시청자들로부터 영상챗 서비스를 제공하는 데에 필요한 소스들, 즉 아이디 및 내용을 포함하는 방송 참여 데이터들을 수신할 수 있다. 이 때 수신되는 방송 참여 데이터들은 인터페이스(200) 중 임의의 영역(73) 내에 출력되도록 구현될 수 있다. 참고로 인터페이스(200) 내 임의의 영역(73)은 인터페이스 설계자의 의도에 따라 다른 방식으로 표시될 수도 있음을 이해한다. 한편, 방송 참여 데이터들이 수신된 후에는 미리 생성해 둔 그래픽 객체(74)가 상기 수신되는 방송 참여 데이터와 연계하여 출력되도록 제어될 수도 있다. 예를 들어, OX 투표를 댓글로 받아 댓글이 아이돌 그룹 멤버의 움직임에 맞추어 측면에 표시되도록 하는 그래픽 객체, 쌓인 댓글 수만큼 빈 공간이 채워지는 형태의 그래픽 객체 등이 상기 방송 참여 데이터와 연계하여 출력되도록 제어될 수 있다.A broadcast producer can first select a menu 70 for providing an augmented reality broadcast service through the interface of the broadcast production server 200, and in FIG. 7, one of the augmented reality broadcast services is a video chat service (Super Chat service). It shows how the menu is selected to provide. After the video chat service menu is selected, a specific streaming platform 71 (eg, YouTube) may be selected, and information (eg, login information, etc.) on the selected streaming platform may be input through the information input field 72. In this case, the streaming platform may be a channel for collecting broadcast participation data from broadcast viewers. After the streaming platform is selected, sources required to provide a video chat service, that is, broadcast participation data including an ID and contents may be received from broadcast viewers. At this time, the received broadcast participation data may be implemented to be output within an arbitrary region 73 of the interface 200 . For reference, it is understood that an arbitrary area 73 in the interface 200 may be displayed in a different way according to the interface designer's intention. Meanwhile, after the broadcast participation data are received, the graphic object 74 created in advance may be controlled to be output in association with the received broadcast participation data. For example, a graphic object that receives OX votes as comments and displays comments on the side according to the movement of idol group members, a graphic object in the form of filling empty spaces as much as the number of accumulated comments, etc. Output in conjunction with the broadcast participation data can be controlled as much as possible.

이상 증강현실 방송 서비스를 제공하는 양방향 방송 시스템에 대해 살펴보았다. 본 발명은 상술한 특정의 실시예 및 응용예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 구별되어 이해되어서는 안 될 것이다.An interactive broadcasting system that provides an augmented reality broadcasting service was examined. The present invention is not limited to the specific embodiments and application examples described above, and various modifications can be made by those skilled in the art without departing from the gist of the present invention claimed in the claims. Of course, these modified implementations should not be understood separately from the technical spirit or perspective of the present invention.

1000: 양방향 방송 시스템
10: 시청자
20: 방송국 서버
30: 스트리밍 서버
100: 촬영 장치
200: 방송 제작 서버
210: 통신부
220: 입력부
230: 출력부
240: 저장부
250: 프로세서
300: 영상 믹서
400: 시청자 단말
1000: interactive broadcasting system
10: viewers
20: broadcasting station server
30: streaming server
100: shooting device
200: broadcast production server
210: communication department
220: input unit
230: output unit
240: storage unit
250: processor
300: video mixer
400: viewer terminal

Claims (16)

복수의 객체들이 위치한 공간에 대한 영상을 획득하는 촬영 장치; 및
상기 영상을 시청하는 방송 시청자들의 방송 참여 데이터를 수집하고, 상기 영상으로부터 획득 가능한 데이터 및 상기 방송 시청자들의 방송 참여 데이터를 기초로 상기 영상에 표시될 그래픽 객체를 결정하는 방송 제작 서버; 를 포함하며,
상기 영상으로부터 획득 가능한 데이터는 상기 영상 내 객체들의 식별 데이터 및 상기 객체들 별 움직임에 대한 트래킹 데이터를 포함하고,
상기 방송 제작 서버는, 상기 방송 참여 데이터 중 특정 객체와 관련된 방송 참여 데이터 - 상기 특정 객체와 관련된 방송 참여 데이터는, 특정 객체의 이름, 별칭, 애칭, 또는 해시태그를 포함함 - 가 존재하면, 해당 방송 참여 데이터를 상기 특정 객체의 움직임과 매핑시켜 상기 영상 내에서 그래픽 객체로 표시하는 것을 특징으로 하는,
양방향 방송 시스템.
a photographing device that acquires an image of a space where a plurality of objects are located; and
a broadcast production server that collects broadcast participation data of broadcast viewers who watch the video and determines a graphic object to be displayed on the video based on data obtainable from the video and broadcast participation data of the broadcast viewers; Including,
The data obtainable from the image includes identification data of objects in the image and tracking data for motion of each object,
The broadcast production server, if there is broadcast participation data related to a specific object among the broadcast participation data - the broadcast participation data related to the specific object includes the name, alias, nickname, or hashtag of the specific object -, the corresponding Characterized in that the broadcast participation data is mapped with the movement of the specific object and displayed as a graphic object in the image,
Two-way broadcasting system.
제1항에 있어서,
상기 방송 참여 데이터는,
상기 영상을 시청하는 방송 시청자 수, 방송 시청자의 응답 수, 호감 표시 수, 방송 시청자의 식별 데이터, 방송 시청자의 채팅 데이터 및 방송 시청자의 그래픽 객체 구매 데이터 중 적어도 하나를 포함하는,
양방향 방송 시스템.
According to claim 1,
The broadcast participation data,
Including at least one of the number of broadcast viewers who watch the video, the number of responses from broadcast viewers, the number of like marks, identification data of broadcast viewers, chat data of broadcast viewers, and graphic object purchase data of broadcast viewers,
Two-way broadcasting system.
제1항에 있어서,
상기 영상으로부터 획득 가능한 데이터는,
상기 객체들이 위치한 공간에 대한 3차원 공간 데이터를 더 포함하는,
양방향 방송 시스템.
According to claim 1,
The data obtainable from the image are,
Further comprising three-dimensional space data for the space in which the objects are located,
Two-way broadcasting system.
제2항 또는 제3항에 있어서,
상기 방송 제작 서버는,
상기 영상으로부터 획득 가능한 데이터 또는 방송 참여 데이터가 미리 설정된 조건을 만족하는 경우, 상기 영상에 표시될 그래픽 객체의 종류, 색상, 크기, 음향, 특수 효과 및 이동 경로 중 어느 하나의 출력 속성 정보를 결정하는,
양방향 방송 시스템.
According to claim 2 or 3,
The broadcast production server,
When data obtainable from the image or broadcast participation data satisfies a preset condition, determining output property information of any one of the type, color, size, sound, special effect, and movement path of the graphic object to be displayed on the image ,
Two-way broadcasting system.
제4항에 있어서,
상기 방송 제작 서버는,
상기 객체가 소지한 마이크를 통해 임의 객체의 음성 데이터를 더 획득하고,
상기 방송 참여 데이터 중 상기 음성 데이터가 획득되는 시간과 동일한 시간에 수집된 방송 참여 데이터를 상기 객체와 매핑시키는,
양방향 방송 시스템.
According to claim 4,
The broadcast production server,
Further acquiring voice data of an arbitrary object through a microphone possessed by the object,
Mapping broadcast participation data collected at the same time as the time at which the voice data is obtained among the broadcast participation data with the object;
Two-way broadcasting system.
제2항에 있어서,
상기 방송 제작 서버는,
상기 채팅 데이터에서 임의 객체와 연관된 텍스트가 존재하는 경우, 상기 텍스트를 나타내는 그래픽 객체의 표시 범위를 상기 객체의 트래킹 데이터와 매핑시키는,
양방향 방송 시스템.
According to claim 2,
The broadcast production server,
If there is text associated with an arbitrary object in the chat data, mapping the display range of the graphic object representing the text with the tracking data of the object,
Two-way broadcasting system.
제1항에 있어서,
상기 방송 제작 서버는,
상기 영상을 통해 획득된 데이터와 상기 그래픽 객체를 기초로 방송 콘텐츠를 생성하는,
양방향 방송 시스템.
According to claim 1,
The broadcast production server,
Generating broadcast content based on data obtained through the image and the graphic object;
Two-way broadcasting system.
제1항에 있어서,
상기 방송 제작 서버는,
상기 객체 주변에 배치된 그래픽 객체의 종류를 확인하고, 해당 객체와 상기 객체의 움직임에 따라 상기 그래픽 객체가 교차 배치되는 경우, 상기 그래픽 객체의 출력 속성 정보를 변경하는,
양방향 방송 시스템.
According to claim 1,
The broadcast production server,
Checking the type of graphic object arranged around the object, and changing the output property information of the graphic object when the graphic object intersects with the corresponding object according to the movement of the object,
Two-way broadcasting system.
제1항에 있어서,
상기 방송 제작 서버는,
방송에 참여하는 객체 별로 스트리밍 채널을 생성하고, 상기 채널을 기초로 상기 방송 참여 데이터를 분류하는,
양방향 방송 시스템.
According to claim 1,
The broadcast production server,
Creating a streaming channel for each object participating in broadcasting, and classifying the broadcast participation data based on the channel.
Two-way broadcasting system.
제1항에 있어서,
상기 촬영 장치를 통해 획득된 영상과 상기 방송 제작 서버에 의해 결정된 그래픽 객체를 혼합하여 방송 콘텐츠를 생성하고, 상기 방송 콘텐츠를 출력하는 영상 믹서; 를 더 포함하는,
양방향 방송 시스템.
According to claim 1,
an image mixer generating broadcast content by mixing an image acquired through the photographing device and a graphic object determined by the broadcast production server, and outputting the broadcast content; Including more,
Two-way broadcasting system.
방송 제작 서버가 수행하는 양방향 방송 서비스 제공 방법으로서,
복수의 객체들이 위치한 공간에 대한 영상을 획득하는 단계;
상기 영상을 시청하는 방송 시청자들의 방송 참여 데이터를 수집하는 단계; 및
상기 영상으로부터 획득 가능한 데이터 및 상기 방송 참여 데이터를 기초로 그래픽 객체를 결정하는 단계; 를 포함하며,
상기 영상으로부터 획득 가능한 데이터는 상기 영상 내 객체들의 식별 데이터 및 상기 객체들 별 움직임에 대한 트래킹 데이터를 포함하고,
상기 방송 제작 서버는, 상기 방송 참여 데이터 중 특정 객체와 관련된 방송 참여 데이터 - 상기 특정 객체와 관련된 방송 참여 데이터는, 특정 객체의 이름, 별칭, 애칭, 또는 해시태그를 포함함 - 가 존재하면, 해당 방송 참여 데이터를 상기 특정 객체의 움직임과 매핑시켜 상기 영상 내에서 그래픽 객체로 표시하는 것을 특징으로 하는,
양방향 방송 서비스 제공 방법.
As a method of providing interactive broadcasting service performed by a broadcasting production server,
obtaining an image of a space where a plurality of objects are located;
Collecting broadcast participation data of broadcast viewers who watch the video; and
determining a graphic object based on data obtainable from the image and broadcast participation data; Including,
The data obtainable from the image includes identification data of objects in the image and tracking data for motion of each object,
The broadcast production server, if broadcast participation data related to a specific object among the broadcast participation data - the broadcast participation data related to the specific object includes the name, alias, nickname, or hashtag of the specific object - exists, the corresponding Characterized in that the broadcast participation data is mapped with the movement of the specific object and displayed as a graphic object in the image,
How to provide interactive broadcasting service.
제11항에 있어서,
상기 결정하는 단계 이후에,
상기 그래픽 객체를 상기 영상에 혼합한 방송 콘텐츠를 생성하여 방송국 서버 또는 스트리밍 서버로 송신하는 단계; 를 더 포함하는,
양방향 방송 서비스 제공 방법.
According to claim 11,
After the determining step,
generating broadcasting content in which the graphic object is mixed with the image and transmitting the broadcasting content to a broadcasting station server or a streaming server; Including more,
How to provide interactive broadcasting service.
제11항에 있어서,
상기 영상으로부터 획득 가능한 데이터는,
상기 객체가 위치한 공간에 대한 3차원 공간 데이터를 더 포함하는,
양방향 방송 서비스 제공 방법.
According to claim 11,
The data obtainable from the image are,
Further comprising three-dimensional space data for the space where the object is located,
How to provide interactive broadcasting service.
제11항에 있어서,
상기 방송 참여 데이터는,
상기 영상을 시청하는 방송 시청자 수, 방송 시청자의 응답 수, 호감 표시 수, 방송 시청자의 식별 데이터, 방송 시청자의 채팅 데이터 및 방송 시청자의 그래픽 객체 구매 데이터 중 적어도 하나를 포함하는,
양방향 방송 서비스 제공 방법.
According to claim 11,
The broadcast participation data,
Including at least one of the number of broadcast viewers who watch the video, the number of responses from broadcast viewers, the number of like marks, identification data of broadcast viewers, chat data of broadcast viewers, and graphic object purchase data of broadcast viewers,
How to provide interactive broadcasting service.
제13항 또는 제14항에 있어서,
상기 결정하는 단계는,
상기 방송 참여 데이터가 미리 설정된 조건을 만족하는 경우, 상기 영상에 표시될 그래픽 객체의 종류, 색상, 크기, 음향, 특수 효과 및 이동 경로 중 어느 하나의 속성 정보를 결정하는 단계인,
양방향 방송 서비스 제공 방법.
According to claim 13 or 14,
The determining step is
When the broadcast participation data satisfies a preset condition, determining any one of attribute information among the type, color, size, sound, special effect, and movement path of the graphic object to be displayed on the image,
How to provide interactive broadcasting service.
제11항에 있어서,
상기 수집하는 단계는,
방송에 참여하는 객체 별로 스트리밍 채널을 생성하고, 상기 스트리밍 채널을 기초로 상기 방송 참여 데이터를 분류하는 단계, 를 더 포함하는,
양방향 방송 서비스 제공 방법.
According to claim 11,
The collecting step is
Creating a streaming channel for each object participating in broadcasting, and classifying the broadcast participation data based on the streaming channel.
How to provide interactive broadcasting service.
KR1020200181587A 2020-12-23 2020-12-23 Interactive broadcasting system and method for providing augmented reality broadcasting service KR102568021B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200181587A KR102568021B1 (en) 2020-12-23 2020-12-23 Interactive broadcasting system and method for providing augmented reality broadcasting service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200181587A KR102568021B1 (en) 2020-12-23 2020-12-23 Interactive broadcasting system and method for providing augmented reality broadcasting service

Publications (2)

Publication Number Publication Date
KR20220090751A KR20220090751A (en) 2022-06-30
KR102568021B1 true KR102568021B1 (en) 2023-08-17

Family

ID=82215280

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200181587A KR102568021B1 (en) 2020-12-23 2020-12-23 Interactive broadcasting system and method for providing augmented reality broadcasting service

Country Status (1)

Country Link
KR (1) KR102568021B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024071692A1 (en) * 2022-09-29 2024-04-04 삼성전자 주식회사 Electronic device and operation method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101915786B1 (en) 2017-09-01 2018-11-09 (주)비버스팩토리 Service System and Method for Connect to Inserting Broadcasting Program Using an Avata
KR102163695B1 (en) 2019-04-16 2020-10-08 주식회사 팀그릿 Method for providing real-time engaging streaming service over internet and apparatus therefor

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101369273B1 (en) 2012-05-25 2014-03-25 주식회사 미래지기 Interactive live broadcasting system and method
KR20140004341A (en) * 2012-07-02 2014-01-13 한국전자통신연구원 Audience choice type augmented broadcast service providing apparatus and method
KR20170081517A (en) * 2016-01-04 2017-07-12 한국전자통신연구원 Server and method for providing interactive broadcast
KR20200041839A (en) * 2020-02-24 2020-04-22 주식회사 아프리카티비 Method for providing virtual reality userinterface for viewing broadcastand apparatus using the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101915786B1 (en) 2017-09-01 2018-11-09 (주)비버스팩토리 Service System and Method for Connect to Inserting Broadcasting Program Using an Avata
KR102163695B1 (en) 2019-04-16 2020-10-08 주식회사 팀그릿 Method for providing real-time engaging streaming service over internet and apparatus therefor

Also Published As

Publication number Publication date
KR20220090751A (en) 2022-06-30

Similar Documents

Publication Publication Date Title
CN106792246B (en) Method and system for interaction of fusion type virtual scene
US8112490B2 (en) System and method for providing a virtual environment with shared video on demand
US9751015B2 (en) Augmented reality videogame broadcast programming
US8665374B2 (en) Interactive video insertions, and applications thereof
CN109327741B (en) Game live broadcast method, device and system
US20070122786A1 (en) Video karaoke system
US20180227501A1 (en) Multiple vantage point viewing platform and user interface
KR101915786B1 (en) Service System and Method for Connect to Inserting Broadcasting Program Using an Avata
CN108322474B (en) Virtual reality system based on shared desktop, related device and method
KR20150105058A (en) Mixed reality type virtual performance system using online
KR101369273B1 (en) Interactive live broadcasting system and method
US20110035767A1 (en) Iptv remote broadcasting system for audience participation and service providing method thereof
US9930094B2 (en) Content complex providing server for a group of terminals
KR102568021B1 (en) Interactive broadcasting system and method for providing augmented reality broadcasting service
KR102081067B1 (en) Platform for video mixing in studio environment
KR20210084248A (en) Method and apparatus for providing a platform for transmitting vr contents
KR102417084B1 (en) Method And System for Transmitting and Receiving Multi-Channel Media
KR20180092411A (en) Method and apparatus for transmiting multiple video
KR101295002B1 (en) Panoramic Video Interface Providing System and Method using SNS Information
EP4376385A1 (en) System and method enabling live broadcasting sessions in virtual environments
Yu et al. AVPUC: Automatic video production with user customization
Series Collection of usage scenarios and current statuses of advanced immersive audio-visual systems
Palacio-Baus et al. Current challenges of interactive digital television
CN112738424A (en) Multi-lens playing and presenting method based on video media
KR20240080119A (en) System and method enabling live broadcasting sessions in virtual environments

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant