KR101821145B1 - Video live streaming system - Google Patents

Video live streaming system Download PDF

Info

Publication number
KR101821145B1
KR101821145B1 KR1020170059742A KR20170059742A KR101821145B1 KR 101821145 B1 KR101821145 B1 KR 101821145B1 KR 1020170059742 A KR1020170059742 A KR 1020170059742A KR 20170059742 A KR20170059742 A KR 20170059742A KR 101821145 B1 KR101821145 B1 KR 101821145B1
Authority
KR
South Korea
Prior art keywords
data
time
streaming
photographed
photographing
Prior art date
Application number
KR1020170059742A
Other languages
Korean (ko)
Inventor
최성일
Original Assignee
주식회사 헤카스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 헤카스 filed Critical 주식회사 헤카스
Application granted granted Critical
Publication of KR101821145B1 publication Critical patent/KR101821145B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/6437Real-time Transport Protocol [RTP]
    • H04L29/06517
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

The present invention discloses a video live streaming system. The video live streaming system comprises a photographing device; a time synchronization module for providing a time stamp; an encoder which performs encoding for each data unit for the streaming of photographing data using a time stamp; a streaming server for comparing correction timestamps of the data units of the photographing data based on a universal time and synchronizing the data units of the photographing data; and an image processor for combining photographed images with the photographing data to eliminate duplication between the photographed images and generating an output image formed by merging the photographed data having no duplication. It is possible to provide the live streaming of a high-capacity output video to a client.

Description

영상 라이브 스트리밍 시스템{VIDEO LIVE STREAMING SYSTEM}VIDEO LIVE STREAMING SYSTEM [0002]

본 발명은 영상 라이브 스트리밍 시스템에 관한 것으로서, 보다 상세하게는 라이브 스트리밍 방식에 의해 실시간으로 촬영된 복수의 촬영 영상을 병합한 출력 영상을 제공하는 영상 라이브 스트리밍 시스템에 관한 것이다.The present invention relates to an image live streaming system, and more particularly, to an image live streaming system that provides an output image obtained by merging a plurality of captured images captured in real time by a live streaming method.

최근의 인터넷 환경에서 다양한 영상 서비스가 등장하면서 고화질 라이브 방송에 대한 수요가 점점 증가하고 있고, 영상을 라이브 스트리밍(Live Streaming)하는 시도들이 이루어지고 있다.With the emergence of various video services in the recent Internet environment, demand for high-definition live broadcasting is increasing, and live streaming of images is being attempted.

복수의 촬영 장치를 이용하는 경우, 360도로 촬영한 영상을 보여주는 서라운드 뷰(Surround View) 또는 넓은 폭의 영상을 보여주는 파노라마 뷰(Panoramic View) 같은 특수 영상의 생성이 가능하다. When a plurality of photographing apparatuses are used, it is possible to generate special images such as a surround view showing an image photographed at 360 degrees or a panoramic view showing a wide-width image.

상기와 같은 특수 영상에 대한 라이브 스트리밍이 요구되고 있으며, 상기한 요구를 충족시키기 위해서는 복수의 촬영 장치의 촬영 영상을 동기화하여 하나의 출력 영상으로 병합하여 클라이언트에 라이브 스트리밍하는 기술의 개발이 필요하다.In order to satisfy the above-mentioned demands, there is a need to develop a technique of synchronizing captured images of a plurality of photographing apparatuses into a single output image and then performing live streaming to a client.

그러나, 이기종으로 구성될 수 있는 복수의 촬영 장치에서 실시간으로 전송되는 촬영 영상들 간의 동기화에 어려움이 있고, 다양한 복수의 촬영 영상들을 하나의 출력 영상으로 병합하여 클라이언트에 라이브 스트리밍하는 것에 어려움이 있다.However, there is a difficulty in synchronizing captured images transmitted in real time from a plurality of photographing apparatuses that can be configured as heterogeneous systems, and it is difficult to merge various captured images into one output image and live streaming them to a client.

본 발명은 라이브 스트리밍 과정의 촬영 영상들 간의 지연 차를 해소하기 위하여 복수의 촬영 장치의 촬영 영상들을 동기화하여 하나의 출력 영상으로 병합하고 출력 영상을 클라이언트에 라이브 스트리밍하는 영상 라이브 스트리밍 시스템을 제공함을 목적으로 한다. The present invention provides a video live streaming system for synchronizing photographed images of a plurality of photographing apparatuses into a single output image and live streaming an output image to a client in order to solve a delay difference between photographed images in a live streaming process .

또한, 본 발명은 촬영 영상들 간의 지연 차를 해소하기 위하여 복수의 채널을 통하여 실시간으로 전송되는 촬영 영상의 촬영 데이터들을 동기화하고, 적은 데이터 양으로 촬영 데이터들을 비교함으로써 중복을 제거한 후 고용량의 출력 영상을 클라이언트에 라이브 스트리밍하는 영상 라이브 스트리밍 시스템을 제공함을 다른 목적으로 한다.In order to solve the delay difference between photographed images, the present invention synchronizes the photographed data of the photographed image transmitted in real time through a plurality of channels, eliminates redundancy by comparing the photographed data with a small amount of data, The present invention provides a video live streaming system in which live streams are streamed to a client.

또한, 본 발명은 복수의 촬영 장치에서 촬영하는 촬영 영상들을 라이브 스트리밍하는 과정에서 동기화하여 360도로 촬영한 영상을 보여주는 서라운드 뷰(Surround View) 또는 넓은 폭의 영상을 보여주는 파노라마 뷰(Panoramic View) 같은 출력 영상을 클라이언트에 라이브 스트리밍하는 영상 라이브 스트리밍 시스템을 제공함을 또다른 목적으로 한다.In addition, the present invention provides an output such as a surround view showing a video shot at 360 degrees in synchronism with a live streaming of photographed images shot by a plurality of photographing apparatuses, or a panoramic view (panoramic view) showing a wide- Another object of the present invention is to provide a video live streaming system for live streaming an image to a client.

본 발명의 영상 라이브 스트리밍 시스템은, 촬영 영상에 대한 촬영 데이터를 실시간으로 전송하는 촬영 장치들; 상기 촬영 장치들에 타임 스탬프를 제공하는 타임 동기 모듈들; 타임 보정 값을 이용하여 상기 타임 스탬프를 보정한 보정 타임 스탬프를 각각의 상기 촬영 데이터에 스트리밍을 위한 데이터 단위 별로 인코딩한 후 상기 촬영 데이터들을 라이브 스트리밍하는 인코더들; 유니버셜 타임을 기준으로 상기 촬영 데이터들의 상기 데이터 단위들의 상기 보정 타임 스템프들을 비교하여서 상기 촬영 데이터들의 상기 데이터 단위들을 동기화한 후 상기 촬영 데이터들을 라이브 스트리밍하는 스트리밍 서버; 및 상기 스트리밍 서버에서 라이브 스트리밍되는 상기 촬영 데이터들에 의한 상기 촬영 영상들 간의 중복을 제거한 후 상기 촬영 데이터들을 병합한 출력 영상을 클라이언트에 라이브 스트리밍하는 영상 처리기;를 포함함을 특징으로 한다.The video live streaming system of the present invention includes: photographing devices for transmitting photographed data of a photographed image in real time; Time synchronization modules for providing time stamps to the photographing devices; Encoders for encoding the correction time stamp, which is obtained by correcting the time stamp by using a time correction value, for each data unit for streaming to each shot data, and then live streaming the shot data; A streaming server for comparing the correction timestamps of the data units of the photographing data based on a universal time to synchronize the data units of the photographing data and then live streaming the photographing data; And an image processor that removes duplication between the captured images by the shooting data that is streamed live on the streaming server, and then performs live streaming of an output image obtained by merging the shooting data to a client.

또한, 본 발명의 영상 라이브 스트리밍 시스템은, 촬영 영상에 대한 촬영 데이터를 실시간으로 전송하는 촬영 장치들; 타임 동기 모듈 및 인코더를 포함하며, 상기 타임 동기 모듈은 타임 스탬프를 제공하고, 상기 인코더는 상기 촬영 장치들과 상기 타임 동기 모듈로부터 각각 상기 촬영 데이터들과 상기 타임 스탬프를 수신하고, 각각의 상기 촬영 데이터에 대응하는 타임 보정 값을 이용하여 상기 타임 스탬프를 보정한 보정 타임 스탬프를 상기 촬영 데이터의 스트리밍을 위한 데이터 단위 별로 인코딩한 후 상기 촬영 데이터들을 라이브 스트리밍하는 스트리밍 소스 장치; 유니버셜 타임을 기준으로 상기 촬영 데이터들의 상기 데이터 단위들의 상기 보정 타임 스템프들을 비교하여서 상기 촬영 데이터들의 상기 데이터 단위들을 동기화한 후 상기 촬영 데이터들을 라이브 스트리밍하는 스트리밍 서버; 및 상기 스트리밍 서버에서 라이브 스트리밍되는 상기 촬영 데이터들에 의한 상기 촬영 영상들 간의 중복을 제거한 후 상기 촬영 데이터들을 병합한 출력 영상을 클라이언트에 라이브 스트리밍하는 영상 처리기;를 포함함을 특징으로 한다.In addition, the video live streaming system of the present invention includes photographing devices for transmitting photographed data on photographed images in real time; A time synchronization module and an encoder, wherein the time synchronization module provides a time stamp, and the encoder receives the imaging data and the time stamp from the imaging devices and the time synchronization module, respectively, A streaming source device for encoding the correction time stamp, which is obtained by correcting the time stamp using a time correction value corresponding to the data, for each data unit for streaming the shooting data, and then live streaming the shooting data; A streaming server for comparing the correction timestamps of the data units of the photographing data based on a universal time to synchronize the data units of the photographing data and then live streaming the photographing data; And an image processor that removes duplication between the captured images by the shooting data that is streamed live on the streaming server, and then performs live streaming of an output image obtained by merging the shooting data to a client.

본 발명은 실시간으로 전송되는 복수의 촬영 장치의 촬영 영상들을 타임스탬프들을 이용하여 동기화하여 하나의 출력 영상으로 병합함으로써 360도로 촬영한 영상을 보여주는 서라운드 뷰(Surround View) 또는 넓은 폭의 영상을 보여주는 파노라마 뷰(Panoramic View) 같은 특수 영상을 실시간으로 제공할 수 있는 효과가 있다.The present invention relates to a surveillance system for synchronizing shot images of a plurality of photographing apparatuses transmitted in real time with time stamps and merging them into one output image, It is possible to provide special images such as a panoramic view in real time.

또한, 본 발명은 실시간으로 다채널을 통하여 전송되는 촬영 영상의 촬영 영상 데이터들을 타임스탬프들을 이용하여 동기화하고, 적은 데이터 양으로 촬영 영상 데이터들을 비교함으로써 중복을 제거함으로써 360도로 촬영한 영상을 보여주는 서라운드 뷰(Surround View) 또는 넓은 폭의 영상을 보여주는 파노라마 뷰(Panoramic View) 같은 특수 영상을 고용량의 출력 영상으로 생성할 수 있고, 출력 영상을 실시간으로 제공할 수 있는 효과가 있다.In addition, the present invention synchronizes photographed image data of photographed images transmitted through multiple channels in real time using time stamps, and eliminates redundancy by comparing photographed image data with a small amount of data, A special image such as a view (Surround View) or a panoramic view (Panoramic View) showing a wide-width image can be generated as a high-capacity output image, and an output image can be provided in real time.

도 1은 본 발명의 영상 라이브 스트리밍 시스템의 일 실시예를 나타내는 블록도.
도 2는 서라운드 뷰를 위한 촬영 장치들의 배치 상태를 예시한 도면.
도 3은 파노라마 뷰를 위한 촬영 장치들의 배치 상태를 예시한 도면.
도 4는 촬영 데이터들에 타임 스탬프를 인코딩하는 방법을 설명하는 도면.
도 5는 촬영 데이터들이 서버에 수신되는 시간 차를 설명하는 도면.
도 6은 스트리밍 서버에서 촬영 데이터들의 데이터 단위들이 정렬되는 것을 설명하는 도면.
도 7은 촬영 영상들의 중복을 제거하기 위한 벡터 값을 생성하는 방법을 설명하는 도면.
도 8은 도 7의 방법에 의해 생성된 벡터 값을 이용하여 출력 영상을 병합하는 방법을 설명하는 도면.
도 9는 본 발명의 영상 라이브 스트리밍 시스템의 다른 실시예를 나타내는 블록도.
도 10은 본 발명의 영상 라이브 스트리밍 시스템의 또다른 실시예를 나타내는 블록도.
1 is a block diagram showing an embodiment of a video live streaming system of the present invention;
2 is a diagram illustrating an arrangement of photographing apparatuses for a surround view.
3 is a diagram illustrating an arrangement state of photographing apparatuses for a panoramic view.
Fig. 4 is a view for explaining a method of encoding a time stamp on photographing data; Fig.
5 is a view for explaining a time difference in which photographic data are received by a server;
Fig. 6 is a diagram for explaining how data units of photographing data are arranged in a streaming server; Fig.
7 is a view for explaining a method of generating a vector value for eliminating duplication of photographed images.
8 is a diagram illustrating a method of merging an output image using vector values generated by the method of FIG. 7;
9 is a block diagram showing another embodiment of a video live streaming system of the present invention.
10 is a block diagram showing still another embodiment of a video live streaming system of the present invention;

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명한다. 본 명세서 및 특허청구범위에 사용된 용어는 통상적이거나 사전적 의미로 한정되어 해석되지 아니하며, 본 발명의 기술적 사항에 부합하는 의미와 개념으로 해석되어야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It is to be understood that the terminology used herein is for the purpose of description and should not be interpreted as limiting the scope of the present invention.

본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 실시예이며, 본 발명의 기술적 사상을 모두 대변하는 것이 아니므로, 본 출원 시점에서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있다.The embodiments described in the present specification and the configurations shown in the drawings are preferred embodiments of the present invention and are not intended to represent all of the technical ideas of the present invention and thus various equivalents and modifications Can be.

도 1은 본 발명의 영상 라이브 스트리밍 시스템의 일 실시예를 나타내는 블록도이다. 1 is a block diagram showing an embodiment of a video live streaming system of the present invention.

도 1을 참조하면, 본 발명의 영상 라이브 스트리밍 시스템은 복수 개의 촬영 장치(100), 복수 개의 인코더(120) 및 복수 개의 타임 동기 모듈(140), 스트리밍 서버(200), 영상 처리기(220) 및 클라이언트(300)를 포함한다. 1, a video live streaming system according to the present invention includes a plurality of photographing apparatuses 100, a plurality of encoders 120 and a plurality of time synchronization modules 140, a streaming server 200, an image processor 220, Client 300 as shown in FIG.

여기에서, 하나의 촬영 장치(100), 하나의 인코더(120) 및 하나의 타임 동기 모듈(140)가 스트리밍 소스 장치(M10_1~M10_n)로 각각 구성될 수 있다. 즉, 영상 라이브 스트리밍 시스템은 복수 개의 스트리밍 소스 장치(M10_1~M10_n)를 포함할 수 있으며, Here, one photographing apparatus 100, one encoder 120, and one time synchronization module 140 may be configured as the streaming source apparatuses M10_1 to M10_n, respectively. That is, the video live streaming system may include a plurality of streaming source devices M10_1 to M10_n,

각 스트리밍 소스 장치(M10_1~M10_n)의 촬영 장치(100)는 촬영 영상에 대한 촬영 데이터를 생성하여 인코더(120)에 제공하도록 구성되며, 각 스트리밍 소스 장치(M10_1~M10_n)의 인코더(120)는 통신망(10)을 통하여 스트리밍 서버(200)에 촬영 데이터들을 라이브 스트리밍하도록 구성된다.The photographing apparatus 100 of each of the streaming source apparatuses M10_1 to M10_n is configured to generate photographing data for the photographed image and provide it to the encoder 120. The encoder 120 of each of the streaming source apparatuses M10_1 to M10_n And is configured to live stream the shot data to the streaming server (200) via the communication network (10).

그리고, 스트리밍 서버(200)는 촬영 데이터들을 정렬하고, 영상 처리기(220)는 정렬된 촬영 데이터들을 이용하여 출력 영상을 생성하며 통신망(20)을 통하여 클라이언트(30)에 출력 영상에 대한 출력 데이터를 스트리밍하도록 구성된다.The streaming server 200 arranges photographed data, the image processor 220 generates an output image using the photographed data, and outputs output data for the output image to the client 30 through the communication network 20 Stream.

여기에서, 통신망(10) 및 통신망(20)은 같거나 다른 종류의 망을 이용하여 구성될 수 있으며, 예시적으로 유선 통신망, 무선 통신망, 유선 인터넷망 및 무선 인터넷망 중 하나 또는 둘 이상의 결합으로 구성될 수 있다. Here, the communication network 10 and the communication network 20 may be configured using the same or different types of networks. For example, the communication network 10 and the communication network 20 may be formed of one or more of a wired communication network, a wireless communication network, a wired Internet network, Lt; / RTI >

본 발명의 영상 라이브 스트리밍 시스템에서, 촬영 장치(100)와 인코더(120) 간의 촬영 데이터들의 전송 및 수신과 인코더(120)와 스트리밍 서버(200) 간의 촬영 데이터들의 전송 및 수신은 제1 통신 프로토콜에 따라 수행될 수 있고, 스트리밍 서버(200)와 영상 처리기(220) 간의 촬영 데이터들의 전송 및 수신 및 통신망(20)을 통한 영상 처리기(220)와 클라이언트(300) 간의 출력 영상의 전송 및 수신은 제2 통신 프로토콜에 따라 수행될 수 있다.In the video live streaming system of the present invention, transmission and reception of pickup data between the pickup apparatus 100 and the encoder 120 and transmission and reception of pickup data between the encoder 120 and the streaming server 200 are performed in a first communication protocol Transmission and reception of the shooting data between the streaming server 200 and the image processor 220 and transmission and reception of the output image between the image processor 220 and the client 300 via the communication network 20 2 communication protocol.

여기에서, 제1 통신 프로토콜과 제2 통신 프로토콜은 라이브 스트리밍을 지원하는 것을 이용할 수 있으며, 제1 및 제2 통신 프로토콜은 대시(DASH : Dynamic Adaptive Streaming over HTTP), 엠피이지2-티에스(MPEG2-TS : MPEG2 Transport System), 에이치엘에스(HLS : HTTP Live Streaming), 알티피(RTP : Real Time Transport Protocol), 알티엠피(RTMP : Real Time Messaging Protocol), 알티에스피(RTSP : Real Time Streaming Protocol), 알티시피(RTCP : Real Time Control Protocol), 및 엠엠티(MMT : MPEG Media Transport) 중 어느 하나의 같거나 서로 다른 통신 프로토콜을 이용하는 것으로 구성될 수 있다.Here, the first communication protocol and the second communication protocol may support live streaming, and the first and second communication protocols may be dynamic adaptive streaming over HTTP (DASH), MPEG2- TS: MPEG2 Transport System, HLS (HTTP Live Streaming), RTP (Real Time Transport Protocol), RTMP (Real Time Messaging Protocol), RTSP (Real Time Streaming Protocol) (RTCP), and an MPEG media transport (MMT), using the same or different communication protocols.

상기와 같이 구성되는 본 발명에 의한 영상 라이브 스트리밍 시스템의 각 구성 요소들의 구성을 보다 상세히 설명한다.The configuration of each component of the video live streaming system according to the present invention will be described in more detail.

각 촬영 장치(100)는 촬영 영상에 대한 촬영 데이터를 실시간으로 전송하며, 여기에서 실시간 전송은 라이브 스트리밍에 의해 구현될 수 있다. 상기한 라이브 스트리밍은 모바일 라이브 스트리밍을 포함할 수 있다. Each photographing apparatus 100 transmits photographed data on a photographed image in real time, and real-time transmission can be realized by live streaming. The above-mentioned live streaming may include mobile live streaming.

스트리밍 소스 장치들(M10_1~M10_n)의 촬영 장치들(100)은 360도로 촬영한 영상을 보여주는 서라운드 뷰(Surround View)를 구현하기 위하여 도 2와 같이 배치될 수 있고, 넓은 폭의 영상을 보여주는 파노라마 뷰(Panoramic View)를 구현하기 위하여 도 3과 같이 배치될 수 있다. The photographing apparatuses 100 of the streaming source apparatuses M10_1 to M10_n can be arranged as shown in FIG. 2 to implement a surround view showing an image photographed at 360 degrees, and a panorama image And can be arranged as shown in FIG. 3 to implement a panoramic view.

도 2 및 도 3에서 촬영 장치들은 스트리밍 소스 장치(M10_1~M10_n)에 해당되는 것으로 표시하기 위하여 100_1~100_n으로 표시한다. 도 2에서, 촬영 장치(100_1)는 스트리밍 소스 장치(M10_1)에 포함되는 것이며, 촬영 장치(100_2)는 스트리밍 소스 장치(M10_2)에 포함되는 것으로 이해될 수 있다.In FIGS. 2 and 3, the photographing apparatuses are represented by 100_1 to 100_n in order to indicate that they correspond to the streaming source apparatuses M10_1 to M10_n. In Fig. 2, it is understood that the photographing apparatus 100_1 is included in the streaming source apparatus M10_1, and the photographing apparatus 100_2 is included in the streaming source apparatus M10_2.

서라운드 뷰나 파노라마 뷰와 같은 특수 영상을 구현하기 위해서 배치된 스트리밍 소스 장치(M10_1~M10_n)의 촬영 장치들이 서로 인접한 영역을 촬영하도록 배치된 경우, 촬영 장치들에 의해 촬영 영상은 중복된 영역을 포함할 수 있다.In a case where photographing apparatuses of the streaming source apparatuses M10_1 to M10_n arranged to implement a special image such as a surround view or a panoramic view are arranged to photograph adjacent areas, images taken by photographing apparatuses include overlapping regions .

도 2 및 도 3은 서라운드 뷰나 파노라마 뷰와 같은 특수 영상을 촬영하여 실시간으로 제공하기 위한 복수 개의 촬영 장치(100_1~100_n)의 배치 방법을 예시한 것을 뿐이며, 다양한 특수 영상을 생성하기 위하여 복수 개의 촬영 장치(100_1~100_n)는 다양하게 배치될 수 있다. 촬영 장치(100_1~100_n)의 수는 제작자의 선택에 따라 다양하게 결정될 수 있다.FIG. 2 and FIG. 3 only illustrate a method of arranging a plurality of photographing apparatuses 100_1 to 100_n for photographing and providing a special image such as a surround view or a panoramic view in real time. In order to generate various special images, The devices 100_1 to 100_n may be arranged in various ways. The number of photographing apparatuses 100_1 to 100_n may be variously determined according to the manufacturer's selection.

그리고, 복수 개의 촬영 장치(100_1~100_n)는 동종 장치 또는 이종 장치를 이용하거나 같거나 상이한 화각을 갖는 장치를 이용할 수 있다. The plurality of photographing apparatuses 100_1 to 100_n may use homogeneous apparatuses or heterogeneous apparatuses, or use apparatuses having the same or different angle of view.

예를 들어, 복수 개의 촬영 장치(100_1~100_n)는 카메라 기능을 구비하고, 촬영 영상에 대한 촬영 데이터를 유선 송신 또는 무선 송신 가능한 카메라, 캠코더, 휴대폰이나 스마트폰과 같은 이동 통신 단말기, PMP(Portable Multimedia Player), MID(Mobile Internet Device), 태블릿컴퓨터(Tablet PC), 노트북(Note book) 및 넷북(Net book) 등 다양한 장치들을 이용하여 조합될 수 있다.For example, the plurality of photographing apparatuses 100_1 to 100_n include a camera function, a camera capable of wired transmission or wireless transmission of photographed data on a photographed image, a mobile communication terminal such as a mobile phone or a smart phone, Multimedia Player), a MID (Mobile Internet Device), a Tablet PC, a Notebook, and a Netbook.

또한, 복수 개의 촬영 장치(100_1~100_n)는 좁은 화각과 넓은 화각을 갖는 이종 장치들이나 화각이 다르게 설정된 동종 장치들을 이용하여 조합될 수 있다.Also, the plurality of photographing apparatuses 100_1 to 100_n may be combined using heterogeneous apparatuses having a narrow view angle and a wide view angle, or homogeneous apparatuses having different view angles.

클라이언트(300)는 통신망(20)을 통하여 라이브 스트리밍되는 출력 데이터를 수신하고 출력 영상을 재생할 수 있는 장치로 구성될 수 있으며, 예시적으로 휴대폰이나 스마트폰과 같은 이동 통신 단말기, PMP(Portable Multimedia Player), MID(Mobile Internet Device), 태블릿컴퓨터(Tablet PC), 노트북 및 넷북(Net book) 등 다양한 장치가 이용될 수 있다.The client 300 may include a device capable of receiving output data that is live streamed through the communication network 20 and reproducing an output image. Examples of the device include a mobile communication terminal such as a mobile phone or a smart phone, a portable multimedia player (PMP) ), A MID (Mobile Internet Device), a tablet computer (Tablet PC), a notebook, and a net book.

타임 동기 모듈(140)은 촬영 장치(100)와 인코더(120)에 각각 대응되는 수로 구성되며, 현재 시간에 대한 타임 스탬프(Timestamp)를 제공한다. The time synchronization module 140 is composed of a number corresponding to the photographing apparatus 100 and the encoder 120, and provides a time stamp for the current time.

보다 구체적으로, 타임 동기 모듈(140)은 유니버셜 타임을 코딩한 제1 타임 스탬프와 상기 제1 타임 스탬프를 기준으로 카운트하여 생성하는 제2 타임 스탬프를 제공하도록 구성될 수 있다.More specifically, the time synchronization module 140 may be configured to provide a first time stamp that codes the universal time and a second time stamp that is generated by counting based on the first time stamp.

여기에서, 타임 스탬프는 어느 시점에 데이터가 존재했거나 수신되었다는 사실을 증명하기 위하여 특정 위치에 표시되는 시각 정보이며, 시간의 기점을 표시하는 시간 변위 매개 변수로 이해될 수 있다.Here, the time stamp is time information displayed at a specific position to prove that the data was present or received at a certain point, and can be understood as a time displacement parameter indicating the origin of time.

그리고, 유니버셜 타임은 무선망이나 유선망 또는 인터넷망 등에 공용되는 세계 표준 시간이 이용될 수 있다. The universal time may be a global standard time that is shared with a wireless network, a wired network, or the Internet network.

인코더(120)는 촬영 장치(100)와 타임 동기 모듈(140)로부터 촬영 데이터와 타임 스탬프를 수신하고, 촬영 데이터에 대응하는 타임 보정 값을 이용하여 타임 스탬프를 보정한 보정 타임 스탬프를 촬영 데이터의 스트리밍을 위한 데이터 단위 별로 인코딩하며, 보정 타임 스탬프가 인코딩된 데이터 단위들을 포함하는 촬영 데이터를 라이브 스트리밍한다.The encoder 120 receives photographed data and a time stamp from the photographing apparatus 100 and the time synchronization module 140 and outputs a correction time stamp obtained by correcting the time stamp using the time correction value corresponding to the photographed data, Encodes it for each data unit for streaming, and live streaming capturing data including the data units for which the correction time stamp is encoded.

인코더(120)의 동작에 대하여 도 4를 참조하여 설명한다.The operation of the encoder 120 will be described with reference to FIG.

각 스트리밍 소스 장치(M10_1~M10_n)의 촬영 장치들(100)은 시간 t1부터 촬영을 시작하고 각 촬영 데이터1 ~ 촬영 데이터n를 인코더들(120)에 전송한다.The photographing apparatuses 100 of the respective streaming source apparatuses M10_1 to M10_n start photographing from the time t1 and transmit the photographing data 1 to the photographing data n to the encoders 120. [

그러므로, 각 스트리밍 소스 장치(M10_1~M10_n)의 인코더들(120)은 시간 t1부터 촬영 데이터1 ~ 촬영 데이터n을 각각 수신한다.Therefore, the encoders 120 of the respective streaming source apparatuses M10_1 to M10_n receive the shooting data 1 to shooting data n from time t1, respectively.

각 촬영 데이터1 ~ 촬영 데이터n은 촬영 장치(100)에서 인코더(120)로 전송될 때 일정한 데이터 단위로 구분된다. 데이터 단위는 촬영 장치(100)에 의해 다양한 포맷에 의해 정의 및 구성될 수 있으며, 예시적으로 영상의 라인 단위, 프레임 단위 또는 데이터 양 단위로 구분될 수 있다. 그러므로, 인코더(120)는 시간 t1부터 순차적으로 연속되는 데이터 단위1 ~ 데이터 단위m를 수신한다.Each of the shooting data 1 to n is divided into predetermined data units when the shooting device 100 transmits the shooting data 1 to the encoder 120. [ The data unit may be defined and configured in various formats by the image pickup apparatus 100 and may be exemplarily divided into a line unit, a frame unit, or a data amount unit of an image. Therefore, the encoder 120 receives sequential data units 1 to m sequentially from time t1.

즉, 도 4와 같이, 스트리밍 소스 장치들(M10_1~M10_n)의 각 촬영 데이터1 ~ 촬영 데이터n은 순차적으로 연속되는 데이터 단위1~데이터 단위m를 포함한다. 여기에서, n과 m은 서로 같거나 다른 자연수를 의미한다.That is, as shown in FIG. 4, the shooting data 1 to the shooting data n of the streaming source devices M10_1 to M10_n include successively consecutive data units 1 to m. Here, n and m mean a natural number equal to or different from each other.

인코더(120)는 촬영 데이터1 ~ 촬영 데이터n가 수신되면, 보정 타임 스탬프를 각 촬영 데이터1 ~ 촬영 데이터n의 스트리밍을 위한 데이터 단위 별로 인코딩한다. 촬영 데이터1의 경우를 예시하면, 보정 타임 스탬프들 TS1_1 ~ Ts1_m이 데이터 단위1 ~ 데이터 단위m 별로 인코딩된다.The encoder 120 encodes the correction time stamps in units of data for streaming the shooting data 1 to the shooting data n, when the shooting data 1 to the shooting data n are received. Taking the case of the shooting data 1 as an example, the correction time stamps TS1_1 to Ts1_m are encoded for each data unit 1 to data unit m.

보정 타임 스탬프 TS1_1 ~ Ts1_m는 스트리밍 서버(200)에서 제공되는 타임 보정 값을 이용하여 타임 동기 모듈(140)에서 제공되는 타임 스탬프를 인코더(120)에서 보정한 것이다. The correction time stamps TS1_1 to Ts1_m are obtained by correcting the time stamps provided by the time synchronization module 140 by the encoder 120 using the time correction values provided by the streaming server 200. [

촬영 데이터의 최초 데이터 단위(예시적으로 데이터 단위1)에 적용할 타임 보정 값은 없거나 초기 값이 예시적으로 “0”으로 설정될 수 있다. 최초 데이터 단위에 후속하는 데이터 단위들(예시적으로 데이터 단위2 ~ 데이터 단위m)에 적용할 타임 보정 값은 스트리밍 서버(200)에 이전 데이터 단위의 수신 시간과 보정 타임 스탬프 간의 시간 차에 대응하는 값으로 스트리밍 서버(200)에서 제공될 수 있다. There is no time correction value to be applied to the first data unit (exemplarily, data unit 1) of the shooting data, or the initial value may be set to "0" as an example. The time correction value to be applied to the data units (illustratively, data unit 2 to data unit m) subsequent to the original data unit corresponds to the time difference between the reception time of the previous data unit and the correction time stamp to the streaming server 200 May be provided in the streaming server 200 as a value.

본 발명의 실시예에서, 인코더(120)는 타임 보정 값을 이용하여 타임 스탬프를 보정하는 회수를 제한하도록 구성될 수 있으며, 이에 따라 타임 스탬프를 보정회수를 초과한 경우, 인코더(120)는 고정된 타임 보정 값을 이용하여 보정 타임 스탬프를 생성할 수 있다.In an embodiment of the present invention, the encoder 120 may be configured to limit the number of times the time stamp is corrected using the time correction value, so that if the time stamp exceeds the number of corrections, The correction time stamp can be generated using the corrected time correction value.

도 4를 참조하면, 시간 t1에 각 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위1들이 인코더(120)에 수신된다. 이때, 타임 보정 값은 없거나 초기 값이 예시적으로 “0”으로 설정될 수 있으므로, 인코더(120)는 최초로 수신된 각 데이터 단위1들에 시간 t1에 대응하여 타임 동기 모듈(140)에서 제공된 타임 스탬프를 보정 타임 스탬프로 인코딩한다.Referring to Fig. 4, at time t1, the data units 1 of the respective photographing data 1 to n are received by the encoder 120. Fig. At this time, since the time correction value is absent or the initial value may be set to "0" as an example, the encoder 120 sets the time (t1) provided in the time synchronization module 140 The stamp is encoded with a correction timestamp.

그 후, 시간 t2 ~ tm에 각 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위2 ~ 데이터 단위m이 순차적으로 인코더(120)에 수신된다. 이때 타임 보정 값은 스트리밍 서버(200)에서 수신되며, 스트리밍 서버(200)는 이전 데이터 단위의 수신 시간과 보정 타임 스탬프 간의 시간 차에 대응하는 값으로 타임 보정 값을 제공한다. 그러므로, 인코더(120)는 순차적으로 이어서 수신되는 각 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위2 ~ 데이터 단위m에 타임 보정 값을 이용하여 타임 동기 모듈(140)에서 제공된 타임 스탬프를 보정한 보정 타임 스탬프를 인코딩한다.Thereafter, the data unit 2 to the data unit m of the shooting data 1 to the shooting data n are successively received by the encoder 120 from time t2 to tm. At this time, the time correction value is received by the streaming server 200, and the streaming server 200 provides the time correction value with a value corresponding to the time difference between the reception time of the previous data unit and the correction time stamp. Therefore, the encoder 120 sequentially obtains the correction timings obtained by correcting the time stamps provided by the time synchronization module 140 using the time correction values for the data units 2 to the data units m of the photographic data 1 to the photographic data n, Encode the stamp.

예시적으로, 인코더(120)는 시간 t1에 촬영 데이터1의 데이터 단위1을 수신하고, 시간 t1에 대응하여 타임 동기 모듈(140)에서 제공된 타임 스탬프를 보정 타임 스탬프 TS1_1로 인코딩한다. Illustratively, the encoder 120 receives the data unit 1 of the shooting data 1 at time t1 and encodes the timestamp provided by the time synchronization module 140 to the correction time stamp TS1_1 corresponding to the time t1.

그리고, 인코더(120)는 시간 t2에 촬영 데이터 1의 데이터 단위 2를 수신하고, 이전 데이터 단위1가 스트리밍 서버(200)에 수신된 수신 시간 D1(도 5 참조)과 데이터 단위 1의 보정 타임 스탬프 Ts1_1의 시간 차에 대응하는 값을 이용하여 시간 t2에 대응하여 타임 동기 모듈(140)에서 제공된 타임 스탬프를 보정 타임 스탬프 TS1_2로 인코딩한다. 이때, 보정 타임 스탬프 TS1_2는 “t2- (t1-D1)”으로 표현될 수 있다. 즉, 촬영 데이터1의 데이터 단위 2에 인코딩되는 보정 타임 스탬프 TS1_2는 이전 데이터 단위1의 지연된 시간 차를 보상하는 정보를 포함하도록 보정된 값을 갖는다.Then, the encoder 120 receives the data unit 2 of the shooting data 1 at time t2, and the previous data unit 1 receives the reception time D1 (see FIG. 5) received by the streaming server 200 and the correction time stamp And uses the value corresponding to the time difference of Ts1_1 to encode the time stamp provided by the time synchronization module 140 to the correction time stamp TS1_2 corresponding to the time t2. At this time, the correction time stamp TS1_2 may be expressed as "t2- (t1-D1)". That is, the correction time stamp TS1_2 encoded in the data unit 2 of the photographing data 1 has a corrected value to include the information compensating the delayed time difference of the previous data unit 1.

여기에서, 인코더(120)는 시간 t1에 대응하여 유니버셜 타임을 코딩한 제1 타임 스탬프를 이용할 수 있고, 시간 t2 이후에 대응하여 제1 타임 스탬프를 기준으로 카운트하여 생성하는 제2 타임 스탬프를 이용할 수 있다.Here, the encoder 120 may use the first time stamp coding the universal time corresponding to the time t1, and use the second time stamp which is generated by counting the first time stamp after the time t2 .

상기와 달리, 인코더(120)는 촬영 데이터1 ~ 촬영 데이터n을 수신하기 전에 미리 타임 동기 모듈(140)의 타임 스탬프를 스트리밍 서버(200)에 전송하여 최초로 수신된 각 데이터 단위1들에 대응한 타임 보정 값을 수신할 수 있다. 이 경우, 인코더(120)는 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위1들이 수신되면 미리 수신된 타임 보정 값을 이용하여 타임 동기 모듈(140)의 현재 타임 스탬프를 보정한 보정 타임 스탬프들을 이용하여 데이터 단위1들을 인코딩 할 수 있다.Unlike the above, the encoder 120 transmits the time stamp of the time synchronization module 140 to the streaming server 200 in advance before receiving the shooting data 1 to the shooting data n, A time correction value can be received. In this case, when the data units 1 of the image pickup data 1 to the image pickup data n are received, the encoder 120 uses the correction time stamps obtained by correcting the current time stamp of the time synchronization module 140 using previously received time correction values Data units 1 can be encoded.

한편, 스트리밍 서버(200)는 통신망(10)을 통하여 스트리밍 소스 장치들(M10_1~M10_n)의 인코더들(120)에서 라이브 스트리밍되는 촬영 데이터1 ~ 촬영 데이터n을 도 5와 같이 수신한다. 도 5에서, D1은 촬영 데이터1이 스트리밍 서버(200)에 수신되는 시간을 의미하고, D2는 촬영 데이터2가 스트리밍 서버(200)에 수신되는 시간을 의미하고, Dn은 촬영 데이터n이 스트리밍 서버(200)에 수신되는 시간을 의미한다.On the other hand, the streaming server 200 receives the shooting data 1 to shooting data n, which are live streamed by the encoders 120 of the streaming source devices M10_1 to M10_n, via the communication network 10 as shown in FIG. In Fig. 5, D1 indicates the time when the shooting data 1 is received by the streaming server 200, D2 indicates the time when the shooting data 2 is received by the streaming server 200, Dn indicates that the shooting data n is received by the streaming server 200, Quot; means the time that is received at the base station 200.

스트리밍 서버(200)는 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위들에 대응하는 타임 보정 값들을 생성하고, 타임 보정 값들을 해당하는 스트리밍 소스 장치들(M10_1~M10_n)의 인코더들(100)로 제공한다.The streaming server 200 generates time correction values corresponding to the data units of the shooting data 1 to the shooting data n and supplies the time correction values to the encoders 100 of the corresponding streaming source apparatuses M10_1 to M10_n do.

그리고, 스트리밍 서버(200)는 유니버셜 타임을 기준으로 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위들의 보정 타임 스템프들을 비교하여서 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위들을 도 6과 같이 동기화하고, 데이터 단위들이 동기화된 촬영 데이터1 ~ 촬영 데이터n을 영상 처리기(220)에 라이브 스트리밍한다.The streaming server 200 compares the correction timestamps of the data units of the shooting data 1 to the shooting data n based on the universal time to synchronize the data units of the shooting data 1 to the shooting data n as shown in FIG. 6, (N) to the image processor 220. The image processor 220 generates the image data (n)

스트리밍 서버(200)는 유니버셜 타임을 기준으로 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위들의 지연 차에 대한 지연 시간을 타임 보정 값으로 제공하는 과정을 수 회 반복하고, 그에 대응하여 인코더(120)는 타임 보정 값을 이용한 보상 타임 스탬프 생성을 수 회 반복한다. The streaming server 200 repeats the process of providing the delay time for the delay difference of the data units of the shooting data 1 to the shooting data n as the time correction value on the basis of the universal time several times, Repeat the generation of the compensation time stamp using the time correction value several times.

그 결과, 스트리밍 서버(200)는 유니버셜 타임을 기준으로 동일한 시점으로 정렬될 수 있도록 고정된 타임 보정 값을 제공할 수 있고, 도 6과 같이 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위들이 동기되어 출력될 수 있다.As a result, the streaming server 200 can provide a fixed time correction value so that it can be aligned at the same time on the basis of universal time, and data units of the shooting data 1 to shooting data n are synchronized .

영상 처리기(220)는 스트리밍 서버(200)에서 라이브 스트리밍되는 촬영 데이터들(촬영 데이터1 ~ 촬영 데이터n)에 의한 촬영 영상들을 비교하여서 촬영 영상들 간의 중복을 제거하고, 중복을 제거한 촬영 데이터들을 병합한 출력 영상을 생성하며, 출력 영상의 출력 데이터를 통신망(20)을 통하여 클라이언트(300)에 라이브 스트리밍한다.The image processor 220 compares photographed images by photographed data (photographed data 1 to photographed data n) that are streamed live in the streaming server 200 to eliminate duplication between photographed images, And outputs the output data of the output video to the client 300 through the communication network 20. [

먼저, 영상 처리기(220)는 스트리밍 서버(200)에서 도 6과 같이 데이터 단위들이 동기화된 촬영 데이터들을 수신하며, 도 7 및 도 8의 방법에 의해 출력 영상을 생성한다. 영상 처리기(220)에서 촬영 영상은 촬영 데이터에 포함된 정보로써 분석될 수 있다. First, the image processor 220 receives photographed data synchronized with data units as shown in FIG. 6 in the streaming server 200, and generates an output image by the method of FIGS. 7 and 8. FIG. The photographed image in the image processor 220 can be analyzed as information included in the photographed data.

영상 처리기(220)는 촬영 데이터들의 촬영 영상들을 한 쌍씩 순차적으로 비교한다. 인접한 위치에서 촬영된 한 쌍의 제1 촬영 영상(V1)과 제2 촬영 영상(V2)을 비교하는 경우는 도 7을 참조하여 설명될 수 있다. The image processor 220 sequentially compares the photographed images of the photographed data pair by pair. The case of comparing the first and second images V1 and V2 photographed at the adjacent positions can be described with reference to FIG.

제1 촬영 영상(V1)과 제2 촬영 영상(V2)은 중복 영역들을 포함한다. 제1 촬영 영상(V1)과 제2 촬영 영상(V2) 간의 중복을 해소하기 위하여, 제1 촬영 영상(V1)의 중복 영역(OV1)과 제2 촬영 영상(V2)의 중복 영역(OV2) 중 하나가 제거되어야 한다.The first captured image V1 and the second captured image V2 include overlapping areas. In order to eliminate redundancy between the first and second photographed images V1 and V2, the overlapping area OV1 of the first photographed image V1 and the overlapped area OV2 of the second photographed image V2 One should be removed.

촬영 데이터들은 고용량의 데이터를 포함하고 있다. 그러므로, 촬영 데이터들을 그대로 비교 분석할 경우 많은 양의 데이터들의 비교 분석이 요구된다. The photographed data contains high-capacity data. Therefore, comparative analysis of a large amount of data is required when the captured data is directly compared and analyzed.

이를 해소하기 위하여, 영상 처리기(220)는 제1 촬영 영상(V1)과 제2 촬영 영상(V2)을 다운 스케일하여 데이터의 양을 줄이고, 다운 스케일된 제1 촬영 영상(DV1)과 제2 촬영 영상(DV2)을 비교한다.In order to solve this problem, the image processor 220 downscales the first shot image V1 and the second shot image V2 to reduce the amount of data, and outputs the downscaled first shot image DV1, Compare the video (DV2).

영상 처리기(220)는 다운 스케일된 제1 촬영 영상(DV1)과 다운 스케일된 제2 촬영 영상(DV2)에 각각 존재하는 중복 영역들(DOV1, DOV2) 중 다운 스케일된 제2 촬영 영상(DV2)의 중복 영역(DOV2)의 영상 위치를 표시하는 벡터 값을 생성하고 저장한다. 도 7에서 벡터 값은 VP로 표현된다.The image processor 220 generates the second captured image DV2 downscaled from the overlapping areas DOV1 and DOV2 existing in the downscaled first captured image DV1 and the downscaled second captured image DV2, And generates and stores a vector value indicating the position of the image of the overlap area DOV2. In Fig. 7, the vector value is represented by VP.

벡터 값(VP)은 촬영 영상을 제거할 위치에 대한 정보와 제거할 방향에 대한 정보를 포함하도록 생성한다. 예시적으로 300번째 수직 라인의 왼쪽 영역이 중복 영역(DVO2)으로 비교 결과 판단된 경우, 벡터 값(VP)은 제거할 위치에 대한 정보 즉 300번째 수직 라인을 의미하는 (0,300)을 포함할 수 있고, 제거할 방향이 왼쪽 영역인 것을 의미하는 “-“를 포함할 수 있다. 즉, 벡터 값(VP)은 -(0,300)으로 생성되고 저장될 수 있다. 상기한 벡터 값(VP)은 예시적으로 표현한 것일 뿐 제작자에 의해 다양한 형식으로 표현될 수 있다.The vector value VP is generated so as to include information about a position at which the photographed image is to be removed and information about a direction to be removed. Illustratively, when the left area of the 300th vertical line is determined as a comparison result in the overlap area DVO2, the vector value VP may include information about the position to be removed, i.e., (0,300), which means the 300th vertical line Quot; - " which means that the direction to be removed is the left region. That is, the vector value VP may be generated and stored as - (0,300). The above-mentioned vector value VP is only illustrative and can be expressed in various formats by the manufacturer.

그리고, 상기한 벡터 값(VP)은 다운 스케일된 제2 촬영 영상(DV2)에 대해 생성된 것이다. 그러므로, 영상 처리기(230)는 제작자의 설계에 따라 벡터 값(VP)을 다운 스케일 이전의 제2 촬영 영상(V2)에 대응하도록 변환하여 저장할 수 있다.The vector value VP is generated for the downscaled second captured image DV2. Therefore, the image processor 230 may convert and store the vector value VP corresponding to the second captured image V2 before the downscale according to the design of the manufacturer.

상기와 같이 벡터 값(VP)을 저장한 후, 영상 처리기(220)는 제2 촬영 영상(V2)에 대하여 벡터 값(VP)을 이용하여 중복 영역(OV2)을 제거하고 제1 촬영 영상(V1)과 제2 촬영 영상(V2)을 병합한 출력 영상을 도 8과 같이 생성할 수 있다.After storing the vector value VP as described above, the image processor 220 removes the overlap area OV2 using the vector value VP with respect to the second captured image V2, and outputs the first captured image V1 And the second photographed image V2 can be generated as shown in FIG.

도 8을 참조하면, 출력 영상은 중복 영역(OV2)이 제거된 제2 촬영 영상(V2)과 중복 영역(OV1)을 포함하는 제1 촬영 영상(V1)의 병합에 의해 생성됨을 이해할 수 있다.Referring to FIG. 8, it can be understood that the output image is generated by merging the first photographed image V1 including the second photographed image V2 with the overlapped area OV2 removed, and the overlapped area OV1.

영상 처리기(220)는 촬영 데이터들을 이용하여 촬영 영상들을 순차적으로 비교하면서 중복을 제거한 후 도 8과 같이 출력 영상을 생성할 수 있으며, 출력 영상의 출력 데이터를 통신망(20)을 통하여 클라이언트(300)에 라이브 스트리밍할 수 있다. The image processor 220 may generate an output image as shown in FIG. 8 after eliminating redundancy while sequentially comparing captured images using the captured data. The output data of the output image is transmitted to the client 300 through the communication network 20, Can be streamed live.

본 발명의 실시예에서, 스트리밍 소스 장치들(M10_1~M10_n)이 촬영 장치(100), 인코더(120) 및 타임 동기 모듈(140)을 하나씩 포함하는 것으로 예시하였다.In the embodiment of the present invention, the streaming source apparatuses M10_1 to M10_n are exemplified as including the photographing apparatus 100, the encoder 120 and the time synchronization module 140 one by one.

그러나, 이에 제한되지 않고 제작자의 의도에 따라 촬영 장치(100), 인코더(120) 및 타임 동기 모듈(140)이 다양하게 구성될 수 있다.However, the present invention is not limited thereto, and the photographing apparatus 100, the encoder 120, and the time synchronization module 140 may be variously configured according to the manufacturer's intention.

일례로, 본 발명은 촬영 장치(100), 인코더(120) 및 타임 동기 모듈(140)이 하나의 스트리밍 소스 장치에 포함되지 않고 각각 별도의 장치로 구성되며, 이들 간의 신호 전송이 구현되도록 실시될 수 있다.For example, the present invention may be implemented such that the imaging device 100, the encoder 120, and the time synchronization module 140 are not included in one streaming source device but are configured as separate devices, .

다른 일례로, 본 발명은 도 9와 같이 n개의 촬영 장치(100)가 각각 별도의 장치로 구성되며, 인코더(120) 및 타임 동기 모듈(140)을 포함하는 스트리밍 소스 장치(M20_1~M20_n)를 포함하도록 실시될 수 있다.As another example, the present invention can be applied to the streaming source apparatuses M20_1 to M20_n including the encoder 120 and the time synchronization module 140, . ≪ / RTI >

상기한 두 실시예는 도 1과 스트리밍 소스 장치를 구성하는 것에 차이가 있을 뿐 각 요소들의 구성 및 동작은 동일하므로 이에 대한 중복 설명은 생략한다.The above-described two embodiments are different from the streaming source apparatus of FIG. 1 only in terms of the structure and operation of the elements, and a duplicate description thereof will be omitted.

또다른 일례로, 본 발명은 도 10과 같이 촬영 장치들(100_1~100_n)이 각각 별도의 장치로 구성되며, 인코더(120) 및 타임 동기 모듈(140)을 포함하는 하나의 스트리밍 소스 장치(M30)를 포함하도록 실시될 수 있다.As another example, the present invention can be applied to a single streaming source apparatus M30 (100) including the encoder 120 and the time synchronization module 140, as shown in FIG. 10, ). ≪ / RTI >

이 경우, 타임 동기 모듈(140)은 타임 스탬프를 제공하고, 인코더(120)는 촬영 장치들(100_1~100_n)과 타임 동기 모듈(140)로부터 각각 촬영 데이터들과 타임 스탬프를 수신하고, 각각의 상기 촬영 데이터에 대응하는 타임 보정 값을 이용하여 타임 스탬프를 보정한 보정 타임 스탬프를 촬영 데이터의 스트리밍을 위한 데이터 단위 별로 인코딩하고, 보정 타임 스탬프가 각각 인코딩된 상기 데이터 단위들을 포함하는 촬영 데이터들을 스트리밍 서버(200)에 라이브 스트리밍한다.In this case, the time synchronization module 140 provides the time stamp, the encoder 120 receives the photographing data and the time stamp from the photographing apparatuses 100_1 to 100 - n and the time synchronization module 140, A time stamp correction unit configured to encode a correction time stamp obtained by correcting a time stamp using the time correction value corresponding to the shooting data for each data unit for streaming the shooting data and to transmit the shooting data including the data units, And live streaming to the server 200.

상술한 설명과 같이 본 발명의 실시예는 촬영 영상 간 라이브 스트리밍에 따른 지연 차를 해소하기 위하여 타임스탬프를 이용하여 촬영 데이터 및 촬영 영상들을 동기화하며, 동기화된 촬영 영상의 중복을 제거한 출력 영상을 생성하고, 출력 영상의 출력 데이터를 라이브 스트리밍할 수 있다.As described above, the embodiment of the present invention synchronizes shot data and shot images using a time stamp in order to eliminate a delay difference due to live streaming between shot images, and generates an output image from which overlapping shot images are removed And output data of the output video can be live streamed.

상술한 바와 같이, 본 발명은 복수의 촬영 장치의 촬영 영상들을 라이브 스트리밍에 따른 지연 차를 해소하여 병합할 수 있으며, 360도로 촬영한 영상을 보여주는 서라운드 뷰(Surround View) 또는 넓은 폭의 영상을 보여주는 파노라마 뷰(Panoramic View) 같은 특수 영상으로 라이브 스트리밍할 수 있다.As described above, the present invention can solve the delay difference caused by live streaming of the photographed images of a plurality of photographing apparatuses and merge them together. It is also possible to provide a surround view for displaying images photographed at 360 degrees, Live streaming with special images such as Panoramic View.

그리고, 본 발명은 적은 데이터 양으로 촬영 데이터들을 비교함으로써 중복 영역을 제거한 후 360도로 촬영한 영상을 보여주는 서라운드 뷰(Surround View) 또는 넓은 폭의 영상을 보여주는 파노라마 뷰(Panoramic View) 같은 특수 영상을 고용량의 출력 영상으로 생성할 수 있고, 출력 영상을 라이브 스트리밍할 수 있다.In addition, the present invention is characterized in that a special image such as a surround view that shows an image photographed at 360 degrees or a panoramic view (panoramic view) that shows a wide-width image after removing redundant areas by comparing the photographed data with a small amount of data, And the output image can be streamed live.

Claims (17)

촬영 영상에 대한 촬영 데이터를 실시간으로 전송하는 촬영 장치들;
상기 촬영 장치들에 타임 스탬프를 제공하는 타임 동기 모듈들;
타임 보정 값을 이용하여 상기 타임 스탬프를 보정한 보정 타임 스탬프를 각각의 상기 촬영 데이터에 스트리밍을 위한 데이터 단위 별로 인코딩한 후 상기 촬영 데이터들을 라이브 스트리밍하는 인코더들;
유니버셜 타임을 기준으로 상기 촬영 데이터들의 상기 데이터 단위들의 상기 보정 타임 스템프들을 비교하여서 상기 촬영 데이터들의 상기 데이터 단위들을 동기화한 후 상기 촬영 데이터들을 라이브 스트리밍하는 스트리밍 서버; 및
상기 스트리밍 서버에서 라이브 스트리밍되는 상기 촬영 데이터들에 의한 상기 촬영 영상들 간의 중복을 제거한 후 상기 촬영 데이터들을 병합한 출력 영상을 클라이언트에 라이브 스트리밍하는 영상 처리기;를 포함함을 특징으로 하는 영상 라이브 스트리밍 시스템.
A photographing device for transmitting photographing data of a photographed image in real time;
Time synchronization modules for providing time stamps to the photographing devices;
Encoders for encoding the correction time stamp, which is obtained by correcting the time stamp by using a time correction value, for each data unit for streaming to each shot data, and then live streaming the shot data;
A streaming server for comparing the correction timestamps of the data units of the photographing data based on a universal time to synchronize the data units of the photographing data and then live streaming the photographing data; And
And an image processor for performing live streaming of an output image obtained by merging the photographed data after removing the overlap between the photographed images by the photographed data that is live streamed in the streaming server. .
제1 항에 있어서,
상기 스트리밍 서버는 상기 촬영 데이터들 별 상기 데이터 단위들의 수신 시간들과 상기 보정 타임 스탬프들의 시간 차에 대응하는 상기 타임 보정 값들을 생성하고 상기 타임 보정 값들을 해당하는 상기 인코더들로 제공하는 영상 라이브 스트리밍 시스템.
The method according to claim 1,
Wherein the streaming server generates the time correction values corresponding to the time difference between the reception times of the data units and the correction timestamps for each shot data and provides the time correction values to the corresponding encoders, system.
제1 항에 있어서,
하나의 상기 촬영 장치, 하나의 상기 타임 동기 모듈 및 하나의 상기 인코더가 하나의 스트리밍 소스 장치로 구성되며, 복수 개의 상기 스트리밍 소스 장치가 통신망을 통하여 상기 스트리밍 서버에 상기 촬영 데이터들을 라이브 스트리밍 하는 영상 라이브 스트리밍 시스템.
The method according to claim 1,
A plurality of the streaming source apparatuses are connected to the streaming server through a communication network, and the video live Streaming system.
제1 항에 있어서,
하나의 상기 타임 동기 모듈 및 하나의 상기 인코더가 하나의 스트리밍 소스 장치로 구성되며, 복수 개의 상기 스트리밍 소스 장치가 통신망을 통하여 상기 스트리밍 서버에 상기 촬영 데이터들을 라이브 스트리밍 하는 영상 라이브 스트리밍 시스템.
The method according to claim 1,
One of the time synchronization modules and one of the encoders is configured as one streaming source device and a plurality of the streaming source devices live stream the shot data to the streaming server through a communication network.
제1 항에 있어서, 상기 타임 동기 모듈들은 상기 유니버셜 타임을 코딩한 제1 타임 스탬프와 상기 제1 타임 스탬프를 기준으로 카운트하여 생성하는 제2 타임 스탬프 중 적어도 하나를 상기 타임 스탬프로서 제공하는 영상 라이브 스트리밍 시스템.2. The method of claim 1, wherein the time synchronization modules comprise at least one of a first time stamp coding the universal time and a second time stamp generated by counting the first time stamp on the basis of the first time stamp, Streaming system. 삭제delete 제5 항에 있어서,
상기 인코더는 상기 촬영 데이터의 수신 전 상기 제1 타임 스탬프 전송하여 상기 제1 타임 스탬프에 대응한 상기 타임 보정 값을 수신하고, 상기 촬영 데이터의 상기 데이터 단위들이 수신되면 상기 타임 보정 값을 이용하여 상기 제2 타임 스탬프를 보정한 상기 보정 타임 스탬프들을 이용하여 상기 데이터 단위들을 인코딩하는 영상 라이브 스트리밍 시스템.
6. The method of claim 5,
Wherein the encoder receives the time correction value corresponding to the first time stamp by transmitting the first time stamp before reception of the photographing data, and when the data units of the photographing data are received, Wherein the data units are encoded using the correction timestamps corrected for the second timestamp.
제1 항에 있어서,
상기 인코더들은 각 촬영 데이터들에 대하여 상기 타임 보정 값을 이용한 상기 타임 스탬프의 보정을 수 회 수행하고, 그 후 고정된 상기 보정 타임 스탬프를 이용하여 인코딩하는 영상 라이브 스트리밍 시스템.
The method according to claim 1,
Wherein the encoders perform the correction of the time stamp using the time correction value for each shot data several times and then encode the time stamp using the fixed correction time stamp.
제1 항에 있어서,
상기 영상 처리기는 상기 촬영 데이터들에 의한 상기 촬영 영상들을 한 쌍씩 순차적으로 비교하고, 한 쌍을 이루는 제1 촬영 영상과 제2 촬영 영상에 각각 존재하는 중복 영역들 중 제2 촬영 영상의 상기 중복 영역의 영상 위치를 표시하는 벡터 값을 생성하여 저장하며, 저장된 상기 벡터 값을 이용하여 상기 제2 촬영 영상의 상기 중복 영역을 제거하는 영상 라이브 스트리밍 시스템.
The method according to claim 1,
Wherein the image processor sequentially compares the photographed images by the photographed data in pairs and outputs the photographed images to the overlapping region of the second photographed image among overlapping regions existing respectively in the first photographed image and the second photographed image, And stores the vector value in the storage unit, and removes the overlapping area of the second captured image using the stored vector value.
제9 항에 있어서,
상기 영상 처리기는 상기 제1 촬영 영상과 상기 제2 촬영 영상을 다운 스케일하여 데이터의 양을 줄이고, 다운 스케일된 상기 제1 촬영 영상과 상기 제2 촬영 영상을 비교하여 상기 제2 촬영 영상의 상기 중복 영역의 상기 영상 위치를 표시하는 상기 벡터 값을 생성하는 영상 라이브 스트리밍 시스템.
10. The method of claim 9,
Wherein the image processor down-scales the first and second images to reduce the amount of data, compares the down-scaled first and second images with each other, And generates the vector value indicating the image position of the region.
제9 항에 있어서,
상기 영상 처리기는 상기 촬영 영상을 제거할 위치에 대한 정보와 제거할 방향에 대한 정보를 포함하도록 상기 벡터 값을 생성하는 영상 라이브 스트리밍 시스템.
10. The method of claim 9,
Wherein the image processor generates the vector value so as to include information on a position to remove the photographed image and information on a direction to be removed.
제9 항에 있어서,
상기 영상 처리기는 상기 벡터 값을 다운 스케일 이전의 상기 제2 촬영 영상에 대응하도록 변환하여 저장하는 영상 라이브 스트리밍 시스템.
10. The method of claim 9,
Wherein the image processor converts the vector value to correspond to the second captured image before the downscale and stores the converted vector value.
제1 항에 있어서,
상기 영상 처리기는 상기 촬영 영상들을 병합하여 서라운드 뷰나 파노라마 뷰를 위한 상기 출력 영상을 생성하는 영상 라이브 스트리밍 시스템.
The method according to claim 1,
Wherein the image processor merges the photographed images to generate the output image for a surround view or a panoramic view.
제1 항에 있어서,
상기 인코더의 상기 촬영 데이터들의 수신 및 상기 인코더와 상기 스트리밍 서버 간 상기 촬영 데이터들의 전송 및 수신은 제1 통신 프로토콜에 따라 수행되고,
상기 스트리밍 서버와 상기 영상 처리기 간의 상기 촬영 데이터들의 전송 및 수신과 상기 영상 처리기와 상기 클라이언트 간의 상기 출력 영상의 전송 및 수신은 제2 통신 프로토콜에 따라 수행되며,
상기 제1 통신 프로토콜과 상기 제2 통신 프로토콜은 라이브 스트리밍을 지원하는 것을 이용하는 영상 라이브 스트리밍 시스템.
The method according to claim 1,
The reception of the photographing data of the encoder and the transmission and reception of the photographing data between the encoder and the streaming server are performed in accordance with a first communication protocol,
Wherein transmission and reception of the photographing data between the streaming server and the image processor and transmission and reception of the output image between the image processor and the client are performed according to a second communication protocol,
Wherein the first communication protocol and the second communication protocol support live streaming.
제14 항에 있어서,
상기 제1 및 제2 통신 프로토콜은 대시(DASH : Dynamic Adaptive Streaming over HTTP), 엠피이지2-티에스(MPEG2-TS : MPEG2 Transport System), 에이치엘에스(HLS : HTTP Live Streaming), 알티피(RTP : Real Time Transport Protocol), 알티엠피(RTMP : Real Time Messaging Protocol), 알티에스피(RTSP : Real Time Streaming Protocol), 알티시피(RTCP : Real Time Control Protocol), 및 엠엠티(MMT : MPEG Media Transport) 중 어느 하나의 서로 다른 것으로 정의되는 영상 라이브 스트리밍 시스템.
15. The method of claim 14,
The first and second communication protocols may be dynamic adaptive streaming over HTTP (DASH), MPEG2 transport system (MPEG2-TS), HTTP live streaming (HLS) Real Time Transport Protocol (RTMP), Real Time Messaging Protocol (RTMP), Real Time Streaming Protocol (RTSP), Real Time Control Protocol (RTCP), and MMT A video live streaming system defined as any one of different.
촬영 영상에 대한 촬영 데이터를 실시간으로 전송하는 촬영 장치들;
타임 동기 모듈 및 인코더를 포함하며, 상기 타임 동기 모듈은 타임 스탬프를 제공하고, 상기 인코더는 상기 촬영 장치들과 상기 타임 동기 모듈로부터 각각 상기 촬영 데이터들과 상기 타임 스탬프를 수신하고, 각각의 상기 촬영 데이터에 대응하는 타임 보정 값을 이용하여 상기 타임 스탬프를 보정한 보정 타임 스탬프를 상기 촬영 데이터의 스트리밍을 위한 데이터 단위 별로 인코딩한 후 상기 촬영 데이터들을 라이브 스트리밍하는 스트리밍 소스 장치;
유니버셜 타임을 기준으로 상기 촬영 데이터들의 상기 데이터 단위들의 상기 보정 타임 스템프들을 비교하여서 상기 촬영 데이터들의 상기 데이터 단위들을 동기화한 후 상기 촬영 데이터들을 라이브 스트리밍하는 스트리밍 서버; 및
상기 스트리밍 서버에서 라이브 스트리밍되는 상기 촬영 데이터들에 의한 상기 촬영 영상들 간의 중복을 제거한 후 상기 촬영 데이터들을 병합한 출력 영상을 클라이언트에 라이브 스트리밍하는 영상 처리기;를 포함함을 특징으로 하는 영상 라이브 스트리밍 시스템.
A photographing device for transmitting photographing data of a photographed image in real time;
A time synchronization module and an encoder, wherein the time synchronization module provides a time stamp, and the encoder receives the imaging data and the time stamp from the imaging devices and the time synchronization module, respectively, A streaming source device for encoding the correction time stamp, which is obtained by correcting the time stamp using a time correction value corresponding to the data, for each data unit for streaming the shooting data, and then live streaming the shooting data;
A streaming server for comparing the correction timestamps of the data units of the photographing data based on a universal time to synchronize the data units of the photographing data and then live streaming the photographing data; And
And an image processor for performing live streaming of an output image obtained by merging the photographed data after removing the overlap between the photographed images by the photographed data that is live streamed in the streaming server. .
제16 항에 있어서,
상기 스트리밍 서버는 상기 촬영 데이터들 별 상기 데이터 단위들의 수신 시간들과 상기 보정 타임 스탬프들의 시간 차에 대응하는 상기 타임 보정 값들을 생성하고 상기 타임 보정 값들을 해당하는 상기 인코더들로 제공하는 영상 라이브 스트리밍 시스템.
17. The method of claim 16,
Wherein the streaming server generates the time correction values corresponding to the time difference between the reception times of the data units and the correction timestamps for each shot data and provides the time correction values to the corresponding encoders, system.
KR1020170059742A 2016-09-09 2017-05-15 Video live streaming system KR101821145B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160116452 2016-09-09
KR1020160116452 2016-09-09

Publications (1)

Publication Number Publication Date
KR101821145B1 true KR101821145B1 (en) 2018-01-23

Family

ID=61071138

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170059742A KR101821145B1 (en) 2016-09-09 2017-05-15 Video live streaming system

Country Status (1)

Country Link
KR (1) KR101821145B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019164361A1 (en) * 2018-02-23 2019-08-29 스타십벤딩머신 주식회사 Streaming device and streaming method
WO2019172698A1 (en) * 2018-03-09 2019-09-12 삼성전자(주) Electronic device and control method therefor
KR102340490B1 (en) * 2021-05-28 2021-12-17 주식회사 쿠오핀 Platform system and method of transmitting real time video for an ultra low latency
KR102340510B1 (en) * 2021-05-28 2021-12-17 주식회사 쿠오핀 Video encoding apparatus and method for an ultra low latency
WO2022124679A1 (en) * 2020-12-07 2022-06-16 삼성전자 주식회사 Device and method for detecting duplicate video
US11425430B2 (en) 2018-02-23 2022-08-23 Samsung Electronics Co., Ltd. Electronic device for sharing real-time content data
KR20230058919A (en) * 2021-10-25 2023-05-03 주식회사 픽스트리 Method And System for Synchronizing Video for Multi-View Service

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019164361A1 (en) * 2018-02-23 2019-08-29 스타십벤딩머신 주식회사 Streaming device and streaming method
US11425430B2 (en) 2018-02-23 2022-08-23 Samsung Electronics Co., Ltd. Electronic device for sharing real-time content data
WO2019172698A1 (en) * 2018-03-09 2019-09-12 삼성전자(주) Electronic device and control method therefor
US11134313B2 (en) 2018-03-09 2021-09-28 Samsung Electronics Co., Ltd. Electronic apparatus and method of controlling the same
WO2022124679A1 (en) * 2020-12-07 2022-06-16 삼성전자 주식회사 Device and method for detecting duplicate video
KR102340490B1 (en) * 2021-05-28 2021-12-17 주식회사 쿠오핀 Platform system and method of transmitting real time video for an ultra low latency
KR102340510B1 (en) * 2021-05-28 2021-12-17 주식회사 쿠오핀 Video encoding apparatus and method for an ultra low latency
WO2022250352A1 (en) * 2021-05-28 2022-12-01 주식회사 쿠오핀 Ultra-low latency image encoding device and method
WO2022250351A1 (en) * 2021-05-28 2022-12-01 주식회사 쿠오핀 Platform system and method for transmitting ultra-low latency real-time video
KR20230058919A (en) * 2021-10-25 2023-05-03 주식회사 픽스트리 Method And System for Synchronizing Video for Multi-View Service
KR102555481B1 (en) 2021-10-25 2023-07-13 주식회사 픽스트리 Method And System for Synchronizing Video for Multi-View Service

Similar Documents

Publication Publication Date Title
KR101821145B1 (en) Video live streaming system
US11729465B2 (en) System and method providing object-oriented zoom in multimedia messaging
US20180199082A1 (en) Providing low and high quality streams
EP3391639B1 (en) Generating output video from video streams
EP2234406A1 (en) A three dimensional video communication terminal, system and method
US11895352B2 (en) System and method for operating a transmission network
KR20150072231A (en) Apparatus and method for providing muti angle view service
US20230319371A1 (en) Distribution of Multiple Signals of Video Content Independently over a Network
US20180376181A1 (en) Networked video communication applicable to gigabit ethernet
CN113906734A (en) Synchronization control device, synchronization control method, and synchronization control program
WO2017079735A1 (en) Method and device for capturing synchronized video and sound across multiple mobile devices
JP6821398B2 (en) Image processing equipment, image processing methods and programs
KR101917224B1 (en) Apparatus for transmitting image data
JP2019083405A (en) Decoding device, transmission device, decoding method, control method for transmission device, and program
KR20090131891A (en) System and method for providing video stream of multiple personal roi
KR102225111B1 (en) How to Encode and Process Raw UHD Video Through Existing HD Video Architectures
JP6740002B2 (en) Control device, control method and program
JP2015046708A (en) Communication system, communication method, transmission-side synchronous signal distribution device, transmission-side synchronous control device, reception-side synchronous signal distribution device, reception-side synchronous control device and program
US10264241B2 (en) Complimentary video content
JP5367771B2 (en) Video transmission system
JP5289376B2 (en) Video signal transmission device
US9288648B2 (en) Transport stream packet generation device and method of generating transport stream packet thereof
CN115150563A (en) Video production method and system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant