KR101821145B1 - Video live streaming system - Google Patents
Video live streaming system Download PDFInfo
- Publication number
- KR101821145B1 KR101821145B1 KR1020170059742A KR20170059742A KR101821145B1 KR 101821145 B1 KR101821145 B1 KR 101821145B1 KR 1020170059742 A KR1020170059742 A KR 1020170059742A KR 20170059742 A KR20170059742 A KR 20170059742A KR 101821145 B1 KR101821145 B1 KR 101821145B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- time
- streaming
- photographed
- photographing
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/643—Communication protocols
- H04N21/6437—Real-time Transport Protocol [RTP]
-
- H04L29/06517—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/65—Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/242—Synchronization processes, e.g. processing of PCR [Program Clock References]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
본 발명은 영상 라이브 스트리밍 시스템에 관한 것으로서, 보다 상세하게는 라이브 스트리밍 방식에 의해 실시간으로 촬영된 복수의 촬영 영상을 병합한 출력 영상을 제공하는 영상 라이브 스트리밍 시스템에 관한 것이다.The present invention relates to an image live streaming system, and more particularly, to an image live streaming system that provides an output image obtained by merging a plurality of captured images captured in real time by a live streaming method.
최근의 인터넷 환경에서 다양한 영상 서비스가 등장하면서 고화질 라이브 방송에 대한 수요가 점점 증가하고 있고, 영상을 라이브 스트리밍(Live Streaming)하는 시도들이 이루어지고 있다.With the emergence of various video services in the recent Internet environment, demand for high-definition live broadcasting is increasing, and live streaming of images is being attempted.
복수의 촬영 장치를 이용하는 경우, 360도로 촬영한 영상을 보여주는 서라운드 뷰(Surround View) 또는 넓은 폭의 영상을 보여주는 파노라마 뷰(Panoramic View) 같은 특수 영상의 생성이 가능하다. When a plurality of photographing apparatuses are used, it is possible to generate special images such as a surround view showing an image photographed at 360 degrees or a panoramic view showing a wide-width image.
상기와 같은 특수 영상에 대한 라이브 스트리밍이 요구되고 있으며, 상기한 요구를 충족시키기 위해서는 복수의 촬영 장치의 촬영 영상을 동기화하여 하나의 출력 영상으로 병합하여 클라이언트에 라이브 스트리밍하는 기술의 개발이 필요하다.In order to satisfy the above-mentioned demands, there is a need to develop a technique of synchronizing captured images of a plurality of photographing apparatuses into a single output image and then performing live streaming to a client.
그러나, 이기종으로 구성될 수 있는 복수의 촬영 장치에서 실시간으로 전송되는 촬영 영상들 간의 동기화에 어려움이 있고, 다양한 복수의 촬영 영상들을 하나의 출력 영상으로 병합하여 클라이언트에 라이브 스트리밍하는 것에 어려움이 있다.However, there is a difficulty in synchronizing captured images transmitted in real time from a plurality of photographing apparatuses that can be configured as heterogeneous systems, and it is difficult to merge various captured images into one output image and live streaming them to a client.
본 발명은 라이브 스트리밍 과정의 촬영 영상들 간의 지연 차를 해소하기 위하여 복수의 촬영 장치의 촬영 영상들을 동기화하여 하나의 출력 영상으로 병합하고 출력 영상을 클라이언트에 라이브 스트리밍하는 영상 라이브 스트리밍 시스템을 제공함을 목적으로 한다. The present invention provides a video live streaming system for synchronizing photographed images of a plurality of photographing apparatuses into a single output image and live streaming an output image to a client in order to solve a delay difference between photographed images in a live streaming process .
또한, 본 발명은 촬영 영상들 간의 지연 차를 해소하기 위하여 복수의 채널을 통하여 실시간으로 전송되는 촬영 영상의 촬영 데이터들을 동기화하고, 적은 데이터 양으로 촬영 데이터들을 비교함으로써 중복을 제거한 후 고용량의 출력 영상을 클라이언트에 라이브 스트리밍하는 영상 라이브 스트리밍 시스템을 제공함을 다른 목적으로 한다.In order to solve the delay difference between photographed images, the present invention synchronizes the photographed data of the photographed image transmitted in real time through a plurality of channels, eliminates redundancy by comparing the photographed data with a small amount of data, The present invention provides a video live streaming system in which live streams are streamed to a client.
또한, 본 발명은 복수의 촬영 장치에서 촬영하는 촬영 영상들을 라이브 스트리밍하는 과정에서 동기화하여 360도로 촬영한 영상을 보여주는 서라운드 뷰(Surround View) 또는 넓은 폭의 영상을 보여주는 파노라마 뷰(Panoramic View) 같은 출력 영상을 클라이언트에 라이브 스트리밍하는 영상 라이브 스트리밍 시스템을 제공함을 또다른 목적으로 한다.In addition, the present invention provides an output such as a surround view showing a video shot at 360 degrees in synchronism with a live streaming of photographed images shot by a plurality of photographing apparatuses, or a panoramic view (panoramic view) showing a wide- Another object of the present invention is to provide a video live streaming system for live streaming an image to a client.
본 발명의 영상 라이브 스트리밍 시스템은, 촬영 영상에 대한 촬영 데이터를 실시간으로 전송하는 촬영 장치들; 상기 촬영 장치들에 타임 스탬프를 제공하는 타임 동기 모듈들; 타임 보정 값을 이용하여 상기 타임 스탬프를 보정한 보정 타임 스탬프를 각각의 상기 촬영 데이터에 스트리밍을 위한 데이터 단위 별로 인코딩한 후 상기 촬영 데이터들을 라이브 스트리밍하는 인코더들; 유니버셜 타임을 기준으로 상기 촬영 데이터들의 상기 데이터 단위들의 상기 보정 타임 스템프들을 비교하여서 상기 촬영 데이터들의 상기 데이터 단위들을 동기화한 후 상기 촬영 데이터들을 라이브 스트리밍하는 스트리밍 서버; 및 상기 스트리밍 서버에서 라이브 스트리밍되는 상기 촬영 데이터들에 의한 상기 촬영 영상들 간의 중복을 제거한 후 상기 촬영 데이터들을 병합한 출력 영상을 클라이언트에 라이브 스트리밍하는 영상 처리기;를 포함함을 특징으로 한다.The video live streaming system of the present invention includes: photographing devices for transmitting photographed data of a photographed image in real time; Time synchronization modules for providing time stamps to the photographing devices; Encoders for encoding the correction time stamp, which is obtained by correcting the time stamp by using a time correction value, for each data unit for streaming to each shot data, and then live streaming the shot data; A streaming server for comparing the correction timestamps of the data units of the photographing data based on a universal time to synchronize the data units of the photographing data and then live streaming the photographing data; And an image processor that removes duplication between the captured images by the shooting data that is streamed live on the streaming server, and then performs live streaming of an output image obtained by merging the shooting data to a client.
또한, 본 발명의 영상 라이브 스트리밍 시스템은, 촬영 영상에 대한 촬영 데이터를 실시간으로 전송하는 촬영 장치들; 타임 동기 모듈 및 인코더를 포함하며, 상기 타임 동기 모듈은 타임 스탬프를 제공하고, 상기 인코더는 상기 촬영 장치들과 상기 타임 동기 모듈로부터 각각 상기 촬영 데이터들과 상기 타임 스탬프를 수신하고, 각각의 상기 촬영 데이터에 대응하는 타임 보정 값을 이용하여 상기 타임 스탬프를 보정한 보정 타임 스탬프를 상기 촬영 데이터의 스트리밍을 위한 데이터 단위 별로 인코딩한 후 상기 촬영 데이터들을 라이브 스트리밍하는 스트리밍 소스 장치; 유니버셜 타임을 기준으로 상기 촬영 데이터들의 상기 데이터 단위들의 상기 보정 타임 스템프들을 비교하여서 상기 촬영 데이터들의 상기 데이터 단위들을 동기화한 후 상기 촬영 데이터들을 라이브 스트리밍하는 스트리밍 서버; 및 상기 스트리밍 서버에서 라이브 스트리밍되는 상기 촬영 데이터들에 의한 상기 촬영 영상들 간의 중복을 제거한 후 상기 촬영 데이터들을 병합한 출력 영상을 클라이언트에 라이브 스트리밍하는 영상 처리기;를 포함함을 특징으로 한다.In addition, the video live streaming system of the present invention includes photographing devices for transmitting photographed data on photographed images in real time; A time synchronization module and an encoder, wherein the time synchronization module provides a time stamp, and the encoder receives the imaging data and the time stamp from the imaging devices and the time synchronization module, respectively, A streaming source device for encoding the correction time stamp, which is obtained by correcting the time stamp using a time correction value corresponding to the data, for each data unit for streaming the shooting data, and then live streaming the shooting data; A streaming server for comparing the correction timestamps of the data units of the photographing data based on a universal time to synchronize the data units of the photographing data and then live streaming the photographing data; And an image processor that removes duplication between the captured images by the shooting data that is streamed live on the streaming server, and then performs live streaming of an output image obtained by merging the shooting data to a client.
본 발명은 실시간으로 전송되는 복수의 촬영 장치의 촬영 영상들을 타임스탬프들을 이용하여 동기화하여 하나의 출력 영상으로 병합함으로써 360도로 촬영한 영상을 보여주는 서라운드 뷰(Surround View) 또는 넓은 폭의 영상을 보여주는 파노라마 뷰(Panoramic View) 같은 특수 영상을 실시간으로 제공할 수 있는 효과가 있다.The present invention relates to a surveillance system for synchronizing shot images of a plurality of photographing apparatuses transmitted in real time with time stamps and merging them into one output image, It is possible to provide special images such as a panoramic view in real time.
또한, 본 발명은 실시간으로 다채널을 통하여 전송되는 촬영 영상의 촬영 영상 데이터들을 타임스탬프들을 이용하여 동기화하고, 적은 데이터 양으로 촬영 영상 데이터들을 비교함으로써 중복을 제거함으로써 360도로 촬영한 영상을 보여주는 서라운드 뷰(Surround View) 또는 넓은 폭의 영상을 보여주는 파노라마 뷰(Panoramic View) 같은 특수 영상을 고용량의 출력 영상으로 생성할 수 있고, 출력 영상을 실시간으로 제공할 수 있는 효과가 있다.In addition, the present invention synchronizes photographed image data of photographed images transmitted through multiple channels in real time using time stamps, and eliminates redundancy by comparing photographed image data with a small amount of data, A special image such as a view (Surround View) or a panoramic view (Panoramic View) showing a wide-width image can be generated as a high-capacity output image, and an output image can be provided in real time.
도 1은 본 발명의 영상 라이브 스트리밍 시스템의 일 실시예를 나타내는 블록도.
도 2는 서라운드 뷰를 위한 촬영 장치들의 배치 상태를 예시한 도면.
도 3은 파노라마 뷰를 위한 촬영 장치들의 배치 상태를 예시한 도면.
도 4는 촬영 데이터들에 타임 스탬프를 인코딩하는 방법을 설명하는 도면.
도 5는 촬영 데이터들이 서버에 수신되는 시간 차를 설명하는 도면.
도 6은 스트리밍 서버에서 촬영 데이터들의 데이터 단위들이 정렬되는 것을 설명하는 도면.
도 7은 촬영 영상들의 중복을 제거하기 위한 벡터 값을 생성하는 방법을 설명하는 도면.
도 8은 도 7의 방법에 의해 생성된 벡터 값을 이용하여 출력 영상을 병합하는 방법을 설명하는 도면.
도 9는 본 발명의 영상 라이브 스트리밍 시스템의 다른 실시예를 나타내는 블록도.
도 10은 본 발명의 영상 라이브 스트리밍 시스템의 또다른 실시예를 나타내는 블록도.1 is a block diagram showing an embodiment of a video live streaming system of the present invention;
2 is a diagram illustrating an arrangement of photographing apparatuses for a surround view.
3 is a diagram illustrating an arrangement state of photographing apparatuses for a panoramic view.
Fig. 4 is a view for explaining a method of encoding a time stamp on photographing data; Fig.
5 is a view for explaining a time difference in which photographic data are received by a server;
Fig. 6 is a diagram for explaining how data units of photographing data are arranged in a streaming server; Fig.
7 is a view for explaining a method of generating a vector value for eliminating duplication of photographed images.
8 is a diagram illustrating a method of merging an output image using vector values generated by the method of FIG. 7;
9 is a block diagram showing another embodiment of a video live streaming system of the present invention.
10 is a block diagram showing still another embodiment of a video live streaming system of the present invention;
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명한다. 본 명세서 및 특허청구범위에 사용된 용어는 통상적이거나 사전적 의미로 한정되어 해석되지 아니하며, 본 발명의 기술적 사항에 부합하는 의미와 개념으로 해석되어야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It is to be understood that the terminology used herein is for the purpose of description and should not be interpreted as limiting the scope of the present invention.
본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 실시예이며, 본 발명의 기술적 사상을 모두 대변하는 것이 아니므로, 본 출원 시점에서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있다.The embodiments described in the present specification and the configurations shown in the drawings are preferred embodiments of the present invention and are not intended to represent all of the technical ideas of the present invention and thus various equivalents and modifications Can be.
도 1은 본 발명의 영상 라이브 스트리밍 시스템의 일 실시예를 나타내는 블록도이다. 1 is a block diagram showing an embodiment of a video live streaming system of the present invention.
도 1을 참조하면, 본 발명의 영상 라이브 스트리밍 시스템은 복수 개의 촬영 장치(100), 복수 개의 인코더(120) 및 복수 개의 타임 동기 모듈(140), 스트리밍 서버(200), 영상 처리기(220) 및 클라이언트(300)를 포함한다. 1, a video live streaming system according to the present invention includes a plurality of photographing
여기에서, 하나의 촬영 장치(100), 하나의 인코더(120) 및 하나의 타임 동기 모듈(140)가 스트리밍 소스 장치(M10_1~M10_n)로 각각 구성될 수 있다. 즉, 영상 라이브 스트리밍 시스템은 복수 개의 스트리밍 소스 장치(M10_1~M10_n)를 포함할 수 있으며, Here, one photographing
각 스트리밍 소스 장치(M10_1~M10_n)의 촬영 장치(100)는 촬영 영상에 대한 촬영 데이터를 생성하여 인코더(120)에 제공하도록 구성되며, 각 스트리밍 소스 장치(M10_1~M10_n)의 인코더(120)는 통신망(10)을 통하여 스트리밍 서버(200)에 촬영 데이터들을 라이브 스트리밍하도록 구성된다.The photographing
그리고, 스트리밍 서버(200)는 촬영 데이터들을 정렬하고, 영상 처리기(220)는 정렬된 촬영 데이터들을 이용하여 출력 영상을 생성하며 통신망(20)을 통하여 클라이언트(30)에 출력 영상에 대한 출력 데이터를 스트리밍하도록 구성된다.The
여기에서, 통신망(10) 및 통신망(20)은 같거나 다른 종류의 망을 이용하여 구성될 수 있으며, 예시적으로 유선 통신망, 무선 통신망, 유선 인터넷망 및 무선 인터넷망 중 하나 또는 둘 이상의 결합으로 구성될 수 있다. Here, the
본 발명의 영상 라이브 스트리밍 시스템에서, 촬영 장치(100)와 인코더(120) 간의 촬영 데이터들의 전송 및 수신과 인코더(120)와 스트리밍 서버(200) 간의 촬영 데이터들의 전송 및 수신은 제1 통신 프로토콜에 따라 수행될 수 있고, 스트리밍 서버(200)와 영상 처리기(220) 간의 촬영 데이터들의 전송 및 수신 및 통신망(20)을 통한 영상 처리기(220)와 클라이언트(300) 간의 출력 영상의 전송 및 수신은 제2 통신 프로토콜에 따라 수행될 수 있다.In the video live streaming system of the present invention, transmission and reception of pickup data between the
여기에서, 제1 통신 프로토콜과 제2 통신 프로토콜은 라이브 스트리밍을 지원하는 것을 이용할 수 있으며, 제1 및 제2 통신 프로토콜은 대시(DASH : Dynamic Adaptive Streaming over HTTP), 엠피이지2-티에스(MPEG2-TS : MPEG2 Transport System), 에이치엘에스(HLS : HTTP Live Streaming), 알티피(RTP : Real Time Transport Protocol), 알티엠피(RTMP : Real Time Messaging Protocol), 알티에스피(RTSP : Real Time Streaming Protocol), 알티시피(RTCP : Real Time Control Protocol), 및 엠엠티(MMT : MPEG Media Transport) 중 어느 하나의 같거나 서로 다른 통신 프로토콜을 이용하는 것으로 구성될 수 있다.Here, the first communication protocol and the second communication protocol may support live streaming, and the first and second communication protocols may be dynamic adaptive streaming over HTTP (DASH), MPEG2- TS: MPEG2 Transport System, HLS (HTTP Live Streaming), RTP (Real Time Transport Protocol), RTMP (Real Time Messaging Protocol), RTSP (Real Time Streaming Protocol) (RTCP), and an MPEG media transport (MMT), using the same or different communication protocols.
상기와 같이 구성되는 본 발명에 의한 영상 라이브 스트리밍 시스템의 각 구성 요소들의 구성을 보다 상세히 설명한다.The configuration of each component of the video live streaming system according to the present invention will be described in more detail.
각 촬영 장치(100)는 촬영 영상에 대한 촬영 데이터를 실시간으로 전송하며, 여기에서 실시간 전송은 라이브 스트리밍에 의해 구현될 수 있다. 상기한 라이브 스트리밍은 모바일 라이브 스트리밍을 포함할 수 있다. Each photographing
스트리밍 소스 장치들(M10_1~M10_n)의 촬영 장치들(100)은 360도로 촬영한 영상을 보여주는 서라운드 뷰(Surround View)를 구현하기 위하여 도 2와 같이 배치될 수 있고, 넓은 폭의 영상을 보여주는 파노라마 뷰(Panoramic View)를 구현하기 위하여 도 3과 같이 배치될 수 있다. The photographing
도 2 및 도 3에서 촬영 장치들은 스트리밍 소스 장치(M10_1~M10_n)에 해당되는 것으로 표시하기 위하여 100_1~100_n으로 표시한다. 도 2에서, 촬영 장치(100_1)는 스트리밍 소스 장치(M10_1)에 포함되는 것이며, 촬영 장치(100_2)는 스트리밍 소스 장치(M10_2)에 포함되는 것으로 이해될 수 있다.In FIGS. 2 and 3, the photographing apparatuses are represented by 100_1 to 100_n in order to indicate that they correspond to the streaming source apparatuses M10_1 to M10_n. In Fig. 2, it is understood that the photographing apparatus 100_1 is included in the streaming source apparatus M10_1, and the photographing apparatus 100_2 is included in the streaming source apparatus M10_2.
서라운드 뷰나 파노라마 뷰와 같은 특수 영상을 구현하기 위해서 배치된 스트리밍 소스 장치(M10_1~M10_n)의 촬영 장치들이 서로 인접한 영역을 촬영하도록 배치된 경우, 촬영 장치들에 의해 촬영 영상은 중복된 영역을 포함할 수 있다.In a case where photographing apparatuses of the streaming source apparatuses M10_1 to M10_n arranged to implement a special image such as a surround view or a panoramic view are arranged to photograph adjacent areas, images taken by photographing apparatuses include overlapping regions .
도 2 및 도 3은 서라운드 뷰나 파노라마 뷰와 같은 특수 영상을 촬영하여 실시간으로 제공하기 위한 복수 개의 촬영 장치(100_1~100_n)의 배치 방법을 예시한 것을 뿐이며, 다양한 특수 영상을 생성하기 위하여 복수 개의 촬영 장치(100_1~100_n)는 다양하게 배치될 수 있다. 촬영 장치(100_1~100_n)의 수는 제작자의 선택에 따라 다양하게 결정될 수 있다.FIG. 2 and FIG. 3 only illustrate a method of arranging a plurality of photographing apparatuses 100_1 to 100_n for photographing and providing a special image such as a surround view or a panoramic view in real time. In order to generate various special images, The devices 100_1 to 100_n may be arranged in various ways. The number of photographing apparatuses 100_1 to 100_n may be variously determined according to the manufacturer's selection.
그리고, 복수 개의 촬영 장치(100_1~100_n)는 동종 장치 또는 이종 장치를 이용하거나 같거나 상이한 화각을 갖는 장치를 이용할 수 있다. The plurality of photographing apparatuses 100_1 to 100_n may use homogeneous apparatuses or heterogeneous apparatuses, or use apparatuses having the same or different angle of view.
예를 들어, 복수 개의 촬영 장치(100_1~100_n)는 카메라 기능을 구비하고, 촬영 영상에 대한 촬영 데이터를 유선 송신 또는 무선 송신 가능한 카메라, 캠코더, 휴대폰이나 스마트폰과 같은 이동 통신 단말기, PMP(Portable Multimedia Player), MID(Mobile Internet Device), 태블릿컴퓨터(Tablet PC), 노트북(Note book) 및 넷북(Net book) 등 다양한 장치들을 이용하여 조합될 수 있다.For example, the plurality of photographing apparatuses 100_1 to 100_n include a camera function, a camera capable of wired transmission or wireless transmission of photographed data on a photographed image, a mobile communication terminal such as a mobile phone or a smart phone, Multimedia Player), a MID (Mobile Internet Device), a Tablet PC, a Notebook, and a Netbook.
또한, 복수 개의 촬영 장치(100_1~100_n)는 좁은 화각과 넓은 화각을 갖는 이종 장치들이나 화각이 다르게 설정된 동종 장치들을 이용하여 조합될 수 있다.Also, the plurality of photographing apparatuses 100_1 to 100_n may be combined using heterogeneous apparatuses having a narrow view angle and a wide view angle, or homogeneous apparatuses having different view angles.
클라이언트(300)는 통신망(20)을 통하여 라이브 스트리밍되는 출력 데이터를 수신하고 출력 영상을 재생할 수 있는 장치로 구성될 수 있으며, 예시적으로 휴대폰이나 스마트폰과 같은 이동 통신 단말기, PMP(Portable Multimedia Player), MID(Mobile Internet Device), 태블릿컴퓨터(Tablet PC), 노트북 및 넷북(Net book) 등 다양한 장치가 이용될 수 있다.The
타임 동기 모듈(140)은 촬영 장치(100)와 인코더(120)에 각각 대응되는 수로 구성되며, 현재 시간에 대한 타임 스탬프(Timestamp)를 제공한다. The
보다 구체적으로, 타임 동기 모듈(140)은 유니버셜 타임을 코딩한 제1 타임 스탬프와 상기 제1 타임 스탬프를 기준으로 카운트하여 생성하는 제2 타임 스탬프를 제공하도록 구성될 수 있다.More specifically, the
여기에서, 타임 스탬프는 어느 시점에 데이터가 존재했거나 수신되었다는 사실을 증명하기 위하여 특정 위치에 표시되는 시각 정보이며, 시간의 기점을 표시하는 시간 변위 매개 변수로 이해될 수 있다.Here, the time stamp is time information displayed at a specific position to prove that the data was present or received at a certain point, and can be understood as a time displacement parameter indicating the origin of time.
그리고, 유니버셜 타임은 무선망이나 유선망 또는 인터넷망 등에 공용되는 세계 표준 시간이 이용될 수 있다. The universal time may be a global standard time that is shared with a wireless network, a wired network, or the Internet network.
인코더(120)는 촬영 장치(100)와 타임 동기 모듈(140)로부터 촬영 데이터와 타임 스탬프를 수신하고, 촬영 데이터에 대응하는 타임 보정 값을 이용하여 타임 스탬프를 보정한 보정 타임 스탬프를 촬영 데이터의 스트리밍을 위한 데이터 단위 별로 인코딩하며, 보정 타임 스탬프가 인코딩된 데이터 단위들을 포함하는 촬영 데이터를 라이브 스트리밍한다.The
인코더(120)의 동작에 대하여 도 4를 참조하여 설명한다.The operation of the
각 스트리밍 소스 장치(M10_1~M10_n)의 촬영 장치들(100)은 시간 t1부터 촬영을 시작하고 각 촬영 데이터1 ~ 촬영 데이터n를 인코더들(120)에 전송한다.The photographing
그러므로, 각 스트리밍 소스 장치(M10_1~M10_n)의 인코더들(120)은 시간 t1부터 촬영 데이터1 ~ 촬영 데이터n을 각각 수신한다.Therefore, the
각 촬영 데이터1 ~ 촬영 데이터n은 촬영 장치(100)에서 인코더(120)로 전송될 때 일정한 데이터 단위로 구분된다. 데이터 단위는 촬영 장치(100)에 의해 다양한 포맷에 의해 정의 및 구성될 수 있으며, 예시적으로 영상의 라인 단위, 프레임 단위 또는 데이터 양 단위로 구분될 수 있다. 그러므로, 인코더(120)는 시간 t1부터 순차적으로 연속되는 데이터 단위1 ~ 데이터 단위m를 수신한다.Each of the
즉, 도 4와 같이, 스트리밍 소스 장치들(M10_1~M10_n)의 각 촬영 데이터1 ~ 촬영 데이터n은 순차적으로 연속되는 데이터 단위1~데이터 단위m를 포함한다. 여기에서, n과 m은 서로 같거나 다른 자연수를 의미한다.That is, as shown in FIG. 4, the
인코더(120)는 촬영 데이터1 ~ 촬영 데이터n가 수신되면, 보정 타임 스탬프를 각 촬영 데이터1 ~ 촬영 데이터n의 스트리밍을 위한 데이터 단위 별로 인코딩한다. 촬영 데이터1의 경우를 예시하면, 보정 타임 스탬프들 TS1_1 ~ Ts1_m이 데이터 단위1 ~ 데이터 단위m 별로 인코딩된다.The
보정 타임 스탬프 TS1_1 ~ Ts1_m는 스트리밍 서버(200)에서 제공되는 타임 보정 값을 이용하여 타임 동기 모듈(140)에서 제공되는 타임 스탬프를 인코더(120)에서 보정한 것이다. The correction time stamps TS1_1 to Ts1_m are obtained by correcting the time stamps provided by the
촬영 데이터의 최초 데이터 단위(예시적으로 데이터 단위1)에 적용할 타임 보정 값은 없거나 초기 값이 예시적으로 “0”으로 설정될 수 있다. 최초 데이터 단위에 후속하는 데이터 단위들(예시적으로 데이터 단위2 ~ 데이터 단위m)에 적용할 타임 보정 값은 스트리밍 서버(200)에 이전 데이터 단위의 수신 시간과 보정 타임 스탬프 간의 시간 차에 대응하는 값으로 스트리밍 서버(200)에서 제공될 수 있다. There is no time correction value to be applied to the first data unit (exemplarily, data unit 1) of the shooting data, or the initial value may be set to "0" as an example. The time correction value to be applied to the data units (illustratively,
본 발명의 실시예에서, 인코더(120)는 타임 보정 값을 이용하여 타임 스탬프를 보정하는 회수를 제한하도록 구성될 수 있으며, 이에 따라 타임 스탬프를 보정회수를 초과한 경우, 인코더(120)는 고정된 타임 보정 값을 이용하여 보정 타임 스탬프를 생성할 수 있다.In an embodiment of the present invention, the
도 4를 참조하면, 시간 t1에 각 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위1들이 인코더(120)에 수신된다. 이때, 타임 보정 값은 없거나 초기 값이 예시적으로 “0”으로 설정될 수 있으므로, 인코더(120)는 최초로 수신된 각 데이터 단위1들에 시간 t1에 대응하여 타임 동기 모듈(140)에서 제공된 타임 스탬프를 보정 타임 스탬프로 인코딩한다.Referring to Fig. 4, at time t1, the
그 후, 시간 t2 ~ tm에 각 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위2 ~ 데이터 단위m이 순차적으로 인코더(120)에 수신된다. 이때 타임 보정 값은 스트리밍 서버(200)에서 수신되며, 스트리밍 서버(200)는 이전 데이터 단위의 수신 시간과 보정 타임 스탬프 간의 시간 차에 대응하는 값으로 타임 보정 값을 제공한다. 그러므로, 인코더(120)는 순차적으로 이어서 수신되는 각 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위2 ~ 데이터 단위m에 타임 보정 값을 이용하여 타임 동기 모듈(140)에서 제공된 타임 스탬프를 보정한 보정 타임 스탬프를 인코딩한다.Thereafter, the
예시적으로, 인코더(120)는 시간 t1에 촬영 데이터1의 데이터 단위1을 수신하고, 시간 t1에 대응하여 타임 동기 모듈(140)에서 제공된 타임 스탬프를 보정 타임 스탬프 TS1_1로 인코딩한다. Illustratively, the
그리고, 인코더(120)는 시간 t2에 촬영 데이터 1의 데이터 단위 2를 수신하고, 이전 데이터 단위1가 스트리밍 서버(200)에 수신된 수신 시간 D1(도 5 참조)과 데이터 단위 1의 보정 타임 스탬프 Ts1_1의 시간 차에 대응하는 값을 이용하여 시간 t2에 대응하여 타임 동기 모듈(140)에서 제공된 타임 스탬프를 보정 타임 스탬프 TS1_2로 인코딩한다. 이때, 보정 타임 스탬프 TS1_2는 “t2- (t1-D1)”으로 표현될 수 있다. 즉, 촬영 데이터1의 데이터 단위 2에 인코딩되는 보정 타임 스탬프 TS1_2는 이전 데이터 단위1의 지연된 시간 차를 보상하는 정보를 포함하도록 보정된 값을 갖는다.Then, the
여기에서, 인코더(120)는 시간 t1에 대응하여 유니버셜 타임을 코딩한 제1 타임 스탬프를 이용할 수 있고, 시간 t2 이후에 대응하여 제1 타임 스탬프를 기준으로 카운트하여 생성하는 제2 타임 스탬프를 이용할 수 있다.Here, the
상기와 달리, 인코더(120)는 촬영 데이터1 ~ 촬영 데이터n을 수신하기 전에 미리 타임 동기 모듈(140)의 타임 스탬프를 스트리밍 서버(200)에 전송하여 최초로 수신된 각 데이터 단위1들에 대응한 타임 보정 값을 수신할 수 있다. 이 경우, 인코더(120)는 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위1들이 수신되면 미리 수신된 타임 보정 값을 이용하여 타임 동기 모듈(140)의 현재 타임 스탬프를 보정한 보정 타임 스탬프들을 이용하여 데이터 단위1들을 인코딩 할 수 있다.Unlike the above, the
한편, 스트리밍 서버(200)는 통신망(10)을 통하여 스트리밍 소스 장치들(M10_1~M10_n)의 인코더들(120)에서 라이브 스트리밍되는 촬영 데이터1 ~ 촬영 데이터n을 도 5와 같이 수신한다. 도 5에서, D1은 촬영 데이터1이 스트리밍 서버(200)에 수신되는 시간을 의미하고, D2는 촬영 데이터2가 스트리밍 서버(200)에 수신되는 시간을 의미하고, Dn은 촬영 데이터n이 스트리밍 서버(200)에 수신되는 시간을 의미한다.On the other hand, the streaming
스트리밍 서버(200)는 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위들에 대응하는 타임 보정 값들을 생성하고, 타임 보정 값들을 해당하는 스트리밍 소스 장치들(M10_1~M10_n)의 인코더들(100)로 제공한다.The streaming
그리고, 스트리밍 서버(200)는 유니버셜 타임을 기준으로 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위들의 보정 타임 스템프들을 비교하여서 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위들을 도 6과 같이 동기화하고, 데이터 단위들이 동기화된 촬영 데이터1 ~ 촬영 데이터n을 영상 처리기(220)에 라이브 스트리밍한다.The streaming
스트리밍 서버(200)는 유니버셜 타임을 기준으로 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위들의 지연 차에 대한 지연 시간을 타임 보정 값으로 제공하는 과정을 수 회 반복하고, 그에 대응하여 인코더(120)는 타임 보정 값을 이용한 보상 타임 스탬프 생성을 수 회 반복한다. The streaming
그 결과, 스트리밍 서버(200)는 유니버셜 타임을 기준으로 동일한 시점으로 정렬될 수 있도록 고정된 타임 보정 값을 제공할 수 있고, 도 6과 같이 촬영 데이터1 ~ 촬영 데이터n의 데이터 단위들이 동기되어 출력될 수 있다.As a result, the streaming
영상 처리기(220)는 스트리밍 서버(200)에서 라이브 스트리밍되는 촬영 데이터들(촬영 데이터1 ~ 촬영 데이터n)에 의한 촬영 영상들을 비교하여서 촬영 영상들 간의 중복을 제거하고, 중복을 제거한 촬영 데이터들을 병합한 출력 영상을 생성하며, 출력 영상의 출력 데이터를 통신망(20)을 통하여 클라이언트(300)에 라이브 스트리밍한다.The
먼저, 영상 처리기(220)는 스트리밍 서버(200)에서 도 6과 같이 데이터 단위들이 동기화된 촬영 데이터들을 수신하며, 도 7 및 도 8의 방법에 의해 출력 영상을 생성한다. 영상 처리기(220)에서 촬영 영상은 촬영 데이터에 포함된 정보로써 분석될 수 있다. First, the
영상 처리기(220)는 촬영 데이터들의 촬영 영상들을 한 쌍씩 순차적으로 비교한다. 인접한 위치에서 촬영된 한 쌍의 제1 촬영 영상(V1)과 제2 촬영 영상(V2)을 비교하는 경우는 도 7을 참조하여 설명될 수 있다. The
제1 촬영 영상(V1)과 제2 촬영 영상(V2)은 중복 영역들을 포함한다. 제1 촬영 영상(V1)과 제2 촬영 영상(V2) 간의 중복을 해소하기 위하여, 제1 촬영 영상(V1)의 중복 영역(OV1)과 제2 촬영 영상(V2)의 중복 영역(OV2) 중 하나가 제거되어야 한다.The first captured image V1 and the second captured image V2 include overlapping areas. In order to eliminate redundancy between the first and second photographed images V1 and V2, the overlapping area OV1 of the first photographed image V1 and the overlapped area OV2 of the second photographed image V2 One should be removed.
촬영 데이터들은 고용량의 데이터를 포함하고 있다. 그러므로, 촬영 데이터들을 그대로 비교 분석할 경우 많은 양의 데이터들의 비교 분석이 요구된다. The photographed data contains high-capacity data. Therefore, comparative analysis of a large amount of data is required when the captured data is directly compared and analyzed.
이를 해소하기 위하여, 영상 처리기(220)는 제1 촬영 영상(V1)과 제2 촬영 영상(V2)을 다운 스케일하여 데이터의 양을 줄이고, 다운 스케일된 제1 촬영 영상(DV1)과 제2 촬영 영상(DV2)을 비교한다.In order to solve this problem, the
영상 처리기(220)는 다운 스케일된 제1 촬영 영상(DV1)과 다운 스케일된 제2 촬영 영상(DV2)에 각각 존재하는 중복 영역들(DOV1, DOV2) 중 다운 스케일된 제2 촬영 영상(DV2)의 중복 영역(DOV2)의 영상 위치를 표시하는 벡터 값을 생성하고 저장한다. 도 7에서 벡터 값은 VP로 표현된다.The
벡터 값(VP)은 촬영 영상을 제거할 위치에 대한 정보와 제거할 방향에 대한 정보를 포함하도록 생성한다. 예시적으로 300번째 수직 라인의 왼쪽 영역이 중복 영역(DVO2)으로 비교 결과 판단된 경우, 벡터 값(VP)은 제거할 위치에 대한 정보 즉 300번째 수직 라인을 의미하는 (0,300)을 포함할 수 있고, 제거할 방향이 왼쪽 영역인 것을 의미하는 “-“를 포함할 수 있다. 즉, 벡터 값(VP)은 -(0,300)으로 생성되고 저장될 수 있다. 상기한 벡터 값(VP)은 예시적으로 표현한 것일 뿐 제작자에 의해 다양한 형식으로 표현될 수 있다.The vector value VP is generated so as to include information about a position at which the photographed image is to be removed and information about a direction to be removed. Illustratively, when the left area of the 300th vertical line is determined as a comparison result in the overlap area DVO2, the vector value VP may include information about the position to be removed, i.e., (0,300), which means the 300th vertical line Quot; - " which means that the direction to be removed is the left region. That is, the vector value VP may be generated and stored as - (0,300). The above-mentioned vector value VP is only illustrative and can be expressed in various formats by the manufacturer.
그리고, 상기한 벡터 값(VP)은 다운 스케일된 제2 촬영 영상(DV2)에 대해 생성된 것이다. 그러므로, 영상 처리기(230)는 제작자의 설계에 따라 벡터 값(VP)을 다운 스케일 이전의 제2 촬영 영상(V2)에 대응하도록 변환하여 저장할 수 있다.The vector value VP is generated for the downscaled second captured image DV2. Therefore, the image processor 230 may convert and store the vector value VP corresponding to the second captured image V2 before the downscale according to the design of the manufacturer.
상기와 같이 벡터 값(VP)을 저장한 후, 영상 처리기(220)는 제2 촬영 영상(V2)에 대하여 벡터 값(VP)을 이용하여 중복 영역(OV2)을 제거하고 제1 촬영 영상(V1)과 제2 촬영 영상(V2)을 병합한 출력 영상을 도 8과 같이 생성할 수 있다.After storing the vector value VP as described above, the
도 8을 참조하면, 출력 영상은 중복 영역(OV2)이 제거된 제2 촬영 영상(V2)과 중복 영역(OV1)을 포함하는 제1 촬영 영상(V1)의 병합에 의해 생성됨을 이해할 수 있다.Referring to FIG. 8, it can be understood that the output image is generated by merging the first photographed image V1 including the second photographed image V2 with the overlapped area OV2 removed, and the overlapped area OV1.
영상 처리기(220)는 촬영 데이터들을 이용하여 촬영 영상들을 순차적으로 비교하면서 중복을 제거한 후 도 8과 같이 출력 영상을 생성할 수 있으며, 출력 영상의 출력 데이터를 통신망(20)을 통하여 클라이언트(300)에 라이브 스트리밍할 수 있다. The
본 발명의 실시예에서, 스트리밍 소스 장치들(M10_1~M10_n)이 촬영 장치(100), 인코더(120) 및 타임 동기 모듈(140)을 하나씩 포함하는 것으로 예시하였다.In the embodiment of the present invention, the streaming source apparatuses M10_1 to M10_n are exemplified as including the photographing
그러나, 이에 제한되지 않고 제작자의 의도에 따라 촬영 장치(100), 인코더(120) 및 타임 동기 모듈(140)이 다양하게 구성될 수 있다.However, the present invention is not limited thereto, and the photographing
일례로, 본 발명은 촬영 장치(100), 인코더(120) 및 타임 동기 모듈(140)이 하나의 스트리밍 소스 장치에 포함되지 않고 각각 별도의 장치로 구성되며, 이들 간의 신호 전송이 구현되도록 실시될 수 있다.For example, the present invention may be implemented such that the
다른 일례로, 본 발명은 도 9와 같이 n개의 촬영 장치(100)가 각각 별도의 장치로 구성되며, 인코더(120) 및 타임 동기 모듈(140)을 포함하는 스트리밍 소스 장치(M20_1~M20_n)를 포함하도록 실시될 수 있다.As another example, the present invention can be applied to the streaming source apparatuses M20_1 to M20_n including the
상기한 두 실시예는 도 1과 스트리밍 소스 장치를 구성하는 것에 차이가 있을 뿐 각 요소들의 구성 및 동작은 동일하므로 이에 대한 중복 설명은 생략한다.The above-described two embodiments are different from the streaming source apparatus of FIG. 1 only in terms of the structure and operation of the elements, and a duplicate description thereof will be omitted.
또다른 일례로, 본 발명은 도 10과 같이 촬영 장치들(100_1~100_n)이 각각 별도의 장치로 구성되며, 인코더(120) 및 타임 동기 모듈(140)을 포함하는 하나의 스트리밍 소스 장치(M30)를 포함하도록 실시될 수 있다.As another example, the present invention can be applied to a single streaming source apparatus M30 (100) including the
이 경우, 타임 동기 모듈(140)은 타임 스탬프를 제공하고, 인코더(120)는 촬영 장치들(100_1~100_n)과 타임 동기 모듈(140)로부터 각각 촬영 데이터들과 타임 스탬프를 수신하고, 각각의 상기 촬영 데이터에 대응하는 타임 보정 값을 이용하여 타임 스탬프를 보정한 보정 타임 스탬프를 촬영 데이터의 스트리밍을 위한 데이터 단위 별로 인코딩하고, 보정 타임 스탬프가 각각 인코딩된 상기 데이터 단위들을 포함하는 촬영 데이터들을 스트리밍 서버(200)에 라이브 스트리밍한다.In this case, the
상술한 설명과 같이 본 발명의 실시예는 촬영 영상 간 라이브 스트리밍에 따른 지연 차를 해소하기 위하여 타임스탬프를 이용하여 촬영 데이터 및 촬영 영상들을 동기화하며, 동기화된 촬영 영상의 중복을 제거한 출력 영상을 생성하고, 출력 영상의 출력 데이터를 라이브 스트리밍할 수 있다.As described above, the embodiment of the present invention synchronizes shot data and shot images using a time stamp in order to eliminate a delay difference due to live streaming between shot images, and generates an output image from which overlapping shot images are removed And output data of the output video can be live streamed.
상술한 바와 같이, 본 발명은 복수의 촬영 장치의 촬영 영상들을 라이브 스트리밍에 따른 지연 차를 해소하여 병합할 수 있으며, 360도로 촬영한 영상을 보여주는 서라운드 뷰(Surround View) 또는 넓은 폭의 영상을 보여주는 파노라마 뷰(Panoramic View) 같은 특수 영상으로 라이브 스트리밍할 수 있다.As described above, the present invention can solve the delay difference caused by live streaming of the photographed images of a plurality of photographing apparatuses and merge them together. It is also possible to provide a surround view for displaying images photographed at 360 degrees, Live streaming with special images such as Panoramic View.
그리고, 본 발명은 적은 데이터 양으로 촬영 데이터들을 비교함으로써 중복 영역을 제거한 후 360도로 촬영한 영상을 보여주는 서라운드 뷰(Surround View) 또는 넓은 폭의 영상을 보여주는 파노라마 뷰(Panoramic View) 같은 특수 영상을 고용량의 출력 영상으로 생성할 수 있고, 출력 영상을 라이브 스트리밍할 수 있다.In addition, the present invention is characterized in that a special image such as a surround view that shows an image photographed at 360 degrees or a panoramic view (panoramic view) that shows a wide-width image after removing redundant areas by comparing the photographed data with a small amount of data, And the output image can be streamed live.
Claims (17)
상기 촬영 장치들에 타임 스탬프를 제공하는 타임 동기 모듈들;
타임 보정 값을 이용하여 상기 타임 스탬프를 보정한 보정 타임 스탬프를 각각의 상기 촬영 데이터에 스트리밍을 위한 데이터 단위 별로 인코딩한 후 상기 촬영 데이터들을 라이브 스트리밍하는 인코더들;
유니버셜 타임을 기준으로 상기 촬영 데이터들의 상기 데이터 단위들의 상기 보정 타임 스템프들을 비교하여서 상기 촬영 데이터들의 상기 데이터 단위들을 동기화한 후 상기 촬영 데이터들을 라이브 스트리밍하는 스트리밍 서버; 및
상기 스트리밍 서버에서 라이브 스트리밍되는 상기 촬영 데이터들에 의한 상기 촬영 영상들 간의 중복을 제거한 후 상기 촬영 데이터들을 병합한 출력 영상을 클라이언트에 라이브 스트리밍하는 영상 처리기;를 포함함을 특징으로 하는 영상 라이브 스트리밍 시스템.A photographing device for transmitting photographing data of a photographed image in real time;
Time synchronization modules for providing time stamps to the photographing devices;
Encoders for encoding the correction time stamp, which is obtained by correcting the time stamp by using a time correction value, for each data unit for streaming to each shot data, and then live streaming the shot data;
A streaming server for comparing the correction timestamps of the data units of the photographing data based on a universal time to synchronize the data units of the photographing data and then live streaming the photographing data; And
And an image processor for performing live streaming of an output image obtained by merging the photographed data after removing the overlap between the photographed images by the photographed data that is live streamed in the streaming server. .
상기 스트리밍 서버는 상기 촬영 데이터들 별 상기 데이터 단위들의 수신 시간들과 상기 보정 타임 스탬프들의 시간 차에 대응하는 상기 타임 보정 값들을 생성하고 상기 타임 보정 값들을 해당하는 상기 인코더들로 제공하는 영상 라이브 스트리밍 시스템.The method according to claim 1,
Wherein the streaming server generates the time correction values corresponding to the time difference between the reception times of the data units and the correction timestamps for each shot data and provides the time correction values to the corresponding encoders, system.
하나의 상기 촬영 장치, 하나의 상기 타임 동기 모듈 및 하나의 상기 인코더가 하나의 스트리밍 소스 장치로 구성되며, 복수 개의 상기 스트리밍 소스 장치가 통신망을 통하여 상기 스트리밍 서버에 상기 촬영 데이터들을 라이브 스트리밍 하는 영상 라이브 스트리밍 시스템.The method according to claim 1,
A plurality of the streaming source apparatuses are connected to the streaming server through a communication network, and the video live Streaming system.
하나의 상기 타임 동기 모듈 및 하나의 상기 인코더가 하나의 스트리밍 소스 장치로 구성되며, 복수 개의 상기 스트리밍 소스 장치가 통신망을 통하여 상기 스트리밍 서버에 상기 촬영 데이터들을 라이브 스트리밍 하는 영상 라이브 스트리밍 시스템.The method according to claim 1,
One of the time synchronization modules and one of the encoders is configured as one streaming source device and a plurality of the streaming source devices live stream the shot data to the streaming server through a communication network.
상기 인코더는 상기 촬영 데이터의 수신 전 상기 제1 타임 스탬프 전송하여 상기 제1 타임 스탬프에 대응한 상기 타임 보정 값을 수신하고, 상기 촬영 데이터의 상기 데이터 단위들이 수신되면 상기 타임 보정 값을 이용하여 상기 제2 타임 스탬프를 보정한 상기 보정 타임 스탬프들을 이용하여 상기 데이터 단위들을 인코딩하는 영상 라이브 스트리밍 시스템.6. The method of claim 5,
Wherein the encoder receives the time correction value corresponding to the first time stamp by transmitting the first time stamp before reception of the photographing data, and when the data units of the photographing data are received, Wherein the data units are encoded using the correction timestamps corrected for the second timestamp.
상기 인코더들은 각 촬영 데이터들에 대하여 상기 타임 보정 값을 이용한 상기 타임 스탬프의 보정을 수 회 수행하고, 그 후 고정된 상기 보정 타임 스탬프를 이용하여 인코딩하는 영상 라이브 스트리밍 시스템.The method according to claim 1,
Wherein the encoders perform the correction of the time stamp using the time correction value for each shot data several times and then encode the time stamp using the fixed correction time stamp.
상기 영상 처리기는 상기 촬영 데이터들에 의한 상기 촬영 영상들을 한 쌍씩 순차적으로 비교하고, 한 쌍을 이루는 제1 촬영 영상과 제2 촬영 영상에 각각 존재하는 중복 영역들 중 제2 촬영 영상의 상기 중복 영역의 영상 위치를 표시하는 벡터 값을 생성하여 저장하며, 저장된 상기 벡터 값을 이용하여 상기 제2 촬영 영상의 상기 중복 영역을 제거하는 영상 라이브 스트리밍 시스템.The method according to claim 1,
Wherein the image processor sequentially compares the photographed images by the photographed data in pairs and outputs the photographed images to the overlapping region of the second photographed image among overlapping regions existing respectively in the first photographed image and the second photographed image, And stores the vector value in the storage unit, and removes the overlapping area of the second captured image using the stored vector value.
상기 영상 처리기는 상기 제1 촬영 영상과 상기 제2 촬영 영상을 다운 스케일하여 데이터의 양을 줄이고, 다운 스케일된 상기 제1 촬영 영상과 상기 제2 촬영 영상을 비교하여 상기 제2 촬영 영상의 상기 중복 영역의 상기 영상 위치를 표시하는 상기 벡터 값을 생성하는 영상 라이브 스트리밍 시스템.10. The method of claim 9,
Wherein the image processor down-scales the first and second images to reduce the amount of data, compares the down-scaled first and second images with each other, And generates the vector value indicating the image position of the region.
상기 영상 처리기는 상기 촬영 영상을 제거할 위치에 대한 정보와 제거할 방향에 대한 정보를 포함하도록 상기 벡터 값을 생성하는 영상 라이브 스트리밍 시스템.10. The method of claim 9,
Wherein the image processor generates the vector value so as to include information on a position to remove the photographed image and information on a direction to be removed.
상기 영상 처리기는 상기 벡터 값을 다운 스케일 이전의 상기 제2 촬영 영상에 대응하도록 변환하여 저장하는 영상 라이브 스트리밍 시스템.10. The method of claim 9,
Wherein the image processor converts the vector value to correspond to the second captured image before the downscale and stores the converted vector value.
상기 영상 처리기는 상기 촬영 영상들을 병합하여 서라운드 뷰나 파노라마 뷰를 위한 상기 출력 영상을 생성하는 영상 라이브 스트리밍 시스템. The method according to claim 1,
Wherein the image processor merges the photographed images to generate the output image for a surround view or a panoramic view.
상기 인코더의 상기 촬영 데이터들의 수신 및 상기 인코더와 상기 스트리밍 서버 간 상기 촬영 데이터들의 전송 및 수신은 제1 통신 프로토콜에 따라 수행되고,
상기 스트리밍 서버와 상기 영상 처리기 간의 상기 촬영 데이터들의 전송 및 수신과 상기 영상 처리기와 상기 클라이언트 간의 상기 출력 영상의 전송 및 수신은 제2 통신 프로토콜에 따라 수행되며,
상기 제1 통신 프로토콜과 상기 제2 통신 프로토콜은 라이브 스트리밍을 지원하는 것을 이용하는 영상 라이브 스트리밍 시스템.The method according to claim 1,
The reception of the photographing data of the encoder and the transmission and reception of the photographing data between the encoder and the streaming server are performed in accordance with a first communication protocol,
Wherein transmission and reception of the photographing data between the streaming server and the image processor and transmission and reception of the output image between the image processor and the client are performed according to a second communication protocol,
Wherein the first communication protocol and the second communication protocol support live streaming.
상기 제1 및 제2 통신 프로토콜은 대시(DASH : Dynamic Adaptive Streaming over HTTP), 엠피이지2-티에스(MPEG2-TS : MPEG2 Transport System), 에이치엘에스(HLS : HTTP Live Streaming), 알티피(RTP : Real Time Transport Protocol), 알티엠피(RTMP : Real Time Messaging Protocol), 알티에스피(RTSP : Real Time Streaming Protocol), 알티시피(RTCP : Real Time Control Protocol), 및 엠엠티(MMT : MPEG Media Transport) 중 어느 하나의 서로 다른 것으로 정의되는 영상 라이브 스트리밍 시스템.15. The method of claim 14,
The first and second communication protocols may be dynamic adaptive streaming over HTTP (DASH), MPEG2 transport system (MPEG2-TS), HTTP live streaming (HLS) Real Time Transport Protocol (RTMP), Real Time Messaging Protocol (RTMP), Real Time Streaming Protocol (RTSP), Real Time Control Protocol (RTCP), and MMT A video live streaming system defined as any one of different.
타임 동기 모듈 및 인코더를 포함하며, 상기 타임 동기 모듈은 타임 스탬프를 제공하고, 상기 인코더는 상기 촬영 장치들과 상기 타임 동기 모듈로부터 각각 상기 촬영 데이터들과 상기 타임 스탬프를 수신하고, 각각의 상기 촬영 데이터에 대응하는 타임 보정 값을 이용하여 상기 타임 스탬프를 보정한 보정 타임 스탬프를 상기 촬영 데이터의 스트리밍을 위한 데이터 단위 별로 인코딩한 후 상기 촬영 데이터들을 라이브 스트리밍하는 스트리밍 소스 장치;
유니버셜 타임을 기준으로 상기 촬영 데이터들의 상기 데이터 단위들의 상기 보정 타임 스템프들을 비교하여서 상기 촬영 데이터들의 상기 데이터 단위들을 동기화한 후 상기 촬영 데이터들을 라이브 스트리밍하는 스트리밍 서버; 및
상기 스트리밍 서버에서 라이브 스트리밍되는 상기 촬영 데이터들에 의한 상기 촬영 영상들 간의 중복을 제거한 후 상기 촬영 데이터들을 병합한 출력 영상을 클라이언트에 라이브 스트리밍하는 영상 처리기;를 포함함을 특징으로 하는 영상 라이브 스트리밍 시스템.A photographing device for transmitting photographing data of a photographed image in real time;
A time synchronization module and an encoder, wherein the time synchronization module provides a time stamp, and the encoder receives the imaging data and the time stamp from the imaging devices and the time synchronization module, respectively, A streaming source device for encoding the correction time stamp, which is obtained by correcting the time stamp using a time correction value corresponding to the data, for each data unit for streaming the shooting data, and then live streaming the shooting data;
A streaming server for comparing the correction timestamps of the data units of the photographing data based on a universal time to synchronize the data units of the photographing data and then live streaming the photographing data; And
And an image processor for performing live streaming of an output image obtained by merging the photographed data after removing the overlap between the photographed images by the photographed data that is live streamed in the streaming server. .
상기 스트리밍 서버는 상기 촬영 데이터들 별 상기 데이터 단위들의 수신 시간들과 상기 보정 타임 스탬프들의 시간 차에 대응하는 상기 타임 보정 값들을 생성하고 상기 타임 보정 값들을 해당하는 상기 인코더들로 제공하는 영상 라이브 스트리밍 시스템.17. The method of claim 16,
Wherein the streaming server generates the time correction values corresponding to the time difference between the reception times of the data units and the correction timestamps for each shot data and provides the time correction values to the corresponding encoders, system.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20160116452 | 2016-09-09 | ||
KR1020160116452 | 2016-09-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101821145B1 true KR101821145B1 (en) | 2018-01-23 |
Family
ID=61071138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170059742A KR101821145B1 (en) | 2016-09-09 | 2017-05-15 | Video live streaming system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101821145B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019164361A1 (en) * | 2018-02-23 | 2019-08-29 | 스타십벤딩머신 주식회사 | Streaming device and streaming method |
WO2019172698A1 (en) * | 2018-03-09 | 2019-09-12 | 삼성전자(주) | Electronic device and control method therefor |
KR102340490B1 (en) * | 2021-05-28 | 2021-12-17 | 주식회사 쿠오핀 | Platform system and method of transmitting real time video for an ultra low latency |
KR102340510B1 (en) * | 2021-05-28 | 2021-12-17 | 주식회사 쿠오핀 | Video encoding apparatus and method for an ultra low latency |
WO2022124679A1 (en) * | 2020-12-07 | 2022-06-16 | 삼성전자 주식회사 | Device and method for detecting duplicate video |
US11425430B2 (en) | 2018-02-23 | 2022-08-23 | Samsung Electronics Co., Ltd. | Electronic device for sharing real-time content data |
KR20230058919A (en) * | 2021-10-25 | 2023-05-03 | 주식회사 픽스트리 | Method And System for Synchronizing Video for Multi-View Service |
-
2017
- 2017-05-15 KR KR1020170059742A patent/KR101821145B1/en active IP Right Grant
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019164361A1 (en) * | 2018-02-23 | 2019-08-29 | 스타십벤딩머신 주식회사 | Streaming device and streaming method |
US11425430B2 (en) | 2018-02-23 | 2022-08-23 | Samsung Electronics Co., Ltd. | Electronic device for sharing real-time content data |
WO2019172698A1 (en) * | 2018-03-09 | 2019-09-12 | 삼성전자(주) | Electronic device and control method therefor |
US11134313B2 (en) | 2018-03-09 | 2021-09-28 | Samsung Electronics Co., Ltd. | Electronic apparatus and method of controlling the same |
WO2022124679A1 (en) * | 2020-12-07 | 2022-06-16 | 삼성전자 주식회사 | Device and method for detecting duplicate video |
KR102340490B1 (en) * | 2021-05-28 | 2021-12-17 | 주식회사 쿠오핀 | Platform system and method of transmitting real time video for an ultra low latency |
KR102340510B1 (en) * | 2021-05-28 | 2021-12-17 | 주식회사 쿠오핀 | Video encoding apparatus and method for an ultra low latency |
WO2022250352A1 (en) * | 2021-05-28 | 2022-12-01 | 주식회사 쿠오핀 | Ultra-low latency image encoding device and method |
WO2022250351A1 (en) * | 2021-05-28 | 2022-12-01 | 주식회사 쿠오핀 | Platform system and method for transmitting ultra-low latency real-time video |
KR20230058919A (en) * | 2021-10-25 | 2023-05-03 | 주식회사 픽스트리 | Method And System for Synchronizing Video for Multi-View Service |
KR102555481B1 (en) | 2021-10-25 | 2023-07-13 | 주식회사 픽스트리 | Method And System for Synchronizing Video for Multi-View Service |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101821145B1 (en) | Video live streaming system | |
US11729465B2 (en) | System and method providing object-oriented zoom in multimedia messaging | |
US20180199082A1 (en) | Providing low and high quality streams | |
EP3391639B1 (en) | Generating output video from video streams | |
EP2234406A1 (en) | A three dimensional video communication terminal, system and method | |
US11895352B2 (en) | System and method for operating a transmission network | |
KR20150072231A (en) | Apparatus and method for providing muti angle view service | |
US20230319371A1 (en) | Distribution of Multiple Signals of Video Content Independently over a Network | |
US20180376181A1 (en) | Networked video communication applicable to gigabit ethernet | |
CN113906734A (en) | Synchronization control device, synchronization control method, and synchronization control program | |
WO2017079735A1 (en) | Method and device for capturing synchronized video and sound across multiple mobile devices | |
JP6821398B2 (en) | Image processing equipment, image processing methods and programs | |
KR101917224B1 (en) | Apparatus for transmitting image data | |
JP2019083405A (en) | Decoding device, transmission device, decoding method, control method for transmission device, and program | |
KR20090131891A (en) | System and method for providing video stream of multiple personal roi | |
KR102225111B1 (en) | How to Encode and Process Raw UHD Video Through Existing HD Video Architectures | |
JP6740002B2 (en) | Control device, control method and program | |
JP2015046708A (en) | Communication system, communication method, transmission-side synchronous signal distribution device, transmission-side synchronous control device, reception-side synchronous signal distribution device, reception-side synchronous control device and program | |
US10264241B2 (en) | Complimentary video content | |
JP5367771B2 (en) | Video transmission system | |
JP5289376B2 (en) | Video signal transmission device | |
US9288648B2 (en) | Transport stream packet generation device and method of generating transport stream packet thereof | |
CN115150563A (en) | Video production method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |