WO2022050625A1 - 다중 라이브 송출 환경에서의 채널 간 심리스 전환 모드를 구현하는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체 - Google Patents

다중 라이브 송출 환경에서의 채널 간 심리스 전환 모드를 구현하는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체 Download PDF

Info

Publication number
WO2022050625A1
WO2022050625A1 PCT/KR2021/011317 KR2021011317W WO2022050625A1 WO 2022050625 A1 WO2022050625 A1 WO 2022050625A1 KR 2021011317 W KR2021011317 W KR 2021011317W WO 2022050625 A1 WO2022050625 A1 WO 2022050625A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
channel
view
sprites
video
Prior art date
Application number
PCT/KR2021/011317
Other languages
English (en)
French (fr)
Inventor
장준기
김성호
노혜성
정윤호
김진훈
정영진
김정기
강인철
이종혁
안재철
조성택
Original Assignee
네이버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사 filed Critical 네이버 주식회사
Priority to JP2021571022A priority Critical patent/JP7312858B2/ja
Priority to EP21820447.7A priority patent/EP3985987A4/en
Priority to US17/645,374 priority patent/US20220116677A1/en
Publication of WO2022050625A1 publication Critical patent/WO2022050625A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving MPEG packets from an IP network
    • H04N21/4383Accessing a communication channel
    • H04N21/4384Accessing a communication channel involving operations to reduce the access time, e.g. fast-tuning for reducing channel switching latency
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4821End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4858End-user interface for client configuration for modifying screen layout parameters, e.g. fonts, size of the windows

Abstract

다중 라이브 송출 환경에서의 채널 간 심리스 전환 모드를 구현하는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체가 개시된다. 라이브 송출 환경에서의 멀티 채널의 영상이 하나로 합성된 합성 영상을 하나의 스트림으로 수신하고, 상기 합성 영상을 이용하여 상기 멀티 채널의 영상으로 이루어진 뷰 모드를 구성하고, 상기 합성 영상을 이용하여 상기 뷰 모드 간의 레이아웃을 변경할 수 있다.

Description

다중 라이브 송출 환경에서의 채널 간 심리스 전환 모드를 구현하는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체
아래의 설명은 다중 라이브 송출 환경에서의 채널 간 전환을 위한 기술에 관한 것이다.
초고속 통신망 이용자의 급격한 증가는 통신망을 통한 신규 서비스의 개발 및 서비스 아이템의 다양화를 가능하게 한다. 이러한 통신망을 이용한 서비스 중 가장 일반적인 서비스가 동영상 서비스라 할 수 있다.
예컨대, 한국등록특허 제10-0827198호(등록일 2008년 04월 25일) "동영상 링크 서비스를 제공하는 장치 및 그 방법"에는 이동통신 단말기를 이용하여 이동 중에 인터넷 상에서 링크된 동영상을 감상할 수 있는 동영상 링크 서비스를 제공하는 기술이 개시되어 있다.
클라이언트-서버 방식의 동영상 서비스 시스템은 인코더 서버로부터의 실시간 동영상 스트리밍을 클라이언트로 전달하는 구조로, 라이브 송출 환경에서는 카메라 등으로부터 입력된 영상을 인코딩하여 오디오 데이터와 함께 실시간으로 클라이언트까지 전달하는 방식이 사용되고 있다.
라이브 송출을 위한 동영상 스트리밍 데이터가 멀티 채널로 들어오는 경우 멀티 채널로 들어오는 다수의 동영상을 실시간으로 인코딩하고 전송하는 방식을 통해 다수의 클라이언트를 대상으로 라이브 동영상 서비스를 제공하기에는 많은 어려움과 한계가 있다.
멀티 채널의 라이브 동영상을 제공하는 다중 라이브 송출 환경에서 최소한의 네트워크를 사용하여 멀티 채널의 동영상을 포함하는 멀티뷰(multi-view)를 구성할 수 있는 방법 및 시스템을 제공한다.
다중 라이브 송출 환경에서의 채널 간 전환 시 오디오 및 비디오의 동기를 유지하면서 끊김 없는(seamless) 전환 모드를 구현할 수 있는 방법 및 시스템을 제공한다.
컴퓨터 장치에서 실행되는 라이브 동영상 재생 방법에 있어서, 상기 컴퓨터 장치는 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 라이브 동영상 재생 방법은, 상기 적어도 하나의 프로세서에 의해, 라이브 송출 환경에서의 멀티 채널의 영상이 하나로 합성된 합성 영상을 하나의 스트림으로 수신하는 단계; 상기 적어도 하나의 프로세서에 의해, 상기 합성 영상을 이용하여 상기 멀티 채널의 영상으로 이루어진 뷰 모드를 구성하는 단계; 및 상기 적어도 하나의 프로세서에 의해, 상기 합성 영상을 이용하여 상기 뷰 모드 간의 레이아웃을 변경하는 단계를 포함하는 라이브 동영상 재생 방법을 제공한다.
일 측면에 따르면, 상기 구성하는 단계는, 상기 합성 영상으로부터 각 채널 별로 구성된 영상(composition image)을 분리함으로써 채널 별 스프라이트(sprite)를 획득하는 단계; 및 상기 채널 별 스프라이트를 레이아웃에 따라 렌더링하여 멀티뷰(multi-view)를 구성하는 단계를 포함한다.
다른 측면에 따르면, 상기 합성 영상은 한 채널의 영상이 나머지 다른 채널의 영상보다 해상도가 높은 메인 영상으로 구성되고 상기 다른 채널의 영상이 서브 영상으로 구성될 수 있다.
또 다른 측면에 따르면, 상기 구성하는 단계는, 제1 채널의 영상이 나머지 다른 채널의 영상보다 해상도가 높은 제1 합성 영상에 대해, 상기 제1 합성 영상에서 분리된 채널 별 스프라이트를 상기 제1 채널의 영상이 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링하는 단계를 포함하고, 상기 변경하는 단계는, 상기 멀티뷰에서 특정 채널의 영상이 선택되면, 상기 제1 합성 영상에서 분리된 채널 별 스프라이트를 상기 특정 채널의 영상이 상기 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링한 이후, 상기 특정 채널의 영상이 나머지 다른 채널의 영상보다 해상도가 높은 제2 합성 영상을 수신하여 상기 제2 합성 영상에서 분리된 채널 별 스프라이트를 상기 특정 채널의 영상이 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 구성하는 단계는, 제1 채널의 영상이 나머지 다른 채널의 영상보다 해상도가 높은 제1 합성 영상에 대해, 상기 제1 합성 영상에서 분리된 채널 별 스프라이트를 상기 제1 채널의 영상이 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링하는 단계를 포함하고, 상기 변경하는 단계는, 상기 멀티뷰에서 특정 채널의 영상이 선택되면, 상기 제1 합성 영상에서 분리된 채널 별 스프라이트 중 상기 특정 채널의 스프라이트를 전체 화면으로 렌더링한 이후, 상기 특정 채널의 영상이 나머지 다른 채널의 영상보다 해상도가 높은 제2 합성 영상을 수신하여 상기 제2 합성 영상에서 분리된 채널 별 스프라이트 중 상기 특정 채널의 스프라이트를 전체 화면으로 렌더링하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 변경하는 단계는, 상기 특정 채널의 스프라이트가 전체 화면으로 렌더링된 풀뷰(full-view)에 대한 사용자 요청에 따라, 상기 제2 합성 영상에서 분리된 채널 별 스프라이트를 상기 제1 채널의 영상이 상기 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링한 이후, 상기 제1 합성 영상을 다시 수신하여 상기 제1 합성 영상에서 분리된 채널 별 스프라이트를 상기 제1 채널의 영상이 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링하는 단계를 더 포함할 수 있다.
또 다른 측면에 따르면, 상기 특정 채널의 스프라이트가 전체 화면으로 렌더링된 풀뷰에서는 나머지 다른 채널의 스프라이트가 렌더링되지 않고 히든(hidden) 상태로 포함될 수 있다.
또 다른 측면에 따르면, 상기 변경하는 단계는, 상기 뷰 모드 간의 영상 전환을 위해, 플레이어 버퍼에서 이전 데이터에 해당되는 영상 스트림을 플러시(flush)하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 변경하는 단계는, 영상 스트림의 컨테이너에 포함된 시간지정 메타데이터(timed-metadata)를 이용하여 상기 뷰 모드 간의 영상 전환 시점을 판단하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 변경하는 단계는, 상기 뷰 모드에서 각 채널의 영상 간의 표시 위치를 변경하거나 특정 채널의 영상에 대한 풀뷰로의 전환을 요청하기 위한 인터페이스를 제공하는 단계를 포함할 수 있다.
상기 라이브 동영상 재생 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록 매체를 제공한다.
컴퓨터 장치에 있어서, 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 라이브 송출 환경에서의 멀티 채널의 영상이 하나로 합성된 합성 영상을 하나의 스트림으로 수신하고, 상기 합성 영상을 이용하여 상기 멀티 채널의 영상으로 이루어진 뷰 모드를 구성하고, 상기 합성 영상을 이용하여 상기 뷰 모드 간의 레이아웃을 변경하는 것을 특징으로 하는 컴퓨터 장치를 제공한다.
본 발명의 실시예들에 따르면, 다중 라이브 송출 환경에서 멀티 채널의 라이브 동영상을 합성한 하나의 스트림을 받아 멀티뷰를 구성함으로써 최소한의 네트워크를 사용하여 멀티 채널의 라이브 동영상을 재생할 수 있다.
본 발명의 실시예들에 따르면, 다중 라이브 송출 환경에서의 채널 간 전환 시 오디오 및 비디오의 동기를 유지하면서 심리스 전환 모드를 구현할 수 있어 서비스 품질(QoS)과 체감 품질(QoE)을 향상시킬 수 있다.
도 1은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다.
도 3은 본 발명의 일실시예에 있어서 라이브 동영상 서비스를 제공하는 과정의 예를 도시한 도면이다.
도 4는 본 발명의 일실시예에 있어서 다중 라이브 송출 환경의 예를 도시한 도면이다.
도 5는 본 발명의 일실시예에 있어서 멀티 채널의 비디오를 인코딩하는 과정의 예를 도시한 도면이다.
도 6은 본 발명의 일실시예에 따른 라이브 동영상 재생 방법의 예를 도시한 흐름도이다.
도 7은 본 발명의 일실시예에 있어서 하나의 스트림으로 멀티뷰를 구성하는 기본 과정의 예를 도시한 도면이다.
도 8은 본 발명의 일실시예에 있어서 플레이어 레이아웃을 변경하는 인터페이스의 예를 도시한 도면이다.
도 9 내지 도 10은 본 발명의 일실시예에 있어서 멀티뷰 간 레이아웃 전환 과정의 예를 도시한 도면이다.
도 11 내지 도 12는 본 발명의 일실시예에 있어서 멀티뷰에서 풀뷰로의 레이아웃 전환 과정의 예를 도시한 도면이다.
도 13 내지 도 14는 본 발명의 일실시예에 있어서 풀뷰에서 멀티뷰로의 레이아웃 전환 과정의 예를 도시한 도면이다.
도 15는 본 발명의 일실시예에 있어서 영상 전환 시점을 판단하는 과정의 예를 도시한 도면이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
본 발명의 실시예들에 따른 라이브 동영상 재생 시스템은 적어도 하나의 컴퓨터 장치에 의해 구현될 수 있으며, 본 발명의 실시예들에 따른 라이브 동영상 재생 방법은 라이브 동영상 재생 시스템에 포함되는 적어도 하나의 컴퓨터 장치를 통해 수행될 수 있다. 이때, 컴퓨터 장치에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 컴퓨터 장치는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 라이브 동영상 재생 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터 장치와 결합되어 라이브 동영상 재생 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.
도 1은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다. 도 1의 네트워크 환경은 복수의 전자 기기들(110, 120, 130, 140), 복수의 서버들(150, 160) 및 네트워크(170)를 포함하는 예를 나타내고 있다. 이러한 도 1은 발명의 설명을 위한 일례로 전자 기기의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다. 또한, 도 1의 네트워크 환경은 본 실시예들에 적용 가능한 환경들 중 하나의 예를 설명하는 것일 뿐, 본 실시예들에 적용 가능한 환경이 도 1의 네트워크 환경으로 한정되는 것은 아니다.
복수의 전자 기기들(110, 120, 130, 140)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 전자 기기들(110, 120, 130, 140)의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 도 1에서는 전자 기기(110)의 예로 스마트폰의 형상을 나타내고 있으나, 본 발명의 실시예들에서 전자 기기(110)는 실질적으로 무선 또는 유선 통신 방식을 이용하여 네트워크(170)를 통해 다른 전자 기기들(120, 130, 140) 및/또는 서버(150, 160)와 통신할 수 있는 다양한 물리적인 컴퓨터 장치들 중 하나를 의미할 수 있다.
통신 방식은 제한되지 않으며, 네트워크(170)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(170)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(170)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
서버(150, 160) 각각은 복수의 전자 기기들(110, 120, 130, 140)과 네트워크(170)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 예를 들어, 서버(150)는 네트워크(170)를 통해 접속한 복수의 전자 기기들(110, 120, 130, 140)로 서비스(일례로, 라이브 동영상 서비스, 컨텐츠 제공 서비스, 그룹 통화 서비스(또는 음성 컨퍼런스 서비스), 메시징 서비스, 메일 서비스, 소셜 네트워크 서비스, 지도 서비스, 번역 서비스, 금융 서비스, 결제 서비스, 검색 서비스 등)를 제공하는 시스템일 수 있다.
도 2는 본 발명의 일실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다. 앞서 설명한 복수의 전자 기기들(110, 120, 130, 140) 각각이나 서버들(150, 160) 각각은 도 2를 통해 도시된 컴퓨터 장치(200)에 의해 구현될 수 있다.
이러한 컴퓨터 장치(200)는 도 2에 도시된 바와 같이, 메모리(210), 프로세서(220), 통신 인터페이스(230) 그리고 입출력 인터페이스(240)를 포함할 수 있다. 메모리(210)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(210)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 장치(200)에 포함될 수도 있다. 또한, 메모리(210)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(210)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(210)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(230)를 통해 메모리(210)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(170)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 컴퓨터 장치(200)의 메모리(210)에 로딩될 수 있다.
프로세서(220)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(210) 또는 통신 인터페이스(230)에 의해 프로세서(220)로 제공될 수 있다. 예를 들어 프로세서(220)는 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 인터페이스(230)는 네트워크(170)를 통해 컴퓨터 장치(200)가 다른 장치(일례로, 앞서 설명한 저장 장치들)와 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 컴퓨터 장치(200)의 프로세서(220)가 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(230)의 제어에 따라 네트워크(170)를 통해 다른 장치들로 전달될 수 있다. 역으로, 다른 장치로부터의 신호나 명령, 데이터, 파일 등이 네트워크(170)를 거쳐 컴퓨터 장치(200)의 통신 인터페이스(230)를 통해 컴퓨터 장치(200)로 수신될 수 있다. 통신 인터페이스(230)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(220)나 메모리(210)로 전달될 수 있고, 파일 등은 컴퓨터 장치(200)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.
입출력 인터페이스(240)는 입출력 장치(250)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(240)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(250)는 컴퓨터 장치(200)와 하나의 장치로 구성될 수도 있다.
또한, 다른 실시예들에서 컴퓨터 장치(200)는 도 2의 구성요소들보다 더 적은 혹은 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 컴퓨터 장치(200)는 상술한 입출력 장치(250) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.
도 3은 본 발명의 일실시예에 있어서, 라이브 동영상 서비스를 제공하는 과정의 예를 도시한 도면이다. 도 3은 스트리밍 서버(310), 인코더 서버(320), 및 플레이어(330)를 각각 나타내고 있다. 여기서, 스트리밍 서버(310) 및 인코더 서버(320)는 라이브 동영상 서비스를 제공하기 위해 서버 장치에 설치 및 구동되는 소프트웨어 모듈일 수 있다. 또한, 플레이어(330)는 동영상 재생을 위해 사용자의 단말 장치에 설치 및 구동되는 소프트웨어 모듈들일 수 있다. 여기서, 소프트웨어 모듈은 컴퓨터 장치(200)에 설치 및 구동되는 컴퓨터 프로그램에 대응될 수 있다.
도 4를 참조하면, 스트리밍 서버(310)는 송출 역할을 하는 서버 장치로, 예를 들어 녹화 및 실시간 스트리밍을 위한 OBS(open broadcaster software) 모듈을 포함할 수 있다. 스트리밍 서버(310)는 복수 개의 카메라를 통해 동시에 촬영된 비디오를 각각의 채널로 입력받아 멀티 채널의 영상으로서 인코더 서버(320)로 실시간 스트리밍할 수 있다.
카메라와 상관없이 오디오 채널은 동일한 입력을 사용할 수 있다. 인코더 서버(320)는 복수 개의 채널 중 기본 채널에 해당되는 채널의 오디오를 기본 스트림으로 사용할 수 있다.
스트리밍 서버(310)는 비디오 채널 간 동기화 처리를 위해 OBS 모듈을 사용하여 멀티 채널의 영상을 실시간 송출할 수 있다. 이에, 인코더 서버(320)는 UTC(coordinated universal time) 시간과 비디오 타임스탬프(PTS, predetermined time standard)로 각 비디오 프레임의 절대 시간을 구하여 비디오 채널 간 동기화를 처리할 수 있다.
특히, 다중 라이브 송출 환경에서 플레이어(330)가 최소한의 네트워크를 사용하여 멀티뷰를 구성할 수 있도록 인코더 서버(320)는 멀티 채널의 비디오를 하나의 비디오로 합성한 적어도 하나의 합성 이미지를 제공할 수 있다.
예를 들어, 도 5를 참조하면 인코더 서버(320)는 6개의 카메라를 통해 촬영된 원본 영상(Cam#1~Cam#6)(501)을 이용하여 복수 개의 합성 영상(502)을 생성할 수 있다. 합성 영상(502)은 원본 영상(501)이 하나로 결합된 이미지로, 인코더 서버(320)는 사전에 정해진 레이아웃에 따라 원본 영상(501)을 결합하여 합성 영상(502)을 생성할 수 있다.
일례로, 인코더 서버(320)는 비디오 채널 수만큼의 합성 영상(502)을 생성할 수 있으며, 한 채널의 비디오를 메인 영상으로 구성하고 나머지 다른 채널의 비디오를 서브 영상으로 구성할 수 있다. 다시 말해, 인코더 서버(320)는 한 채널의 비디오(메인 영상)를 다른 채널의 비디오(서브 영상)보다 높은 해상도로 구성할 수 있다. 이때, 인코더 서버(320)는 한 채널을 제외한 나머지 채널의 비디오(서브 영상)를 모두 동일한 해상도로 구성하거나 각 채널의 우선순위를 고려하여 우선순위에 따라 높은 해상도로 구성할 수도 있다.
합성 영상(502)을 생성하는 방식이나 합성 영상(502)의 개수, 레이아웃 구조 등은 예시적인 것이며 얼마든지 변경 가능하다.
인코더 서버(320)는 다중 라이브 송출 환경으로서 멀티 채널로 들어오는 다수의 동영상을 모두 각각의 스트림으로 전송하는 것이 아니라, 합성 영상(502)을 이용하여 멀티 채널의 동영상을 하나의 스트림으로 전송할 수 있다.
이하 실시예에서는 합성 영상(502) 중 카메라1(Cam#1)에 해당되는 채널1의 비디오가 메인 영상인 합성 영상을 '채널#1 합성 영상'이라 칭하고, 마찬가지로 메인 영상으로 구성된 비디오의 각 채널에 따라 '채널#2 합성 영상', '채널#3 합성 영상' 등이라 칭하기로 한다.
합성 영상(502) 각각의 스트림에는 해당 영상을 구분할 수 있는 고유의 정보가 포함될 수 있다. 플레이어(330)는 각 스트림의 영상 고유 정보를 통해 채널#1 합성 영상이 재생되는 도중에 재생 영상이 채널#2 합성 영상으로 변경될 때 변경된 영상이 채널#2 합성 영상이라는 것을 인지할 수 있다.
도 6은 본 발명의 일실시예에 따른 라이브 동영상 재생 방법의 예를 도시한 흐름도이다. 본 실시예에 따른 라이브 동영상 재생 방법은 앞서 설명한 플레이어(330)를 구현하는 컴퓨터 장치(200)에 의해 수행될 수 있다. 만약, 플레이어(330)가 사용자의 단말 장치에 구현되는 경우, 컴퓨터 장치(200)는 사용자의 단말 장치에 대응될 수 있다. 이 경우, 컴퓨터 장치(200)의 프로세서(220)는 메모리(210)가 포함하는 운영체제의 코드나 적어도 하나의 프로그램의 코드에 따른 제어 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(220)는 컴퓨터 장치(200)에 저장된 코드가 제공하는 제어 명령에 따라 컴퓨터 장치(200)가 도 6의 방법이 포함하는 단계들(S610 내지 S640)을 수행하도록 컴퓨터 장치(200)를 제어할 수 있다.
단계(S610)에서 컴퓨터 장치(200)는 다중 라이브 송출 환경에서의 인코더 서버(320)로부터 멀티 채널로 입력되는 다수의 영상으로 구성된 하나의 합성 영상을 수신할 수 있다. 컴퓨터 장치(200)는 인코더 서버(320)로부터 하나의 스트림을 다운로드받는 것으로, 멀티 채널의 라이브 영상이 하나로 합성된 영상 스트림을 수신할 수 있다. 컴퓨터 장치(200)는 각 채널 별 합성 영상(채널#1 합성 영상, 채널#2 합성 영상 등)의 레이아웃 정보를 참조하여 플레이어(330)에서 정해진 레이아웃 정보와 대응되는 합성 영상을 선택적으로 수신할 수 있다. 예를 들어, 플레이어(330)에서 채널1의 비디오가 메인 영상으로 구성된 레이아웃을 요청하는 경우 인코더 서버(320)로부터 채널#1 합성 영상을 수신할 수 있다.
단계(S620)에서 컴퓨터 장치(200)는 하나의 스트림으로 수신된 합성 영상으로부터 각 채널 별로 구성된 영상(composition image)을 분리하여 채널 별 스프라이트(sprite)를 획득할 수 있다. 다시 말해, 컴퓨터 장치(200)는 후처리(post processing)를 통해 합성 영상을 분리하여 채널 별 스프라이트를 획득할 수 있다. 플랫폼에 따라 다양한 그래픽스 엔진(graphics engine), 예를 들어 오픈GL(open graphics library) 등을 사용하여 합성 영상을 분리할 수 있다.
단계(S630)에서 컴퓨터 장치(200)는 채널 별 스프라이트를 플레이어(330)의 레이아웃에 따라 렌더링할 수 있다. 다시 말해, 컴퓨터 장치(200)는 합성 영상에서 분리된 카메라 별 스프라이트를 원하는 레이아웃에 맞게 렌더링함으로써 하나의 스트림으로 수신된 멀티 채널의 라이브 영상을 재생할 수 있다.
단계(S640)에서 컴퓨터 장치(200)는 사용자로부터 레이아웃 전환 요청이 수신되는 경우 인코더 서버(320)에서 제공 가능한 합성 영상 중 레이아웃 전환 요청에 대응되는 합성 영상을 수신할 수 있다. 컴퓨터 장치(200)는 플레이어(330) 상에 현재 재생 중인 라이브 영상에 대하여 메인 영상 변경이나 전체 화면 모드(full screen mode)(이하, '풀뷰'라 칭함)로의 전환 등의 사용자 입력에 따라 레이아웃 전환이 필요한 경우 인코더 서버(320)로부터 수신되는 합성 영상을 전환하고자 하는 레이아웃의 합성 영상으로 변경할 수 있다.
컴퓨터 장치(200)는 인코더 서버(320)로부터 수신되는 합성 영상이 변경되어 상기한 과정(S620 내지 S630)을 반복함으로써 채널 간 전환, 즉 플레이어(330) 상에 재생되는 라이브 영상의 레이아웃을 전환할 수 있다.
도 7은 본 발명의 일실시예에 있어서 하나의 스트림으로 멀티뷰를 구성하는 기본 과정의 예시를 도시한 도면이다.
도 7은 플레이어(330)에서 채널#1 합성 영상을 이용하여 멀티뷰를 구성하는 과정을 나타내고 있다. 채널#1 합성 영상은 채널1의 비디오(Cam#1)가 다른 채널의 비디오(Cam#2~Cam#6)보다 높은 해상도를 가진 메인 영상으로 구성된 것이다.
도 7을 참조하면, 플레이어(330)는 채널#1 합성 영상 프레임을 수신하여 후처리를 통해 채널#1 합성 영상 프레임으로부터 채널 별 스프라이트를 획득한 후 분리된 채널 별 스프라이트를 정해진 레이아웃에 맞게 렌더링함으로써 멀티뷰를 구성할 수 있다.
따라서, 플레이어(330)는 다중 라이브 송출 환경에서 하나의 스트림만을 다운로드하여 멀티 채널의 라이브 영상으로 이루어진 멀티뷰를 구성할 수 있다.
도 8은 본 발명의 일실시예에 있어서 플레이어 레이아웃을 변경하는 인터페이스의 예시를 도시한 도면이다.
플레이어(330)에서는 멀티뷰에서 각 채널의 비디오(Cam#1~Cam#6) 간의 표시 위치를 변경하거나 특정 채널의 영상에 대한 풀뷰로의 전환을 요청하기 위한 인터페이스를 제공한다.
플레이어(330) 상에 멀티뷰 형태로 멀티 채널의 라이브 영상이 재생 중인 상황에서 사용자는 멀티뷰 내 비디오(Cam#1~Cam#6) 간의 표시 위치를 변경하거나 비디오(Cam#1~Cam#6) 중 하나를 풀뷰로 전환하기 위한 레이아웃 전환 요청을 입력할 수 있다.
예를 들어, 도 8에 도시한 바와 같이 채널#1 합성 영상을 이용한 멀티뷰 화면에서 드래그(80)를 통해 채널2의 비디오(Cam#2)를 현재 채널1의 비디오(Cam#1)가 재생 중인 메인 영상 위치로 이동시켜 채널1의 비디오(Cam#1)와 채널2의 비디오(Cam#2) 간의 표시 위치를 변경할 수 있다. 또는, 멀티뷰 내 비디오(Cam#1~Cam#6)에서 채널2의 비디오(Cam#2)를 선택하여 소정 메뉴나 다른 제스처를 통해 풀뷰로의 전환을 요청할 수 있다.
플레이어(330) 상의 풀뷰 모드에서 멀티뷰로의 전환을 요청하는 것 또한 가능하다.
도 9 내지 도 10은 본 발명의 일실시예에 있어서 멀티뷰 간 레이아웃 전환 과정의 예시를 도시한 도면이다.
도 9 내지 도 10은 채널#1 합성 영상을 이용한 멀티뷰에서 채널#2 합성 영상을 이용한 멀티뷰로 전환되는 과정을 나타내고 있다.
채널#1 합성 영상을 이용한 멀티뷰 화면에서 사용자가 채널2의 비디오(Cam#2)에 대해 메인 영상 위치로의 이동을 요청한 경우, 먼저 플레이어(330)는 끊김 없는 화면 전환을 위해서 도 9에 도시한 바와 같이 채널#1 합성 영상에서 분리된 채널 별 스프라이트를 해당 요청에 대응되는 레이아웃에 맞게 렌더링할 수 있다. 채널#1 합성 영상에서 분리된 채널1의 비디오(Cam#1)는 고화질의 영상으로 변경된 레이아웃에 맞게 축소되고, 채널#1 합성 영상에서 분리된 채널2의 비디오(Cam#2)는 저화질의 영상으로 저화질 상태에서 확대되어 메인 영상 위치에 표시될 수 있다.
다음으로, 도 10을 참조하면 플레이어(330)는 채널2의 비디오(Cam#2)에 대해 고화질 영상을 제공하기 위해 인코더 서버(320)로부터 채널2의 비디오(Cam#2)가 다른 채널의 비디오(Cam#1, Cam#3~Cam#6)보다 높은 해상도를 가진 메인 영상으로 구성된 채널#2 합성 영상을 수신할 수 있다. 플레이어(330)는 채널#2 합성 영상 프레임을 수신하여 후처리를 통해 채널 별 스프라이트로 획득한 후 분리된 채널 별 스프라이트를 해당 레이아웃에 맞게 렌더링함으로써 채널#2 합성 영상을 이용한 멀티뷰를 구성할 수 있다. 이때, 채널1의 비디오(Cam#1)와 채널2의 비디오(Cam#2)는 채널#2 합성 영상에서 분리된 스프라이트로, 채널1의 비디오(Cam#1)는 저화질의 영상으로 변경되고 채널2의 비디오(Cam#2)는 고화질의 영상으로 변경될 수 있다.
따라서, 플레이어(330)는 채널#1 합성 영상을 이용한 멀티뷰 화면에서 사용자가 채널2의 비디오(Cam#2)를 메인 영상 위치로 이동 요청하는 경우, 화면 끊김이 발생하지 않도록 우선적으로 채널#1 합성 영상에서 분리된 채널 별 스프라이트를 이용하여 레이아웃을 먼저 변경하고, 이후 채널#2 합성 영상을 수신하여 채널#2 합성 영상에서 분리된 채널 별 스프라이트를 해당 레이아웃에 맞게 렌더링함으로써 멀티뷰 간 레이아웃 전환을 수행할 수 있다.
도 11 내지 도 12는 본 발명의 일실시예에 있어서 멀티뷰에서 풀뷰로의 레이아웃 전환 과정의 예시를 도시한 도면이다.
도 11 내지 도 12는 채널#1 합성 영상을 이용한 멀티뷰에서 채널2의 비디오(Cam#2)의 풀뷰로 전환되는 과정을 나타내고 있다.
채널#1 합성 영상을 이용한 멀티뷰 화면에서 사용자가 채널2의 비디오(Cam#2)에 대해 풀뷰로의 전환을 요청한 경우, 먼저 플레이어(330)는 끊김 없는 화면 전환을 위해서 도 11에 도시한 바와 같이 채널#1 합성 영상에서 분리된 채널 별 스프라이트 중 채널2의 비디오(Cam#2)에 해당되는 스프라이트만을 전체 화면으로 렌더링할 수 있다. 채널#1 합성 영상에서 분리된 채널2의 비디오(Cam#2)는 저화질의 영상으로 저화질 상태에서 확대되어 풀뷰로 표시될 수 있다. 이때, 채널#1 합성 영상에서 분리된 나머지 채널의 비디오(Cam#1, Cam#3~Cam#6)는 렌더링되지 않고 히든(hidden) 상태로 유지된다.
다음으로, 도 12를 참조하면 플레이어(330)는 풀뷰로 표시된 채널2의 비디오(Cam#2)에 대해 고화질 영상을 제공하기 위해 인코더 서버(320)로부터 채널#2 합성 영상을 수신할 수 있다. 플레이어(330)는 채널#2 합성 영상 프레임을 수신하여 후처리를 통해 채널 별 스프라이트로 획득한 후 분리된 채널 별 스프라이트 중 채널2의 비디오(Cam#2)에 해당되는 스프라이트만을 전체 화면으로 렌더링할 수 있다. 채널#2 합성 영상에서 분리된 채널2의 비디오(Cam#2)는 고화질의 영상으로 고화질 상태에서 확대되어 풀뷰로 표시될 수 있다. 이때, 채널#2 합성 영상에서 분리된 나머지 채널의 비디오(Cam#1, Cam#3~Cam#6)는 렌더링되지 않고 히든 상태로 유지된다.
따라서, 플레이어(330)는 채널#1 합성 영상을 이용한 멀티뷰 화면에서 사용자가 채널2의 비디오(Cam#2)를 풀뷰로 전환 요청하는 경우, 화면 끊김이 발생하지 않도록 우선적으로 채널#1 합성 영상에서 분리된 스프라이트인 저해상도의 채널2의 비디오(Cam#2)를 풀뷰로 먼저 표시하고, 이후 채널#2 합성 영상을 수신하여 채널#2 합성 영상에서 분리된 스프라이트인 고해상도의 채널2의 비디오(Cam#2)를 풀뷰로 표시함으로써 멀티뷰에서 풀뷰로의 레이아웃 전환을 수행할 수 있다.
도 13 내지 도 14는 본 발명의 일실시예에 있어서 풀뷰에서 멀티뷰로의 레이아웃 전환 과정의 예시를 도시한 도면이다.
도 13 내지 도 14는 채널2의 비디오(Cam#2)의 풀뷰에서 채널#1 합성 영상을 이용한 멀티뷰로 전환되는 과정을 나타내고 있다.
채널#2 합성 영상을 이용한 채널2의 비디오(Cam#2)의 풀뷰 화면에서 기본 레이아웃의 멀티뷰, 예를 들어 채널#1 합성 영상을 이용한 멀티뷰로의 전환을 요청한 경우, 먼저 플레이어(330)는 끊김 없는 화면 전환을 위해서 도 13에 도시한 바와 같이 채널#2 합성 영상에서 분리된 채널 별 스프라이트를 해당 요청에 대응되는 레이아웃에 맞게 렌더링할 수 있다. 채널2의 비디오(Cam#2)가 풀뷰로 표시되더라도 나머지 채널의 비디오(Cam#1, Cam#3~Cam#6)가 히든 상태로 포함되어 있기 때문에 멀티뷰로의 즉시 전환이 가능하다. 현재 멀티뷰에서 채널1의 비디오(Cam#1)와 채널2의 비디오(Cam#2)는 채널#2 합성 영상에서 분리된 스프라이트에 해당된다. 채널2의 비디오(Cam#2)는 고화질의 영상으로 변경된 레이아웃에 맞게 축소되고, 채널1의 비디오(Cam#1)는 저화질의 영상으로 저화질 상태에서 확대되어 메인 영상 위치에 표시될 수 있다.
다음으로, 도 14를 참조하면 플레이어(330)는 채널1의 비디오(Cam#1)에 대해 고화질 영상을 제공하기 위해 인코더 서버(320)로부터 채널#1 합성 영상을 수신할 수 있다. 플레이어(330)는 채널#1 합성 영상 프레임을 수신하여 후처리를 통해 채널 별 스프라이트로 획득한 후 분리된 채널 별 스프라이트를 해당 레이아웃에 맞게 렌더링함으로써 채널#1 합성 영상을 이용한 멀티뷰를 구성할 수 있다. 이때, 채널1의 비디오(Cam#1)와 채널2의 비디오(Cam#2)는 채널#1 합성 영상에서 분리된 스프라이트로, 채널1의 비디오(Cam#1)는 고화질의 영상으로 변경되고 채널2의 비디오(Cam#2)는 저화질의 영상으로 변경될 수 있다.
따라서, 플레이어(330)는 채널#2 합성 영상을 이용한 채널2의 비디오(Cam#2)의 풀뷰 화면에서 사용자가 채널#1 합성 영상을 이용한 멀티뷰로의 전환을 요청하는 경우, 화면 끊김이 발생하지 않도록 우선적으로 채널#2 합성 영상에서 분리된 채널 별 스프라이트를 이용하여 레이아웃을 먼저 변경하고, 이후 채널#1 합성 영상을 수신하여 채널#1 합성 영상에서 분리된 채널 별 스프라이트를 해당 레이아웃에 맞게 렌더링함으로써 풀뷰에서 멀티뷰로의 레이아웃 전환을 수행할 수 있다.
멀티뷰 간의 레이아웃 전환 혹은 멀티뷰와 풀뷰 간의 레이아웃 전환을 위해서는 트랙 전환 기술을 이용하여 전환하고자 하는 레이아웃의 합성 영상을 수신할 수 있다.
오디오와 비디오가 인터리빙(interleaving)된 모드에서 사용되는 경우 플레이어(330)는 인코더 서버(320)로부터 수신되는 합성 영상이 변경되는 트랙 전환 시 오디오와 비디오가 인터리빙되어 있으나 오디오는 끊김 없이 재생되고 영상만 부드럽게 전환 가능하다.
플레이어(330)의 소스 수정이나 버퍼 컨트롤 등 커스터마이징(customizing)이 가능한 환경에서는 레이아웃 전환 딜레이를 최소화하기 위해 ULL(Ultra-Low-Latency) 기술과 플레이어(330)의 버퍼 내 데이터를 플러시(flush)하고 새로 받는 기술 중 적어도 하나를 적용할 수 있다. 예를 들어, 플레이어(330)는 채널#1 합성 영상을 이용한 뷰 모드를 채널#2 합성 영상을 이용한 뷰 모드로 전환할 때 보다 빠른 전환을 위해 뷰 모드 전환 요청이 수신되는 시점에 버퍼에서 이전 데이터(채널#1 합성 영상 스트림)을 비우고 새로운 데이터(채널#2 합성 영상 스트림)로 채우는 방식 등을 적용할 수 있다.
플레이어(330)를 커스터마이징할 수 없는 환경에서는 플레이어(330)의 요청을 멀티뷰 인터셉터(interceptor)에서 캐치하여 전환된 트랙의 세그먼트(TS 파일)로 재요청하여 구현할 수 있다. 멀티뷰 인터셉터는 프록시(proxy) 서버 역할을 하는 것으로, 플레이어(330)와 함께 동영상 재생을 위해 사용자의 단말 장치에 설치 및 구동되는 소프트웨어 모듈들일 수 있다. 채널#1 합성 영상을 이용한 멀티뷰에서 풀뷰로 전환할 때 플레이어(330)는 계속해서 멀티뷰를 요청하고 있으며, 이때 멀티뷰 인터셉터에서 플레이어(330)의 요청을 풀뷰로 변경하여 요청할 수 있다. 각 트랙의 TS 파일의 오디오는 전환 시 끊김 없는 사용자 경험을 제공하기 위해서 동일한 오디오로 인코딩할 수 있다.
일반적으로는 동일한 해상도의 스트림이 반복해서 출력될 때 해당 스트림이 어떤 형태의 스트림인지 구분할 수 없다. 멀티뷰 환경에서는 현재 출력되는 스트림이 어떤 형태로 구성되어 있는지 알아야 하고 그 정보를 바탕으로 해당 레이아웃으로 각 채널의 비디오들을 분리할 수 있다.
플레이어(330)는 영상 스트림에 포함된 고유 정보로서 영상 구분을 위한 메타 정보를 기초로 뷰 모드 간의 영상 전환 시점을 판단할 수 있다. 영상 구분을 위한 메타 정보는 시스템 환경에 따라 다양할 수 있으며, 일례로 TS 청크(Chunk)를 사용하는 환경에는 TS 컨테이너에 포함된 시간지정 메타데이터(timed-metadata)를 활용하여 영상 전환 시점을 판단할 수 있다. 시간지정 메타데이터는 PTS(predetermined time standard)의 시간 정보를 가지고 있고 해당 시간에 도달하면 메타데이터가 출력된다.
예를 들어, 도 15에 도시한 바와 같이 플레이어(330)는 버퍼(1502) 내 영상 스트림의 TS 청크에 포함된 메타데이터(15)로 해당 영상을 구분할 수 있고 이를 통해 영상 전환 시점을 판단할 수 있다. 다시 말해, 채널#1 합성 영상 스트림에서 채널#2 합성 영상 스트림으로 전환될 때 해당 시점에 시간지정 메타데이터 값을 넣어주면 시간지정 메타데이터 이후로 입력되는 스트림을 채널#2 합성 영상으로 인식하여 각 채널의 영상을 분리하여 사용할 수 있다.
클라이언트와 서버 간의 세션 연결을 통해 라이브 동영상 서비스를 제공하는 구조의 시스템에서는 서버 단에서 영상 전환 시점을 변경해줄 수 있으나 세션 베이스의 경우 서비스 제공이 가능한 사용자 수에 한계가 있다. 이와 달리, 본 실시예들은 시간지정 메타데이터를 활용하여 클라이언트 측에서 영상 전환 시점을 판단할 수 있고, 특히 세션 베이스가 아닌 HTTP 기반의 프로토콜을 통해 라이브 스트리밍 방식의 동영상 서비스를 제공할 수 있어 기존 시스템 환경에서도 적용 가능하며 보다 많은 사용자를 대상으로 안정된 서비스를 제공할 수 있다.
이처럼 본 발명의 실시예들에 따르면, 다중 라이브 송출 환경에서 멀티 채널의 라이브 동영상을 합성한 하나의 스트림을 받아 멀티뷰를 구성함으로써 최소한의 네트워크를 사용하여 멀티 채널의 라이브 동영상을 재생할 수 있다. 더욱이, 본 발명의 실시예들에 따르면, 다중 라이브 송출 환경에서의 채널 간 전환 시 오디오 및 비디오의 동기를 유지하면서 심리스 전환 모드를 구현할 수 있어 서비스 품질과 채감 품질을 향상시킬 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 컴퓨터 장치에서 실행되는 라이브 동영상 재생 방법에 있어서,
    상기 컴퓨터 장치는 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고,
    상기 라이브 동영상 재생 방법은,
    상기 적어도 하나의 프로세서에 의해, 라이브 송출 환경에서의 멀티 채널의 영상이 하나로 합성된 합성 영상을 하나의 스트림으로 수신하는 단계;
    상기 적어도 하나의 프로세서에 의해, 상기 합성 영상을 이용하여 상기 멀티 채널의 영상으로 이루어진 뷰 모드를 구성하는 단계; 및
    상기 적어도 하나의 프로세서에 의해, 상기 합성 영상을 이용하여 상기 뷰 모드 간의 레이아웃을 변경하는 단계
    를 포함하는 라이브 동영상 재생 방법.
  2. 제1항에 있어서,
    상기 구성하는 단계는,
    상기 합성 영상으로부터 각 채널 별로 구성된 영상(composition image)을 분리함으로써 채널 별 스프라이트(sprite)를 획득하는 단계; 및
    상기 채널 별 스프라이트를 레이아웃에 따라 렌더링하여 멀티뷰(multi-view)를 구성하는 단계
    를 포함하는 라이브 동영상 재생 방법.
  3. 제1항에 있어서,
    상기 합성 영상은 한 채널의 영상이 나머지 다른 채널의 영상보다 해상도가 높은 메인 영상으로 구성되고 상기 다른 채널의 영상이 서브 영상으로 구성되는 것
    을 특징으로 하는 라이브 동영상 재생 방법.
  4. 제1항에 있어서,
    상기 구성하는 단계는,
    제1 채널의 영상이 나머지 다른 채널의 영상보다 해상도가 높은 제1 합성 영상에 대해, 상기 제1 합성 영상에서 분리된 채널 별 스프라이트를 상기 제1 채널의 영상이 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링하는 단계
    를 포함하고,
    상기 변경하는 단계는,
    상기 멀티뷰에서 특정 채널의 영상이 선택되면, 상기 제1 합성 영상에서 분리된 채널 별 스프라이트를 상기 특정 채널의 영상이 상기 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링한 이후, 상기 특정 채널의 영상이 나머지 다른 채널의 영상보다 해상도가 높은 제2 합성 영상을 수신하여 상기 제2 합성 영상에서 분리된 채널 별 스프라이트를 상기 특정 채널의 영상이 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링하는 단계
    를 포함하는 라이브 동영상 재생 방법.
  5. 제1항에 있어서,
    상기 구성하는 단계는,
    제1 채널의 영상이 나머지 다른 채널의 영상보다 해상도가 높은 제1 합성 영상에 대해, 상기 제1 합성 영상에서 분리된 채널 별 스프라이트를 상기 제1 채널의 영상이 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링하는 단계
    를 포함하고,
    상기 변경하는 단계는,
    상기 멀티뷰에서 특정 채널의 영상이 선택되면, 상기 제1 합성 영상에서 분리된 채널 별 스프라이트 중 상기 특정 채널의 스프라이트를 전체 화면으로 렌더링한 이후, 상기 특정 채널의 영상이 나머지 다른 채널의 영상보다 해상도가 높은 제2 합성 영상을 수신하여 상기 제2 합성 영상에서 분리된 채널 별 스프라이트 중 상기 특정 채널의 스프라이트를 전체 화면으로 렌더링하는 단계
    를 포함하는 라이브 동영상 재생 방법.
  6. 제5항에 있어서,
    상기 변경하는 단계는,
    상기 특정 채널의 스프라이트가 전체 화면으로 렌더링된 풀뷰(full-view)에 대한 사용자 요청에 따라, 상기 제2 합성 영상에서 분리된 채널 별 스프라이트를 상기 제1 채널의 영상이 상기 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링한 이후, 상기 제1 합성 영상을 다시 수신하여 상기 제1 합성 영상에서 분리된 채널 별 스프라이트를 상기 제1 채널의 영상이 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링하는 단계
    를 더 포함하는 라이브 동영상 재생 방법.
  7. 제5항에 있어서,
    상기 특정 채널의 스프라이트가 전체 화면으로 렌더링된 풀뷰에서는 나머지 다른 채널의 스프라이트가 렌더링되지 않고 히든(hidden) 상태로 포함되는 것
    을 특징으로 하는 라이브 동영상 재생 방법.
  8. 제1항에 있어서,
    상기 변경하는 단계는,
    상기 뷰 모드 간의 영상 전환을 위해, 플레이어 버퍼에서 이전 데이터에 해당되는 영상 스트림을 플러시(flush)하는 단계
    를 포함하는 라이브 동영상 재생 방법.
  9. 제1항에 있어서,
    상기 변경하는 단계는,
    영상 스트림의 컨테이너에 포함된 시간지정 메타데이터(timed-metadata)를 이용하여 상기 뷰 모드 간의 영상 전환 시점을 판단하는 단계
    를 포함하는 라이브 동영상 재생 방법.
  10. 제1항에 있어서,
    상기 변경하는 단계는,
    상기 뷰 모드에서 각 채널의 영상 간의 표시 위치를 변경하거나 특정 채널의 영상에 대한 풀뷰로의 전환을 요청하기 위한 인터페이스를 제공하는 단계
    를 포함하는 라이브 동영상 재생 방법.
  11. 제1항의 라이브 동영상 재생 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록 매체.
  12. 컴퓨터 장치에 있어서,
    메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는,
    라이브 송출 환경에서의 멀티 채널의 영상이 하나로 합성된 합성 영상을 하나의 스트림으로 수신하고,
    상기 합성 영상을 이용하여 상기 멀티 채널의 영상으로 이루어진 뷰 모드를 구성하고,
    상기 합성 영상을 이용하여 상기 뷰 모드 간의 레이아웃을 변경하는 것
    을 특징으로 하는 컴퓨터 장치.
  13. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 합성 영상으로부터 각 채널 별로 구성된 영상을 분리함으로써 채널 별 스프라이트를 획득하고,
    상기 채널 별 스프라이트를 레이아웃에 따라 렌더링하여 멀티뷰를 구성하는 것
    을 특징으로 하는 컴퓨터 장치.
  14. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    제1 채널의 영상이 나머지 다른 채널의 영상보다 해상도가 높은 제1 합성 영상에 대해, 상기 제1 합성 영상에서 분리된 채널 별 스프라이트를 상기 제1 채널의 영상이 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링하고,
    상기 멀티뷰에서 특정 채널의 영상이 선택되면, 상기 제1 합성 영상에서 분리된 채널 별 스프라이트를 상기 특정 채널의 영상이 상기 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링한 이후, 상기 특정 채널의 영상이 나머지 다른 채널의 영상보다 해상도가 높은 제2 합성 영상을 수신하여 상기 제2 합성 영상에서 분리된 채널 별 스프라이트를 상기 특정 채널의 영상이 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링하는 것
    을 특징으로 하는 컴퓨터 장치.
  15. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    제1 채널의 영상이 나머지 다른 채널의 영상보다 해상도가 높은 제1 합성 영상에 대해, 상기 제1 합성 영상에서 분리된 채널 별 스프라이트를 상기 제1 채널의 영상이 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링하고,
    상기 멀티뷰에서 특정 채널의 영상이 선택되면, 상기 제1 합성 영상에서 분리된 채널 별 스프라이트 중 상기 특정 채널의 스프라이트를 전체 화면으로 렌더링한 이후, 상기 특정 채널의 영상이 나머지 다른 채널의 영상보다 해상도가 높은 제2 합성 영상을 수신하여 상기 제2 합성 영상에서 분리된 채널 별 스프라이트 중 상기 특정 채널의 스프라이트를 전체 화면으로 렌더링하는 것
    을 특징으로 하는 컴퓨터 장치.
  16. 제15항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 특정 채널의 스프라이트가 전체 화면으로 렌더링된 풀뷰에 대한 사용자 요청에 따라, 상기 제2 합성 영상에서 분리된 채널 별 스프라이트를 상기 제1 채널의 영상이 상기 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링한 이후, 상기 제1 합성 영상을 다시 수신하여 상기 제1 합성 영상에서 분리된 채널 별 스프라이트를 상기 제1 채널의 영상이 메인 영상으로 표시되는 멀티뷰의 레이아웃으로 렌더링하는 것
    을 특징으로 하는 컴퓨터 장치.
  17. 제15항에 있어서,
    상기 특정 채널의 스프라이트가 전체 화면으로 렌더링된 풀뷰에서는 나머지 다른 채널의 스프라이트가 렌더링되지 않고 히든 상태로 포함되는 것
    을 특징으로 하는 컴퓨터 장치.
  18. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 뷰 모드 간의 영상 전환을 위해, 플레이어 버퍼에서 이전 데이터에 해당되는 영상 스트림을 플러시하는 것
    을 특징으로 하는 컴퓨터 장치.
  19. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    영상 스트림의 컨테이너에 포함된 시간지정 메타데이터를 이용하여 상기 뷰 모드 간의 영상 전환 시점을 판단하는 것
    을 특징으로 하는 컴퓨터 장치.
  20. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 뷰 모드에서 각 채널의 영상 간의 표시 위치를 변경하거나 특정 채널의 영상에 대한 풀뷰로의 전환을 요청하기 위한 인터페이스를 제공하는 것
    을 특징으로 하는 컴퓨터 장치.
PCT/KR2021/011317 2020-09-04 2021-08-24 다중 라이브 송출 환경에서의 채널 간 심리스 전환 모드를 구현하는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체 WO2022050625A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021571022A JP7312858B2 (ja) 2020-09-04 2021-08-24 多重ライブ配信環境でチャンネルのシームレス切り替えモードを実現する方法、システム、およびコンピュータ読み取り可能な記録媒体
EP21820447.7A EP3985987A4 (en) 2020-09-04 2021-08-24 METHOD, SYSTEM AND COMPUTER-READABLE RECORDING MEDIA FOR IMPLEMENTING A SEAMLESS MODE OF SWITCHING BETWEEN CHANNEL IN A MULTIPLE LIVE BROADCAST ENVIRONMENT
US17/645,374 US20220116677A1 (en) 2020-09-04 2021-12-21 Method, system, and computer readable recording medium for implementing seamless switching mode between channels in multi-stream live transmission environment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200112885A KR102376348B1 (ko) 2020-09-04 2020-09-04 다중 라이브 송출 환경에서의 채널 간 심리스 전환 모드를 구현하는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체
KR10-2020-0112885 2020-09-04

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/645,374 Continuation US20220116677A1 (en) 2020-09-04 2021-12-21 Method, system, and computer readable recording medium for implementing seamless switching mode between channels in multi-stream live transmission environment

Publications (1)

Publication Number Publication Date
WO2022050625A1 true WO2022050625A1 (ko) 2022-03-10

Family

ID=80491137

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/011317 WO2022050625A1 (ko) 2020-09-04 2021-08-24 다중 라이브 송출 환경에서의 채널 간 심리스 전환 모드를 구현하는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체

Country Status (5)

Country Link
US (1) US20220116677A1 (ko)
EP (1) EP3985987A4 (ko)
JP (1) JP7312858B2 (ko)
KR (1) KR102376348B1 (ko)
WO (1) WO2022050625A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114915801B (zh) * 2022-05-12 2024-02-27 广州市迪声音响有限公司 多通道视频信号同步输出方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060120571A (ko) * 2003-07-31 2006-11-27 가부시키가이샤 쓰쿠바 리에존 겐큐쇼 라이브 스트리밍 방송 방법, 라이브 스트리밍 방송 장치,및 컴퓨터 프로그램
KR100827198B1 (ko) 2006-09-08 2008-05-02 주식회사 케이티프리텔 동영상 링크 서비스를 제공하는 장치 및 그 방법
KR20140055252A (ko) * 2012-10-31 2014-05-09 삼성에스디에스 주식회사 다자간 영상 통화 장치 및 이를 이용한 다자간 영상 출력 방법
KR20150008739A (ko) * 2013-07-15 2015-01-23 주식회사 케이티 개인화된 비디오 기반의 화면을 제공하는 서버 및 방법, 그리고 디바이스
KR20170084554A (ko) * 2016-01-12 2017-07-20 한국전자통신연구원 초고화질 영상 회의를 위한 장치 및 방법
KR20180005234A (ko) * 2015-05-12 2018-01-15 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 합성 가변 비디오 스트리밍

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018583A (ja) * 2001-07-05 2003-01-17 Sony Corp 多視点任意選択型映像視聴システム、ストリームデータ合成装置、及び、合成ストリームデータ配信サーバ
US9948882B2 (en) * 2005-08-11 2018-04-17 DISH Technologies L.L.C. Method and system for toasted video distribution
US7644425B2 (en) * 2006-03-22 2010-01-05 Alcatel Lucent Picture-in-picture mosaic
CN101355688A (zh) * 2007-07-26 2009-01-28 华为技术有限公司 用于iptv的频道选择方法、合成编码装置和机顶盒
US8869203B2 (en) * 2009-10-08 2014-10-21 Marshall Communications Multimedia content fusion
KR101586293B1 (ko) * 2009-11-11 2016-01-18 엘지전자 주식회사 영상표시장치 및 그 동작방법
EP2749021B1 (en) * 2011-07-29 2020-02-19 Cisco Technology, Inc. Method, computer- readable storage medium, and apparatus for modifying the layout used by a video composing unit to generate a composite video signal
US9582157B1 (en) * 2012-08-03 2017-02-28 I4VU1, Inc. User interface and program guide for a multi-program video viewing apparatus
US9462249B2 (en) * 2012-09-09 2016-10-04 Verint Systems Ltd. Systems, methods, and software for mobile video display and management
CA2913936A1 (en) * 2015-01-06 2016-07-06 Guest Tek Interactive Entertainment Ltd. Group live-view interactive program guide

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060120571A (ko) * 2003-07-31 2006-11-27 가부시키가이샤 쓰쿠바 리에존 겐큐쇼 라이브 스트리밍 방송 방법, 라이브 스트리밍 방송 장치,및 컴퓨터 프로그램
KR100827198B1 (ko) 2006-09-08 2008-05-02 주식회사 케이티프리텔 동영상 링크 서비스를 제공하는 장치 및 그 방법
KR20140055252A (ko) * 2012-10-31 2014-05-09 삼성에스디에스 주식회사 다자간 영상 통화 장치 및 이를 이용한 다자간 영상 출력 방법
KR20150008739A (ko) * 2013-07-15 2015-01-23 주식회사 케이티 개인화된 비디오 기반의 화면을 제공하는 서버 및 방법, 그리고 디바이스
KR20180005234A (ko) * 2015-05-12 2018-01-15 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 합성 가변 비디오 스트리밍
KR20170084554A (ko) * 2016-01-12 2017-07-20 한국전자통신연구원 초고화질 영상 회의를 위한 장치 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3985987A4

Also Published As

Publication number Publication date
EP3985987A1 (en) 2022-04-20
JP2022550496A (ja) 2022-12-02
KR20220031215A (ko) 2022-03-11
EP3985987A4 (en) 2023-06-07
US20220116677A1 (en) 2022-04-14
KR102376348B1 (ko) 2022-03-18
JP7312858B2 (ja) 2023-07-21

Similar Documents

Publication Publication Date Title
WO2013077524A1 (ko) 사용자 인터페이스 표시 방법 및 그를 이용한 장치
WO2013077525A1 (ko) 제어 방법 및 그를 이용한 장치
WO2015076537A1 (ko) 동영상 제공 방법 및 동영상 제공 시스템
WO2012047004A2 (ko) Http 스트리밍의 표현 스위칭시 자연스런 재생을 위한 스케일러블한 http 스트리밍 전송 방법
JP6280215B2 (ja) ビデオ会議端末、セカンダリストリームデータアクセス方法およびコンピュータ記憶媒体
CN110719516A (zh) 视频同步的方法及装置、终端和存储介质
WO2022050625A1 (ko) 다중 라이브 송출 환경에서의 채널 간 심리스 전환 모드를 구현하는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체
KR20230150878A (ko) 데이터 송신 방법 및 장치, 그리고 서버, 저장 매체, 및 프로그램 제품
WO2022055198A1 (ko) 다중 라이브 송출 환경에서의 채널 간 고속 전환 모드를 구현하는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체
WO2019189959A1 (ko) 라이브 방송 시 게스트 방송의 딜레이를 상쇄하는 방법과 시스템 및 비-일시적인 컴퓨터 판독가능한 기록 매체
CN111818383A (zh) 视频数据的生成方法、系统、装置、电子设备及存储介质
WO2021029671A1 (ko) 스트리밍 콘텐츠의 재생 방법 및 시스템
WO2011093629A2 (ko) 미디어 스트리밍을 이용한 리치미디어 서비스 방법 및 시스템
WO2022231267A1 (ko) 싱글 스트림을 이용하여 관심 영역 고화질 영상을 제공하는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램
CN108282670A (zh) 用于实时影像合成的代码转换器
WO2019050067A1 (ko) 비디오 품질 제어
WO2013154364A1 (ko) 스트리밍 재생 방법 및 이를 이용한 컴퓨팅 장치
CN111601180A (zh) 一种基于pts的分布式拼接大屏幕视频流集群同步显示系统
WO2019225788A1 (ko) 복수의 채널을 이용하여 동적 비트레이트의 비디오를 송출 및 재생하는 방법 및 시스템
WO2021045474A1 (ko) 로컬 스트리밍 서버를 이용한 스트리밍 콘텐츠의 재생 방법 및 시스템
WO2022086107A1 (ko) 콘텐츠 재생 방법 및 시스템
WO2020096119A1 (ko) 분할 영상 다중 채널 재생을 하는 전자장치 및 방법
Alexandraki et al. Towards the implementation of a generic platform for networked music performance: The DIAMOUSES approach
WO2009108004A2 (en) Content reproduction apparatus and method
WO2013089310A1 (ko) 콘텐츠 서비스를 위한 사용자 인터페이스를 제공하는 방법, 단말기 및 기록매체

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021571022

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2021820447

Country of ref document: EP

Effective date: 20211217

NENP Non-entry into the national phase

Ref country code: DE