KR101865627B1 - 멀티미디어 컨텐츠의 운영을 위한 원격 툴을 제공하는 방법 및 시스템 - Google Patents

멀티미디어 컨텐츠의 운영을 위한 원격 툴을 제공하는 방법 및 시스템 Download PDF

Info

Publication number
KR101865627B1
KR101865627B1 KR1020170007851A KR20170007851A KR101865627B1 KR 101865627 B1 KR101865627 B1 KR 101865627B1 KR 1020170007851 A KR1020170007851 A KR 1020170007851A KR 20170007851 A KR20170007851 A KR 20170007851A KR 101865627 B1 KR101865627 B1 KR 101865627B1
Authority
KR
South Korea
Prior art keywords
image
sub
video
encoding engine
main
Prior art date
Application number
KR1020170007851A
Other languages
English (en)
Inventor
박기영
류민수
윤병조
오재원
양승관
Original Assignee
네이버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사 filed Critical 네이버 주식회사
Priority to KR1020170007851A priority Critical patent/KR101865627B1/ko
Application granted granted Critical
Publication of KR101865627B1 publication Critical patent/KR101865627B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234309Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4 or from Quicktime to Realvideo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47214End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for content reservation or setting reminders; for requesting event notification, e.g. of sport results or stock market
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4821End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Marketing (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

멀티미디어 컨텐츠의 운영을 위한 원격 툴을 제공하는 방법 및 시스템이 개시된다. 컴퓨터로 구현되는 방법은, 메인 영상과 서브 영상의 실시간 트랜스코딩을 위한 인코딩 엔진에 대하여 네트워크를 통해 상기 인코딩 엔진과 통신하여 원격에서 상기 메인 영상에 실시간으로 상기 서브 영상을 삽입하기 위한 영상 운영 툴을 제공하는 단계를 포함한다.

Description

멀티미디어 컨텐츠의 운영을 위한 원격 툴을 제공하는 방법 및 시스템{METHOD AND SYSTEM FOR PROVIDING REMOTE OPERATION TOOL FOR MULTIMEDIA CONTENT}
아래의 설명은 메인 영상에 서브 영상을 삽입하는 기술에 관한 것이다.
초고속 통신망 이용자의 급격한 증가는 통신망을 통한 신규 서비스의 개발 및 서비스 아이템의 다양화를 가능하게 한다.
최근에는 이미지를 기반으로 한 다양한 서비스가 등장하고 있는 가운데, 통신망을 이용한 서비스 중 가장 일반적인 서비스가 동영상 제공 서비스라 할 수 있다.
예컨대, 한국공개특허공보 제10-2007-0089461호(공개일 2007년 08월 31일)에는 통신 네트워크를 이용하여 실시간 동영상 서비스를 제공하는 기술이 개시되어 있다.
메인 영상에 삽입하고자 하는 서브 영상을 원격으로 운영할 수 있는 영상 운영 툴을 제공한다.
메인 영상에 서브 영상을 삽입하기 위해 메인 영상과 서브 영상 간의 시간 동기화 문제를 해결할 수 있는 방법 및 시스템을 제공한다.
컴퓨터로 구현되는 방법에 있어서, 메인 영상과 서브 영상의 실시간 트랜스코딩을 위한 인코딩 엔진에 대하여 네트워크를 통해 상기 인코딩 엔진과 통신하여 원격에서 상기 메인 영상에 실시간으로 상기 서브 영상을 삽입하기 위한 영상 운영 툴을 제공하는 단계를 포함하는 방법을 제공한다.
일 측면에 따르면, 상기 영상 운영 툴을 이용한 원격 컨트롤을 위해 상기 인코딩 엔진에 일정 시간의 딜레이(delay)를 설정하는 단계를 더 포함할 수 있다.
다른 측면에 따르면, 상기 인코딩 엔진은 영상 운영과 관련된 원격 컨트롤을 위해 상기 메인 영상을 일정 시간 지연시키기 위한 버퍼를 포함할 수 있다.
또 다른 측면에 따르면, 상기 인코딩 엔진은 디코더(decoder)와 믹서(mixer) 및 인코더(encoder)를 포함하는 트랜스코더를 포함하되, 영상 운영과 관련된 원격 컨트롤을 위해 상기 디코더의 앞단에 상기 메인 영상을 일정 시간 지연시키기 위한 버퍼가 포함될 수 있다.
또 다른 측면에 따르면, 상기 영상 운영 툴은 상기 메인 영상을 재생하기 위한 메인 영상 플레이어와 상기 메인 영상에 삽입되는 상기 서브 영상을 재생하기 위한 서브 영상 플레이어를 포함할 수 있다.
또 다른 측면에 따르면, 상기 영상 운영 툴은 상기 서브 영상 플레이어의 일부 영역 또는 상기 서브 영상 플레이어와 인접한 위치에 상기 서브 영상의 재생 시간 정보를 표시할 수 있다.
또 다른 측면에 따르면, 상기 영상 운영 툴은 상기 서브 영상의 운영과 관련된 유저 인터페이스로서 상기 서브 영상의 삽입 명령을 입력하기 위한 삽입 버튼과 상기 서브 영상의 삽입 종료 명령을 입력하기 위한 종료 버튼이 포함된 컨트롤 영역을 더 포함할 수 있다.
또 다른 측면에 따르면, 상기 컨트롤 영역에는 상기 서브 영상의 삽입 종료에 대한 예약 명령을 입력하기 위한 예약 종료 버튼이 더 포함될 수 있다.
또 다른 측면에 따르면, 상기 인코딩 엔진과의 통신을 통해 상기 인코딩 엔진이 일정 시간의 딜레이를 유지하도록 상기 메인 영상 플레이어를 제어하는 단계를 더 포함할 수 있다.
또 다른 측면에 따르면, 상기 제어하는 단계는, 상기 인코딩 엔진의 딜레이가 임계 레벨 미만으로 작아지면 상기 메인 영상 플레이어를 다시 시작할 수 있다.
영상 운영 방법을 실행시키기 위해 컴퓨터 판독 가능한 기록 매체에 기록된 컴퓨터 프로그램에 있어서, 상기 영상 운영 방법은, 메인 영상과 서브 영상의 실시간 트랜스코딩을 위한 인코딩 엔진에 대하여 네트워크를 통해 상기 인코딩 엔진과 통신하여 원격에서 상기 메인 영상에 실시간으로 상기 서브 영상을 삽입하기 위한 영상 운영 툴을 제공하는 단계를 포함하는, 컴퓨터 프로그램을 제공한다.
컴퓨터로 구현되는 시스템에 있어서, 컴퓨터가 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 메인 영상과 서브 영상의 실시간 트랜스코딩을 위한 인코딩 엔진에 대하여 네트워크를 통해 상기 인코딩 엔진과 통신하여 원격에서 상기 메인 영상에 실시간으로 상기 서브 영상을 삽입하기 위한 영상 운영 툴을 제공하는 툴 제공부를 포함하는 시스템을 제공한다.
본 발명의 실시예들에 따르면, 메인 영상에 삽입하고자 하는 서브 영상을 원격으로 운영할 수 있는 영상 운영 툴을 제공함으로써 운영에 대한 장소의 제약 문제를 해소할 수 있고 원격 운영을 통해 영상 합성의 운영을 위한 불필요한 리소스를 최소화 하면서 운영의 편리성을 향상시킬 수 있다.
본 발명의 실시예들에 따르면, 네트워크를 통해 영상 운영을 위한 명령(command)을 전달함에 있어 네트워크 지연 문제를 해결하거나 메인 영상과 서브 영상의 플레이어가 분리된 환경에서 플레이어 간 타이밍 동기화 문제를 해결함으로써 메인 영상 중간에 삽입하고자 하는 서브 영상에 대하여 메인 영상과의 시간 동기화 문제를 효과적으로 해결할 수 있다.
도 1은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 2는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 3은 본 발명의 일실시예에 있어서 원격에서 영상 운영이 가능한 인코딩 엔진의 예시를 도시한 것이다.
도 4는 본 발명의 일실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이다.
도 5는 본 발명의 일실시예에 따른 서버가 수행할 수 있는 방법의 예를 도시한 흐름도이다.
도 6은 본 발명의 일실시예에 있어서 영상 운영 툴의 화면 예시를 도시한 것이다.
도 7은 본 발명의 일실시예에 있어서 메인 영상의 재생을 제어하는 과정의 일례를 설명하기 위한 도면이다.
도 8은 본 발명의 일실시예에 있어서 서브 영상의 재생을 제어하는 과정의 일례를 설명하기 위한 도면이다.
도 9는 본 발명의 일실시예에 있어서 서브 영상의 재생을 제어하는 과정의 다른 예를 설명하기 위한 도면이다.
도 10은 본 발명의 일실시예에 있어서 서브 영상의 삽입을 예약 종료하는 과정의 일례를 설명하기 위한 도면이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
본 발명의 실시예들은 메인 영상에 서브 영상을 삽입하는 기술에 관한 것으로, 상세하게는 메인 영상에 삽입하고자 하는 서브 영상에 대하여 원격 운영이 가능한 영상 운영 툴을 제공하는 시스템 및 방법에 관한 것이다.
본 명세서에서 구체적으로 개시되는 것들을 포함하는 실시예들은 메인 영상에 삽입하고자 하는 서브 영상에 대하여 원격으로 운영 가능한 영상 운영 툴을 구현할 수 있고, 이를 통해 운영에 대한 장소의 제약을 해소할 수 있고 더 나아가 효율성, 합리성, 실효성, 비용 절감 등의 측면에 있어서 상당한 장점들을 달성한다.
도 1은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다. 도 1의 네트워크 환경은 복수의 전자 기기들(110, 120, 130, 140), 복수의 서버들(150, 160) 및 네트워크(170)를 포함하는 예를 나타내고 있다. 이러한 도 1은 발명의 설명을 위한 일례로 전자 기기의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다.
복수의 전자 기기들(110, 120, 130, 140)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 전자 기기들(110, 120, 130, 140)의 예를 들면, 스마트폰(smart phone), 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 전자 기기 1(110)은 무선 또는 유선 통신 방식을 이용하여 네트워크(170)를 통해 다른 전자 기기들(120, 130, 140) 및/또는 서버(150, 160)와 통신할 수 있다.
통신 방식은 제한되지 않으며, 네트워크(170)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(170)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(170)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
서버(150, 160) 각각은 복수의 전자 기기들(110, 120, 130, 140)과 네트워크(170)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 일례로, 서버(160)는 네트워크(170)를 통해 접속한 전자 기기 1(110)로 어플리케이션의 설치를 위한 파일을 제공할 수 있다. 이 경우 전자 기기 1(110)은 서버(160)로부터 제공된 파일을 이용하여 어플리케이션을 설치할 수 있다. 또한 전자 기기 1(110)이 포함하는 운영체제(Operating System, OS)나 적어도 하나의 프로그램(일례로 브라우저나 상기 설치된 어플리케이션)의 제어에 따라 서버(150)에 접속하여 서버(150)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다. 예를 들어, 전자 기기 1(110)이 어플리케이션의 제어에 따라 네트워크(170)를 통해 서비스 요청 메시지를 서버(150)로 전송하면, 서버(150)는 서비스 요청 메시지에 대응하는 코드를 전자 기기 1(110)로 전송할 수 있고, 전자 기기 1(110)은 어플리케이션의 제어에 따라 코드에 따른 화면을 구성하여 표시함으로써 사용자에게 컨텐츠를 제공할 수 있다.
본 발명의 일실시예에 따르면, 서버(160)는 메인 영상과 서브 영상의 실시간 트랜스코딩을 위한 스트리밍 서버로서 인코딩 엔진을 포함할 수 있으며, 인코딩 엔진은 입력된 영상을 믹싱 또는 스위칭 할 수 있는 트랜스코더 설계를 포함할 수 있다. 이에, 서버(150)는 인코딩 엔진에 입력되는 영상 운영을 위한 운영자 시스템으로서, 네트워크(170)를 통해 인코딩 엔진과 통신하여 메인 영상에 삽입하고자 하는 서브 영상에 대하여 원격에서 운영 가능한 영상 운영 툴을 제공할 수 있다.
본 실시예에서는 영상 운영 툴이 서버 컴퓨터에 해당되는 서버(150) 상에 구현되는 것으로 설명하고 있으나, 이러한 것으로만 한정되는 것이 아니며 다른 예로 서버-클라이언트(client) 구조로서 영상 운영 툴이 인코딩 엔진과의 통신이 가능한 클라이언트로 구현되는 것 또한 얼마든지 가능하다. 영상 운영 툴을 제공하는 컴퓨터 시스템의 예로는 서버 컴퓨터, 일련의 서버 컴퓨터들, 서버 컴퓨팅 디바이스, 개인용 컴퓨터, 미니 컴퓨터, 및/또는 메인프레임 컴퓨터를 포함할 수 있지만 이러한 것으로만 한정되는 것은 아니다.
도 2는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다. 도 2에서는 하나의 전자 기기에 대한 예로서 전자 기기 1(110), 그리고 하나의 서버에 대한 예로서 서버(150)의 내부 구성을 설명한다. 다른 전자 기기들(120, 130, 140)이나 서버(160) 역시 동일한 또는 유사한 내부 구성을 가질 수 있다.
전자 기기 1(110)과 서버(150)는 메모리(211, 221), 프로세서(212, 222), 통신 모듈(213, 223) 그리고 입출력 인터페이스(214, 224)를 포함할 수 있다. 메모리(211, 221)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(211, 221)에는 운영체제나 적어도 하나의 프로그램 코드(일례로 전자 기기 1(110)에 설치되어 구동되는 브라우저나 전용 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(211, 221)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 통신 모듈(213, 223)을 통해 메모리(211, 221)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로 상술한 서버(160))이 네트워크(170)를 통해 제공하는 파일들에 의해 설치되는 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리(211, 221)에 로딩될 수 있다.
프로세서(212, 222)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(211, 221) 또는 통신 모듈(213, 223)에 의해 프로세서(212, 222)로 제공될 수 있다. 예를 들어 프로세서(212, 222)는 메모리(211, 221)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 모듈(213, 223)은 네트워크(170)를 통해 전자 기기 1(110)과 서버(150)가 서로 통신하기 위한 기능을 제공할 수 있으며, 다른 전자 기기(일례로 전자 기기 2(120)) 또는 다른 서버(일례로 서버(160))와 통신하기 위한 기능을 제공할 수 있다. 일례로, 전자 기기 1(110)의 프로세서(212)가 메모리(211)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(213)의 제어에 따라 네트워크(170)를 통해 서버(150)로 전달될 수 있다. 역으로, 서버(150)의 프로세서(222)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(223)과 네트워크(170)를 거쳐 전자 기기 1(110)의 통신 모듈(213)을 통해 전자 기기 1(110)로 수신될 수 있다. 예를 들어 통신 모듈(213)을 통해 수신된 서버(150)의 제어 신호나 명령 등은 프로세서(212)나 메모리(211)로 전달될 수 있고, 컨텐츠나 파일 등은 전자 기기 1(110)가 더 포함할 수 있는 저장 매체로 저장될 수 있다.
입출력 인터페이스(214)는 입출력 장치(215)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 어플리케이션의 통신 세션을 표시하기 위한 디스플레이와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(214)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 보다 구체적인 예로, 전자 기기 1(110)의 프로세서(212)는 메모리(211)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서버(150)나 전자 기기 2(120)가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(214)를 통해 디스플레이에 표시될 수 있다.
또한, 다른 실시예들에서 전자 기기 1(110) 및 서버(150)는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 전자 기기 1(110)은 상술한 입출력 장치(215) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 전자 기기 1(110)이 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 가속도 센서나 자이로 센서, 카메라, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 전자 기기 1(110)에 더 포함되도록 구현될 수 있음을 알 수 있다.
본 명세서에서 멀티미디어 컨텐츠는 문자, 음성, 영상 등의 다양한 정보 형태가 통합된 정보 서비스 내용물을 포괄하여 의미할 수 있으며, 이하에서는 동영상과 같은 영상 기반의 컨텐츠를 멀티미디어 컨텐츠의 대표적인 예로 설명하고 있으나 이에 한정되는 것은 아니다.
이하에서는 메인 영상에 삽입하고자 하는 서브 영상에 대한 원격 운영을 위한 시스템 및 방법의 구체적인 실시예를 설명하기로 한다.
일반적으로 메인 영상(예컨대, 생중계 하는 라이브 영상 등)에 실시간으로 서브 영상(예컨대, 광고 등)을 삽입하기 위해서는 운영자가 인코더 장비에서 직접 서브 영상을 삽입하는 방식으로 해당 장비에서만 처리 가능할 뿐 원격으로 운영 가능한 환경이 마련되어 있지 못했다. 이와 같이 운영자가 인코더 장비에서 직접 서브 영상을 삽입하는 방식으로 진행되는 경우 장소의 제약이 크기 때문에 영상 운영에 불편과 한계를 초래할 수 밖에 없다.
기존 영상 운영의 문제를 해결하기 위해 본 발명에서는 인코딩 엔진에 일정 시간의 딜레이(delay)를 두어 이러한 딜레이를 이용하여 원격에서의 영상 운영이 가능하도록 함으로써 영상 운영에 대한 장소의 제약을 해소할 수 있다.
먼저, 지연 기능을 가진 인코딩 엔진의 예시를 설명하면 다음과 같다.
도 3은 본 발명의 일실시예에 있어서 원격에서 영상 운영이 가능한 인코딩 엔진의 예시를 도시한 것이다.
도 3에 도시한 바와 같이, 인코딩 엔진은 지연 기능을 가진 트랜스코더(300)를 포함할 수 있으며, 도 3은 트랜스코더(300)의 전체 구성을 나타내고 있다. 트랜스코더(300)의 구성요소들은 도 1과 도 2를 통해 설명한 서버(160)의 프로세서에 포함될 수 있다. 서버(160)의 프로세서 및 프로세서의 구성요소들은 이하에서 설명하게 되는 트랜스코딩 방법을 수행하도록 서버(160)를 제어할 수 있다. 이때, 프로세서 및 프로세서의 구성요소들은 서버(160)의 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 또한, 프로세서의 구성요소들은 운영체제나 적어도 하나의 프로그램이 제공하는 제어 명령에 따라 프로세서에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다.
도 3에 도시한 바와 같이, 트랜스코더(300)는 메인 소스 스플리터(main source splitter)(301), 버퍼(packet queue)(302), 서브 소스 스플리터(sub source splitter)(303), 비디오 디코더(video decoder)(304), 오디오 디코더(audio decoder)(305), 비디오 믹서(video mixer)(306), 오디오 믹서(audio mixer)(307), 비디오 후처리 프로세서(video post processor)(308), 오디오 후처리 프로세서(audio post processor)(309), 비디오 인코더(video encoder)(310), 오디오 인코더(audio encoder)(311), 및 멀티플렉서(muxer, multiplexer)(312)를 포함할 수 있다.
상기한 구성의 트랜스코더(300)는 실시간으로 제공하고자 하는 메인 영상에 추가의 서브 영상을 삽입할 수 있다. 특히, 트랜스코더(300)는 실시간 영상 편집에 있어 믹서(306, 307)의 앞단에서 동적으로 추가되는 서브 영상이 믹서(306, 307)에 의해 처리될 수 있으며, 디코더(304, 305)를 거쳐 디코딩된 프레임을 기반으로 믹서(306, 307)에서 입력 영상을 믹싱 또는 스위칭 할 수 있다.
트랜스코더(300)는 크게 소스단(301, 302)에서 디코더(304, 305)까지의 입력 구성(source)과, 믹서(306, 307)와 후처리 프로세서(308, 309)를 포함한 영상 편집 구성(transform)과, 인코더(310, 311)와 멀티플렉서(312)를 포함한 출력 구성(writer)으로 구분될 수 있다.
입력 구성(source)의 동작을 간략히 살펴보면, 메인 영상을 메인 소스 스플리터(301)를 통해 비디오 데이터와 오디오 데이터로 분리하여 비디오 데이터와 오디오 데이터로 분리된 패킷을 각각의 버퍼(302)를 통해 일정 시간 동안 큐잉(queuing)할 수 있다. 이때, 버퍼(302)는 실시간 트랜스코딩 진행 중에 서브 영상을 추가하기 위해 메인 영상을 일정시간 동안 인위적으로 지연시키는 역할을 할 수 있다. 특히, 버퍼(302)는 영상 운영과 관련된 원격 컨트롤을 위한 패킷 큐를 제공하기 위한 것으로, 원격 컨트롤을 위해 입력 비트스트림을 내부 큐에 쌓아 둠으로써 지연 기능을 수행할 수 있다. 메인 영상이 영상 편집 구성(transform)의 믹서(306, 307)를 통과하기 이전에 패킷 큐(302)를 거침으로써 메인 영상의 트랜스코딩 진행 중에 서브 영상을 삽입하거나 서브 영상의 삽입을 종료하는 기능을 구현할 수 있다.
입력 구성(source)에서 비디오 데이터와 오디오 데이터로 분리된 입력 비트스트림은 압축 상태의 패킷으로, 압축된 비디오/오디오 비트스트림을 버퍼(302)를 통해 일정시간 동안 버퍼링한 후 디코더(304, 305)로 전달할 수 있다. 트랜스코더(300)는 입력 구성(source)에서의 영상 입력 시간 동기화를 수행할 수 있다. 일례로, 트랜스코더(300)는 원격에서 서브 영상을 운영하는 서버(150)에서 전달되는 절대 시간 값(absolute timestamp)을 입력 받을 수 있으며, 절대 시간 값은 소스 스플리터(301, 303)를 통해 사용되며 소스 스플리터(301, 303)에서 절대 시간 값에 의해 원격 컨트롤러인 서버(150)와 시간 동기화가 가능하다. 다시 말해, 서버(150)로부터 소스 스플리터(301, 303)에서 공통적으로 인식할 수 있는 절대 시간 값을 얻을 수 있으며, 소스 스플리터(301, 303) 간에 절대 시간 값을 기준으로 영상 삽입을 위한 명령을 주고 받을 수 있다. 상기한 트랜스코더(300)는 입력 구성(source)에 있어 패킷 큐(302)와의 조합에 특징이 있으며, 메인 영상이 믹서(306, 307)를 통과하기 전에 입력 구성(source)에 서버(150)의 영상 삽입 명령을 적용함으로써 정확하고 정밀한 영상 스위칭을 수행할 수 있다.
따라서, 본 발명은 메인 영상이 믹서(306, 307)를 통과하기 이전에 패킷 큐(302)를 거치는 구조의 트랜스코더(300)를 통해 인코딩 엔진의 지연 기능을 구현할 수 있다.
도 4는 본 발명의 일실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이고, 도 5는 본 발명의 일실시예에 따른 서버가 수행할 수 있는 방법의 예를 도시한 흐름도이다.
도 4에 도시된 바와 같이, 서버(150)의 프로세서(222)는 구성요소들로서 툴 제공부(410), 메인 영상 제어부(420), 및 서브 영상 제어부(430)를 포함할 수 있다. 이러한 프로세서(222) 및 프로세서(222)의 구성요소들은 도 5의 방법이 포함하는 단계들(S510 내지 S530)을 수행하도록 서버(150)를 제어할 수 있다. 이때, 프로세서(222) 및 프로세서(222)의 구성요소들은 메모리(221)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 또한, 프로세서(222)의 구성요소들은 운영체제나 적어도 하나의 프로그램이 제공하는 제어 명령에 따라 프로세서(222)에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 프로세서(222)가 상술한 제어 명령에 따라 영상 운영 툴을 제공하는 기능적 표현으로서 툴 제공부(410)가 사용될 수 있다.
단계(S510)에서 툴 제공부(410)는 메인 영상에 실시간으로 서브 영상을 삽입/종료하는 영상 운영이 원격에서 가능하도록 메인 영상 플레이어와 서브 영상 플레이어, 그리고 컨트롤 영역을 포함하는 영상 운영 툴을 제공할 수 있다. 영상 운영 툴은 원격에서의 영상 운영을 위한 기능을 제공할 수 있으며, 실제 인코딩 된 결과와 상관없이 운영자의 참고를 위해 메인 영상과 서브 영상을 재생해줄 수 있다. 이때, 영상 운영 툴은 운영자가 웹/모바일 사이트 접속으로 접근 가능한 웹 페이지로 구현되거나, 혹은 운영자 단말(예컨대, 전자 기기(110, 120, 130, 140))에 설치 및 실행 가능한 어플리케이션 형태로 구현될 수 있다. 영상 운영자는 영상 운영 툴에서 제공되는 두 개의 플레이어(메인 영상 플레이어와 서브 영상 플레이어)를 통해 메인 영상과 메인 영상에 삽입되는 서브 영상을 함께 보면서 편리하게 영상 운영을 할 수 있다.
단계(S520)에서 메인 영상 제어부(420)는 인코딩 엔진과의 통신을 통해 인코딩 엔진이 메인 영상 플레이어에 비해 일정 시간의 딜레이를 유지하도록 제어할 수 있다. 메인 영상 제어부(420)는 사전에 설정된 지연 시간 혹은 운영자에 의해 설정된 지연 시간으로 인코딩 엔진의 딜레이를 설정할 수 있다. 일례로, 메인 영상 제어부(420)는 네트워크(170)를 통해 서버(160) 상의 인코딩 엔진으로 딜레이를 위한 절대 시간 값을 전달할 수 있으며, 정확한 타이밍의 서브 영상 운영을 위해 인코딩 엔진은 메인 영상에 대하여 영상 운영 툴의 메인 영상 플레이어에 비해 절대 시간 값만큼의 딜레이를 적용할 수 있다. 다시 말해, 메인 영상 제어부(420)는 원격에서 영상 운영 시 운영자의 컨트롤에 따른 명령이 실제 인코딩 엔진에 전달되는 시간을 확보하고 원하는 시점에 서브 영상의 삽입이 가능하도록 하기 위해 인코딩 엔진이 일정 시간의 딜레이를 갖도록 설정 및 제어할 수 있다.
단계(S530)에서 서브 영상 제어부(430)는 삽입하고자 하는 서브 영상에 대하여 메인 영상과의 타이밍 동기화를 위해 메인 영상 플레이어의 시간 흐름에 따라 서브 영상 플레이어의 재생을 제어할 수 있다. 서브 영상은 메인 영상 중간에 삽입 가능한 모든 멀티미디어 컨텐츠를 의미할 수 있고, 메인 영상에 정기적인 형태로 삽입되는 정규 영상, 필요에 따라 임시로 삽입되는 이벤트 영상 등을 포함할 수 있다. 서브 영상 제어부(430)에서 삽입하고자 하는 서브 영상에 대한 정보와 삽입하는 시점에 대한 정보를 인코딩 엔진으로 전달하면, 이에 인코딩 엔진에서는 서브 영상의 삽입 시점을 찾아서 해당 시점부터 서브 영상에 대한 믹싱 작업을 수행할 수 있다. 즉, 서브 영상 제어부(430)는 영상 운영 툴을 통해 서브 영상에 대한 삽입 요청 명령이 입력되면 삽입 요청 명령의 입력 시점을 기준으로 메인 영상 플레이어의 시간 흐름에 맞추어 서브 영상 플레이어의 재생을 조절할 수 있다. 일례로, 서브 영상 제어부(430)는 인코딩 엔진과의 통신 시간을 고려하여 서브 영상의 재생 시 해당 시간만큼의 구간이동(seeking)을 진행할 수 있다. 다른 예로, 서브 영상 제어부(430)는 버퍼링이 발생한 시간을 고려하여 서브 영상의 재생 시 재생 시간에 해당 시간만큼 대기 시간을 추가할 수 있다.
도 6은 본 발명의 일실시예에 있어서 영상 운영 툴의 화면 예시를 도시한 것이다.
도 6에 도시한 바와 같이, 영상 운영 툴(600)은 두 개의 플레이어, 즉 메인 영상 플레이어(610)와 서브 영상 플레이어(620)를 포함할 수 있다. 이때, 메인 영상 플레이어(610)는 본래의 컨텐츠 영상 플레이어로, 실시간으로 제공하고자 하는 메인 영상을 재생할 수 있다. 일례로, 생중계로 진행되는 라이브 영상이 메인 영상으로 제공될 때 메인 영상 플레이어(610)는 생중계가 진행되는 동안 항상 재생된다. 또한, 서브 영상 플레이어(620)는 메인 영상에 삽입되는 서브 영상을 재생하는 것으로, 메인 영상에 서브 영상이 삽입될 때 재생된다. 서브 영상 플레이어(620)의 일부 영역(예컨대, 화면 하단 등)에는 운영자가 참고할 수 있는 서브 영상과 관련된 정보로서 서브 영상의 길이, 재생율, 종료까지 남은 시간 등을 포함한 재생 시간 정보(621)를 표시할 수 있다.
그리고, 도 6에 도시한 바와 같이 영상 운영 툴(600)에는 영상 운영과 관련된 유저 인터페이스를 포함하는 컨트롤 영역(630)이 더 포함될 수 있다. 컨트롤 영역(630)에는 서브 영상의 삽입 명령을 입력하기 위한 삽입 버튼(631), 서브 영상의 삽입 종료 명령을 입력하기 위한 종료 버튼(632), 및 서브 영상의 삽입 종료에 대한 예약 명령을 입력하기 위한 예약 종료 버튼(633) 등을 포함할 수 있다. 종료 버튼(632)은 현재 삽입 중인 서브 영상의 종료를 수동으로 요청하기 위한 유저 인터페이스인 반면에, 예약 종료 버튼(633)은 현재 삽입 중인 서브 영상이 종료된 후 자동으로 메인 영상으로 연결되도록 요청하기 위한 유저 인터페이스를 의미한다.
운영자는 영상 운영 툴(600)에서 제공되는 두 개의 플레이어(메인 영상 플레이어(610)와 서브 영상 플레이어(620))를 통해 메인 영상과 메인 영상에 삽입되는 서브 영상을 함께 보면서 편리하게 영상 운영을 할 수 있다. 그리고, 영상 운영 툴(600)의 서브 영상 플레이어(620) 상에 표시되는 재생 시간 정보(621)를 통해 서브 영상의 재생 시간 정보를 쉽게 확인할 수 있고 이를 영상 운영에 참고할 수 있다. 또한, 운영자는 영상 운영 툴(600)을 통해 메인 영상 플레이어(610)와 서브 영상 플레이어(620)를 보면서 컨트롤 영역(630)을 이용하여 서브 영상의 삽입과 삽입 종료 등의 운영을 원격에서 편리하게 수행할 수 있다.
도 7은 본 발명의 일실시예에 있어서 메인 영상의 재생을 제어하는 과정의 일례를 설명하기 위한 도면이다.
원격 컨트롤 환경에서는 서버(150)와 인코딩 엔진(161) 간에 필요한 명령을 교환하는데 어느 정도의 시간이 필요하고 영상 재생 중간에 버퍼링이 발생할 수 있다는 점을 고려하여 메인 영상 중간에 서브 영상을 삽입/종료하려면 메인 영상 플레이어(610)가 인코딩 엔진(161) 보다 앞서야 한다.
도 7을 참조하면, 영상 운영 툴(600)의 메인 영상 플레이어(610)에 비해 인코딩 엔진(161)의 딜레이가 충분히 큰 경우 영상 운영 툴(600)을 제공하는 서버(150)에서 서브 영상 삽입을 위한 명령이 인코딩 엔진(161)으로 전달될 때 원하는 시점에 얼마든지 서브 영상을 삽입할 수 있다. 한편, 메인 영상 플레이어(610)에 비해 인코딩 엔진(161)의 딜레이가 전혀 없거나 작은 경우 서버(150)에서 서브 영상 삽입을 위한 명령이 인코딩 엔진(161)으로 전달되더라도 이미 메인 영상의 재생이 시작됨에 따라 서브 영상의 원하는 재생 시점을 놓치게 된다. 예를 들어, 메인 영상 플레이어(610)에 버퍼링이 생기면 딜레이가 작아지게 되는데, 이러한 딜레이가 일정 수준 미만으로 작아지게 되면 원하는 시점에 서브 영상의 삽입이 불가능 하게 된다.
서브 영상의 삽입이 불가능하게 되는 상황을 방지하기 위해 메인 영상 제어부(420)는 인코딩 엔진(161)의 딜레이가 임계 레벨 미만으로 작아지게 되면 메인 영상 플레이어(610)를 다시 시작할 수 있다. 즉, 메인 영상 제어부(420)는 딜레이가 작아지면 메인 영상 플레이어(610)를 다시 시작하여 메인 영상 플레이어(610)의 버퍼링을 제거하는 작업을 내부적으로 수행할 수 있다.
따라서, 본 발명에서는 정확한 타이밍의 서브 영상 운영을 위해 인코딩 엔진(161)에 버퍼를 적용함으로써 인코딩 엔진(161)이 영상 운영 툴(600)의 메인 영상 플레이어(610)에 비해 일정 시간만큼의 딜레이를 가지도록 한다. 이때, 메인 영상 제어부(420)는 인코딩 엔진(161)과의 통신을 통해 딜레이가 임계 레벨 미만으로 작아지면 메인 영상을 다시 재생함으로써 인코딩 엔진(161)의 딜레이가 임계 레벨 이상을 유지하도록 할 수 있다.
그리고, 서브 영상 플레이어(620)의 재생은 메인 영상과의 타이밍 동기화가 필요하다. 메인 영상 플레이어(610)나 서브 영상 플레이어(620)는 버퍼링이 발생할 수 있기 때문에 동기화가 되지 않으면 정확한 타이밍의 영상 운영이 불가능하다. 이에, 본 발명에서는 메인 영상과의 타이밍 동기화를 위해 서브 영상 삽입을 위한 명령이 입력되는 시점, 즉 영상 운영 툴(600)에서 제공된 컨트롤 영역(630)의 삽입 버튼(631)을 입력한 시점을 기준으로 메인 영상 플레이어(610)의 시간 흐름에 맞추어 서브 영상 플레이어(620)의 재생을 조절할 수 있다.
원격 컨트롤 환경에서는 네트워크(170)를 통해 인코딩 엔진(161)에 서브 영상 삽입을 위한 명령을 전달하기 때문에 지연이 발생할 수 있으며, 이러한 네트워크 지원 문제를 해결하기 위해 서브 영상 제어부(430)는 네트워크(170)를 통한 요청과 응답 간의 시간을 측정하여 서브 영상 재생 시 측정된 시간만큼의 구간이동을 진행할 수 있다.
그리고, 영상 운영 툴(600)에서 메인 영상 플레이어(610)와 서브 영상 플레이어(620)가 분리되어 있기 때문에 한쪽에서 버퍼링이 발생하는 경우 플레이어 간의 타이밍이 어긋나게 된다. 이러한 플레이어 간 타이밍 동기화 문제를 해결하기 위해 서브 영상 제어부(430)는 버퍼링이 발생한 시간을 측정하여 서브 영상의 재생 시 재생 시간에 해당 시간만큼 대기 시간을 추가할 수 있다.
서브 영상 플레이어(620)의 경우 둘 이상의 서브 영상으로 이루어진 재생 목록을 제공하면 서브 영상의 연속 재생이 가능하다. 그러나, 재생 목록에 포함된 영상 개수가 많아질수록 메인 영상과의 시간 차가 발생할 가능성이 높아진다. 때문에 서브 영상 제어부(430)는 타이밍 동기화를 위해 서브 영상을 한 개씩 재생 요청하고 다음 서브 영상의 재생을 위한 타이머를 설정할 수 있다. 다시 말해, 서브 영상 제어부(430)는 서브 영상 하나를 재생 완료할 때마다 다음 서브 영상에 대하여 타이밍 동기화를 진행할 수 있다.
일례로, 서브 영상 제어부(430)는 서브 영상의 연속 재생을 위한 재생 목록이 주어진 환경에서 원본 영상 플레이어(610)에서 버퍼링이 발생하는 경우 지연시간만큼 다음 서브 영상의 재생 전까지 현재 서브 영상의 재생 상태에서 대기할 수 있다. 메인 영상에서 버퍼링이 발생하는 경우가 대부분이지만, 반대로 서브 영상 플레이어(620)에서 버퍼링이 발생하는 경우 서브 영상 제어부(430)는 현재 서브 영상의 재생이 종료되지 않더라도 설정된 타이머가 동작하게 되면 다음 서브 영상의 재생을 시작할 수 있다.
도 8은 본 발명의 일실시예에 있어서 서브 영상의 재생을 제어하는 과정의 일례를 설명하기 위한 도면이다.
서브 영상 플레이어(620)의 재생은 기본적으로 서브 영상의 듀레이션(duration)에 따라 타이머 설정을 통해 이루어질 수 있다.
서브 영상 제어부(430)는 서브 영상의 재생 목록 중 첫 번째 서브 영상을 메인 영상에 삽입할 때 인코딩 엔진(161)과의 통신 시간을 반영하여 메인 영상과의 타이밍 동기화를 구현할 수 있다.
도 8을 참조하면, 서브 영상 제어부(430)는 운영자가 컨트롤 영역(630)의 삽입 버튼(631)을 입력하여 서브 영상의 삽입을 요청하는 경우 서브 영상 삽입을 위한 명령을 인코딩 엔진(161)에 전송한 후 해당 명령에 대해 인코딩 엔진(161)으로부터 성공 메시지(OK Response)가 수신될 때 서브 영상의 재생을 시작할 수 있다.
이때, 서브 영상 제어부(430)는 인코딩 엔진(161)과의 통신 시간으로서 네트워크(170)를 통한 요청과 응답을 주고 받는 초기 시간(init time)을 측정할 수 있으며, 일례로 초기 시간은 삽입 버튼(631)이 입력된 시점부터 인코딩 엔진(161)으로부터 성공 메시지가 수신되는 시점까지의 소요 시간을 의미할 수 있다.
그리고, 서브 영상 제어부(430)는 인코딩 엔진(161)으로부터 성공 메시지가 수신되면 서브 영상의 재생을 시작하되 서브 영상을 앞서 측정된 초기 시간만큼 구간이동 할 수 있다. 다시 말해, 서브 영상 제어부(430)는 메인 영상에 삽입된 서브 영상에 대해 초기 시간만큼 구간이동 한 위치에서 서브 영상을 재생할 수 있다.
둘 이상의 서브 영상이 연속적으로 삽입되는 경우 서브 영상 제어부(430)는 다음 서브 영상의 재생을 위한 타이머를 설정하게 되는데, 이때 현재 서브 영상의 듀레이션에서 초기 시간을 뺀 시간 값으로 타이머를 설정할 수 있다. 예를 들어, 길이가 15초인 서브 영상에 대해 초기 시간이 1초 소요된 경우 1초 구간이동 한 위치에서 재생을 시작하여 14초 동안 서브 영상을 재생할 수 있다.
이와 같이, 서브 영상 플레이어(620)의 재생은 인코딩 엔진(161)으로부터 성공 메시지를 받는 시점에 시작되나 삽입 버튼(631)이 입력된 시점부터 서브 영상의 재생이 시작되는 것처럼 구간 이동을 통해 재생 위치를 맞춰 줄 수 있다.
도 9는 본 발명의 일실시예에 있어서 서브 영상의 재생을 제어하는 과정의 다른 예를 설명하기 위한 도면이다.
서브 영상 제어부(430)는 메인 영상과의 타이밍 동기화를 위해 메인 영상 플레이어(610)의 버퍼링 시간을 서브 영상 플레이어(620)에 반영할 수 있다.
도 9를 참조하면, 서브 영상의 재생이 종료되고 다음 서브 영상의 재생이 시작되기 전에 메인 영상 플레이어(610)에 버퍼링이 발생하는 경우 서브 영상 제어부(430)는 메인 영상 플레이어(610)의 버퍼링 시간만큼 대기할 수 있다.
다시 말해, 서브 영상의 재생이 종료되고 다음 서브 영상의 재생을 위한 타이머가 동작하게 되었을 때, 즉 이전 서브 영상 이후 다음 서브 영상을 이어서 재생하기 전에 메인 영상 플레이어(610)에 버퍼링이 있다면 다음 서브 영상을 재생하기 이전에 메인 영상의 버퍼링 시간만큼 기다린다.
예를 들어, 길이가 15초인 서브 영상이 모두 재생되었음에도 메인 영상 플레이어(610)의 버퍼링으로 메인 영상이 14초 재생에 그친 경우 다음 서브 영상을 재생하지 않고 1초 대기하고 있다가 메인 영상이 15초 시점까지 재생될 때 다음 서브 영상의 재생을 시작한다.
따라서, 서브 영상 제어부(430)는 메인 영상 플레이어(610)에서 버퍼링이 발생하거나 혹은 서브 영상 플레이어(620)에서 버퍼링이 발생하더라도 적어도 다음 서브 영상의 재생 시작 시점에는 메인 영상과의 타이밍이 맞을 수 있도록 재생 위치를 맞춰줄 수 있다.
그리고, 서브 영상 제어부(430)는 현재 삽입 중인 서브 영상의 종료 후 자동으로 메인 영상으로 연결되는 예약 종료 기능을 제공할 수 있다. 다시 말해, 서브 영상 제어부(430)는 현재 재생 중인 서브 영상의 재생이 끝날 때까지 기다렸다가 자연스럽게 메인 영상으로 전환되도록 할 수 있다. 서브 영상에 대한 예약 종료 기능은 서브 영상에 설정된 타임스탬프를 기반으로 하는 것이 아니라, 서브 영상의 식별 정보(예컨대, ID, 인덱스 등)를 이용할 수 있다. 예를 들어, 도 10에 도시한 바와 같이 운영자가 영상 운영 툴(600)에서 제공된 컨트롤 영역(630)의 예약 종료 버튼(633)을 입력하면 서브 영상 제어부(430)는 현재 삽입 중인 서브 영상에 대하여 인코딩 엔진(161)으로 예약 종료를 요청할 수 있고, 이때 예약 종료 요청과 함께 해당 서브 영상의 ID를 인코딩 엔진(161)으로 전달할 수 있다. 이에, 인코딩 엔진(161)에서는 타임스탬프가 아닌 서브 영상의 ID를 기준으로 현재 재생 중인 서브 영상을 식별하고 해당 서브 영상의 재생이 종료될 때까지 기다렸다가 자동으로 메인 영상을 연결할 수 있다.
따라서, 본 발명에서는 인코딩 엔진의 딜레이 설정이 가능한 영상 운영 툴을 제공할 수 있고, 이를 통해 서브 영상의 삽입과 삽입 종료에 대해 원격 운영을 위한 기술적인 요소와 운영의 편리성을 위한 기능 요소를 함께 제공할 수 있다.
이처럼 본 발명의 실시예들에 따르면, 메인 영상에 삽입하고자 하는 서브 영상을 원격으로 운영할 수 있는 영상 운영 툴을 제공함으로써 운영에 대한 장소의 제약 문제를 해소할 수 있고 원격 운영을 통해 영상 합성의 운영을 위한 불필요한 리소스를 최소화 하면서 운영의 편리성을 향상시킬 수 있다. 그리고, 본 발명의 실시예들에 따르면, 네트워크를 통해 영상 운영을 위한 명령을 전달함에 있어 네트워크 지연 문제를 해결하거나 메인 영상과 서브 영상의 플레이어가 분리된 환경에서 플레이어 간 타이밍 동기화 문제를 해결함으로써 메인 영상 중간에 삽입하고자 하는 서브 영상에 대하여 메인 영상과의 시간 동기화 문제를 효과적으로 해결할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 컴퓨터로 구현되는 방법에 있어서,
    메인 영상과 서브 영상의 실시간 트랜스코딩을 위한 인코딩 엔진에 대하여 네트워크를 통해 상기 인코딩 엔진과 통신하여 원격에서 상기 메인 영상에 실시간으로 상기 서브 영상을 삽입하기 위한 영상 운영 툴을 제공하는 단계
    를 포함하고,
    상기 인코딩 엔진은 지연 기능을 가진 트랜스코더를 포함하고,
    상기 제공하는 단계는,
    상기 인코딩 엔진과의 통신을 통해 상기 트랜스코더의 지연 기능을 이용하여 원격에서의 영상 운영이 가능한 상기 영상 운영 툴을 제공하고,
    상기 트랜스코더는 디코더(decoder)와 믹서(mixer) 및 인코더(encoder)를 포함하고 실시간 영상 편집에 있어 상기 디코더를 거쳐 디코딩된 프레임을 기반으로 상기 믹서에서 상기 메인 영상과 상기 서브 영상을 믹싱 또는 스위칭 하는 것
    을 특징으로 하는 방법.
  2. 제1항에 있어서,
    상기 영상 운영 툴을 이용한 원격 컨트롤을 위해 상기 인코딩 엔진에 일정 시간의 딜레이(delay)를 설정하는 단계
    를 더 포함하는 방법.
  3. 제1항에 있어서,
    상기 인코딩 엔진은 영상 운영과 관련된 원격 컨트롤을 위해 상기 메인 영상을 일정 시간 지연시키기 위한 버퍼를 포함하는 것
    을 특징으로 하는 방법.
  4. 제1항에 있어서,
    상기 인코딩 엔진은 영상 운영과 관련된 원격 컨트롤을 위해 상기 디코더의 앞단에 상기 메인 영상을 일정 시간 지연시키기 위한 버퍼가 포함되는 것
    을 특징으로 하는 방법.
  5. 제1항에 있어서,
    상기 영상 운영 툴은 상기 메인 영상을 재생하기 위한 메인 영상 플레이어와 상기 메인 영상에 삽입되는 상기 서브 영상을 재생하기 위한 서브 영상 플레이어를 포함하는 것
    을 특징으로 하는 방법.
  6. 제5항에 있어서,
    상기 영상 운영 툴은 상기 서브 영상 플레이어의 일부 영역 또는 상기 서브 영상 플레이어와 인접한 위치에 상기 서브 영상의 재생 시간 정보를 표시하는 것
    을 특징으로 하는 방법.
  7. 제5항에 있어서,
    상기 영상 운영 툴은 상기 서브 영상의 운영과 관련된 유저 인터페이스로서 상기 서브 영상의 삽입 명령을 입력하기 위한 삽입 버튼과 상기 서브 영상의 삽입 종료 명령을 입력하기 위한 종료 버튼이 포함된 컨트롤 영역을 더 포함하는 것
    을 특징으로 하는 방법.
  8. 제7항에 있어서,
    상기 컨트롤 영역에는 상기 서브 영상의 삽입 종료에 대한 예약 명령을 입력하기 위한 예약 종료 버튼이 더 포함되는 것
    을 특징으로 하는 방법.
  9. 제5항에 있어서,
    상기 인코딩 엔진과의 통신을 통해 상기 인코딩 엔진이 일정 시간의 딜레이를 유지하도록 상기 메인 영상 플레이어를 제어하는 단계
    를 더 포함하는 방법.
  10. 제9항에 있어서,
    상기 제어하는 단계는,
    상기 인코딩 엔진의 딜레이가 임계 레벨 미만으로 작아지면 상기 메인 영상 플레이어를 다시 시작하는 것
    을 특징으로 하는 방법.
  11. 영상 운영 방법을 실행시키기 위해 컴퓨터 판독 가능한 기록 매체에 기록된 컴퓨터 프로그램에 있어서,
    상기 영상 운영 방법은,
    메인 영상과 서브 영상의 실시간 트랜스코딩을 위한 인코딩 엔진에 대하여 네트워크를 통해 상기 인코딩 엔진과 통신하여 원격에서 상기 메인 영상에 실시간으로 상기 서브 영상을 삽입하기 위한 영상 운영 툴을 제공하는 단계
    를 포함하고,
    상기 인코딩 엔진은 지연 기능을 가진 트랜스코더를 포함하고,
    상기 제공하는 단계는,
    상기 인코딩 엔진과의 통신을 통해 상기 트랜스코더의 지연 기능을 이용하여 원격에서의 영상 운영이 가능한 상기 영상 운영 툴을 제공하고,
    상기 트랜스코더는 디코더(decoder)와 믹서(mixer) 및 인코더(encoder)를 포함하고 실시간 영상 편집에 있어 상기 디코더를 거쳐 디코딩된 프레임을 기반으로 상기 믹서에서 상기 메인 영상과 상기 서브 영상을 믹싱 또는 스위칭 하는 것
    을 특징으로 하는, 컴퓨터 프로그램.
  12. 컴퓨터로 구현되는 시스템에 있어서,
    컴퓨터가 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는,
    메인 영상과 서브 영상의 실시간 트랜스코딩을 위한 인코딩 엔진에 대하여 네트워크를 통해 상기 인코딩 엔진과 통신하여 원격에서 상기 메인 영상에 실시간으로 상기 서브 영상을 삽입하기 위한 영상 운영 툴을 제공하는 툴 제공부
    를 포함하고,
    상기 인코딩 엔진은 지연 기능을 가진 트랜스코더를 포함하고,
    상기 툴 제공부는,
    상기 인코딩 엔진과의 통신을 통해 상기 트랜스코더의 지연 기능을 이용하여 원격에서의 영상 운영이 가능한 상기 영상 운영 툴을 제공하고,
    상기 트랜스코더는 디코더(decoder)와 믹서(mixer) 및 인코더(encoder)를 포함하고 실시간 영상 편집에 있어 상기 디코더를 거쳐 디코딩된 프레임을 기반으로 상기 믹서에서 상기 메인 영상과 상기 서브 영상을 믹싱 또는 스위칭 하는 것
    을 특징으로 하는 시스템.
  13. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 영상 운영 툴을 이용한 원격 컨트롤을 위해 상기 인코딩 엔진에 일정 시간의 딜레이(delay)를 설정하는 메인 영상 제어부
    를 더 포함하는 시스템.
  14. 제12항에 있어서,
    상기 인코딩 엔진은 영상 운영과 관련된 원격 컨트롤을 위해 상기 메인 영상을 일정 시간 지연시키기 위한 버퍼를 포함하는 것
    을 특징으로 하는 시스템.
  15. 제12항에 있어서,
    상기 영상 운영 툴은 상기 메인 영상을 재생하기 위한 메인 영상 플레이어와 상기 메인 영상에 삽입되는 상기 서브 영상을 재생하기 위한 서브 영상 플레이어를 포함하는 것
    을 특징으로 하는 시스템.
  16. 제15항에 있어서,
    상기 영상 운영 툴은 상기 서브 영상 플레이어의 일부 영역 또는 상기 서브 영상 플레이어와 인접한 위치에 상기 서브 영상의 재생 시간 정보를 표시하는 것
    을 특징으로 하는 시스템.
  17. 제15항에 있어서,
    상기 영상 운영 툴은 상기 서브 영상의 운영과 관련된 유저 인터페이스로서 상기 서브 영상의 삽입 명령을 입력하기 위한 삽입 버튼과 상기 서브 영상의 삽입 종료 명령을 입력하기 위한 종료 버튼이 포함된 컨트롤 영역을 더 포함하는 것
    을 특징으로 하는 시스템.
  18. 제17항에 있어서,
    상기 컨트롤 영역에는 상기 서브 영상의 삽입 종료에 대한 예약 명령을 입력하기 위한 예약 종료 버튼이 더 포함되는 것
    을 특징으로 하는 시스템.
  19. 제15항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 인코딩 엔진과의 통신을 통해 상기 인코딩 엔진이 일정 시간의 딜레이를 유지하도록 상기 메인 영상 플레이어를 제어하는 메인 영상 제어부
    를 더 포함하는 시스템.
  20. 제19항에 있어서,
    상기 메인 영상 제어부는,
    상기 인코딩 엔진의 딜레이가 임계 레벨 미만으로 작아지면 상기 메인 영상 플레이어를 다시 시작하는 것
    을 특징으로 하는 시스템.
KR1020170007851A 2017-01-17 2017-01-17 멀티미디어 컨텐츠의 운영을 위한 원격 툴을 제공하는 방법 및 시스템 KR101865627B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170007851A KR101865627B1 (ko) 2017-01-17 2017-01-17 멀티미디어 컨텐츠의 운영을 위한 원격 툴을 제공하는 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170007851A KR101865627B1 (ko) 2017-01-17 2017-01-17 멀티미디어 컨텐츠의 운영을 위한 원격 툴을 제공하는 방법 및 시스템

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020180062701A Division KR101949494B1 (ko) 2018-05-31 2018-05-31 멀티미디어 컨텐츠의 운영을 위한 원격 툴을 제공하는 방법 및 시스템

Publications (1)

Publication Number Publication Date
KR101865627B1 true KR101865627B1 (ko) 2018-06-08

Family

ID=62600256

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170007851A KR101865627B1 (ko) 2017-01-17 2017-01-17 멀티미디어 컨텐츠의 운영을 위한 원격 툴을 제공하는 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR101865627B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100119893A (ko) * 2008-02-22 2010-11-11 콸콤 인코포레이티드 실시간 스트리밍 미디어 서비스에서 광고 삽입 통지를 위한 시스템들 및 방법들
KR20110129559A (ko) * 2010-05-26 2011-12-02 주식회사 마루이엔지 디지털 광고 삽입기를 위한 비동기 직렬 인터페이스 스위쳐
KR101249447B1 (ko) * 2011-05-25 2013-04-15 주식회사 엠비씨씨앤아이 이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템 및 이를 이용한 방송중계방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100119893A (ko) * 2008-02-22 2010-11-11 콸콤 인코포레이티드 실시간 스트리밍 미디어 서비스에서 광고 삽입 통지를 위한 시스템들 및 방법들
KR20110129559A (ko) * 2010-05-26 2011-12-02 주식회사 마루이엔지 디지털 광고 삽입기를 위한 비동기 직렬 인터페이스 스위쳐
KR101249447B1 (ko) * 2011-05-25 2013-04-15 주식회사 엠비씨씨앤아이 이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템 및 이를 이용한 방송중계방법

Similar Documents

Publication Publication Date Title
KR101899576B1 (ko) 멀티미디어 컨텐츠의 원격 운영을 위한 시간 동기화 방법 및 그 시스템
KR101722673B1 (ko) 생중계에서 타임머신 기능을 제공하는 방법 및 시스템
WO2023024834A1 (zh) 一种游戏数据处理方法、装置及存储介质
US10712771B2 (en) System and method for synchronized playback of streaming digital content
AU2011232339B2 (en) System and method for coordinating simultaneous edits of shared digital data
US9473548B1 (en) Latency reduction in streamed content consumption
EP2733936A1 (en) Transmission device, method for controlling transmission device, control program, and recording medium
EP3203754A1 (en) Method and system for realizing streaming media data seamlessly connecting in intelligent home
KR102123593B1 (ko) 실시간 라이브 영상과 이벤트의 동기화를 위한 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체
CN110582012B (zh) 视频切换方法、视频处理方法、装置及存储介质
WO2019170073A1 (zh) 媒体播放
JP2008503926A (ja) ネットワークを介したメディアの対話型制御のための方法及びシステム
CN113424553A (zh) 用于响应于用户选择而推进交互式媒体项目的重放的技术
KR101833942B1 (ko) 실시간 영상 합성을 위한 트랜스코더
KR101998303B1 (ko) 타임머신 기능을 위한 슬라이딩 윈도우 관리 방법 및 시스템
CN114143562A (zh) 延迟最小化方法、服务器及计算机可读记录介质
KR101949494B1 (ko) 멀티미디어 컨텐츠의 운영을 위한 원격 툴을 제공하는 방법 및 시스템
CN115623230A (zh) 直播视频的播放方法、装置、电子设备及存储介质
KR101865627B1 (ko) 멀티미디어 컨텐츠의 운영을 위한 원격 툴을 제공하는 방법 및 시스템
US20230217047A1 (en) Method, system, and computer-readable recording medium for implementing fast-switching mode between channels in multi-live transmission environment
KR101859560B1 (ko) 멀티미디어 컨텐츠의 원격 운영을 위한 시간 동기화 방법 및 그 시스템
CN107852523B (zh) 用于在终端之间同步媒体渲染的方法、终端和设备
JP6294527B2 (ja) 送信装置、送信方法、再生装置、及び再生方法
KR101783723B1 (ko) 생중계에서 타임머신 기능을 제공하는 방법 및 시스템
KR20200056859A (ko) 동영상 콘텐츠의 미리보기 동영상을 생성하여 제공하는 방법과 시스템

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant