KR101980330B1 - 비디오 출력 데이터 스트림을 생성하기 위한 장치, 비디오 소스, 비디오 시스템 및 비디오 출력 데이터 스트림 및 비디오 소스 데이터 스트림을 생성하기 위한 방법 - Google Patents

비디오 출력 데이터 스트림을 생성하기 위한 장치, 비디오 소스, 비디오 시스템 및 비디오 출력 데이터 스트림 및 비디오 소스 데이터 스트림을 생성하기 위한 방법 Download PDF

Info

Publication number
KR101980330B1
KR101980330B1 KR1020177012522A KR20177012522A KR101980330B1 KR 101980330 B1 KR101980330 B1 KR 101980330B1 KR 1020177012522 A KR1020177012522 A KR 1020177012522A KR 20177012522 A KR20177012522 A KR 20177012522A KR 101980330 B1 KR101980330 B1 KR 101980330B1
Authority
KR
South Korea
Prior art keywords
video source
data stream
video
source data
effect
Prior art date
Application number
KR1020177012522A
Other languages
English (en)
Other versions
KR20170070111A (ko
Inventor
유겐 바그너
크리스토퍼 살로몬
울프강 티메
Original Assignee
프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. filed Critical 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베.
Publication of KR20170070111A publication Critical patent/KR20170070111A/ko
Application granted granted Critical
Publication of KR101980330B1 publication Critical patent/KR101980330B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/038Cross-faders therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/643Hue control means, e.g. flesh tone control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/75Chroma key
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/76Circuits for processing colour signals for obtaining special effects for mixing of colour signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Circuits (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

비디오 출력 데이터 스트림을 생성하기 위한 장치는 제1 및 제2 비디오 소스 데이터 스트림을 수신하기 위한 제1 및 제2 신호 입력, 제1 시점에서 제1 비디오 소스 데이터 스트림에 기초하고, 그리고 스위칭 프로세스에 의해 제1 시점에 뒤따르는 제2 시점에서 제2 비디오 소스 데이터 스트림에 기초하여 비디오 출력 데이터 스트림을 제공하도록 구성된 프로세서 수단을 포함한다. 또한, 상기 장치는 제1 또는 제2 비디오 소스 데이터 스트림이 수신되는 비디오 소스로 제어 커맨드를 전송하기 위한 제어 신호 출력을 포함한다. 상기 제어 커맨드는 비디오 출력 신호에서 제1 비디오 소스 데이터 스트림의 이미지 및 제2 비디오 소스 데이터 스트림의 이미지 사이에 시간적으로 위치되는 전이효과를 적용하기 위한 비디오 소스의 명령을 포함한다.

Description

비디오 출력 데이터 스트림을 생성하기 위한 장치, 비디오 소스, 비디오 시스템 및 비디오 출력 데이터 스트림 및 비디오 소스 데이터 스트림을 생성하기 위한 방법{Device for Generating a Video Output Data Stream, Video Source, Video System and Method for Generating a Video Output Data Stream and a Video Source Data Stream}
본 발명은 비디오 믹서와 같은 비디오 출력 데이터 스트림을 생성하기 위한 장치, 비디오 소스, 비디오 시스템 및 비디오 출력 데이터 스트림 및 비디오 소스 데이터 스트림을 생성하기 위한 방법과 관련된다. 게다가, 본 발명은 여러 개의 카메라를 포함하는 라이브-가능한 비디오 제작 시스템에서 특별한 비디오 효과들의 분산된 제작 및 프로그램과 관련된다.
여러 카메라들을 포함하는 라이브 비디오 제작의 워크 플로우(workflow)는 카메라들의 비디오 스트림들이 실시간으로 비디오 믹서로 전송되는 단순화된 방식으로 기술될 수 있다. 디렉터(director)는 카메라들 중 어느 것이 전송 중인지를, 다시 말해 "온 에어(on air)"가 되도록 스위칭되는지를 결정한다. 그런 다음에, 비디오 스트림은 로고들, 그래픽들 또는 텍스트들과 같은 페이드-오버들(fade-overs)과 함께 제공될 수 있다. 그 후, 출력 스트림은 인코딩되고 네트워크(예를 들어, 인터넷, 위성 또는 케이블)를 통해 소비자들에게 사용가능하게 된다.
카메라들 사이에서 스위칭될 때, 전이효과(transition effect)들이 자주 사용된다. 실시간으로 전이효과들을 추가하는 것은 시장의 많은 비디오 믹서들에 의해 지원된다. 그러나, 이들은 대부분 고가의 장치들이다. 이들은 압축되지않은 비디오 신호들을 위한 입력들 및 압축된 비디오 스트림들의 인터넷 프로토콜(IP)-기반 전송을 위한 네트워크 인터페이스들을 포함한다. 수신되는 인코딩된 비디오 데이터는 먼저 디코딩된다. 믹싱(mixing)은 이후에 다시 인코딩되는 압축되지않은 비디오 데이터를 기반으로 이루어진다. 이런 접근은 비디오 믹서의 하드웨어에 대한 그리하여 비디오 믹서의 가격에 대한 높은 요구 사항들을 의미한다.
많은 저렴한 라이브 제작들을 위해, 특히 준-전문가들(semi-professionals) 또는 아마추어들에 의해 행해질 때, 비디오 믹서가 제공해야 하는 기능들은 적은 수로 충분하다. 여러 카메라들이 제작을 위해 사용되는 경우, 중요하거나 또는 가장 중요한 기능은 카메라들 간의 스위칭이 용이한 것이다. 간단한 수단들을 이용한 독창적인 방식으로 스위칭이 실행될 수 있을 때, 방송의 질적인 측면이 상당히 향상된다.
전용 하드웨어 비디오 믹서는 연결된 카메라들의 들어오는(ingoing) 비디오 스트림들을 디코딩하고, 비디오 효과들을 계산하고, 그리고 결과 비디오 스트림들을 인코딩하거나 또는 출력 스트림을 별도의 인코더로 전달한다. 이러한 솔루션(solution)의 장점들은 광범위한 기능들, 매우 양호한 성능 및 인코딩된 그리고 인코딩되지 않은 비디오 소스들을 결합하는 방법이다. 게다가, 이런 솔루션은 확립된 워크 플로우의 구성 요소이다. 단점들은 복잡한 작동, 높은 가격, 장치의 제한된 이동성 및 비디오 믹서에 의해 수행되는 높은 계산 복잡도이다.
기존의 개인용 컴퓨터들(PCs)에서 실행되는 소프트웨어 비디오 믹서들이 있다. 이들의 기능의 범위는 전용 하드웨어 비디오 믹서들의 기능의 범위와 유사하며 사용된 PC의 하드웨어 리소스들(resources)에 의해 제한된다.
라이브 비디오 믹서들로서 제공되는 휴대폰들이나 태블릿 컴퓨터들과 같은 모바일 장치들을 위한 소프트웨어 솔루션들이 또한 존재한다. 예를 들어, 소프트웨어는 네 개의 모바일 장치들을 연결하여 그룹을 형성하고, 그리고 "카메라"로서 작동하는 장치에서 "디렉터(director)" 장치인 비디오 믹서로 라이브로 전송되는 인코딩된 비디오 스트림들을 가진다. 디렉터 장치는 비디오 스트림들 간의 스위칭을 제어한다. 소프트웨어는 카메라들 사이의 스위칭 시에 페이드-오버 효과들을 추가하도록 허용한다. 출력 비디오는 레코딩(recording)이 끝난 후에 오프라인으로 병합된다. 따라서, 레코딩하는 동안 “디렉터”에 의해 생성되는 스텝 마크들(step marks)이 사용된다. 페이드-오버 효과들의 생성은 레코딩의 일부들의 디코딩 및 인코딩을 필요로 한다.
오늘날에는 클라우드-기반 솔루션들이 또한 존재한다. 카메라들은 인코딩된 비디오 스트림들을 실시간으로 데이터를 처리하기 위해 필요한 리소스들을 가지는 서버로 전송한다. 디렉터는 웹 인터페이스를 사용하여 모든 비디오/오디오 소스들의 미리보기, 자르기, 효과들 등과 같은 제어 엘리먼트들에 대한 접근이 허용된다. 필요한 성능을 추가로 구매할 수 있기 때문에 이러한 솔루션들의 장점들 중 하나는 향상된 확장성(scalability)이다. 게다가, 서버 가격이 특수 하드웨어를 구입하는 비용보다 적다. 그러나, 여기서 가용 채널 대역폭 또는 잠재적인 전송 에러들과 같은 네트워크 연결의 품질 특징들이 중요하다. 이는 이런 솔루션의 적용 분야를 제한한다.
[1] 및 [2]는 완전히 동일하게 미리 디코딩을 해야할 필요없이 인코딩된 비디오 데이터에 직접적으로 전이 효과들을 생성하는 것을 허용하는 방법들을 기술한다. 이런 방법들은 비디오 처리의 복잡성을 줄이고 비디오 믹서 하드웨어에 대한 요구사항들을 감소시킨다.
그 결과, 비디오 믹서의 프로세서에 대하여 요구되거나 또는 제공되는 컴퓨팅 성능(computing performance)과 같은 낮은 하드웨어 요구 사항들의 비디오 믹서들이 바람직할 것이다.
본 발명의 근본적인 목적은 전이 효과들을 가지는 비디오 출력 데이터 스트림을 생성하기 위한 라이브 또는 실시간-가능(real time capable) 장치를 제공하는 것이고, 장치는 단지 낮은 컴퓨팅 성능 만을 요구하며 그 결과 에너지 및/또는 컴퓨터 성능에 대한 요구 사항들이 낮다.
이런 목적은 독립항들의 기술 내용에 의해 달성된다.
본 발명의 중심 아이디어는 상기 목적이 두개의 비디오 소스들 간의 스위칭 시에 비디오 출력 데이터 스트림의 전이 효과들이 이미 비디오 소스에 의해 적용되어, 다시 말해 실현되어 그 결과 스위칭 효과들(전이 효과들)을 포함하는 비디오 출력 데이터 스트림이 비디오 소스 데이터 스트림들 간의 간단한 스위칭에 의해 획득될 수 있다는 사실에 의해 달성될 수 있음을 인식하고 있는 것이다. 이것은 비디오 출력 데이터 스트림을 생성하기 위한 장치의 일부에서 계산의 복잡성들을 줄일 수 있고, 그리하여 하드웨어에 대한 기술적이 요구사항들이 줄어들고, 장치의 동작이 효율적이며, 다시 말해 단지 조금의 계산들 그리고 낮은 에너지 소비에 의해 행해질 수 있고, 그리고/또는 장치의 설치 크기가 줄어든다.
실시예에 따르면, 비디오 출력 데이터 스트림을 생성하기 위한 장치는 제1 및 제2 비디오 소스 데이터 스트림을 수신하기 위한 제1 및 제2 신호 입력을 포함한다. 또한, 장치는 제1 시점에서의 제1 비디오 소스 데이터 스트림에 기초하고, 스위칭 프로세스에 의해, 제1 시점에 후속하는 제2 시점에서의 제2 비디오 소스 데이터 스트림에 기초하여 비디오 출력 데이터 스트림을 제공하도록 구성된 프로세서 수단을 포함한다. 게다가, 장치는 비디오 소스에 제어 커맨드를 전송하기 위한 제어 신호 출력을 포함하며, 제1 또는 제2 비디오 소스 데이터 스트림은 비디오 소스로부터 수신된다. 제어 커맨드는 제공되는 비디오 소스 데이터 스트림, 또는 이미지들의 시퀀스(sequence)에 전이효과를 적용하기 위한 비디오 소스에 대한 명령을 포함한다. 전이효과는 시간적으로 비디오 출력 신호에서 제1 및 제2 비디오 소스 데이터 스트림의 이미지 사이에 위치한다. 디코딩없는 스위칭, 계산, 및/또는 전이효과의 적용 또는 수신되는 비디오 소스 데이터 스트림의 인코딩은 장치의 효율적인 동작을 허용한다.
다른 실시예에 따르면, 프로세서 수단은 비디오 소스의 프로세서 수단과 시간-동기 방식(a time-synchronous manner)으로 프로그램 코드를 처리하도록 구성되고, 다시 말해 비디오 출력 데이터 스트림을 생성하기 위한 장치는 하나, 여러 개 또는 모든 비디오 데이터 소스들과 함께 동기화된다. 이런 실시예의 장점은 장치 및 비디오 소스들에 대한 공통 시간 베이스(common time base)에 기초하여, 비디오 출력 데이터 스트림에서의 전이효과의 정확한 시간적 포지셔닝이 가능하다는 점이다.
다른 실시예에 따르면, 전이효과는 제1 서브-효과 및 제2 서브-효과를 포함한다. 장치는 제1 비디오 소스에 제1 서브-효과를 적용하기 위한 제1 명령과 함께 제1 제어 커맨드를 전송하고, 제2 비디오 소스에 제2 서브-효과를 적용하기 위한 제2 명령과 함께 제2 제어 커맨드를 전송하도록 구성된다. 이런 실시예의 장점은 전이효과들 또는 서브-전이 효과들의 계산 및 구현이 비디오 소스들에서 분산 방식으로 수행될 수 있고, 그리하여 개별 비디오 소스들에 대한 계산 복잡성들이 감소된다는 점이다. 게다가, 전이효과들이 제공될 수 있으며, 즉, 페이드-아웃(fade-out) 동안과 같이 제1 비디오 소스에 의해 스위칭되기 전에, 그리고 페이드-인(fade-in) 동안과 같이 제2 비디오 소스에 의해 스위칭 된 후에도 모두에서 적용 가능하다.
다른 실시예에 따르면, 장치는 제1 또는 제2 비디오 소스 데이터 스트림을 조작하지 않고, 비디오 출력 데이터 스트림으로서 전이효과를 포함하는 제1 또는 제2 비디오 소스 데이터 스트림을 제공하도록 구성된다. 이런 실시예의 장점은 장치는 비디오 소스 데이터 스트림들 사이에 연결될 수 있는 전환 스위치(change-over switch), 즉, 스플리터(splitter) 또는 스위치에서처럼 구현될 수 있고), 그리고 싱글 비디오 소스 데이터 스트림만이 비디오 출력 데이터 스트림으로서 전달되거나 또는 제공되고, 그리하여 비디오 출력 데이터 스트림은 추가적으로 감소된 계산 복잡성으로 제공될 수 있다는 점이다.
다른 실시예에 따르면, 비디오 소스 데이터 스트림을 출력하기 위해 구성되는 비디오 소스는 비디오 출력 데이터 스트림을 생성하기 위한 장치로부터 제어 커맨드를 수신하기 위한 신호 입력을 포함한다. 제어 커맨드는 비디오 소스 데이터 스트림에 전이효과를 적용하기 위한 명령을 포함하고, 명령은 듀레이션(duration), 시작 시점, 최종 시점, 맵핑, 전이효과의 종류 또는 강도 중 적어도 하나와 관련된다. 이런 실시예의 장점은 전이효과의 구현이 비디오 소스에 의해 비디오 소스 데이터 스트림을 인코딩하기 전에 이미 이루어질 수 있다는 점이다.
다른 실시예에 따르면, 비디오 소스는 비디오 출력 데이터 스트림을 생성하기 위한 장치의 프로세싱 수단과 함께 시간-동기 방식으로 프로그램 코드를 처리하도록 구성되는 프로세서 수단을 포함한다.
다른 실시예에 따르면, 비디오 소스는 이미지 신호 프로세싱 체인에 영향을 주는 것에 기초하여 또는 그래픽 프로세서 수단에 기초하여 전이효과를 적용하도록 구성된다. 이런 실시예의 장점은 그래픽 프로세서 수단의 높은 계산 효율성이 전이효과를 구현하기 위해 사용될 수 있다는 점이다.
추가 실시예들은 비디오 출력 데이터 스트림을 생성하기 위한 장치, 제1 및 제2 비디오 소스를 포함하는 비디오 시스템을 제공한다.
추가 실시예들은 비디오 출력 데이터 스트림을 생성하기 위한 방법, 비디오 소스 데이터 스트림을 출력하기 위한 방법과 관련된다. 추가 실시예들은 컴퓨터 프로그램과 관련된다.
추가 바람직한 구현들은 종속항들에 제시된다.
이하, 본 발명의 바람직한 실시예들은 첨부된 도면들을 참조하여 후속적으로 상세히 설명될 것이다.
도 1은 일 실시예에 따라 비디오 출력 데이터 스트림을 생성하기 위한 장치, 제1 비디오 소스 및 제2 비디오 소스를 포함하는 비디오 시스템의 도식적인 블록 회로도를 도시한다.
도 2a 내지 도 2d는 일 실시예에 따라 비디오 출력 데이터 스트림을 생성하기 위한 장치의 스위칭 시점과 관련하여 다른 시점들에서 카메라들로 구현되는 비디오 소스들의 도시적인 도면들이다.
도 2a는 전이효과가 적용되지 않는 시점을 도시한다.
도 2b는 제1 비디오 소스가 제1 전이효과를 나타내고 비디오 출력 스트림이 전이효과를 포함하는 시점을 도시한다.
도 2c는 제2 비디오 소스가 제2 전이효과를 나타내고, 비디오 출력 스트림을 생성하는 장치가 스위칭되고 비디오 출력 스트림이 전이효과를 포함하는 시점을 도시한다.
도 2d는 제1 및 제2 전이효과가 종료되는 시점을 도시한다.
도 3은 도면들을 참조하여 일 실시예에 따른 비디오 소스 데이터 스트림들 및 비디오 출력 데이터 스트림의 개략적인 비교를 도시한다.
본 발명의 실시예들이 도면들을 참조하여 아래에서 더 상세하게 설명되기 전에, 서로 다른 도면들에서 동일한 구성요소들, 목표들 및/또는 구조들 또는 동등한 기능 또는 동등한 효과의 구성요소들, 목표들 및/또는 구조들은 동일한 도면부호들로 제공되고, 그리하여 상이한 실시 예들에 도시된 이러한 구성요소들의 설명이 상호 교환 가능하거나 상호 적용 가능하다.
도 1은 비디오 출력 데이터 스트림(102)을 생성하기 위한 장치(100), 제1 비디오 소스(200a) 및 제2 비디오 소스(200b)를 포함하는 비디오 시스템(1000)의 개략적인 블록 회로도를 도시한다. 비디오 소스(200a, 200b)는 예시적으로 비디오 소스 데이터 스트림(202a, 202b)을 출력하도록 구성된 카메라 또는 저장 매체일 수 있다. 비디오 소스 데이터 스트림들(202a 및/또는 202b)은 예시적으로 암호화되지 않거나, 압축되지 않거나, 암호화되거나 또는 인코딩된 비디오 신호들일 수 있다. 바람직하게, 비디오 소스 데이터 스트림들(202a, 202b)는 인코딩된, 다시 말해 압축된, 비디오 신호들이다.
이어서, 먼저 참조는 장치(100)의 기능적인 모드 및 구조에 대하여 이루어진다. 그 후에, 비디오 소스들(200a, 200b)의 기능적인 모드 및 구조가 설명될 것이다.
장치(100)는 (제 1)비디오 소스 데이터 스트림(202a)을 수신하기 위한 제1 신호 입력(104a) 및 (제 2)비디오 소스 데이터 스트림(202b)을 수신하기 위한 제2 신호 입력(104b)을 포함한다. 게다가, 장치(100)는 비디오 출력 데이터 스트림(102)을, 예를 들어, 매체 또는 분산 네트워크 및/또는 (비디오)리플레이 장치로 출력하기 위한 신호 출력(106)을 포함한다.
장치(100)는 비디오 소스들(200a 및/또는 200b)에 제어 커맨드를 전송하기 위한 제어 신호 출력(112)를 포함한다. 제어 커맨드는 비디오 출력 데이터 스트림(102)에서 재생성되거나 또는 재생성되어야하는 전이효과를 적용하기 위한 비디오 소스(200a, 200b)에 대한 명령(instruction)을 포함한다.
장치(100)는 비디오 출력 데이터 스트림(102)을 생성하거나 그리고/또는 제공하도록 구성되는 프로세서 수단(130)을 포함한다. 프로세서 수단(130)은 예를 들어 비디오 출력 데이터 스트림(102)을 생성하기 위해 비디오 소스 데이터 스트림들(202a, 202b) 사이에서 스위칭하도록 구성되고, 그리하여 비디오 출력 데이터 스트림(102)은 제1 시점에서 비디오 소스 데이터 스트림(202a)에 의해 정의되고 그리고 제2 시점에서 비디오 소스 데이터 스트림(202b)에 의해 정의된다. 하드 스위칭으로서 또는 언급되는 스위칭은 두 개의 연속적인 시점들 사이에서 행해질 수 있다. 간략화된 방식으로 표현하면, 프로세서 수단(130)은 스위치 또는 스플리터(splitter)로서 기능하여 비디오 소스 데이터 스트림(202a) 또는 비디오 소스 데이터 스트림(202b)을 전달하고 비디오 출력 데이터 스트림(102)과 동일한 것을 제공하도록 구성된다. 장치(100)는 각각의 신호를 디코딩, 변경 및 인코딩하지 않고, 다시 말해 신호를 조작하지 않고, 시간-선택적 방식(time-selective manner)으로 각각의 비디오 소스 신호(202a 또는 202b)를 통과시킬 수 있다.
게다가, 프로세서 수단(130)은 예를 들어 TCP/IP (전송 제어 프로토콜/인터넷 프로토콜), WLAN(Wireless Local Area Network, 무선 근거리 통신망) 및/또는 유선 통신 프로토콜과 같은 통신 프로토콜과의 비디오 출력 데이터 스트림(102)의 호환성을 허용하기 위해, 전달될 각각의 비디오 소스 데이터 스트림(202a 또는 202b)을 인코딩하고 그리고 추가적으로, 즉 그때까지 사용된 범위를 넘어서 각각의 비디오 소스 데이터 스트림을 인코딩하도록 구성될 수 있다. 게다가, 비디오 출력 데이터 스트림(102)이 파일 포맷으로 저장될 수 있도록 인코딩이 또한 수행될 수 있다.
비디오 소스 데이터 스트림들(202a, 202b) 간의 스위칭(132)은 사용자 인터페이스(118)에서 장치(100)에 의해 수신되고 프로세서 수단(130)으로 전달되는, 즉, 프로세서 수단(130)으로 제공되는 사용자 입력(116)에 의해 트리거(trigger)될 수 있다. 사용자 인터페이스(118)는, 예를 들어, 스위칭(132)이 장치(100) 또는 그것의 입력 장치에서 버튼을 누르는 것에 기초하여 트리거되는 경우와 같이 유선 인터페이스일 수 있다. 대안적으로, 사용자 인터페이스(118)는 예를 들어 무선 원격 조종에 의해 무선으로 사용자 입력(116)을 수신하는 경우와 같이 무선 인터페이스일 수 있다.
스위칭 프로세스 동안, 다시 말해 스위칭 시점 이전의 시간 간격에서 그리고/또는 스위칭 시점 이후의 시간 간격에서, 비디오 출력 데이터 스트림(102)에서의 전이효과를 통합하는 것이 바람직할 수 있다. 전이효과는 예시적으로 그래픽들 또는 이미지와 함께 비디오 소스에 의해 제공되는 신호 또는 이미지들의 시퀀스의 페이딩 인, 페이딩 아웃, 개별 또는 여러 색깔 강도들의 변화 또는 콘트라스트(contrast) 및/또는 페이딩 오버를 포함할 수 있다. 대안적으로 또는 부가적으로, 전이효과는 이미지 출력의 왜곡, 이미지의 (의사(pseudo)-)무작위 변경 및/또는 모자이크 효과와 같은 결정론적 또는 확률론적 매핑 기능을 포함할 수 있다.
장치(100)는 제어 커맨드가 비디오 소스(200a 및/또는 200b)로 하여금 대응하는 전이효과를 비디오 소스에 의해 제공되는 비디오 소스 데이터 스트림(200a 및/또는 200b)으로 적어도 부분적으로 통합시키기 위한 명령을 포함하도록, 상응하게 제어 커맨드(114)를 구성하도록 구성된다.
장치(100)는 예를 들어, 비디오 믹서로서 같이 구현될 수 있다. 대안적으로 또는 부가적으로, 장치(100)는 모바일 전화 또는 태블릿 컴퓨터와 같은 모바일 장치로서 또는 개인용 컴퓨터(PC)로서 구현될 수 있다. 제1 및 제2 신호 입력들(104a, 104b) 역시 네트워크 또는 무선 인터페이스와 같은 공통 인터페이스를 형성하기 위해 통합될 수 있다.
이어서, 비디오 소스 장치들(200a, 200b)의 기능적인 모드가 설명될 것이다. (이하, '비디오 소스 장치'와 '비디오 소스'가 혼용될 수 있으며, 양자는 모두 하드웨어적인 장치를 지칭함이 이해되어야 할 것이다).
비디오 소스들(200a, 200b)는 비디오 소스(200a, 200b)가 제어 커맨드(114)를 수신하는 신호 입력(204a, 204b)를 각각 포함한다. 비디오 소스(200a)는 복수의 이미지들이 저장되고 복수의 이미지들로 이미지들의 시퀀스(212)를 검색하도록 구성되는 카메라 칩(210) 또는 데이터 스토리지(210)와 같은, 이미지들의 시퀀스(212)를 제공하기 위한 장치(210)를 포함한다. 비디오 소스(200a)는 추가적으로 장치(210)로부터 이미지들의 시퀀스(212)를 수신하고 이들을 전이효과와 적어도 부분적으로 중첩(superimpose)시키도록 구성된 프로세서 수단(220)을 포함한다. 이것은 이후에 전이효과에 의한 비디오 정보의 중첩으로서 언급될 것이다.
프로세서 수단(220)은 추가적으로 비디오 소스 신호(202a)를 생성하고 그리고/또는 제공하도록 구성된다. 프로세서 수단(220)은 중앙 처리 장치(CPU), 마이크로 컨트롤러, 필드-프로그래머블 게이트 어레이(FPGA) 등과 같은 비디오 소스의 프로세서일 수 있다. 비디오 소스(200a)는 전이효과에 기초하여 비디오 소스 데이터 스트림(202a)을 출력하도록 구성되고, 또는 비디오 소스 데이터 스트림(202a)은 중첩 효과를 적용할 때 전이효과를 포함한다. 대안적으로 또는 추가적으로, 비디오 소스는 하드웨어-가속 이미지 신호 프로세서(ISP)에서의 개입(intervention)에 기초하여 그리고/또는 그래픽 프로세서 수단에 의한 이미지 프로세싱에 기초하여 전이효과를 적용하도록 구성될 수 있다. 이것은 작은 시간 간격 및/또는 적은 개수의 계산 동작들 내에서 전이효과의 실현을 허용한다.
비디오 소스(200)는 비디오 소스 신호(202a)를 전송하도록 구성된 출력 인터페이스(206)를 포함한다. 전송은 네트워크에 의해서 또는 장치(100)로의 직접 케이블 연결에 의해서와 같이 유선-연결(wire-bound)일 수 있다. 대안적으로, 전송은 또한 무선일 수 있다. 다시 말해서, 신호 입력들(104a, 104b, 112, 204a, 204b 및/또는 206)은 유선 또는 무선 인터페이스들로 구현될 수 있다.
비디오 소스(200)는 그래픽을 저장하고 프로세서 수단(220)에 그래픽을 제공하도록 구성되는 선택적 그래픽 메모리(230)를 포함한다. 그래픽은 예시적으로 장치(210)에 의해 제공되는 이미지들에 의해 적어도 가끔 중첩되는 로고 또는 연속적인 또는 일정한 이미지 효과일 수 있다. 대안적으로, 비디오 소스(200a 및/또는 200b)는 컴퓨터와 같은 다른 장치로부터 또는 장치(100)로부터 상응하는 그래픽들을 수신하도록 구성될 수 있다. 예를 들어, 이것은 제어 커맨드(114)가 전송되는 채널과 같은 별도의 또는 이미 존재하는 전송 채널에 의해 발생될 수 있다.
예를 들어, 비디오 소스들(200a, 200b)은 (아마도 상이한 뷰 앵글들로부터의) 동일한 물체 구역(object region)들과 같은 동등하거나 또는 상이한 물체 구역들 또는 사람 및/또는 풍경의 경치들과 같은 상이한 (스포츠)이벤트들 또는 다른 레코딩들을 검출하는 두개의 카메라들로 구현될 수 있다. 대안적으로 또는 추가적으로, 비디오 소스들(200a, 200b) 중 적어도 하나는 하드 디스크 드라이브와 같은 비디오 메모리로 구현될 수 있다. 대안적으로, 비디오 시스템(1000)은 추가적인 비디오 소스들을 포함할 수 있다.
앞선 설명들에서의 비디오 시스템(1000)의 개별적인 구성요소의 기능을 기술한 후, 비디오 시스템의 기능, 다시 말해 개별적인 구성요소들의 협력에 대해 아래에서 설명될 것이다.
전이효과는, 예를 들어, 사용자에 의한 비디오 소스 데이터 스트림(202a)에서 비디오 소스 데이터 스트림(202b)으로의 하나 또는 여러개의 전이들에서 또는 그와 반대의 전이들에서 바람직할 수 있다. 대응하는 사용자 입력(116)은 예를 들어, 인터페이스(118)에 의해 수신될 수 있다. 전이효과에 관련된 정보는 제어 커맨드(114)에 의해 관계된 각각의 또는 모든 비디오 소스들(200a 및/또는 200b)에 전송된다. 간단한 방식으로 설명하면, 장치(100)는 어느 시점들에서 스위칭 효과가 수행되어야 하는지에 대한 정보를 제공한다. 정보는 예를 들어, 전이효과의 수 또는 인덱스와 같은 식별, 전이효과의 듀레이션, 시작 시점, 최종시점, 전이효과의 타입 또는 강도와 관련된다. 제어 커맨드(114)는 구체적으로 비디오 소스(200a, 200b)에 전송될 수 있거나 또는 방송에 의해 모든 참가자들에게 전송될 수 있고, 그리하여 각각의 수신자, 즉, 비디오 소스(200a, 200b)는 메시지가 자신에 대해 결정되었다는 것을 인식한다.
만약 원하는 전이효과가 관계된 비디오 소스들(200a, 200b) 모두의 비디오 소스 데이터 스트림들(202a, 202b)의 조작 또는 수정을 포함하는 경우, 이러한 전이효과는 2개 또는 여러 개의 서브-효과들로 세분될 수 있다. 적어도 하나의 서브-효과는 각각의 비디오 소스(200a 및/또는 200b)의 이미지들의 시퀀스(212)에 적용될 수 있다. 예시적으로, 제1 비디오 소스 데이터 스트림에서 제2 비디오 소스 데이터 스트림으로의 전이효과(아마도 소프트(soft)로 지칭됨)는 제1 데이터 스트림의 페이드-아웃 효과 및 제2 데이터 스트림의 페이드-인 효과일 수 있다. 이러한 전이효과는 제1 전이 서브-효과(페이드-아웃 효과) 및 제2 전이 서브-효과(페이드-인 효과)로서 표현될 수 있다. 하나의 각각의 서브-전이효과는 비디오 소스들(200a 및/또는 200b) 중 하나에 의해 적용될 수 있다. 예시적으로, 비디오 출력 데이터 스트림(102)으로서 하나의 시점에 제공되는 비디오 소스 데이터 스트림(202)의 페이드-아웃 및 이어서 비디오 출력 데이터 스트림(102)에 포함되는 비디오 소스 데이터 스트림(202b)의 페이드-인은 비디오 소스(200a)에서 페이딩 아웃에 의해 실현될 수 있고 비디오 소스(200b)에서 페이딩 인에 의해 실현될 수 있다. 대안적으로, 전이효과는 예를 들어, 페이딩 아웃 또는 페이딩 어웨이 또는 단지 페이딩 인처럼 하나의 비디오 소스 데이터 스트림에서만 실현될 수도 있다.
비디오 소스들(200a 및/또는 200b)의 장치들(100, 220)의 프로세서 수단(130)은 서로 간에 시간적으로 동기화될 수 있고, 그리하여 개별적인 전이 효과들의 시간적인 매칭 포지셔닝이 설정될 수 있다. 시간적 동기화는 예를 들어, 제어 커맨드(114)가 전송되는 추가적인 전송 채널에 의해 획득되거나, 비디오 소스 데이터 스트림들(202a 및/또는 202b)이 전송되는 전송 채널에 의해 획득되거나 그리고/또는 장치(100)에 의해 그리고/또는 다른 채널들 상의 비디오 소스들(200a 및/또는 200b)에 의해 수신된 공통 동기화 신호에 의해 획득될 수 있다. 이것은 장치(100)에 의한 전이효과들과 함께 또는 전이효과들 없이 비디오 스트림들(202a, 202b)의 추가적인 동기화를 생략하게 허용한다.
비디오 소스들(200a 및/또는 200b)은 가변 비트 레이트(bit rate)에서 각각의 비디오 소스 데이터 스트림(202a 및/또는 202b)을 출력하도록 추가적으로 구성될 수 있다. 예시적으로, 이것은, 자신의 비디오 소스 데이터 스트림이 현재 출력 데이터 스트림(102)으로 삽입되지 않는, 비디오 소스(들)에 대하여 낮은 품질로, 즉, 낮은 비트 레이트로 오직 (비디오)정보 만을 전송하고, 예를 들어, 자신의 비디오 소스 데이터 스트림이 비디오 출력 스트림에 통합된, 비디오 소스의 비트 레이트를 동일하거나 또는 더 높은 비트 레이트 및/또는 품질로 전송하기 위해 충분할 수 있다. 특히, 예를 들어, 공통의 라디오 매체 또는 공통의 유선 네트워크와 같은 공통적으로 사용되는 전송 매체를 이용하여 장점이 될 수 있다.
예시적으로, 전달된 각각의 비디오 소스(200a 및/또는 200b)는 높은 또는 최대 비트 레이트로 비디오 신호들(202a 및/또는 202b)을 생성할 수 있고, 반면에 현재 사용하지 않는 비디오 소스 데이터 스트림들의 낮은 해상도에서의 삽화(illustration) 또는 썸네일 뷰는 스위칭이 발생하는지를 평가하기 위해 장치(100)를 사용하거나 또는 전이효과를 개시하거나 그리고/또는 비디오 소스 데이터 스트림들(202a 및/또는 202b)을 관찰하는 운영자에게 충분할 수 있다. 각각의 비디오 소스는 각각의 비디오 소스 데이터 스트림의 비트 레이트를 미리 결정된 값 또는 메시지에 포함된 값으로 변경시키기 위해 제어 커맨드(114) 또는 다른 메시지에 의해 지시될 수 있다. 대안적으로, 비디오 소스는 또한 예를 들어, 페이드-아웃 효과가 종료된 후의 비트 레이트를 감소시키기 위해 그리고/또는 페이드-인 효과의 시작 전에 또는 시작과 동시에 감소된 값으로부터 비트 레이트를 증가시키기 위해 자동으로 비트 레이트를 변경하도록 구성될 수 있다.
다시 말해서, 하나의 기본적인 아이디어는 전이효과를 만들어 내는 것은 카메라들에 의해 행해지도록 남겨진다는 것이다. 그리하여, 비디오 믹서, 다시 말해 비디오 출력 데이터 스트림을 생성하기 위한 장치에 대한 요구사항들은 상당히 감소된다. 예를 들어, 단지 인코딩된 형태로 하나 또는 여러개의 카메라들의 입력되는 비디오 스트림들을 수신할 수 있고, 출력 비디오 스트림으로서 스트림들 중 하나를 출력할 수 있을 것이다. 게다가, 비디오 믹서는 모니터 상에서처럼 입력되는 비디오 스트림들을 표시하거나 모니터에 비디오 스트림들을 제공할 수 있다. 따라서, 비디오 믹서는 예를 들어, 비디오 스트림들의 디코딩을 수행할 수 있다. 대안적으로, 디코딩은 모니터에서 수행 될 수도 있다. 따라서, 비디오 데이터의 재-코딩(re-cording)은 필요하지 않다. 추가적으로, 공통 시간 베이스를 가지도록, 다시 말해 동기화되도록 카메라들 및 비디오 믹서에 대한 전제조건 또는 추가 개발이 존재할 수 있다. 비디오 믹서와 부착된 카메라들(백(back) 채널) 간의 통신 방법이 또한 필요할 수 있다. 스위칭은 하드(hard) 방식으로 발생하거나 또는 전이효과가 발생될 수 있다. 하드 컷(hard cut)은 시간(T)의 스위칭 포인트 전에 출력 스트림으로서 스트림(S1)이 사용되고 비디오 스트림(S2)이 시간(T)에서 출력 스트림이 될 때 존재할 수 있다.
이것은 포스트 프로덕션(포스트 프로세싱)이나 값 비싼 믹서 하드웨어없이 실시간으로 카메라에서 직접 발생하도록 스위칭 효과들을 적용하기 위해 바람직하다. 게다가, 비디오 소스들의 대응하는 구성 요소들에서 부분 비디오 효과의 계산이 수행되는 경우, 효과들을 적용하여 발생하는 추가적인 시간 지연들이 형성되는 것을 방지 할 수 있다. 예를 들어, 이는 부분 비디오 효과의 계산을 카메라의 하드웨어-가속 이미지 프로세싱 체인에 통합함으로써 달성될 수 있다. 이는 또한 카메라 부분에 비디오 효과들을 생성하기 위해 추가적인 하드웨어 리소스들을 정렬하지 않고 설명된 개념을 실현할 수 있게 허용한다. 게다가, 비디오 믹서의 부분에 비디오 효과들을 생성하기 위한 추가적인 하드웨어 리소스들이 요구되지 않는다. 수신된 비디오 데이터의 레코딩이 필요하지 않는다. 부분 전이효과가 그래픽 프로세서 수단에 의해 처리되는 경우, 전이효과의 추가에 의한 최소 시간 지연이 획득될 수 있다.
도 2a-2d는 스위칭 시점과 관련하여 다른 시점들에서, 카메라들로서 구현되는, 비디오 소스들(200a, 200b)의 개략적인 도면들을 나타낸다. 비디오 소스들(200a, 200b)은 각각 비디오 소스 데이터 스트림(202a, 202b)을 장치(100, 비디오 믹서)로 전송한다. 게다가, 도 2a 내지 2d는 비디오 출력 데이터 스트림(102)의 컨텐트(content)를 도시한다.
도 2a는 시점들(k<TS1)에서 비디오 소스(200a)가 장치(100)로 S1으로 명명된 비디오 소스 데이터 스트림(202a)을 제공하고 비디오 소스(202b)가 장치(100)로 S2로 명명된 비디오 소스 데이터 스트림(202b)를 제공하는 것을 개략적으로 도시한다. 장치(100)는 비디오 소스 데이터 스트림(202a)에 기초하여 비디오 출력 데이터 스트림(102)을 생성하거나 또는 비디오 출력 데이터 스트림(102)을 제공한다. TS1은 비디오 소스(200a)에 의해 적용되는 Tmax1의 듀레이션의 전이(서브-)효과의 시작 시점과 관련된다. 도시된 시점들(k) 데이터 스트림들(202a 또는 202b) 중 하나에서 전이효과의 도시의 시작 이전에 있으며, 은 “k < TS1”에 의해 기술된다. 시점(TS1)에서, 시점 k = TS1 + Tmax1일 때까지 전이효과는 비디오 소스 데이터 스트림(202a)에 적용되어 수정된 비디오 소스 데이터(S'1)가 발생한다.
도 2b에 도시되고 S'1에 표시되는 바와 같이, 비디오 소스(200a)는 시점(TS1)보다 크거나 같고 TS1 + Tmax1보다 작거나 같은 시점들(k)에서 수정된 비디오 소스 데이터 스트림(S'1)을 제공한다. 이는 비디오 출력 데이터 스트림(102)의 용어 S'1에 의해 표시되는 바와 같이, 비디오 출력 데이터 스트림 (102)에 포함된 전이효과를 초래한다.
도 2c는 스위칭 프로세스 이후의 비디오 출력 데이터 스트림(102)을 개략적으로 도시한다. 비디오 소스(200b)는 듀레이션(Tmax2) 동안 시점(Ts2)에서 시작하여 비디오 소스 데이터 스트림(202b)에서의 (부분적인) 전이효과를 구현하고, 그리고 용어 S'2에 의해 표시되는 이러한 방식으로 수정된 비디오 소스 데이터 스트림(202b)을 출력하도록 구성된다. 따라서, 비디오 믹서 또는 장치(100)는 비디오 소스 데이터 스트림(202b)에 기초하여 비디오 출력 데이터 스트림(102)이 생성되거나 또는 제공되도록 구성된다. 이것은, 도 2b에 도시된 상황과 대조적으로, 시점(TS2)에서, 장치 (100)가 동일 결과를 출력하기 위해 비디오 소스 데이터 스트림(202a)으로부터 비디오 소스 데이터 스트림(202b)으로 스위칭함을 의미한다.
비디오 소스 데이터 스트림(202b)에서의 전이 효과의 종료 후, 다시 말해 k> TS2 + Tmax2인 시점들에서, 그리고 도 2d에 개략적으로 도시된 바와 같이, 중첩 효과에 의한 스트림(S2)의 중첩은 종료되고, 그리하여 비디오 소스(200b)는 (수정되지 않은) 스트림(S2)을 제공한다. 비디오 소스(200b)는 전이효과에 의해 중첩되거나 또는 변경되지 않는 비디오 소스 데이터 스트림(202b)(S2)을 제공하며, 이는 비디오 소스 데이터 스트림(202b)에 기초하여 제공되는 비디오 출력 데이터 스트림(102)에서 장치(100)의 수정되지 않은 구성을 초래한다.
대안적으로, 장치(100)는 비디오 소스 데이터 스트림(202a 및/또는 202b)이 전이 (서브-)효과를 포함하는 다른 시점에서 비디오 소스 데이터 스트림들(202a 및 202b) 사이에서 스위칭하도록 구성될 수 있다. 예시적으로, 비디오 소스들(200a 또는 200b) 중 하나만이 전이 효과를 적용 할 때, 이런 효과의 듀레이션 동안 스위칭이 발생할 수 있다. 스위칭은 제1 비디오 소스 데이터 스트림(202a)의 총 페이딩 아웃이 요구되지 않고 바람직하지도 않은 경우처럼, 전이 (서브-)효과의 시작 시에 또는 종료 시에 또는 듀레이션 동안 발생할 수 있다.
스위칭이 전이효과와 함께 발생할 때, 비디오 소스들(카메라들)(K1, K2)로 각각의 메시지가 전송되고, 이러한 메시지는 예를 들어, 효과의 종류, 페이드-인, 페이드-아웃, 효과의 길이(Tmax) 및/또는 각각의 부분적인 효과의 시작 또는 최종 시점과 같은 부분 전이효과를 기술한다. 각각의 비디오 소스에서 시작 시점은 최종 시점 및 효과의 듀레이션으로부터 확립될 수 있다.
효과의 시작 시점에서, 이미지 프로세싱(아마도 실시간으로)에 영향을 미치는 루틴은 카메라에서 시작될 수 있다. 일반적으로, 이러한 루틴은 맵(f(k))으로서 또한 정의될 수 있다.
f(k): Bk → B'k, TS ≤≤ k ≤≤ TS + Tmax
맵(f(k))은 시점(k)에서 가져오거나 재생성된 이미지(Bk)를 이미지(B'k)에 맵핑한다. 특별한 맵(fi(k))은 가능한 각각의 부분적인 효과 i에 대해 정의될 수 있다. 예를 들어, 맵은 왜곡, 모자이크 효과 또는 임의의 다른 (서브-)효과들을 포함할 수 있다.
도 3은 도 2a 내지 도 2d를 참조할 때 비디오 소스 데이터 스트림들(202a, 202b) 및 비디오 출력 데이터 스트림(102) 간의 개략적인 비교를 도시한다. 신호들(202a, 202b, 102)는 동기화되고, 이는 신호들이 동일한 시간 베이스를 포함한다는 것을 의미한다. 예시적으로, 하나의 (서브-)이미지는 각각 임의의 시점(k)에서 비디오 소스 데이터 스트림들(202a, 202b) 각각에서 재생성된다.
k=Ts1을 만족하는 시점(k)에서, 전이효과에 의한 비디오 소스 데이터 스트림(202a)의 중첩이 듀레이션(Tmax1)과 함께 시작된다. 전이효과는 시점(k)이 k= TS1 + Tmax1 일 때 종료된다. 시점(k)이 TS1 ≤≤ k ≤≤ TS1 + Tmax1 일 때, 수정된 비디오 소스 데이터 스트림(S'1)은 장치(100)에 의해 수신된다. k=Ts2을 만족하는 시점(k)에서, 전이효과에 의한 비디오 소스 데이터 스트림(202b)의 중첩이 시작되고, 중첩은 듀레이션(Tmax2)을 포함하고, 그리고 시점(k)이 TS2 + Tmax2일 때까지 지속된다. 시점(k)이 TS2 ≤≤ k ≤≤ TS2 + Tmax2를 만족할 때, 수정된 비디오 소스 데이터 스트림(S'2)는 장치(100)에 의해 수신된다.
듀레이션들(Tmax1, Tmax2)은 동일하거나 또는 상호 상이할 수 있고, 각각의 전이효과 또는 전이 서브-효과에 기초할 수 있다. 시점(T)에서, 비디오 믹서는 스위칭하고, 그리하여 비디오 출력 데이터 스트림(102)는 시점(T) 이전에 비디오 소스 데이터 스트림(202a)에 기초하고, 시점(T)에서 시작하여 비디오 소스 데이터 스트림(202b)에 기초한다.
시점(k=T)은 시간적으로 시점(TS2) 또는 그 이후이고 시점(TS1 + Tmax1) 또는 그 이전이도록 정렬된다. 예시적으로, 시점(TS2)은 시점 TS1 + Tmax1에 대응하고, 그리하여 시점(T)는 두 시점들(TS1 + Tmax1 및 TS2)과 일치한다. 시점(TS1) 이전의 비디오 출력 신호(102)의 시간 경과는 도 2a에 도시된 상황에 대응한다. 시점(TS1)에서 시작하여 시점(T)까지의 상황은 마찬가지로 도 2b의 상황에 대응한다. 시점(T)에서 시작하여 시점(TS2 + Tmax2)까지, 상황은 도 2c에서 예시적으로 도시된다. 이후의 시점들, 즉, 비디오 소스(202)의 전이효과가 종료된 이후의 상황은 도 2d에 도시된다.
다시 말해서, 도 2a 내지 2d 및 도 3은 분산형 전이효과를 생성하는 전체 과정을 도시한다. 시점(Ts1) 이전에, 수정되지 않은 비디오 스트림(S1)은 비디오 믹서에 의해 출력된다.
TS1 ≤≤ k ≤≤ TS1 + Tmax1를 만족하는 시점들(k)에서, 카메라(K1) 상의 비디오 스트림은 맵(f1(k))에 의해 영향을 받고 S'1으로 지칭된다.
T ≤≤ TS1 + Tmax1을 만족하는 시점(k=T)(예를 들어, TS2)에서, 즉, 비디오 소스(200a)의 전이효과가 아직 종료되지 않은 시점에서, 비디오 믹서는 출력 스트림을 카메라(K2)의 출력으로 스위칭한다. T ≤≤ k ≤≤ TS2 + Tmax2를 만족하는 시점들(k)에서 카메라(K2) 상의 비디오 스트림은 맵(f2(k))에 의해 영향을 받고 S'2로 지칭된다.
시점(k TS2 + Tmax2 + 1)에서 시작하여, 수정되지 않은 비디오 스트림(S2)은 비디오 믹서에 의해 출력된다. 따라서, 전이효과의 생성이 종료되었다.
제안된 개념으로 인해 원하는 값싸고, 모바일 실시간-가능한 바람직한 비디오 믹서들을 구현할 수 있고, 만약, 운영자(사용자)가 원한다면, 이러한 비디오 믹서들은 단순한 스위칭 효과들을 생성할 수 있다.
예를 들어, 이것들은, 비디오 믹서로서 셀 폰 또는 컴퓨터, 태블릿 PC 등을 사용하는 여러개의 카메라들을 갖는 모바일 라이브 비디오 컨텐츠 제작 시스템들에 적용될 수 있다.
비록 전술한 실시예들은 프로세서 수단을 포함하는 비디오 믹서에 관련되지만, 본 발명의 실시예들은 프로그램 코드 또는 소프트웨어로서 구현될 수도 있다.
몇몇 양상들이 디바이스의 맥락 내에서 설명되더라도, 이러한 양상들은 대응하는 방법의 설명도 나타낸다는 것은 분명하며, 그 결과 디바이스의 블록 또는 엘리먼트는 개별적인 방법 단계 또는 방법 단계의 특징에도 대응한다. 마찬가지로, 방법 단계의 맥락 내에서 또는 방법 단계로서 설명되는 양상들은 대응하는 블록 또는 아이템의 설명이나 대응하는 디바이스의 특징도 나타낸다.
특정한 구현 요건들에 의존하면, 본 발명의 실시예들은 하드웨어 또는 소프트웨어로 구현될 수 있다. 구현은, 각각의 방법이 수행되도록 프로그래밍가능한 컴퓨터 시스템과 협력하거나 협력할 수 있는, 전자적으로 판독가능한 제어 신호들이 저장된 디지털 저장 매체, 예를 들어, 플로피 디스크, DVD, 블루-레이 디스크, CD, ROM, PROM, EPROM, EEPROM 또는 FLASH 메모리, 하드 드라이브 또는 임의의 다른 자기 또는 광학 메모리를 사용하여 수행될 수 있다. 따라서, 디지털 저장 매체는 컴퓨터 판독가능할 수 있다. 본 발명에 따른 몇몇 실시예들은 본 명세서에서 설명된 방법들 중 임의의 방법이 수행되도록 프로그래밍가능한 컴퓨터 시스템과 협력할 수 있는, 전자적으로 판독가능한 제어 신호들을 포함하는 데이터 캐리어를 포함한다.
일반적으로, 본 발명의 실시예들은 프로그램 코드를 갖는 컴퓨터 프로그램 물건(computer program product)으로서 구현될 수 있으며, 프로그램 코드는, 컴퓨터 프로그램 물건이 컴퓨터 상에서 구동되는 경우 방법들 중 임의의 방법을 수행하도록 구동될 수 있다. 예를 들어, 프로그램 코드는 머신-판독가능 캐리어 상에 저장될 수 있다.
다른 실시예들은, 본 명세서에 설명된 방법들 중 임의의 방법을 수행하기 위한 컴퓨터 프로그램을 포함하며, 상기 컴퓨터 프로그램은 머신-판독가능 캐리어 상에 저장된다.
다시 말해, 본 발명의 방법의 실시예는, 따라서, 컴퓨터 프로그램이 컴퓨터 상에서 구동되는 경우, 본 명세서에 설명된 방법들 중 임의의 방법을 수행하기 위한 프로그램 코드를 갖는 컴퓨터 프로그램이다. 본 발명의 방법의 추가적인 실시예는, 따라서, 본 명세서에 설명된 방법들 중 임의의 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 데이터 캐리어(또는 디지털 저장 매체, 또는 컴퓨터-판독가능 매체)이다.
본 발명의 방법의 추가적인 실시예는, 따라서, 본 명세서에 설명된 방법들 중 임의의 방법을 수행하기 위한 컴퓨터 프로그램을 표현하는 데이터 스트림 또는 신호들의 시퀀스이다. 데이터 스트림 또는 신호들의 시퀀스는, 예를 들어, 데이터 통신 연결을 통해, 예를 들어, 인터넷을 통해 전달되도록 구성될 수 있다.
추가적인 실시예는, 본 명세서에 설명된 방법들 중 임의의 방법을 수행하도록 구성 또는 적응되는 프로세싱 수단, 예를 들어, 컴퓨터, 또는 프로그래밍가능 로직 디바이스를 포함한다.
추가적인 실시예는, 본 명세서에 설명된 방법들 중 임의의 방법을 수행하기 위한 컴퓨터 프로그램이 인스톨된 컴퓨터를 포함한다.
몇몇 실시예들에서, 프로그래밍가능 로직 디바이스(예를 들어, 필드 프로그래밍가능 게이트 어레이, 즉 FPGA)는, 본 명세서에 설명된 방법들의 기능들 중 몇몇 또는 모두를 수행하기 위해 사용될 수 있다. 몇몇 실시예들에서, 필드 프로그래밍가능 게이트 어레이는, 본 명세서에 설명된 방법들 중 임의의 방법을 수행하기 위해 마이크로프로세서와 협력할 수 있다. 일반적으로, 몇몇 실시예들에서, 방법들은 바람직하게는 임의의 하드웨어 장치에 의해 수행된다. 이것은 컴퓨터 프로세서(CPU)와 같은 보편적으로 적용가능한 하드웨어일 수 있거나, ASIC와 같이 방법에 특정한 하드웨어일 수 있다.
위에서 설명된 실시예들은 단지 본 발명의 원리들의 예시를 표현할 뿐이다. 본 명세서에 설명된 어레인지먼트들 및 세부사항들의 임의의 변형들 및 수정들은 당업자에게 자명할 것이 이해된다. 따라서, 본 발명은 다음의 특허 청구범위의 범위에 의해서만 제한되도록 의도되며 본 명세서에서 서술 및 설명의 방식으로 제시된 특정 세부사항들에 의해서 제한되도록 의도되지 않는다.
참고문헌
[1] R. a. C. F. Kurceren, “Compressed Domain Video Editing,” in Acoustics, Speech and Signal Processing, 2006. ICASSP 2006 Proceedings. 2006 IEEE International Conference on, 2006.
[2] W. A. C. Fernando, C. C.N. and D. Bull, “Video special effects editing in MPEG-2 compressed video,” in Circuits and Systems, 2000. Proceedings, ISCAP 2000 Geneva. The 2000 IEEE International Symposium on, Geneva, 2000.

Claims (20)

  1. 비디오 출력 데이터 스트림(102)를 생성하기 위한 장치(100)에 있어서,
    제1 비디오 소스 데이터 스트림(202a)를 수신하기 위한 제1 신호 입력(104a);
    제2 비디오 소스 데이터 스트림(202b)를 수신하기 위한 제2 신호 입력(104b);
    제1 시점 (k<T)에서의 상기 제1 비디오 소스 데이터 스트림(202a)에 기초하고, 스위칭 프로세스(132)에 의해, 상기 제1 시점에 후속하는 제2 시점(k>=T)에서의 상기 제2 비디오 소스 데이터 스트림(202b)에 기초하여 상기 비디오 출력 데이터 스트림(102)을 제공하도록 구성된 프로세서 수단(130);
    상기 제1 비디오 소스 데이터 스트림(202a) 또는 상기 제2 비디오 소스 데이터 스트림(202b)이 수신되는 비디오 소스 장치(200a, 200b)에 제어 커맨드(114)를 전송하기 위한 제어 신호 출력(112)를 포함하고,
    상기 제어 커맨드(114)는 상기 비디오 출력 신호(102)에서 시간적으로 상기 제1 비디오 소스 데이터 스트림(202a)의 이미지 및 상기 제2 비디오 소스 데이터 스트림(202b)의 이미지 사이에 위치하는 전이효과(transition effect)를 적용하기 위한 상기 비디오 소스 장치(200a, 200b)에 대한 명령을 포함하고, 그리고 상기 비디오 소스 장치로부터 수신된 상기 비디오 소스 데이터 스트림은 적어도 부분적으로 상기 전이효과를 포함하고,
    상기 전이효과는 맵(f(k)), 페이드-인(fade-in) 효과, 페이드-아웃(fade-out) 효과 또는 상기 비디오 소스 데이터 스트림(202a, 202b)의 제2 이미지에 의해 또는 그래픽 메모리(230)에 저장되거나 또는 상기 비디오 소스 장치에 의해 수신되는 그래픽들에 의해 상기 비디오 소스 데이터 스트림(202a, 202b)의 제1 이미지를 페이딩 오버(fade over)하기 위한 효과인,
    비디오 출력 데이터 스트림을 생성하기 위한 장치.
  2. 제 1 항에 있어서,
    상기 명령은 듀레이션 (Tmax1, Tmax2), 시작 시점(Ts1, Ts2), 최종 시점(Ts1+ Tmax1, Ts2+ Tmax2), 맵(f(k)), 상기 전이효과의 종류 또는 강도 중 적어도 어느 하나와 관련있는,
    비디오 출력 데이터 스트림을 생성하기 위한 장치.
  3. 제 1 항에 있어서,
    상기 전이효과는 상기 프로세서 수단(130)이 상기 스위칭 프로세스를 수행하는 시간 간격(Ts2 ≤≤ k ≥≥ Ts1 + Tmax1)에서 상기 비디오 소스 장치(200a, 200b)에 의해 상기 제1 비디오 소스 데이터 스트림(202a) 또는 상기 제2 비디오 소스 데이터 스트림(202b)에 적용되도록 구성되는,
    비디오 출력 데이터 스트림을 생성하기 위한 장치.
  4. 제 1 항에 있어서,
    상기 프로세서 수단(130)은 상기 비디오 소스 장치(200a, 200b)의 프로세서 수단 (220)과 시간-동기 방식(a time-synchronous manner)으로 프로그램 코드를 처리하도록 구성되는,
    비디오 출력 데이터 스트림을 생성하기 위한 장치.
  5. 제 1 항에 있어서,
    상기 프로세서 수단(130)은 사용자 입력(116)에 기초하여 상기 명령을 구성하도록 구성되는,
    비디오 출력 데이터 스트림을 생성하기 위한 장치.
  6. 제 1 항에 있어서,
    상기 전이효과는 제1 서브-효과 및 제2 서브-효과를 포함하고,
    상기 장치(100)는 상기 제1 서브-효과를 상기 제1 비디오 소스 장치(200a)에 적용하기 위한 제1 명령을 포함하는 제1 제어 커맨드(114)를 전송하고, 그리고 상기 제2 서브-효과를 상기 제2 비디오 소스 장치(200b)에 적용하기 위한 제2 명령을 포함하는 제2 제어 커맨드(114)를 전송하도록 구성되는,
    비디오 출력 데이터 스트림을 생성하기 위한 장치.
  7. 제 1 항에 있어서,
    상기 장치(100)는 상기 제1 또는 제2 비디오 소스 데이터 스트림을 조작하지 않고 상기 비디오 출력 데이터 스트림(102)으로서 상기 전이효과를 갖는 상기 제1 또는 제2 비디오 소스 데이터 스트림(202a, 202b)을 제공하도록 추가로 구성되는,
    비디오 출력 데이터 스트림을 생성하기 위한 장치.
  8. 제 1 항에 있어서,
    상기 스위칭 프로세스를 수행하기 위해, 상기 프로세서 수단(130)은 상기 제 1 비디오 소스 데이터 스트림 또는 상기 제 2 비디오 소스 데이터 스트림 중 어느 하나를 통과(PASS)시키도록 구성되는,
    비디오 출력 데이터 스트림을 생성하기 위한 장치.
  9. 비디오 소스 데이터 스트림(202a, 202b)을 출력하도록 구성되는 비디오 소스 장치(200a, 200b)에 있어서,
    전이효과를 상기 비디오 소스 데이터 스트림(202a, 202b)에 적용하기 위한 명령을 포함하는, 비디오 출력 스트림을 생성하기 위한 장치(100)로부터의 제어 커맨드(114)를 수신하기 위한 신호 입력(204a, 204b)을 포함하고,
    상기 명령은 듀레이션(Tmax1, Tmax2), 시작 시점(Ts1, Ts2), 최종 시점(Ts1+ Tmax1, Ts2+ Tmax2), 상기 전이효과의 종류 또는 강도 중 적어도 어느 하나를 참조(refer)하고,
    상기 비디오 소스 장치는 상기 제어 커맨드(114)에 기초하여 상기 비디오 소스 데이터 스트림(202a, 202b)에 상기 전이효과를 구현(implement)하고, 수정된 비디오 소스 데이터 스트림을 출력하도록 구성되고, 그리고
    상기 전이효과는 맵(f(k)), 페이드-인(fade-in) 효과, 페이드-아웃(fade-out) 효과 또는 상기 비디오 소스 데이터 스트림(202a, 202b)의 제2 이미지에 의해 또는 그래픽 메모리(230)에 저장되거나 또는 상기 비디오 소스 장치에 의해 수신되는 그래픽들에 의해 상기 비디오 소스 데이터 스트림(202a, 202b)의 제1 이미지를 페이딩 오버하기 위한 효과이고,
    상기 비디오 소스 장치는 상기 비디오 소스 장치의 카메라 칩(210)에 기초하여 상기 비디오 소스 데이터 스트림(202a, 202b)를 출력하거나, 또는 상기 비디오 소스 장치의 데이터 스토리지(210)로부터 상기 비디오 소스 데이터 스트림(202a, 202b)을 검색하도록 구성되는,
    비디오 소스 장치.
  10. 제 9 항에 있어서,
    상기 비디오 소스 장치는 상기 전이효과에 의해 비디오 정보(212)를 중첩(superimpose) 시키도록 구성되는,
    비디오 소스 장치.
  11. 제 9 항에 있어서,
    상기 비디오 소스 장치는 상기 전이 효과를 포함하는 상기 비디오 소스 데이터 스트림(202a, 202b)을 출력하도록 구성되는,
    비디오 소스 장치.
  12. 제 9 항에 있어서,
    상기 전이효과는 맵(f(k)), 페이드-인 효과(a fade-in effect), 페이드-아웃 효과(a fade-out effect) 또는 상기 비디오 소스 데이터 스트림(202a, 202b)의 제2 이미지에 의해 또는 상기 비디오 소스 장치의 그래픽 메모리(230)에 저장되거나 또는 장치에 의해 수신되는 그래픽들에 의해 상기 비디오 소스 데이터 스트림(202a, 202b)의 제1 이미지를 중첩시키기 위한 효과인,
    비디오 소스 장치.
  13. 제 9 항에 있어서,
    상기 비디오 소스 장치는 비디오 출력 데이터 스트림을 생성하기 위한 장치(100)의 프로세서 수단(130)과 시간-동기 방식으로 프로그램 코드를 처리하도록 구성된 프로세서 수단(220)을 더 포함하는,
    비디오 소스 장치.
  14. 제 9 항에 있어서,
    상기 비디오 소스 장치는 이미지 신호 프로세싱 체인에 영향을 주는 것에 기초하거나 또는 그래픽 프로세서 수단에 기초하여 상기 전이효과를 적용하도록 구성되는,
    비디오 소스 장치.
  15. 제 9 항에 있어서,
    상기 비디오 소스 장치는 가변 비트 레이트(bit rate)로 상기 비디오 소스 데이터 스트림을 출력하도록 구성되는,
    비디오 소스 장치.
  16. 비디오 시스템(1000)으로서,
    제 1 항에 따라 비디오 출력 데이터 스트림(102)을 생성하기 위한 장치(100);
    제 9 항에 따른 제1 비디오 소스 장치(200a); 및
    제 9 항에 따른 제2 비디오 소스 장치(200b)를 포함하는,
    비디오 시스템.
  17. 제 16 항에 있어서,
    상기 전이 효과는 제1 서브-효과 및 제2 서브-효과를 포함하고,
    비디오 출력 데이터 스트림(102)을 생성하기 위한 상기 장치(100)는 상기 제1 서브-효과를 상기 제1 비디오 소스 장치(200a)에 적용하기 위한 제1 명령을 포함하는 제1 제어 커맨드(114)를 전송하고, 그리고 상기 제2 서브-효과를 상기 제2 비디오 소스 장치(200b)에 적용하기 위한 제2 명령을 포함하는 제2 제어 커맨드(114)를 전송하도록 구성되는,
    비디오 시스템.
  18. 비디오 출력 데이터 스트림을 생성하기 위한 방법에 있어서,
    제1 비디오 소스 데이터 스트림을 수신하는 단계;
    제2 비디오 소스 데이터 스트림을 수신하는 단계;
    제1 시점에서의 상기 제1 비디오 소스 데이터 스트림에 기초하고, 스위칭 프로세스에 의해 상기 제1 시점에 후속하는 제2 시점에서의 상기 제2 비디오 소스 데이터 스트림에 기초하여 상기 비디오 출력 데이터 스트림을 제공하는 단계; 및
    상기 제1 또는 제2 비디오 소스 데이터 스트림을 전송하는 비디오 소스 장치로 제어 커맨드를 전송하는 단계를 포함하고,
    상기 제어 커맨드는 전이효과를 상기 제1 또는 제2 비디오 소스 데이터 스트림에 적용하기 위한 상기 비디오 소스 장치에 대한 명령을 포함하고, 상기 비디오 소스 장치로부터 수신된 상기 비디오 소스 데이터 스트림은 상기 전이효과를 포함하고, 그리고
    상기 명령은 듀레이션, 시작 시점, 최종 시점, 맵(f(k)), 상기 전이효과의 종류 또는 강도 중 적어도 어느 하나와 관련있고, 그리고
    상기 전이효과는 맵(f(k)), 페이드-인(fade-in) 효과, 페이드-아웃(fade-out) 효과 또는 상기 비디오 소스 데이터 스트림(202a, 202b)의 제2 이미지에 의해 또는 그래픽 메모리(230)에 저장되거나 또는 상기 비디오 소스 장치에 의해 수신되는 그래픽들에 의해 상기 비디오 소스 데이터 스트림(202a, 202b)의 제1 이미지를 페이딩 오버하기 위한 효과인,
    비디오 출력 데이터 스트림을 생성하기 위한 방법.
  19. 비디오 소스 장치에 의해 비디오 소스 데이터 스트림을 출력하기 위한 방법에 있어서,
    상기 비디오 소스 장치의 카메라 칩(210)에 기초하거나 또는 상기 비디오 소스 장치의 데이터 스토리지(210)로부터 검색하는 것에 기초하여 상기 비디오 소스 데이터 스트림을 제공하는 단계;
    상기 비디오 소스 데이터 스트림에 전이 효과를 적용하기 위한 명령을 포함하는 제어 커맨드를 수신하는 단계; 및
    상기 제어 커맨드(114)에 기초하여 상기 비디오 소스 데이터 스트림(202a, 202b)에 상기 전이효과를 구현하고, 수정된 비디오 소스 데이터 스트림을 출력하는 단계를 포함하고,
    상기 명령은 듀레이션, 시작 시점, 최종 시점, 맵(f(k)), 상기 전이효과의 종류 또는 강도 중 적어도 어느 하나와 관련있고,
    상기 전이효과는 맵(f(k)), 페이드-인(fade-in) 효과, 페이드-아웃(fade-out) 효과 또는 상기 비디오 소스 데이터 스트림(202a, 202b)의 제2 이미지에 의해 또는 그래픽 메모리(230)에 저장되거나 또는 상기 비디오 소스 장치에 의해 수신되는 그래픽들에 의해 상기 비디오 소스 데이터 스트림(202a, 202b)의 제1 이미지를 페이딩 오버하기 위한 효과인,
    비디오 출력 데이터 스트림을 생성하기 위한 방법.
  20. 컴퓨터 프로그램이 컴퓨터 상에서 실행될 때, 제 18 항 또는 제 19 항의 방법을 수행하기 위한 프로그램 코드를 포함하는 디지털 저장 매체에 기록된 컴퓨터 프로그램.

KR1020177012522A 2014-10-08 2015-08-11 비디오 출력 데이터 스트림을 생성하기 위한 장치, 비디오 소스, 비디오 시스템 및 비디오 출력 데이터 스트림 및 비디오 소스 데이터 스트림을 생성하기 위한 방법 KR101980330B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102014220423.2A DE102014220423A1 (de) 2014-10-08 2014-10-08 Vorrichtung zum Erzeugen eines Videoausgangsdatenstroms, Videoquelle, Videosystem und Verfahren zum Erzeugen eines Videoausgangsdatenstroms bzw. eines Videoquellendatenstroms
DE102014220423.2 2014-10-08
PCT/EP2015/068480 WO2016055195A1 (de) 2014-10-08 2015-08-11 Vorrichtung zum erzeugen eines videoausgangsdatenstroms, videoquelle, videosystem und verfahren zum erzeugen eines videoausgangsdatenstroms bzw. eines videoquellendatenstroms

Publications (2)

Publication Number Publication Date
KR20170070111A KR20170070111A (ko) 2017-06-21
KR101980330B1 true KR101980330B1 (ko) 2019-05-20

Family

ID=53879497

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177012522A KR101980330B1 (ko) 2014-10-08 2015-08-11 비디오 출력 데이터 스트림을 생성하기 위한 장치, 비디오 소스, 비디오 시스템 및 비디오 출력 데이터 스트림 및 비디오 소스 데이터 스트림을 생성하기 위한 방법

Country Status (7)

Country Link
US (1) US20170213577A1 (ko)
EP (1) EP3204946A1 (ko)
JP (1) JP6545794B2 (ko)
KR (1) KR101980330B1 (ko)
CA (1) CA2963959A1 (ko)
DE (1) DE102014220423A1 (ko)
WO (1) WO2016055195A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102491104B1 (ko) 2022-10-06 2023-01-20 (주)한서비엠티 비디오 입출력 스위칭 제어 방법 및 장치

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11178451B2 (en) 2018-08-17 2021-11-16 Roku, Inc. Dynamic playout of transition frames while transitioning between playout of media streams
CN111918096A (zh) * 2020-07-21 2020-11-10 上海网达软件股份有限公司 云导播快速切换输入源的方法、装置、设备及存储介质
CN115836517B (zh) * 2020-08-11 2024-01-26 内容权利有限责任公司 信息处理装置、信息处理程序及记录介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110023080A1 (en) * 2008-03-18 2011-01-27 Fabrix Tv Ltd. Controlled rate vod server
US20140298170A1 (en) * 2013-03-27 2014-10-02 Broadsign International, Llc. Media element transition electronic device, method and application

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6462085A (en) * 1987-09-02 1989-03-08 Canon Kk Picture processing unit
JP2910122B2 (ja) * 1990-02-13 1999-06-23 日本電気株式会社 映像合成制御システム
IL111610A (en) * 1994-11-11 1998-02-22 News Datacom Ltd Catv transmission systems
JPH1042195A (ja) * 1996-04-27 1998-02-13 Victor Co Of Japan Ltd 映像切換え装置
US6337947B1 (en) * 1998-03-24 2002-01-08 Ati Technologies, Inc. Method and apparatus for customized editing of video and/or audio signals
JP4512962B2 (ja) * 1998-12-15 2010-07-28 ソニー株式会社 受信装置、受信装置のグラフィックス表示制御方法及び情報処理装置
US20010017671A1 (en) * 1998-12-18 2001-08-30 Pierre Pleven "Midlink" virtual insertion system and methods
DE19920089A1 (de) * 1999-05-03 2000-11-09 Philips Corp Intellectual Pty Videomischer mit Zwischenblendsignalsteuerung
JP3759352B2 (ja) * 1999-10-26 2006-03-22 株式会社ディーアンドエムホールディングス 映像再生装置
GB2358539A (en) * 2000-01-21 2001-07-25 Sony Uk Ltd Data processing method which separates parameter data from coded data
US7756391B1 (en) * 2000-09-01 2010-07-13 Matrox Electronic Systems Ltd. Real-time video editing architecture
US7227583B2 (en) * 2002-12-11 2007-06-05 Lg Electronics Inc. Digital TV method for switching channel automatically
JP2004274627A (ja) * 2003-03-11 2004-09-30 Sony Corp 映像素材編集装置及び映像素材編集方法
US8108896B2 (en) * 2004-04-15 2012-01-31 Arris Group, Inc. Method and system for providing interactive services using video on demand infrastructure
DE602005019739D1 (de) * 2004-07-06 2010-04-15 Panasonic Corp Empfangsanordnung und seine bedienungsanordnung, programm und halbleiteranordnung
US7319499B2 (en) * 2005-06-03 2008-01-15 Ching-Lung Peng Composite structure of aluminum extrusion external framework of LCD monitor
JP4345727B2 (ja) * 2005-08-17 2009-10-14 ソニー株式会社 信号加工装置及びその操作手段の機能の実行方法
US8553151B2 (en) * 2005-09-02 2013-10-08 Gvbb Holdings S.A.R.L. Video effect recall technique
JP4229127B2 (ja) * 2006-02-14 2009-02-25 ソニー株式会社 映像処理装置及びタイムコードの付加方法
JP2008252757A (ja) * 2007-03-30 2008-10-16 Sony Corp 映像信号処理装置と映像信号処理方法
JP2009077105A (ja) * 2007-09-20 2009-04-09 Sony Corp 編集装置および編集方法、プログラム、並びに記録媒体
JP4630357B2 (ja) * 2008-06-27 2011-02-09 日本電信電話株式会社 映像送受信システム及びその制御方法
US8797414B2 (en) * 2010-12-23 2014-08-05 Samsung Electronics Co., Ltd. Digital image stabilization device
US10078695B2 (en) * 2011-04-11 2018-09-18 Evertz Microsystems Ltd. Methods and systems for network based video clip generation and management
JP2014157464A (ja) * 2013-02-15 2014-08-28 Pioneer Electronic Corp 映像又は音響機器装置
US9071798B2 (en) * 2013-06-17 2015-06-30 Spotify Ab System and method for switching between media streams for non-adjacent channels while providing a seamless user experience
US9881645B2 (en) * 2013-08-20 2018-01-30 Google Llc Systems, methods, and media for editing video during playback via gestures
JP5924370B2 (ja) * 2014-05-23 2016-05-25 トヨタ自動車株式会社 映像表示装置、映像切替装置、及び映像表示方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110023080A1 (en) * 2008-03-18 2011-01-27 Fabrix Tv Ltd. Controlled rate vod server
US20140298170A1 (en) * 2013-03-27 2014-10-02 Broadsign International, Llc. Media element transition electronic device, method and application

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102491104B1 (ko) 2022-10-06 2023-01-20 (주)한서비엠티 비디오 입출력 스위칭 제어 방법 및 장치

Also Published As

Publication number Publication date
DE102014220423A1 (de) 2016-04-14
WO2016055195A1 (de) 2016-04-14
CA2963959A1 (en) 2016-04-14
KR20170070111A (ko) 2017-06-21
US20170213577A1 (en) 2017-07-27
JP2017536021A (ja) 2017-11-30
EP3204946A1 (de) 2017-08-16
JP6545794B2 (ja) 2019-07-17

Similar Documents

Publication Publication Date Title
US10123070B2 (en) Method and system for central utilization of remotely generated large media data streams despite network bandwidth limitations
US9478256B1 (en) Video editing processor for video cloud server
US9398315B2 (en) Multi-source video clip online assembly
US20150124048A1 (en) Switchable multiple video track platform
JP4702397B2 (ja) コンテンツサーバ、情報処理装置、ネットワーク機器、コンテンツ配信方法、情報処理方法およびコンテンツ配信システム
EP2624551A1 (en) Content transmitting device, content transmitting method, content reproduction device, content reproduction method, program, and content delivery system
CN109587570B (zh) 视频的播放方法和装置
US20110138018A1 (en) Mobile media server
KR101980330B1 (ko) 비디오 출력 데이터 스트림을 생성하기 위한 장치, 비디오 소스, 비디오 시스템 및 비디오 출력 데이터 스트림 및 비디오 소스 데이터 스트림을 생성하기 위한 방법
WO2018103696A1 (zh) 媒体文件的播放方法、服务端、客户端及系统
CN109905749B (zh) 视频播放方法和装置、存储介质及电子装置
WO2017193830A1 (zh) 视频切换方法、装置、系统及存储介质
US20140205261A1 (en) Interactive audio/video system and method
CN114189696A (zh) 一种视频播放方法及设备
US10897655B2 (en) AV server and AV server system
US20240107087A1 (en) Server, terminal and non-transitory computer-readable medium
JP6269734B2 (ja) 動画データ編集装置、動画データ編集方法、再生装置、及びプログラム
US10616724B2 (en) Method, device, and non-transitory computer-readable recording medium for supporting relay broadcasting using mobile device
US20180227504A1 (en) Switchable multiple video track platform
KR101906396B1 (ko) 중계 방송을 지원하기 위한 방법, 디바이스 및 비일시성의 컴퓨터 판독 가능한 기록 매체
JP5581437B1 (ja) 映像提供システムおよびプロラム
CN212649591U (zh) 终端录放系统
JP2010245756A (ja) 通信ネットワークシステム、コンテンツ再生方法、及びサーバ
KR102184131B1 (ko) 입체 오디오를 제공하는 다채널 전송 시스템 및 이의 제어 방법
JP2006262319A (ja) 放送信号送出システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant