KR20190005188A - 복수의 비디오 세그먼트로부터 합성 비디오 스트림을 생성하는 방법 및 장치 - Google Patents

복수의 비디오 세그먼트로부터 합성 비디오 스트림을 생성하는 방법 및 장치 Download PDF

Info

Publication number
KR20190005188A
KR20190005188A KR1020187035086A KR20187035086A KR20190005188A KR 20190005188 A KR20190005188 A KR 20190005188A KR 1020187035086 A KR1020187035086 A KR 1020187035086A KR 20187035086 A KR20187035086 A KR 20187035086A KR 20190005188 A KR20190005188 A KR 20190005188A
Authority
KR
South Korea
Prior art keywords
video
frames
segment
video segment
frame
Prior art date
Application number
KR1020187035086A
Other languages
English (en)
Inventor
프레벤 에이치 닐센
존 매드센
클라우스 클라우센
Original Assignee
캐논 유로파 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 유로파 엔.브이. filed Critical 캐논 유로파 엔.브이.
Publication of KR20190005188A publication Critical patent/KR20190005188A/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/10Arrangements for replacing or switching information during the broadcast or the distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

합성 비디오를 생성하는 방법 및 장치가 제공된다. 상기 방법은 인트라-코딩된 I 프레임들과 예측된 P 프레임들의 시퀀스를 각각 포함하는 주 및 보조 비디오 세그먼트들을 획득하는 단계를 포함하고, 주 및 보조 비디오 세그먼트들은 제1 및 제2 우선순위 레벨들 및 제1 및 제2 캡처 시간 간격들을 갖고, 제2 우선순위 레벨은 제1 우선순위 레벨보다 높고 제2 캡처 시간 간격은 제1 캡처 시간 간격과 중첩한다. 상기 방법은 주 비디오 세그먼트와 보조 비디오 세그먼트를 시간-정렬하는 단계; 보조 비디오 세그먼트의 제1 앵커 I 프레임의 주 비디오 세그먼트에서의 병합 시작 시간을 식별하는 단계; 및 합성 비디오를 생성하기 위해, 트랜스코딩 없이, 주 및 보조 비디오 세그먼트들의 프레임들을 병합하는 단계를 포함하고, 합성 비디오는 병합 시작 시간까지 주 비디오 세그먼트의 프레임들, 제1 앵커 I 프레임 및 제1 앵커 I 프레임에 후속하는 보조 비디오 세그먼트의 프레임들을 포함한다.

Description

복수의 비디오 세그먼트로부터 합성 비디오 스트림을 생성하는 방법 및 장치
본 발명은 비디오 편집에 관한 것으로, 보다 구체적으로 트랜스코딩 없이, 비디오 세그먼트들이 시간상 중첩하는, 복수의 압축된 비디오 세그먼트로부터 합성 비디오 스트림을 생성하는 것에 관한 것이다.
병합된 세그먼트들의 타이밍들을 존중하면서 단일 비디오 내에 동일한 캡처 시간을 공유하는 비디오 세그먼트들을 병합할 필요가 있는 응용들이 있다. 이것은 예를 들어 장면의 주어진 뷰의 비디오 세그먼트들이 상이한 품질들로 인코드될 때 또는 세그먼트들이 동일한 장면의 상이한 뷰들과 관련되고 모든 그들 상이한 세그먼트를 단일 비디오 스트림으로 이음매가 없이 처리할 요구가 있을 때의 경우이다.
그들의 병합 전에 비디오 세그먼트들의 디코딩(압축 해제)은 리소스들의 관점에서 비용이 들고 비디오 세그먼트들이 동일한 캡처 시간을 공유할 때 야기되는 타이밍 문제들을 여전히 해결하지 못한다.
그러므로 리소스들의 관점에서 비용 효과적이고 복수의 비디오의 타이밍들을 존중하는, 복수의 압축된 비디오로부터 합성 비디오를 생성하는 방식이 필요하다.
본 발명의 제1 양태에 따르면 청구항 1에 따른 합성 비디오 스트림을 생성하는 방법이 제공된다.
본 발명의 제2 양태에 따르면 청구항 10에 따른 합성 비디오 스트림을 생성하는 장치가 제공된다.
본 발명의 또 하나의 양태는 감시 및/또는 모니터링 시스템 내의 디바이스의 처리 유닛에 의해 실행될 때, 디바이스로 하여금 위에 정의된 방법을 수행하게 하는 프로그램을 저장하는 비일시적 컴퓨터 판독가능 매체에 관한 것이다.
위에 정의된 비일시적 컴퓨터 판독가능 매체 및 디바이스는 위에 정의된 방법들과 관련하여 기술된 것들과 유사한 특징들 및 장점들을 가질 수 있다.
본 발명에 따른 방법들의 적어도 일부들은 컴퓨터에 의해 구현될 수 있다. 따라서, 본 발명은 전체적으로 하드웨어 실시예, (펌웨어, 상주 소프트웨어, 마이크로-코드 등을 포함하는) 전체적으로 소프트웨어 실시예, 또는 모두 일반적으로 여기서 "회로", "모듈" 또는 "시스템"이라고 할 수 있는 소프트웨어와 하드웨어 양태들을 조합한 실시예의 형태를 취할 수 있다. 또한, 본 발명은 매체에서 실시되는 컴퓨터 사용가능 프로그램 코드를 갖는 표현의 임의의 실재하는 매체에서 실시되는 컴퓨터 프로그램 제품의 형태를 취할 수 있다.
본 발명은 소프트웨어에서 구현될 수 있기 때문에, 본 발명은 임의의 적합한 캐리어 매체 상의 프로그램가능한 장치에 제공하는 컴퓨터 판독가능 코드로서 실시될 수 있다. 실재하는 캐리어 매체는 하드 디스크 드라이브, 자기 테이프 디바이스 또는 고상 메모리 디바이스 등과 같은 저장 매체를 포함할 수 있다. 일시적인 캐리어 매체는 전기 신호, 전자 신호, 광학 신호, 음향 신호, 자기 신호 또는 전자기 신호, 예를 들어, 마이크로웨이브 또는 RF 신호와 같은 신호를 포함할 수 있다.
본 발명의 실시예들이 이제 첨부 도면을 참조하여 단지 예로서 설명될 것이다.
도 1은 감시 시스템의 예를 도시하고;
도 2는 본 발명의 실시예들을 실시하도록 적응된 컴퓨터 디바이스의 하드웨어 구성을 도시하고;
도 3은 예시적인 실시예에 따른, 주 비디오와 보조 비디오의 프레임들을 병합함에 의한 합성 비디오의 생성을 도시하고;
도 4는 본 발명의 실시예에 따른 합성 비디오를 생성하는 방법을 도시한 플로우차트이고;
도 5는 복수의 비디오 세그먼트의 경우에 합성 비디오의 생성의 구현예를 도시한다.
도 1은 본 발명의 실시예들이 구현될 수 있는 감시/모니터링 시스템(100)의 예를 도시한다. 시스템(100)은 관리 서버(130), 2개의 기록 서버(151-152), 아카이빙 서버(153) 및 주변 디바이스들(161-163)을 포함한다.
주변 디바이스들(161-163)은 시스템에 데이터 스트림들을 공급할 수 있는 소스 디바이스들을 나타낸다. 전형적으로, 주변 디바이스는 비디오 카메라(예를 들어, 비디오 인코더를 통해 접속된 IP 카메라, PTZ 카메라, 아날로그 카메라)이다. 주변 디바이스는 또한 오디오 디바이스, 검출기 등과 같은 기타 유형으로 될 수 있다.
기록 서버들은 비디오 카메라들에 의해 캡처된 비디오 스트림들과 같은 주변 디바이스들에 의해 생성된 데이터 스트림들(기록들)을 저장하기 위해 제공된다. 기록 서버는 저장 유닛 및 기록 서버에 부착된 데이터베이스를 포함할 수 있다. 기록 서버에 부착된 데이터베이스는 기록 서버와 동일한 컴퓨터 디바이스 내에 위치한 로컬 디바이스, 또는 기록 서버에 액세스가능한 원격 디바이스 내에 위치한 데이터베이스일 수 있다.
로컬 스토리지 또는 에지 스토리지라고 하는 저장 유닛(165)은 또한 주변 디바이스에 의해 생성된, 비디오와 같은 데이터 스트림들을 로컬로 저장하는 주변 디바이스(161)와 연관될 수 있다. 에지 스토리지는 일반적으로 기록 서버의 저장 유닛보다 낮은 용량을 갖지만, 낮은 품질 버전이 기록 서버에 스트림되는 동안 최종 캡처된 데이터 시퀀스의 고품질 버전을 저장하는 역할을 할 수 있다.
데이터 스트림은 기록 서버의 저장 유닛 내에 저장되거나 그로부터 판독될 데이터 스트림을 위한 데이터 세그먼트들로 세그먼트화될 수 있다. 세그먼트들은 임의의 크기로 될 수 있다. 세그먼트는 ts1이 세그먼트 시작의 타임스탬프에 대응하고 ts2는 세그먼트 끝의 타임스탬프에 대응하는 시간 간격 [ts1, ts2]에 의해 식별될 수 있다. 타임스탬프는 주변 디바이스에 의한 캡처 시간에 또는 제1 기록 서버 내의 기록 시간에 대응할 수 있다. 세그먼트는 또한 시퀀스 수, 트랙 수 또는 파일네임과 같은 기타 적합한 세그먼트 식별자에 의해 식별될 수 있다.
관리 서버(130)는 경보들의 조건들, 부착된 주변 디바이스들(하드웨어)의 상세들, 기록 서버 등에 기록되는 데이터 스트림들과 같은 감시/모니터링 시스템(100)의 구성에 관한 정보를 저장한다.
관리 클라이언트(110)는 감시/모니터링 시스템(100)을 구성하는 관리자에 의해 사용하기 위해 제공된다. 관리 클라이언트(110)는 시스템을 구성하기 위해 관리 서버 상의 관리 소프트웨어와 상호작용하기 위한, 예를 들어 새로운 주변 디바이스(하드웨어)를 추가하거나 하나의 기록 서버로부터 다른 기록 서버로 주변 디바이스를 이동시키기 위한 인터페이스를 디스플레이한다. 관리 클라이언트(110)에 디스플레이되는 인터페이스는 또한 게이트웨이(170)를 통해 외부 네트워크(180)에 어떤 데이터가 입력 및 출력되어야 하는 것을 제어하는 관리 서버(130)와 상호작용하는 것을 가능하게 한다.
사용자 클라이언트(111)는 주변 디바이스들(161-163)의 출력을 모니터 또는 검토하기 위해 보호 가드 또는 다른 사용자에 의해 사용하기 위해 제공될 수 있다. 사용자 클라이언트(111)는 주변 디바이스들(161-163)들로부터의 영상들/기록들을 보기 위해 또는 기록 서버들(151-152) 내에 저장된 비디오 푸티지(footage)를 보기 위해 관리 서버 상의 관리 소프트웨어와 상호작용하는 인터페이스를 디스플레이한다.
아카이빙 서버(153)는 기록 서버들(151-152)로부터 바로 액세스가능할 필요는 없지만, 영구적으로 삭제되도록 요구되지 않는, 기록 서버들(151-152) 내에 저장된 더 오래된 데이터를 아카이브하기 위해 사용된다.
다른 서버들이 또한 시스템(100) 내에 존재할 수 있다. 예를 들어, 페일-오버 기록 서버(도시되지 않음)는 주 서버가 고장나는 경우에 제공될 수 있다. 또한, 이동 서버(도시되지 않음)는 이동 클라이언트를 호스팅하는 이동 전화 또는 웹 클라이언트를 사용하는 브라우저로부터 시스템에 액세스하는 랩탑과 같은 이동 디바이스들로부터 감시/모니터링 시스템에의 액세스를 가능하게 하기 위해 제공될 수 있다.
관리 클라이언트(110) 및 사용자 클라이언트(111)는 관리 서버(130), 활성 디렉토리 서버(140), 복수의 기록 및 아카이빙 서버(151-153), 및 복수의 주변 디바이스(161-163)와 네트워크/버스(121)를 통해 통신하도록 구성된다. 기록 및 아카이빙 서버들(151-153)은 네트워크/버스(122)를 통해 주변 디바이스들(161-163)과 통신한다. 감시/모니터링 시스템(100)은 데이터를 게이트웨이(170)를 통해 외부 네트워크(180)에 입력 및 출력할 수 있다.
활성 디렉토리 서버(140)는 예를 들어 관리 클라이언트(110) 또는 사용자 클라이언트(111)로부터 감시/모니터링 시스템(100)에의 로그인 및 액세스를 제어하는 인증 서버이다.
도 2는 본 발명의 적어도 하나의 실시예를 구현하도록 구성된, 디바이스(200)를 위한 전형적인 배열을 도시한다. 디바이스(200)는 통신 버스(220)를 포함하고, 통신 버스에는
CPU라고 하는, 마이크로프로세서와 같은, 중앙 처리 장치(231);
본 발명의 실시예들에 따른 방법들을 구현하기 위해 필요한 변수들 및 파라미터들을 기록하도록 적응된 레지스터들뿐만 아니라 본 발명의 실시예들에 따른 방법들의 실행가능한 코드를 저장하기 위한, RAM이라고 하는 랜덤 액세스 메모리(210); 및
디바이스(200)가 다른 디바이스들과 통신할 수 있도록 구성된 입력/출력 인터페이스(250)가 바람직하게 접속된다.
선택적으로, 디바이스(200)는 데이터를 저장하는 하드 디스크와 같은 데이터 저장 수단(232) 및 디스플레이(240)를 또한 포함할 수 있다.
RAM(210) 내로 로드되고 CPU(231)에 의해 실행되는 실행가능한 코드가 리드 온리 메모리(도시되지 않음) 내에, 또는 하드 디스크(232) 상에 또는 착탈가능한 디지털 매체(도시되지 않음) 상에 저장될 수 있다.
디스플레이(240)는 전형적으로 사용자 인터페이스를 통해 사용자에게 정보를 전달하기 위해 사용된다. 입력/출력 포트(250)는 사용자가 마우스 및 키보드를 사용하여 디바이스(200)에 명령어들을 제공하고, 다른 디바이스들로부터 데이터를 수신하고, 네트워크를 통해 데이터를 송신하게 한다.
클라이언트들(110-111), 관리 서버(130), 활성 디렉토리(140), 기록 서버들(151-152) 및 아카이빙 서버(153)는 도 2에 도시한 디바이스(200)와 일치하는 시스템 아키텍처를 갖는다. 도 2의 설명은 상당히 단순화되고 임의의 적합한 컴퓨터 또는 처리 디바이스 아키텍처가 사용될 수 있다.
도 3은 예시적인 실시예에 따른, 주 비디오(301)와 보조 비디오(302)의 프레임들을 병합함에 의한 합성 비디오(303)의, 주어진 디바이스에서의, 생성을 도시한다.
예시를 위해, 우리는 도 1의 감시/모니터링 시스템(100)을 고려하는데 여기서 우리는 주변 디바이스(161)가 비디오를 캡처하고, 모션 보상을 구현하는, 즉, 비디오 내의 시간적 중첩성을 이용하는 비디오 인코더에 의해 캡처된 비디오를 인코드하고, 상이한 압축 레벨들을 갖는 2개의 압축된 비디오, 예를 들어, 고 압축(저 품질) 및 덜 압축(고 품질) 비디오들을 전달하도록 구성된 카메라인 것으로 가정한다.
본 발명의 실시예들은 2개보다 많은 압축된 비디오가 상이한 압축 레벨들(상이한 코딩 율들)로 또는 동일한 압축 레벨을 갖지만 상이한 인코딩 파라미터들(프레임 율, 프레임들의 공간적 해상도 등)로, 인코더에 의해 전달되는 경우에 유사하게 적용한다는 점에 주목한다. 본 발명의 실시예들은 또한 상이한 인코더들에 의해 인코드된 복수의 압축된 비디오의 경우에 및/또는 상이한 장면들 또는 뷰들을 커버링하는 경우에 적용한다.
모션 보상을 사용하는 비디오 인코더는 예를 들어 MPEG 표준들(MPEG-1, H.262/MPEG-2, H.263, H.264/MPEG-4 AVC 또는 H.265/HEVC) 중 하나를 구현할 수 있다. 압축된 비디오들은 그러므로 인트라-코딩된 I 프레임들(모든 다른 화상들에 독립적으로 코딩된 화상들)과 예측된 P 프레임들(이전의 디코드된 화상들에 대해 모션-보상된 차이 정보를 포함하는 화상들)의 시퀀스를 포함한다. 프레임들은 GOP들(화상들의 그룹)(303)로 그룹화된다. I 프레임은 GOP의 시작을 표시한다.
한 구현에서, 생성 방법을 구현하는 디바이스(주어진 디바이스)는 관리 서버(130)와 같은 감지/모니터링 시스템(100) 내에 있고 컴퓨터 디바이스(200)의 아키텍처를 갖는다.
예시적인 실시예에 따르면, 카메라(161)는 추가 처리하기 위해 기록 서버(151)에 저장되도록 감지/모니터링 시스템에 고 압축된 비디오를 스트림하고, 필요하다면 나중 검색을 위해 그것의 로컬 스토리지(165) 내에 덜 압축된 비디오를 저장한다. 주 비디오(301)는 고 압축된 비디오에 대응할 수 있으므로 기록 서버(151)로부터 획득될 수 있다. 보조 비디오(302)는 덜 압축된 비디오, 또는 그것의 부분에 대응할 수 있고, 카메라(161)의 에지 스토리지(165)로부터 획득될 수 있다.
전형적으로, 주 비디오(301)는 카메라(161)로부터 RTP/RTSP 스트림으로서 수신된다. 이 프로토콜은 보내진 제1 프레임 및 그 후의 후속 프레임들에 대한 델타(오프셋) 시간들과 함께 타임스탬프를 전달할 것이다. 이것은 참조 번호(311)에 의해 도면에 도시된 주 비디오의 타임라인을 정의하는 것을 가능하게 한다. 주 비디오(301)의 타임라인을 보조 비디오(302)의 타임라임(312)과 연관시키기 위해서, 감지/모니터링 시스템의 로컬 시간은 공통 시간 기준(절대 타임라인(313))으로서 선택된다. 연관을 쉽게 하기 위해, 주 비디오(301)의 타임라인은 비디오 프레임들이 수신되는 동안 즉석에서 절대 타임라인으로 변환된다. 예를 들어, 주 비디오(301)의 제1 프레임이 수신될 때, 그것은 감시/모니터링 시스템의 로컬 시간으로 타임스탬프되고 그 후 델타 값들이 프레임들이 수신됨에 따라 추가된다. 프레임들은 그 후 기록 서버(151)의 저장 유닛 내에 주어진 기간 [t0, t4]의 세그먼트들(기록들) 내로 바람직하게 저장되고, 계산된 타임스탬프들을 포함하는 연관된 메타데이터는 기록 서버(151)에 부착된 데이터베이스 내에 저장된다. 여기서 시간들 t0 및 t4는 절대 타임라인(313)에 따라 주어진다. 수신된 주 비디오로부터 추출된 타임라인(311)에 따른 대응하는 시간들 t'0 및 t'4가 예시를 위해 도 3에 표시된다.
보조 비디오(302)는 예를 들어 주어진 디바이스의 요구 시에 수신된다. 한 구현에서, 카메라(161)에서의 시간은 (예를 들어, ONVIF 명령들을 사용하여) 감시/모니터링 시스템에서의 로컬 시간과 동기된다. 이것은 에지 스토리지 내에 저장된 비디오의 타임라인이 이미 절대 타임라인(313)에 따라 표현되게 하고, 즉, 타임라인들(312와 313)이 동기된다. 이 방식으로, 주어진 디바이스는 절대 타임라인(313)에 따라 타임스탬프된 그 시간 간격 동안 보조 비디오(302)의 프레임들의 시퀀스를 검색하라고 카메라(161)에 [t''1, t''3]과 동일한 시간 간격 [t1, t3] 동안 요구를 간단히 보낼 수 있다.
주 비디오와 보조 비디오를 정렬시켜서 그들의 대응하는 타임라인들을 연관시키는 대안적 구현들이 가능하다. 예를 들어, 정렬은 주 비디오 내의 제1 타임스탬프 t'a와 보조 비디오 내의 제2 타임스탬프 t''a에 대해 이루어질 수 있다(타임-시프트 결정). 다음에 임의의 시간 b > a에 대해, 보조 비디오에 대한 타임라인(312)은 주 비디오로부터 보간될 수 있다: t''b = t'b + (t''a-t'a). 타임스케일의 임의의 적합한 변화가 직접 비교 전에 각각의 타임스탬프 값에 적용되어야 한다.
덜 압축된 비디오로부터 특정한 시간 간격 [t1, t3]을 검색하기 위한 하나의 동기 부여는 예를 들어 조작자에 의한 비디오의 보다 철저한 분석을 위해 이벤트의 발생 부근에서 더 높은 품질 비디오를 취하는 것이다. 비디오의 나머지는 더 낮은 품질로 유지될 수 있다. 주 비디오(301)와의 검색된 보조 비디오 세그먼트(302)의 병합, 캡처 시간의 공통 간격을 공유한 2개의 비디오는 이음매없는 디코딩 및 디스플레이를 가능하게 하고, 예를 들어, 비디오 디코더는 단지 단일 스트림 만을 디코드하여야 한다.
본 발명은 상기 시나리오에 제한되지 않고 이음매없는 디코딩 및 디스플레이를 위해 2개 이상의 비디오 시퀀스를 단일 스트림으로 병합하기 위한 다른 동기 부여들이 존재할 수 있다. 예를 들어, 2개의 비디오가 동시에 장면의 상이한 뷰들을 커버하면, 트랜스코딩 없이 상이한 뷰들을 삽입하는 단일 스트림을 생성하는 것이 편리할 수 있고, 각각의 삽입된 비디오 시퀀스는 주어진 시간에 가장 관련된 또는 중요한 뷰에 초점 맞춘다.
우선순위가 또한 다른 것과 상대적으로 하나의 비디오 스트림에 할당될 수 있다. 이 경우에, 더 높은 우선순위 비디오가 가용할 때마다, 그것은 더 낮은 우선순위 비디오(들)에 비해 합성 비디오의 포함에 우선순위를 취한다. 우선순위는 활동성의 측정, 예를 들어, 합성 비디오가 어떤 것이 발생하는 동안 비디오 세그먼트들을 포함할 가능성을 더 크게 한다는 점에서 검출된, 모션 검출에 기초하여 비디오에 할당될 수 있다.
도 4는 본 발명의 실시예에 따른 합성 비디오를 생성하는 방법을 도시한 플로우차트이다. 이 플로우차트는 도 3과 관련하여 위에 논의된 단계들의 일부를 요약한다. 방법은 전형적으로 주어진 디바이스의 CPU(231)에 의해 실행된 소프트웨어 코드에 의해 실행된다.
단계들 401 및 402에서, 주 비디오(301) 및 보조 비디오(302)가 각각 디바이스에 의해 획득된다. 주 비디오(301) 및 보조 비디오(302)는 임의의 적합한 비디오 인코딩 포맷을 구현하는 모션-보상 인코더에 의해 생성된 인트라-코딩된 I 프레임들과 예측된 P 프레임들의 시퀀스를 포함한다.
위에 논의된 것과 같이, 실시예에 따르면, 주 비디오(301)의 획득은 기록 서버(151)로부터 비디오를 판독함으로써 수행될 수 있고(타임 세그먼트 [t'0, t'4]), 보조 비디오(302)의 획득은 요구 시 카메라(161)의 에지 스토리지(165)로부터 비디오를 수신함으로써 수행될 수 있다(타임 세그먼트 [t''1, t''3]). 다른 실시예들에 따르면, 동일한 저장 유닛으로부터 주 비디오와 보조 비디오 둘 다를 획득하거나 카메라로부터 그들을 직접 수신하는 것이 가능하다.
도 3의 예에서, 보조 비디오(302)는 주 비디오 프레임들로부터 보조 비디오 프레임들로 그리고 그 후 보조 비디오 프레임들로부터 다시 주 비디오 프레임들로 스위치하는 것을 포함하는 합성 비디오를 나타내기 위해 주 비디오(301)보다 짧다. 물론, 하나의 비디오의 크기는 다른 비디오에 비해 상대적으로 임의적일 수 있다.
단계 403에서, 주 비디오와 보조 비디오는 2개의 비디오의 타임라인들을 연관시킴으로써 시간-정렬된다. 다양한 구현들이 도 3과 관련하여 위에 논의되었다. 정렬의 결과는 타임라인들(311과 312)이 비교될 수 있다는 것이다. 한 구현에서, 예를 들어 시간 간격들 [t'0, t'4] 와 [t''1, t''3]는 둘 다 [t0, t4] 와 [t1, t3]으로서 공통 시간 기준(313)에서 표현될 수 있고, 그러므로 변환할 필요가 없다.
단계 404에서, 보조 비디오의 제1 앵커 I 프레임(304)의 주 비디오에서의 병합 시작 시간 t1은 연관된 타임라인들을 사용하여 식별된다.
마지막으로, 단계 405에서, 주 비디오(301)의 프레임들과 보조 비디오(302)의 프레임들은 합성 비디오(303)를 생성하기 위해, 트랜스코딩 없이 병합된다. 합성 비디오(303)는 병합 시작 시간 t1까지 주 비디오의 프레임들, 제1 앵커 I 프레임(304) 및 제1 앵커 I 프레임(304)에 후속하는 보조 비디오의 프레임들(305, 306) 등을 포함한다. 후속하는 프레임들(305, 306) 등은 이 후자가 주 비디오 전에 끝나는 경우에 보조 비디오들에 남는 모든 프레임들, 또는 주 비디오로 또는 또 하나의 비디오로 다시 스위치하는 시간까지 보조 비디오 내의 그들 프레임들 만을 포함한다. 도 3에 도시된 예에서, 보조 비디오(302)의 제1 앵커 I 프레임(304)는 보조 비디오 시퀀스 내의 (제1 GOP의) 제1 I 프레임이다.
대안적 구현(도시되지 않음)에서, 제1 앵커 I 프레임(304)은 n번째 GOP(여기서 n≥1)의 I 프레임이다. 예를 들어, 주 비디오의 GOP의 크기가 보조 비디오의 GOP의 크기보다 훨씬 크면, n번째 GOP는 주 비디오에서의 GOP의 시작과 중첩하는 것으로서 선택될 수 있고, 보조 비디오의 (n-1)개의 이전 GOP들이 스킵되고, 즉, 합성 비디오 내에 포함되지 않는다.
한 구현에서, 주 비디오의 제2 앵커 I 프레임(314)의 보조 비디오(302)에서의 병합 종료 시간 t2는 연관된 타임라인들을 사용하여 식별된다. 이 경우에, 합성 비디오는 병합 종료 시간 t2까지 제1 앵커 I 프레임(304)에 후속하는 보조 비디오의 프레임들, 제2 앵커 I 프레임(314) 및 제2 앵커 I 프레임(314)에 후속하는 주 비디오(301)의 프레임들(315, 316) 등을 추가로 포함한다. 후속하는 프레임들(315, 316) 등은 주 비디오의 종료까지 주 비디오 내에 남는 모든 프레임들, 또는 또 하나의 비디오로의 스위칭의 시간까지 주 비디오 내의 단지 그들 프레임을 포함할 수 있다.
도 3에 도시된 예에서, 제2 앵커 I 프레임(314)은 보조 비디오 시퀀스(302)의 최종 프레임(309)의 시간 t3 전의 주 비디오 시퀀스(301) 내의 최종 I 프레임이다. 대안적 구현(도시되지 않음)에서, 제2 앵커 I 프레임(314)은 주 비디오 내의 앞선 GOP의 I 프레임일 수 있다.
도 5는 상이한 우선순위들에 따라 분류된 복수의 비디오 세그먼트의 경우의 합성 비디오의 생성의 구현예를 도시한다.
도시된 예에서, 4개의 비디오 세그먼트(501, 502, 503 및 504)는 시간상 중첩하고(공통 캡처 시간을 공유하고) 상이한 우선순위들을 갖는다. 비디오 세그먼트들의 GOP 구조들은 단순화를 위해 숨겨진다. 비디오 세그먼트들(501 및 502)은 가장 높고 동일한 우선순위를 갖는다. 비디오 세그먼트(503)는 더 낮은 우선순위를 갖고 비디오 세그먼트(504)는 가장 낮은 우선순위를 갖는다. 생성된 합성 비디오는 참조 번호(505)으로 표시된다.
하나의 비디오 세그먼트로부터 또 하나의 것으로의 전이(또는 스위칭) 시간들이 설명을 간단히 하기 위해 각각의 세그먼트(511, 512, 513, 514, 515, 및 516)의 경계에 도시되고, 비디오의 하나의 프레임으로부터 또 하나의 비디오 내의 다음 프레임으로의 스위칭에 대응하는 전이 시간들이 비디오 세그먼트의 시작 이후에 및/또는 비디오 세그먼트의 종료보다 먼저 발생할 수 있는 도 3의 설명으로부터 이해된다.
합성 비디오(505)는 비디오 세그먼트(504)의 시작 프레임들로부터 전이 시간(511)까지 그리고 그 후 더 높은 우선순위를 갖는 비디오 세그먼트(503)의 프레임들을 포함한다. 도 3 및 4와 관련하여 논의된 것과 같이 여기서 비디오 세그먼트(504)는 주 비디오(301)에 대응하고 비디오 세그먼트(503)는 보조 비디오(302)에 대응한다.
합성 비디오(505)는 그 후 전이 시간(512)까지 비디오 세그먼트(503)의 프레임들 및 그 이후에 (더 높은 우선순위를 갖는) 비디오 세그먼트(501)의 프레임들을 그것의 끝까지 포함한다.
합성 비디오(505)는 그 후 전이 시간(513) 후에, 세그먼트(503)의 종료까지 비디오 세그먼트(503)의 나머지 프레임들을 포함한다. 도 3 및 4와 관련하여 논의된 것과 같이 여기서 비디오 세그먼트(501)는 보조 비디오(302)에 대응하고 비디오 세그먼트(503)는 주 비디오(301)에 대응한다.
합성 비디오(505)의 나머지 구성은 비디오 세그먼트(504)의 종료까지 위에 설명된 것과 유사하다.

Claims (15)

  1. 시간상 중첩하는 복수의 비디오 세그먼트로부터 합성 비디오 스트림을 생성하는 방법으로서 - 각각의 세그먼트는 캡처 시간 간격에 의해 식별되고 각각의 세그먼트는 우선순위 레벨을 가짐 -,
    인트라-코딩된 I 프레임들과 예측된 P 프레임들의 시퀀스를 포함하는 주 비디오 세그먼트를 획득하는 단계 - 상기 주 비디오 세그먼트는 제1 우선순위 레벨 및 제1 캡처 시간 간격을 가짐 -;
    상기 제1 우선순위 레벨보다 높은 제2 우선순위 레벨 및 상기 제1 캡처 시간 간격과 중첩하는 제2 캡처 시간 간격을 갖는 보조 비디오 세그먼트를 식별하는 단계 - 상기 보조 비디오 세그먼트는 인트라-코딩된 I 프레임들과 예측된 P 프레임들의 시퀀스를 포함함 -;
    상기 2개의 비디오 세그먼트의 타임라인들을 연관시킴으로써 상기 주 비디오 세그먼트와 상기 보조 비디오 세그먼트를 시간-정렬하는 단계;
    상기 연관된 타임라인들을 사용하여, 상기 보조 비디오 세그먼트의 제1 앵커 I 프레임의 상기 주 비디오 세그먼트에서의 병합 시작 시간을 식별하는 단계; 및
    합성 비디오를 생성하기 위해, 트랜스코딩 없이, 상기 주 비디오 세그먼트의 프레임들과 상기 보조 비디오 세그먼트의 프레임들을 병합하는 단계 - 상기 합성 비디오는 상기 병합 시작 시간까지 상기 주 비디오 세그먼트의 프레임들, 상기 제1 앵커 I 프레임 및 상기 제1 앵커 I 프레임에 후속하는 상기 보조 비디오 세그먼트의 프레임들을 포함함 -
    를 포함하는 방법.
  2. 제1항에 있어서, 상기 비디오 세그먼트들은 상이한 품질들로 인코드되고, 더 높은 우선순위 레벨은 더 높은 품질을 표시하는 방법.
  3. 제2항에 있어서, 더 높은 품질 비디오 세그먼트는 더 낮은 품질 비디오 세그먼트보다 더 낮은 압축 레벨을 갖는 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서, 상기 비디오 세그먼트들은 저장 매체 상에 저장되고, 상기 방법은 상기 저장 매체 상의 복수의 비디오 세그먼트가 언제 시간상 중첩하는지를 결정하고, 상기 중첩하는 시간 기간 동안, 상기 합성 비디오 스트림을 형성하기 위해 가장 높은 우선순위 레벨을 갖는 상기 비디오 세그먼트를 선택하는 단계를 포함하는 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서, 상기 저장 매체는 기록 서버이고, 상기 비디오 세그먼트들은 비디오 감시 카메라들에 의해 캡처되고 상기 기록 서버에 송신되는 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 연관된 타임라인들을 사용하여, 상기 주 비디오의 제2 앵커 I 프레임의 상기 보조 비디오에서의 병합 종료 시간을 식별하는 단계를 추가로 포함하고;
    상기 합성 비디오는 상기 병합 종료 시간까지 상기 제1 앵커 I 프레임에 후속하는 상기 보조 비디오의 프레임들, 상기 제2 앵커 I 프레임 및 상기 제2 앵커 I 프레임에 후속하는 상기 주 비디오의 프레임들을 포함하는 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서, 상기 보조 비디오의 상기 제1 앵커 I 프레임은 보조 비디오 시퀀스 내의 상기 제1 I 프레임인 방법.
  8. 제6항 또는 제7항에 있어서, 상기 제2 앵커 I 프레임은 상기 보조 비디오 시퀀스의 상기 최종 프레임의 시간 전의 주 비디오 시퀀스 내의 최종 I 프레임인 방법.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서, 상기 보조 비디오는 상기 주 비디오보다 높은 공간적 해상도를 갖는 방법.
  10. 시간상 중첩하는 복수의 비디오 세그먼트로부터 합성 비디오 스트림을 생성하는 장치로서 - 각각의 세그먼트는 캡처 시간 간격에 의해 식별되고 각각의 세그먼트는 우선순위 레벨을 가짐 -,
    인트라-코딩된 I 프레임들과 예측된 P 프레임들의 시퀀스를 포함하는 주 비디오 세그먼트를 획득하는 수단 - 상기 주 비디오 세그먼트는 제1 우선순위 레벨 및 제1 캡처 시간 간격을 가짐 -;
    상기 제1 우선순위 레벨보다 높은 제2 우선순위 레벨 및 상기 제1 캡처 시간 간격과 중첩하는 제2 캡처 시간 간격을 갖는 보조 비디오 세그먼트를 식별하는 수단 - 상기 보조 비디오 세그먼트는 인트라-코딩된 I 프레임들과 예측된 P 프레임들의 시퀀스를 포함함 -;
    상기 2개의 비디오 세그먼트의 타임라인들을 연관시킴으로써 상기 주 비디오 세그먼트와 상기 보조 비디오 세그먼트를 시간-정렬하는 수단;
    상기 연관된 타임라인들을 사용하여, 상기 보조 비디오 세그먼트의 제1 앵커 I 프레임의 상기 주 비디오 세그먼트에서의 병합 시작 시간을 식별하는 수단; 및
    합성 비디오를 생성하기 위해, 트랜스코딩 없이, 상기 주 비디오 세그먼트의 프레임들과 상기 보조 비디오 세그먼트의 프레임들을 병합하는 수단 - 상기 합성 비디오는 상기 병합 시작 시간까지 상기 주 비디오 세그먼트의 프레임들, 상기 제1 앵커 I 프레임 및 상기 제1 앵커 I 프레임에 후속하는 상기 보조 비디오 세그먼트의 프레임들을 포함함 -
    을 포함하는 장치.
  11. 제10항에 있어서, 상기 비디오 세그먼트들은 상이한 품질들로 인코드되고, 더 높은 우선순위 레벨은 더 높은 품질을 표시하는 장치.
  12. 제10항에 있어서, 더 높은 품질 비디오 세그먼트는 더 낮은 품질 비디오 세그먼트보다 더 낮은 압축 레벨을 갖는 장치.
  13. 제10항 내지 제12항 중 어느 한 항에 있어서, 상기 비디오 세그먼트들은 저장 매체 상에 저장되고, 상기 장치는 상기 저장 매체 상의 복수의 비디오 세그먼트가 언제 시간상 중첩하는지를 결정하고, 상기 중첩하는 시간 기간 동안, 상기 합성 비디오 스트림을 형성하기 위해 가장 높은 우선순위 레벨을 갖는 상기 비디오 세그먼트를 선택하는 수단을 포함하는 장치.
  14. 제10항 내지 제13항 중 어느 한 항에 있어서, 상기 저장 매체는 기록 서버이고, 상기 비디오 세그먼트들은 비디오 감시 카메라들에 의해 캡처되고 상기 기록 서버에 송신되는 장치.
  15. 프로그램가능한 장치에 의해 실행될 때, 상기 장치로 하여금 제1항 내지 제9항 중 어느 한 항의 방법을 수행하게 하는 컴퓨터 프로그램.
KR1020187035086A 2016-05-04 2017-05-04 복수의 비디오 세그먼트로부터 합성 비디오 스트림을 생성하는 방법 및 장치 KR20190005188A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1607823.0A GB2549970A (en) 2016-05-04 2016-05-04 Method and apparatus for generating a composite video from a pluarity of videos without transcoding
GB1607823.0 2016-05-04
PCT/EP2017/060625 WO2017191243A1 (en) 2016-05-04 2017-05-04 Method and apparatus for generating a composite video stream from a plurality of video segments

Publications (1)

Publication Number Publication Date
KR20190005188A true KR20190005188A (ko) 2019-01-15

Family

ID=56234397

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187035086A KR20190005188A (ko) 2016-05-04 2017-05-04 복수의 비디오 세그먼트로부터 합성 비디오 스트림을 생성하는 방법 및 장치

Country Status (7)

Country Link
US (1) US20200037001A1 (ko)
EP (1) EP3314609A1 (ko)
JP (1) JP2019517174A (ko)
KR (1) KR20190005188A (ko)
CN (1) CN109074827A (ko)
GB (1) GB2549970A (ko)
WO (1) WO2017191243A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6952456B2 (ja) * 2016-11-28 2021-10-20 キヤノン株式会社 情報処理装置、制御方法、及びプログラム
CN110971914B (zh) * 2019-11-22 2022-03-08 北京凯视达科技股份有限公司 一种在时间轴模式下动态节省视音频解码资源的方法
CN110855905B (zh) * 2019-11-29 2021-10-22 联想(北京)有限公司 视频处理方法、装置和电子设备
CN111918121B (zh) * 2020-06-23 2022-02-18 南斗六星系统集成有限公司 一种流媒体文件精准剪辑方法
EP4030751A4 (en) * 2020-07-27 2022-11-23 Huawei Technologies Co., Ltd. METHOD, DEVICE AND SYSTEM FOR VIDEO ASSEMBLY
CN114501066A (zh) * 2021-12-30 2022-05-13 浙江大华技术股份有限公司 视频流处理方法、系统、计算机设备和存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6611624B1 (en) * 1998-03-13 2003-08-26 Cisco Systems, Inc. System and method for frame accurate splicing of compressed bitstreams
FR2848766B1 (fr) * 2002-12-13 2005-03-11 Thales Sa Procede de commutation de signaux numeriques avant emission, commutateur et signal resultant
US7603689B2 (en) * 2003-06-13 2009-10-13 Microsoft Corporation Fast start-up for digital video streams
US20070019742A1 (en) * 2005-07-22 2007-01-25 Davis Kevin E Method of transmitting pre-encoded video
EP2062260A2 (en) * 2006-08-25 2009-05-27 Koninklijke Philips Electronics N.V. Method and apparatus for generating a summary
EP2449485A1 (en) * 2009-07-01 2012-05-09 E-Plate Limited Video acquisition and compilation system and method of assembling and distributing a composite video
WO2011013349A1 (ja) * 2009-07-31 2011-02-03 パナソニック株式会社 映像データ処理装置及び映像データ処理システム
US8259175B2 (en) * 2010-02-01 2012-09-04 International Business Machines Corporation Optimizing video stream processing
US20130055326A1 (en) * 2011-08-30 2013-02-28 Microsoft Corporation Techniques for dynamic switching between coded bitstreams
US9445136B2 (en) * 2011-09-21 2016-09-13 Qualcomm Incorporated Signaling characteristics of segments for network streaming of media data
US9344606B2 (en) * 2012-01-24 2016-05-17 Radical Switchcam Llc System and method for compiling and playing a multi-channel video
US20130282804A1 (en) * 2012-04-19 2013-10-24 Nokia, Inc. Methods and apparatus for multi-device time alignment and insertion of media
JP6019824B2 (ja) * 2012-07-02 2016-11-02 富士通株式会社 動画像符号化装置及び動画像符号化方法ならびに動画像符号化用コンピュータプログラム
US20150271599A1 (en) * 2012-11-12 2015-09-24 Juha Petteri Ojanpera Shared audio scene apparatus
JP2016058994A (ja) * 2014-09-12 2016-04-21 株式会社 日立産業制御ソリューションズ 監視カメラ装置および監視カメラシステム

Also Published As

Publication number Publication date
CN109074827A (zh) 2018-12-21
US20200037001A1 (en) 2020-01-30
GB2549970A (en) 2017-11-08
GB201607823D0 (en) 2016-06-15
WO2017191243A1 (en) 2017-11-09
EP3314609A1 (en) 2018-05-02
JP2019517174A (ja) 2019-06-20

Similar Documents

Publication Publication Date Title
KR20190005188A (ko) 복수의 비디오 세그먼트로부터 합성 비디오 스트림을 생성하는 방법 및 장치
KR102249005B1 (ko) 비디오 소스 디바이스로부터 스트리밍되는 데이터의 저장 관리
CA2656826C (en) Embedded appliance for multimedia capture
US10109316B2 (en) Method and apparatus for playing back recorded video
CN108259934B (zh) 用于回放所记录的视频的方法和装置
US10911817B2 (en) Information processing system
CN109155840B (zh) 运动图像分割装置及监视方法
US20130084053A1 (en) System to merge multiple recorded video timelines
US20150350703A1 (en) Movie package file format
JP2009260435A (ja) 情報処理装置及び情報処理方法
US10902884B2 (en) Methods and apparatus for ordered serial synchronization of multimedia streams upon sensor changes
JP2009267529A (ja) 情報処理装置及び情報処理方法
US9008488B2 (en) Video recording apparatus and camera recorder
JP6357188B2 (ja) 監視カメラシステム及び監視カメラデータ保存方法
KR101652095B1 (ko) 디지털 비디오 레코더를 이용한 실시간 원격 모니터링 및 재생 시스템 및 그 방법
TW201824850A (zh) 監視攝影機系統
CN108881810A (zh) 传输影音流的方法
US20220329903A1 (en) Media content distribution and playback
KR101190753B1 (ko) 디지털 비디오 레코더의 비디오 프레임 전송방법
CA2914803A1 (en) Embedded appliance for multimedia capture

Legal Events

Date Code Title Description
A201 Request for examination
WITB Written withdrawal of application