JP2019517174A - 複数のビデオセグメントから合成ビデオストリームを生成するための方法及び装置 - Google Patents

複数のビデオセグメントから合成ビデオストリームを生成するための方法及び装置 Download PDF

Info

Publication number
JP2019517174A
JP2019517174A JP2018552694A JP2018552694A JP2019517174A JP 2019517174 A JP2019517174 A JP 2019517174A JP 2018552694 A JP2018552694 A JP 2018552694A JP 2018552694 A JP2018552694 A JP 2018552694A JP 2019517174 A JP2019517174 A JP 2019517174A
Authority
JP
Japan
Prior art keywords
video
frame
segment
primary
video segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018552694A
Other languages
English (en)
Inventor
プレベン エイチ. ニールセン,
プレベン エイチ. ニールセン,
ジョン マッドセン,
ジョン マッドセン,
クラウス クラウセン,
クラウス クラウセン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2019517174A publication Critical patent/JP2019517174A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/10Arrangements for replacing or switching information during the broadcast or the distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

合成ビデオを生成する方法及び装置を提供する。その方法は、イントラ符号化されたIフレームと予測Pフレームのシーケンスを持つ、プライマリ及びセカンダリビデオセグメントを得ること、ここでプライマリ及びセカンダリビデオセグメントは第1及び第2の優先度レベルを持ち、第1及び第2のキャプチャ時間インターバルを有する、ここで第2の優先度レベルは第1の優先度レベルよりも高く、第2のキャプチャ時間インターバルは、第1のキャプチャ時間インターバルとオーバーラップしている。方法は、プライマリ及びセカンダリビデオセグメントの時間整列を行うことと、セカンダリビデオセグメントの第1のアンカーIフレームの、プライマリビデオセグメント内の開始マージ時間を識別することと、合成ビデオを生成するため、プライマリ及びセカンダリビデオセグメントのフレームを、トランスコード無しにマージすることとを有する。ここで、合成ビデオは、開始マージ時間までのプライマリビデオのフレームと、第1のアンカーIフレーム及び当該第1のアンカーIフレームに後続するセカンダリビデオのフレームを含む。【選択図】 図1

Description

本発明はビデオ編集に関し、より詳細には、時間的にオーバーラップする複数の圧縮されたビデオセグメントから、トランスコード無しに、合成ビデオストリームを生成することに関する。
マージされたセグメントのタイミングを尊重しつつ、同じキャプチャ時間を共有するビデオセグメントを単一のビデオにマージしたいとの要望のためのアプリケーションがある。これは、例えば、シーンの所与のビューのビデオセグメントが異なる品質で符号化されている場合、またはセグメントが同じシーンの異なるビューに関係しており、これらの異なるセグメントの全てを単一のビデオストリームとしてシームレスに処理したい場合である。
マージの前にビデオセグメントを復号(伸長)することはリソースの点でコストがかかり、ビデオセグメントが同じキャプチャ時間を共有するために生じるタイミング問題を解決しない。
したがって、必要とされるのは、複数の圧縮ビデオから、リソースの観点での費用対効果があり、複数のビデオのタイミングを尊重する合成ビデオを生成する方法である。
本発明の第1の態様は、請求項1に記載の合成ビデオストリームを生成する方法を提供することである。
本発明の第2の態様は、請求項10に記載の合成ビデオストリームを生成する装置を提供することである。
本発明の他の態様は、サーベイランス及び/又はモニタリングシステムにおけるデバイスのプロセッシングユニットによって実行されたとき、そのデバイスに上記の定義された方法を実行させるためのプログラムを格納した、非一過性のコンピュータ可読媒体に関する。
上記で定義した非一過性のコンピュータ可読媒体およびデバイスは、上記で定義した方法に関して述べたものと類似の特徴および利点を有する。
本発明のおける方法の少なくとも一部は、コンピュータに実施することができる。したがって、本発明は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、または、一般に“回路”、“モジュール”または“システム”として参照される、ソフトウェアおよびハードウェアの態様の組み合わせの実施形態を取り得る。さらに、本発明は、媒体に具体化されたコンピュータ使用可能プログラムコードを有する表現の、任意の有形の媒体に具体化されたコンピュータプログラム製品の形態を取ることができる。
本発明はソフトウェアに実装できるので、本発明は任意の適切なキャリア媒体上のプログラマブル装置に提供するためのコンピュータ可読コードとして実施することができる。有形のキャリア媒体は、ハードディスクドライブ、磁気テープデバイスまたはソリッドステートメモリデバイスなどのような記憶媒体を含むことができる。 一過性キャリア媒体は、電気信号、電子信号、光信号、音響信号、磁気信号、または、例えばマイクロ波またはRF信号の電磁信号を含むことができる。
以下、例として、本発明の実施形態を添付図面とともに説明する。
サーベイランスシステムの例を示す図である。 発明の実施形態を具現化するように適応されれたコンピュータデバイスのハードウェア構成を示す図である。 例示する実施形態における、プライマリビデオとセカンダリビデオのフレームをマージすることによる合成ビデオの生成を表す図である。 発明の実施形態における、合成ビデオの生成方法を表すフローチャートである。 複数のビデオセグメントの場合の合成ビデオの生成の実行の例を示す図である。
図1は、本発明の実施形態が実装される、サーベイランス/モニタリング(surveillance/monitoring)システム100の例を示している。システム100は、管理サーバ130、2つの記録サーバ151、152、アーカイブサーバ153、および、周辺デバイス161〜163を有する。
周辺デバイス161〜163は、システムにデータストリームを転送可能なソースデバイスを表す。典型的には、周辺デバイスはビデオカメラ(例えば、IPカメラ、PTZカメラ、ビデオエンコーダに接続されるアナログカメラ)である。周辺デバイスはオーディオデバイス、検出装置等のような他のタイプであっても良い。
記録サーバは、ビデオカメラによってキャプチャされたビデオストリームのような、周辺デバイスによって生成(記録)されたデータストリームを格納するために提供されている。記録サーバは、ストレージ部と、その記録サーバに付随されるデータベースとを有する。記録サーバに付随するデータベースは、記録サーバというよりも同じコンピュータデバイスに配置されるローカルデータベース、或いは、記録サーバにアクセス可能なリモートデバイスに配置されるデータベースであっても良い。
ストレージ部165は、ローカルストレージまたはエッジストレージとも呼ばれるものであって、周辺デバイスで生成されたビデオ等のデータストリームのローカルに格納する周辺デバイス161と関連付けられても良い。エッジストレージは、一般に、記録サーバが持つストレージ部よりその容量は小さいが、低品位バージョンが記録サーバを転送されている間における、最後にキャプチャされたデータシーケンスにおける高品位バージョンを記憶する役割を果たす。
データストリームは、記録サーバのストレージ部に格納するため、または、そこから読み出すために、そのデータストリームのデータセグメントに分割されても良い。セグメントは如何なるサイズであっても構わない。セグメントは時間インターバル[ts1、ts2]によって識別される。ここで、ts1はそのセグメントの開始のタイムスタンプに対応し、ts2はそのセグメントの終了のタイムスタンプに対応する。タイムスタンプは、周辺デバイスによるキャプチャ時間に対応しても良く、第1の記録サーバ内の記録時間に対応しても良い。セグメントはまた、シーケンス番号、トラック番号、或いは、ファイル名などの他の適切なセグメント識別子によって識別されても良い。
管理サーバ130は、警戒条件、周辺機器(ハードウェア)の詳細、記録サーバに記録されているデータストリーム等のサーベイランス/監視システム100の構成に関する情報を記憶する。
管理クライアント110は、サーベイランス/モニタリングシステム100を構成するために管理者によって使用されるために提供されるものである。管理クライアント100は、例えば、新規の周辺デバイス(ハードウェア)を追加したり、ある録画サーバーから別の録画サーバーへの周辺デバイスの移動等のための、システムの構成するため、管理サーバ上の管理ソフトウェアと対話するためのインタフェースを表示する。管理クライアント110に表示されるインタフェースは、ゲートウェイ170を介した、外部ネットワーク180にどのデータを入出力すべきかを制御するため、管理サーバ130と相互に作用することを許容する。
ユーザクライアント111は、周辺デバイス161−163の出力を監視またはレビューするために、セキュリティガードまたは他のユーザによる使用のために提供される。ユーザクライアント111は、周辺デバイス161−163からの画像/録画を見たり、或いは、記録サーバ151−152に格納されたビデオ映像を視聴するために、管理サーバ上の管理ソフトウェアと対話するためのインターフェースを表示する。
アーカイブサーバ153は、記録サーバ151−152から直にアクセスされる必要はないが、削除することは永久に望ましくない、記録サーバ151−152に記憶された、より古いデータをアーカイブするために使用される。
他のサーバも、システム100内に存在してもよい。例えば、主記録サーバが故障した場合のフェイルオーバ記録サーバ(図示せず)が設けられてもよい。また、ウェブクライアントを使用してブラウザからシステムにアクセスするモバイルクライアントまたはラップトップをホスティングする携帯電話など、モバイルデバイスからサーベイランス/モニタリングシステムにアクセスすることを可能にするモバイルサーバ(図示せず)を提供されてもよい。
管理クライアント110およびユーザクライアント111は、ネットワーク/バス121を介して管理サーバ130、アクティブディレクトリサーバ140、複数の記録およびアーカイブサーバ151−153、および複数の周辺デバイス161−163と通信するように構成される。記録及びアーカイブサーバ151−153は、ネットワーク/バス122を介して周辺デバイス161−163と通信する。サーベイランス/モニタリングシステム100は、ゲートウェイ170を介し、外部ネットワーク180とデータを入出力ができる。
アクティブディレクトリサーバ140は、例えば管理クライアント110またはユーザクライアント111からサーベイランス/モニタリングシステム100へのユーザのログインおよびアクセスを制御する認証サーバである。
図2は、本発明の少なくとも1つの実施形態を実施するように構成されたデバイス200の典型的な構成を示す。デバイス200は、通信バス220を備え、この通信バス220には、好ましくは、
CPUとして示され、マイクロプロセッサ等のセントラルプロセッシングユニット231と、
RAMとして示され、本発明の実施形態による方法の実行可能コードと、本発明の実施形態による方法を実施するために必要な変数およびパラメータを記録するように適合されたレジスタと同様のランダムアクセスメモリ210と、
デバイス200が他のデバイスと通信可能となるために構成される入出力インターフェース250とが接続される。
デバイス200は、オプションとして、データを記憶するためのハードディスク等のデータストレージ手段232やディスプレイ240を含むことができる。
RAM210にロードされ、CPU231によって実行される実行可能なコードは、読取専用メモリ(不図示)、ハードディスク232、リムーバブルデジタル媒体(不図示)のいずれかに格納されても良い。
ディスプレイ240は、一般に、ユーザインタフェースを介してユーザに情報を伝えるために用いられる。入出力ポート250は、ユーザにマウス、キーボードを用いてデバイス200に命令を与えることを許容し、他のデバイスからデータを受信したり、ネットワークを介したデータの送信を行う。
クライアント110−111、管理サーバ130、アクティブディレクトリ140、記録サーバ151−152およびアーカイブサーバ153は、図2に示すデバイス200に一致するシステムアーキテクチャを有する。図2の記述は大幅に簡略化されたものであり、任意の適切なコンピュータまたは処理装置のアーキテクチャを使用できる。
図3は、例示的な一実施形態における、所与のデバイスにて、プライマリビデオ301とセカンダリビデオ302のフレームのマージングによる、合成ビデオ303の生成を示している。
説明のために、我々は、図1のサーベイランス/モニタリングシステム100を検討する。ここで、周辺装置161は、ビデオをキャプチャするように構成されたカメラであるものとする。カメラは、例えば、ビデオの時間的冗長性を有効利用する、動き補償を実装するビデオエンコーダ手段によってキャプチャされたビデオをエンコードし、異なる圧縮レベルを有する2つの圧縮ビデオ、例えば 高圧縮(低品質)および低圧縮(高品質)のビデオを配送する。
なお、本発明の実施形態は、異なる圧縮レベル(異なる符号化率)、又は、同じ圧縮レベルであるものの異なる符号化パラメータ(フレームレート、フレームの空間解像度など)を用いて3つ以上の圧縮されたビデオがエンコーダによって配信される場合にも同様に適用されることに留意されたい。本発明の実施形態は、異なるエンコーダによってエンコードされた、および/または異なるシーンまたはビューをカバーする複数の圧縮されたビデオの場合にも適用できる。
動き補償を用いるビデオエンコーダは、MPEG規格(MPEG−1、H.262/MPEG−2、H.263、H.264/MPEG−4 AVC、又は、H.265/AVC)の1つを実装できる。したがって、圧縮されたビデオは、イントラ符号化されたIフレーム(他のすべてのピクチャとは独立して符号化されたピクチャ)、および、予測されたPフレーム(以前に復号されたピクチャに対する動き補償された差分情報を含むピクチャ)のシーケンスを含む。フレームはGOP(グループオブピクチャ)303にグループ化される。IフレームはGOPの開始を示すことになる。
一つの実施における、生成方法を実装するデバイス(所与のデバイス)は、管理サーバ130などのサーベイランス/モニタリングシステム100内にあり、コンピュータデバイス200のアーキテクチャを有する。
好適な実施形態に従えば、カメラ161は、更なる処理のために記録サーバ151にて格納するため、高圧縮ビデオをサーベイランス/モニタリングシステム100にストリーミングし、必要に応じて後の復旧のためにその圧縮されていないビデオをそのローカルストレージ165に格納する。プライマリビデオ301は高圧縮ビデオに対応し、よって、記録サーバ15から得ることができる。セカンダリビデオ302は低圧縮ビデオもしくは、その一部に対応し、カメラ161のエッジストレージ165から得ることができる。
一般に、プライマリビデオ301はカメラ161から、RTP/RTSPストリームとして受信される。このプロトコルは、送信された第1のフレームと共にタイムスタンプを送り、後続フレームに対してデルタ(オフセット)時間を送る。これは、参照符号311による、図に示されるプライマリビデオのタイムラインの定義を可能にする。プライマリビデオ301のタイムラインをセカンダリビデオ302のタイムライン312に関連付けるために、サーベイランス/モニタリングシステムのローカルタイムが共通の時間基準(絶対タイムライン313)として選択される。この関連付けを容易にするため、オンザフライでビデオフレームが受信されている間、プライマリビデオ301のタイムラインは絶対タイムラインに変換される。例えば、プライマリビデオ301の第1のフレームが受信されると、それはサーベイランス/モニタリングシステムのローカルタイムでタイムスタンプされ、次にフレームが受信されるとデルタ値が追加される。フレームは、記録サーバ151のストレージ部に、所要期間[t0、t4]のセグメント(記録)に格納され、記録サーバ151に付随するデータベースに、算出したタイムスタンプを含むメタデータが格納される。この時間t0およびt4は、絶対タイムライン313に従って与えられる。受信されたプライマリビデオから抽出されたタイムライン311に従った対応時間t’0およびT’4が、図3に示されている。
セカンダリビデオ302は、例えば、所与のデバイスの要求に応じて受信される。 一実施では、カメラ161での時間は、サーベイランス/モニタリングシステムにおけるローカル時間と同期される(例えば、ONVIFコマンドを使用する)。
これにより、既に表現したエッジストレージに記憶されたビデオのタイムラインが絶対タイムライン313に従うこと、すなわち、タイムライン312および313が同期されることになる。このように、所与のデバイスは時間間隔[t1、t2]、すなわち[t''1、t''3]と同じ要求をカメラ161に単に送信するだけで、 その時間インターバルのセカンダリビデオ302のフレームシーケンスを得る。
これに代る実装で、プライマリおよびセカンダリビデオを整列させ、したがってそれらの対応するタイムラインを関連付けることも可能である。例えば、プライマリビデオの第1のタイムスタンプt’aに対して、セカンダリビデオの第2のタイムスタンプt''a(タイムシフト決定)の位置合わせを行うことができる。次に、任意の時間b>aに対して、セカンダリビデオのタイムライン312は、t''b = t'b +(t''a−t'a)として、プライマリビデオから補間することができる。このようにタイムスケールの適切な変更が、ダイレクト比較の前に、各タイムスタンプ値に適用する必要がある。
低圧縮のビデオから特定の時間インターバル[t1、t3]を検索する1つの動機は、例えば、オペレータによるビデオのより完全な分析のための、イベントの発生を中心とする高品質ビデオを得ることである。残りのビデオの残りの部分を低品質に保つことができる。検索されたセカンダリビデオセグメント302とプライマリビデオ301とのマージングは、両方のビデオが共通のキャプチャ時間間隔を共有していれば、ビデオデコーダは単一のストリームのみを復号するだけで、シームレスなデコードおよび表示が可能になる。
発明は上記シナリオに限定されず、2つ以上のビデオシーケンスをマージして、単一のストリームを生成してシームレスに復号し、表示する他の動機に従っても良い。例えば、2つのビデオが、同じ時間で或るシーンの異なるビューをカバーしている場合、トランスコーディングなしに異なるビューが埋め込まれた単一のストリームを生成することが便利な場合がある。この場合、各埋め込まれたビデオシーケンスは、与えられた時間にて最も関連している又は重要なビューにフォーカシングされる。
1つのビデオストリームに、他のビデオストリームに対する優先度を割り当てることができる。この場合、より高い優先度のビデオが利用可能であるときはいつでも、優先度の低いビデオよりも合成ビデオへ含められることが優先される。優先度は、何かが発生中のビデオセグメントを含む可能性を高い合成ビデオを作成する際のビデオ内で、例えば動き検出等の活発さの測定に基づき、そのビデオに割り当てることができる。
図4は、本発明の実施形態における、合成ビデオの生成方法を示すフローチャートである。このフローチャートは、図3との関係で上述したステップのいくつかを要約している。この方法は、典型的には、所与のデバイスのCPU231によって実行されるソフトウェアコードによって実行される。
ステップ401、402において、プライマリビデオ301及びセカンダリビデオ302それぞれが、デバイスよって得られる。プライマリビデオ301及びセカンダリビデオ302は、任意の適切なビデオ符号化フォーマットを実装する動き補償エンコーダによって生成された、イントラ符号化されたIフレームと予測Pフレームのシーケンスを含む。
上述したように、一実施形態によれば、プライマリビデオ301の取得は、記録サーバ151(タイムセグメント[t’0,t’4])からビデオを読み出すことで実行され、セカンダリビデオ302の取得は、要求に従って、カメラ161のエッジストレージ165(タイムセグメント[t''1,t''3])からのビデオを受信することで実行される。他の実施形態では、プライマリ及びセカンダリビデオの両方が同じストレージユニット、もしくは、1つのカメラからそれらを直接受信することで得ることもできる。
図3の例では、セカンダリビデオ302はプライマリビデオ301より短いことを示している。そして、合成ビデオは、プライマリビデオのフレームからセカンダリビデオのフレームへの切換えと、そしてセカンダリビデオのフレームからプライマリビデオのフレームへの復帰が行わることを示している。もちろん、一方のビデオのサイズが他方のビデオのサイズに対して任意とすることができる。
ステップ403にて、プライマリ及びセカンダリビデオは、その2つのビデオのタイムラインを関連付けることで時間の整列が行われる。様々な実装が、図3の関係で説明されてきた。整列の結果は、タイムライン311および312を比較することができることである。一実装では、例えば、時間インターバル[t'0、t'4]と[t''1,t''3]が、ともに、[t0、t4]および[t1、t3]として、共通な時間基準313で表現でき、したがって、変換の必要がない。
ステップ404にて、セカンダリビデオの第1のアンカーIフレームの、プライマリビデオ内の開始マージ時間t1が、関連付けられたライムラインを用いて識別される。
最後に、ステップ405にて、プライムビデオ301のフレームとセカンダリビデオ302のフレームが、トランスコード無しにマージされ、合成ビデオ303が生成される。この合成ビデオ303は、開始マージ時間t1までのプライマリビデオのフレームと、第1のアンカーフIレーム304及び当該第1のアンカーIフレーム304に後続するセカンダリビデオのフレーム305、306等を有する。後続フレーム305,306等は、後者がプライマリビデオに先立って終了する場合には、セカンダリビデオに残っている全てのフレームを含むことができ、又は、プライマリビデオまたは別のビデオにスイッチバックする時まで、セカンダリビデオ内のフレームのみを含むことができる。図3に示される例では、セカンダリビデオ302の第1のアンカーIフレーム304はセカンダリビデオシーケンス(の最初のGOP)の最初のIフレームである。
これとは別の実装(図示せず)では、第1のアンカーIフレームが第n番目のGOPのIフレームとする。ここでn≧1である。例えば、プライマリビデオのGOPのサイズがセカンダリビデオのGOPサイズよりもはるかに大きい場合、第n番目のGOPが、プライマリビデオのGOPの先頭とオーバーラップするものとして選択されても良い。セカンダリビデオの(n−1)番目以前のGOPはスキップ、つまり、合成ビデオには含まれない。
一実施では、プライマリビデオの第2のアンカーIフレーム314の、セカンダリビデオ302内の終了マージン時間が、関連付けられたタイムラインを用いて識別される。この場合、合成ビデオは、終了マージン時間t2までの第1のアンカーIフレーム304に後続するセカンダリビデオシーケンスのフレームと、第2のアンカーIフレーム314及び当該第2のアンカーIフレーム314に後続するプライマリビデオ301のフレーム315,316等とを有する。後続フレーム315,316等は、プライマリビデオの終了までの、プライマリビデオに残っている全振フレームを含むことができる、或いは、他のビデオにスイッチする時間までのプライマリビデオ内のこれらフレームを含むことができる。
図3に示す例では、第2のアンカーIフレームは、セカンダリビデオシーケンス302の最後のフレーム309の時間t3より前の、プライマリビデオシーケンス301における最後のIフレームである。代替の実装(不図示)では、第2のアンカーIフレームは、プライマリビデオにおける、より早いGOPのIフレームとすることができる。
図5は、異なる優先度に従ってソートされた複数のビデオセグメントの場合の、合成ビデオの生成の実装例を示している。
図示の例では、4つのビデオセグメント501,502,503及び504は時間に対しオーバーラップ(共通のキャプチャ時間を共有している)し、異なる優先度を持っている。簡略化のため、ビデオセグメントのGOP構造は示していない。ビデオセグメント501及び502は、最も高く、同じ優先度を持つ。ビデオセグメント503は、それより低い優先度を有し、ビデオセグメント504は最も低い優先度を有する。生成される合成ビデオは、参照符号505で表される。
或るビデオセグメントの、他のビデオセグメントへの遷移する(切換)時間は、説明を簡単にするため、各セグメントの511、512、513、514、515、および516の先端部でに示される。図3の説明から理解できるように、或るビデオの1つのフレームから他のビデオの後続するフレームへの切換に対応する遷移時間は、ビデオセグメントの開始より遅く発生し、および/又は、ビデオセグメントの終了よりも早く発生する。
合成ビデオ505は、開始から遷移時間511までのビデオセグメント505のフレームと、そして、より高い優先度のビデオセグメント503のフレームとを有する。ここで、図3、4との関係で説明すれば、ビデオセグメント504はプライマリビデオ301に対応し、ビデオセグメント503はセカンダリビデオ302に対応する。
次に、合成ビデオ505は、ビデオセグメント501(より高い優先度を持つ)のフレームにより後続することになる遷移時間512までのビデオセグメント503のフレームを有する。
そして、合成ビデオ505は、遷移時間513以降では、セグメント503の終了までのビデオセグメント503の残りのフレームを有する。ここで、図3、4との関係で説明すれば、ビデオセグメント501はセカンダリビデオ302に対応し、ビデオセグメント503はプライマリビデオ301に対応する。
合成ビデオ505の残りの構造は、ビデオセグメント504の終了までの既に説明したのと同様である。

Claims (15)

  1. 時間に対してオーバーラップする複数ビデオセグメントから合成ビデオストリームを生成する方法であって、ここで各セグメントはキャプチャ時間インターバルによって識別されており、各セグメントは優先度レベルを有する、
    イントラ符号化されたIフレームと予測Pフレームのシーケンスを有するプライマリビデオセグメントを取得し、
    ここでプライマリビデオセグメントは第1の優先度レベルと第1のキャプチャ時間インターバルを有する、
    前記第1の優先度レベルよりも高い第2の優先度レベルを有し、前記第1のキャプチャ時間インターバルとオーバーラップする第2のキャプチャ時間インターバルを有するセカンダリビデオセグメントを識別し、
    ここで、前記セカンダリビデオセグメントはイントラ符号化されたIフレームと予測Pフレームのシーケンスを有する、
    前記プライマリ及びセカンダリビデオセグメントを、これら2つのビデオセグメントのタイムラインを関連付けることで時間整列し、
    前記関連付けられたタイムラインを用いて、前記セカンダリビデオセグメントの第1のアンカーIフレームの、前記プライマリビデオセグメント内の開始マージ時間を識別し、
    合成ビデオを生成するため、前記プライマリビデオセグメントのフレームと、前記セカンダリビデオセグメントのフレームとをトランスコード無しにマージする、
    ここで、前記合成ビデオは、前記開始マージ時間までの前記プライマリビデオセグメントのフレームと、前記第1のアンカーIフレーム及び当該第1のアンカーIフレームに後続する前記セカンダリビデオセグメントのフレームとを有する
    ことを特徴とする方法。
  2. 前記ビデオセグメントは異なる品質で符号化されており、より高い優先度レベルはより高い品質を示していることを特徴とする請求項1に記載の方法。
  3. より高い品質のビデオセグメントは、より低い品質のビデオセグメントよりも低い圧縮レベルを有することを特徴とする請求項2に記載の方法。
  4. 前記ビデオセグメントはストレージ媒体に格納されており、
    前記方法は、
    前記ストレージ媒体上の複数のビデオセグメントが時間に対してオーバーラップしている時を判定し、前記合成ビデオストリームを形成するために、当該オーバーラップする期間では、最も高い優先度レベルを持つビデオセグメントを選択する
    ことを特徴とする請求項1乃至3のいずれか1項に記載の方法。
  5. 前記ストレージ媒体は記録サーバであって、
    前記ビデオセグメントはビデオサーベイランスカメラによってキャプチャされ、前記記録サーバに転送される
    ことを特徴とする請求項1乃至4のいずれか1項に記載の方法。
  6. 更に、前記関連付けられたライムラインを用いて、前記プライマリビデオの第2のアンカーIフレームの、前記セカンダリビデオ内の終了マージ時間を識別し、
    前記合成ビデオは、前記終了マージ時間までの前記第1のアンカーIフレームに後続する前記セカンダリビデオのシーケンスのフレームと、前記第2のアンカーIフレームと当該第2のアンカーIフレームに後続する前記プライマリビデオのフレームとを含む
    ことを特徴とする請求項1乃至5のいずれか1項に記載の方法。
  7. 前記セカンダリビデオの前記第1のアンカーIフレームは、前記セカンダリビデオのシーケンスの第1のIフレームであることを特徴とする請求項1乃至6のいずれか1項に記載の方法。
  8. 前記第2のアンカーIフレームは、前記セカンダリビデオのシーケンスの最後のフレームの時間より前の、前記プライマリビデオのシーケンスの最後のIフレームであることを特徴とする請求項6又は7に記載の方法。
  9. 前記セカンダリビデオは前記プライマリビデオよりも高い空間解像度を有することを特徴とする請求項1乃至8のいずれか1項に記載の方法。
  10. 時間に対してオーバーラップする複数ビデオセグメントから合成ビデオストリームを生成する装置であって、ここで各セグメントはキャプチャ時間インターバルによって識別されており、各セグメントは優先度レベルを有する、
    イントラ符号化されたIフレームと予測Pフレームのシーケンスを有するプライマリビデオセグメントを取得する手段と、
    ここでプライマリビデオセグメントは第1の優先度レベルと第1のキャプチャ時間インターバルを有する、
    前記第1の優先度レベルよりも高い第2の優先度レベルを有し、前記第1のキャプチャ時間インターバルとオーバーラップする第2のキャプチャ時間インターバルを有するセカンダリビデオセグメントを識別する手段と、
    ここで、前記セカンダリビデオセグメントはイントラ符号化されたIフレームと予測Pフレームのシーケンスを有する、
    前記プライマリ及びセカンダリビデオセグメントを、これら2つのビデオセグメントのタイムラインを関連付けることで時間整列する手段と、
    前記関連付けられたタイムラインを用いて、前記セカンダリビデオの第1のアンカーIフレームの、前記プライマリビデオセグメント内の開始マージ時間を識別する手段と、
    合成ビデオを生成するため、前記プライマリビデオセグメントのフレームと前記セカンダリビデオセグメントのフレームとをトランスコード無しにマージする手段と、
    ここで、合成ビデオは、前記開始マージ時間までの前記プライマリビデオセグメントのフレームと、前記第1のアンカーIフレーム及び当該第1のアンカーIフレームに後続する前記セカンダリビデオセグメントのフレームとを有する
    を有することを特徴とする装置。
  11. 前記ビデオセグメントは異なる品質で符号化されており、より高い優先度レベルはより高い品質を示していることを特徴とする請求項10に記載の装置。
  12. より高い品質のビデオセグメントは、より低い品質のビデオセグメントよりも低い圧縮レベルを有することを特徴とする請求項10に記載の装置。
  13. 前記ビデオセグメントはストレージ媒体に格納されており、
    前記装置は、
    前記ストレージ媒体上の複数のビデオセグメントが時間に対してオーバーラップしている時を判定し、前記合成ビデオストリームを生成するために、当該オーバーラップする期間では、最も高い優先度レベルを持つビデオセグメントを選択する手段
    を有することを特徴とする請求項10乃至12のいずれか1項に記載の装置。
  14. 前記ストレージ媒体は記録サーバであって、
    前記ビデオセグメントはビデオサーベイランスカメラによってキャプチャされ、前記記録サーバに転送される
    ことを特徴とする請求項10乃至13のいずれか1項に記載の方法。
  15. プログラマブル装置によって実行されたとき、前記装置を、請求項1乃至9のいずれか1項に記載の方法を実行させるためのコンピュータプログラム。
JP2018552694A 2016-05-04 2017-05-04 複数のビデオセグメントから合成ビデオストリームを生成するための方法及び装置 Pending JP2019517174A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1607823.0A GB2549970A (en) 2016-05-04 2016-05-04 Method and apparatus for generating a composite video from a pluarity of videos without transcoding
GB1607823.0 2016-05-04
PCT/EP2017/060625 WO2017191243A1 (en) 2016-05-04 2017-05-04 Method and apparatus for generating a composite video stream from a plurality of video segments

Publications (1)

Publication Number Publication Date
JP2019517174A true JP2019517174A (ja) 2019-06-20

Family

ID=56234397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018552694A Pending JP2019517174A (ja) 2016-05-04 2017-05-04 複数のビデオセグメントから合成ビデオストリームを生成するための方法及び装置

Country Status (7)

Country Link
US (1) US20200037001A1 (ja)
EP (1) EP3314609A1 (ja)
JP (1) JP2019517174A (ja)
KR (1) KR20190005188A (ja)
CN (1) CN109074827A (ja)
GB (1) GB2549970A (ja)
WO (1) WO2017191243A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6952456B2 (ja) * 2016-11-28 2021-10-20 キヤノン株式会社 情報処理装置、制御方法、及びプログラム
CN110971914B (zh) * 2019-11-22 2022-03-08 北京凯视达科技股份有限公司 一种在时间轴模式下动态节省视音频解码资源的方法
CN110855905B (zh) * 2019-11-29 2021-10-22 联想(北京)有限公司 视频处理方法、装置和电子设备
CN111918121B (zh) * 2020-06-23 2022-02-18 南斗六星系统集成有限公司 一种流媒体文件精准剪辑方法
WO2022020996A1 (zh) * 2020-07-27 2022-02-03 华为技术有限公司 视频拼接的方法、装置及系统
CN114501066A (zh) * 2021-12-30 2022-05-13 浙江大华技术股份有限公司 视频流处理方法、系统、计算机设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6611624B1 (en) * 1998-03-13 2003-08-26 Cisco Systems, Inc. System and method for frame accurate splicing of compressed bitstreams
JP2005006339A (ja) * 2003-06-13 2005-01-06 Microsoft Corp デジタル・ビデオストリームの高速起動
WO2011013349A1 (ja) * 2009-07-31 2011-02-03 パナソニック株式会社 映像データ処理装置及び映像データ処理システム
US20130188923A1 (en) * 2012-01-24 2013-07-25 Srsly, Inc. System and method for compiling and playing a multi-channel video
JP2015501090A (ja) * 2011-09-21 2015-01-08 クゥアルコム・インコーポレイテッドQualcomm Incorporated ネットワークを通じてのメディアデータのストリーミングに関するセグメントの特徴のシグナリング
JP2016058994A (ja) * 2014-09-12 2016-04-21 株式会社 日立産業制御ソリューションズ 監視カメラ装置および監視カメラシステム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2848766B1 (fr) * 2002-12-13 2005-03-11 Thales Sa Procede de commutation de signaux numeriques avant emission, commutateur et signal resultant
EP1911285A4 (en) * 2005-07-22 2009-12-02 Empirix Inc METHOD OF TRANSMITTING PRECODED VIDEO
WO2008023352A2 (en) * 2006-08-25 2008-02-28 Koninklijke Philips Electronics N.V. Method and apparatus for generating a summary
WO2011001180A1 (en) * 2009-07-01 2011-01-06 E-Plate Limited Video acquisition and compilation system and method of assembling and distributing a composite video
US8259175B2 (en) * 2010-02-01 2012-09-04 International Business Machines Corporation Optimizing video stream processing
US20130055326A1 (en) * 2011-08-30 2013-02-28 Microsoft Corporation Techniques for dynamic switching between coded bitstreams
US20130282804A1 (en) * 2012-04-19 2013-10-24 Nokia, Inc. Methods and apparatus for multi-device time alignment and insertion of media
JP6019824B2 (ja) * 2012-07-02 2016-11-02 富士通株式会社 動画像符号化装置及び動画像符号化方法ならびに動画像符号化用コンピュータプログラム
US20150271599A1 (en) * 2012-11-12 2015-09-24 Juha Petteri Ojanpera Shared audio scene apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6611624B1 (en) * 1998-03-13 2003-08-26 Cisco Systems, Inc. System and method for frame accurate splicing of compressed bitstreams
JP2005006339A (ja) * 2003-06-13 2005-01-06 Microsoft Corp デジタル・ビデオストリームの高速起動
WO2011013349A1 (ja) * 2009-07-31 2011-02-03 パナソニック株式会社 映像データ処理装置及び映像データ処理システム
JP2015501090A (ja) * 2011-09-21 2015-01-08 クゥアルコム・インコーポレイテッドQualcomm Incorporated ネットワークを通じてのメディアデータのストリーミングに関するセグメントの特徴のシグナリング
US20130188923A1 (en) * 2012-01-24 2013-07-25 Srsly, Inc. System and method for compiling and playing a multi-channel video
JP2016058994A (ja) * 2014-09-12 2016-04-21 株式会社 日立産業制御ソリューションズ 監視カメラ装置および監視カメラシステム

Also Published As

Publication number Publication date
GB201607823D0 (en) 2016-06-15
KR20190005188A (ko) 2019-01-15
CN109074827A (zh) 2018-12-21
EP3314609A1 (en) 2018-05-02
GB2549970A (en) 2017-11-08
US20200037001A1 (en) 2020-01-30
WO2017191243A1 (en) 2017-11-09

Similar Documents

Publication Publication Date Title
JP2019517174A (ja) 複数のビデオセグメントから合成ビデオストリームを生成するための方法及び装置
KR102010513B1 (ko) 레코딩된 비디오를 재생하기 위한 방법 및 장치
US10277927B2 (en) Movie package file format
US10911817B2 (en) Information processing system
CN109155840B (zh) 运动图像分割装置及监视方法
US20130084053A1 (en) System to merge multiple recorded video timelines
JP2009267529A (ja) 情報処理装置及び情報処理方法
US9008488B2 (en) Video recording apparatus and camera recorder
WO2018123078A1 (ja) 監視カメラシステム
JP2007531435A (ja) メニューを生成する方法及び装置
JP6357188B2 (ja) 監視カメラシステム及び監視カメラデータ保存方法
CN108881810A (zh) 传输影音流的方法
JP6071399B2 (ja) 画像処理装置及び画像処理装置の制御方法
US20220329903A1 (en) Media content distribution and playback
KR101190753B1 (ko) 디지털 비디오 레코더의 비디오 프레임 전송방법
JP6049369B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP2006217329A (ja) 映像配信装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181107

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190927

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200403