JP5165743B2 - ビデオデータの同期をとる方法及び装置 - Google Patents
ビデオデータの同期をとる方法及び装置 Download PDFInfo
- Publication number
- JP5165743B2 JP5165743B2 JP2010252721A JP2010252721A JP5165743B2 JP 5165743 B2 JP5165743 B2 JP 5165743B2 JP 2010252721 A JP2010252721 A JP 2010252721A JP 2010252721 A JP2010252721 A JP 2010252721A JP 5165743 B2 JP5165743 B2 JP 5165743B2
- Authority
- JP
- Japan
- Prior art keywords
- parameter
- video sequence
- change
- video
- over time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 53
- 230000008859 change Effects 0.000 claims description 60
- 230000002123 temporal effect Effects 0.000 claims description 36
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000005314 correlation function Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 238000009499 grossing Methods 0.000 claims description 4
- 230000036962 time dependent Effects 0.000 claims 2
- 230000033001 locomotion Effects 0.000 description 52
- 238000004422 calculation algorithm Methods 0.000 description 17
- 238000013459 approach Methods 0.000 description 16
- 230000000875 corresponding effect Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 10
- 239000013598 vector Substances 0.000 description 10
- 238000012545 processing Methods 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 241001028048 Nicola Species 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000002864 sequence alignment Methods 0.000 description 2
- 241000898323 Microtus irani Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000011045 prefiltration Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8547—Content authoring involving timestamps for synchronizing content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/2365—Multiplexing of several video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4347—Demultiplexing of several video streams
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Description
前記第1のビデオシーケンスから第1のパラメータを取得するステップであって、この第1のパラメータの経時的な変化が前記第1のビデオシーケンスのエントロピーの経時的な変化に対応するものである、ステップと、
前記第2のビデオシーケンスから第2のパラメータを取得するステップであって、この第2のパラメータの経時的な変化が前記第2のビデオシーケンスのエントロピーの経時的な変化に対応するものである、ステップと、
前記第1のパラメータの経時的な変化を前記第2のパラメータの経時的な変化とマッチングするステップであって、このステップが前記第1のパラメータの経時的な変化と前記第2のパラメータの経時的な変化との相関関数を計算することにより行われて、前記2つのビデオシーケンスの時間的な関係が決定されるものである、ステップと
を含む方法が提供される。
前記第1のビデオシーケンス及び前記第2のビデオシーケンスの個々のフレームまたはフレームグループに対して前記第1のビデオシーケンスまたは前記第2のビデオシーケンスから導かれるエントロピー、または条件付きエントロピー、またはブロックエントロピー、または関連する任意のエントロピー、またはエントロピーベースのパラメータと、
前記第1のビデオシーケンスまたは前記第2のビデオシーケンスを符号化または復号化するビデオコーデックから得られるビットレートまたはフレームサイズと
のうちのいずれかである。
より小さな強度値により大きな重みを与え、より大きな強度値により小さな重みを与える関数を適用するステップと、
フィルタ関数を適用して平滑化を行うステップと
のうちの1つまたは複数を含む前処理が行われる。
前記第1のビデオシーケンスから第1のパラメータを取得するモジュールであって、前記第1のパラメータの経時的な変化が前記第1のビデオシーケンスのエントロピーの経時的な変化に対応するものである、モジュールと、
前記第2のビデオシーケンスから第2のパラメータを取得するモジュールであって、前記第2のパラメータの経時的な変化が前記第2のビデオシーケンスのエントロピーの経時的な変化に対応するものである、モジュールと、
前記第1のパラメータの経時的な変化を前記第2のパラメータの経時的な変化とマッチングするモジュールであって、このマッチングが前記第1のパラメータの経時的な変化と前記第2のパラメータの経時的な変化との相関関数を計算することにより行われて、前記2つのビデオシーケンスの時間的な関係が決定されるものである、モジュールと
を備えた装置が提供される。
・一実施形態では、カメラが三脚上に取り付けられていないと想定されるため、結果的にビットレートに一定の構成比(share)を生じさせる連続的運動を受ける。差分ビットレートの相関を求めれば、これらの影響を低減して、実際のシーン変化の影響を強めることができる。例えば一実施形態によれば、ビットレートに代えて、ビットレートの第1の導出値を使用することもできる。さらに一実施形態によれば、ビットストリームの選択または部分を変更したり、最適化したりすることもできる。例えば一実施形態によれば、相関は、無作為に決定されたビットストリームの選択を用いて行われる。しかし、一実施形態によれば、ある長さのすべての可能な選択にわたって反復し、その最大相関値の中央値を結果として用いることもできる。
・わずかなカメラモーションの影響の大部分を潜在的に除くことのできる高度化として、個々のフレームの外郭(outer block)のビットレートの減算である。これらのブロックは通常、それまでは見えていなかったテクスチャの情報を含んでいる。画像の境界に沿った新しいテクスチャの露出による影響を受けないブロックに合わせてビットレートを下げることにより、カメラモーションの影響が動きベクトルの差分符号化だけに抑えられる。
・異なった、あるいは変動さえもするフレームレート及びフレーム落ちに対処するために、動的時間伸縮法(DTW: Dynamic Time Warping)と呼ばれる方法を用いることができる。この方法の背後にある考え方は、一定のオフセットではなく、2つのビデオにおける時刻の間の非線形(non-linear)なマッピングを見つけることである。したがって、ビデオシーケンス内のあらゆるフレームについてそれぞれの(しかし全体として一貫性を有する)時間的オフセットを生じる結果になるはずである。他方のビデオ再生が何らかの理由で瞬間的に減速した場合には、その瞬間のオフセットは単純に増加し、第2のビデオが回復したときに再度減少するはずである。DTWでは、ビットレート曲線を、それぞれについて最適なオフセットを探し出すことのできるより小さな断片に分割する。DTWによって解決することのできる別の問題が、後述する「Charly」というデータセットのような通りすがりの人の存在である。紛らわしいオブジェクトを含むビデオの部分には、すべての「適正な(proper)」フレームとはわずかに異なるオフセットが割り当てられることになる。この場合、単純な多数決により、これらの異常値をその後排除することができる。
・後で示す結果と、前述の高度化を用いた改善により、本発明の実施形態はサブフレームの精度にまで到達することができる。ビデオフレームまたは単にビットレートを時間的に補間することにより、適用されるサンプリング係数に対する時間的整合の精度を達成することができる。
・時間的オフセットを決定するためだけではなく、時間的マッチングが本当に存在するかどうかも決定するために、最大相関値の閾値を設定することができる。そのような(最小の)閾値を超える場合に限って、マッチングが存在すると結論付けることができる。さらには、最大値の傾き(slope)を調べてマッチングのロバスト性の尺度を生成することもできる。したがって、計算が複雑な特徴抽出ステップを行わずに、時間的にマッチするビデオを特定することができる。
以下、「Charly」、「CapoEha!」、「Nicolas」と呼ぶ3つのデータセットの例について前述した手法の性能を説明する。3つすべてについて、対応するシーケンスにおいてある区間が、他のシーケンスに対する時間的オフセットを見つけようとするために、選択されている。これらのシーケンスは同期をとって録画されているわけではないため、真のオフセットを確認して決定する必要がある。このオフセットは、最大2フレームまで正しいものとした。アルゴリズムの性能を評価するために、手動で決定された基礎となる事実(ground truth)に対する計算されたオフセットの偏差を調べることができる。ビットストリームは、一定の粗い量子化を用いたH.264/AVCビデオ圧縮コーデックを用いてビデオを符号化することにより生成されたものである。GOP(group of pictures)の構造は、(I)PPPPP(I)PPPPP(I)PPPPP…であり、GOP長は500であった。比較またはマッチングには正規化相互相関を使用する。
「Charly」という名前の第1のデータセットは、10メートルのワイドベースラインと約70°の角度を有する2つの視点からの録画を伴っている。シーンは人物が視野に現れるところから始まる。異なる角度から撮影された2つの(すでにマッチングされた)シーンが図4に示されている。続いてごみ置場で行われる行動は、最初の500フレームにおいては比較的低いビットレートを生じさせる。(このビットレートに対応する)フレームサイズの経時的な変化が図5に示されている。上の部分には元のシーン(第1のビデオシーンが左、第2のビデオシーンが右)が示されており、下の部分には、対数尺度の適用とフレーム集合の選択とを含む前処理を行った後の様子が示されている。次いで、(図4には示されていないが)4人のグループがこのシーン内に現れ、(図5に示したような)ビットストリームのピークに反映する大量の新しい情報が生じる。しかし、ベースラインが大きいためにこれらの人物が個々の録画に同時には現れないことが、ピークの間の約20フレームのオフセットにより示されている。このグループが通り過ぎた後で、最後の人物もシーンに現れ、そのシーンから去り、これはこのシーンの終わりのピークに対応する。
「Charly」というデータセットでは明確に区別できるイベントが発生したが、「CapoEHA!」というデータセットでは、2人による大道芸が録画されている。この場合、ビデオにおける連続的な動作は、結果的に高頻度の変動を伴う比較的一定のビットレートを生じさせる。視点間のベースラインは2メートルであり、角度は約30°である。この場合もやはり、(図7に示しているように)第2のビデオから選択したビットストリームと第1のビデオとの相関を求め、対数尺度を適用する。図8の結果は、手動で決定された基礎となる事実に対する時間的オフセットの偏差を用いた時間的オフセットの正確な決定を見事に示している。シーケンス内の動きを別のイベントにセグメント化することができず、第2のビデオのビットストリームから比較的短く選択したものを使用したとしても、この手法は、図9に示しているように、録画の最適な時間的整合をロバストに見つける。相関の質は、選択を増やすことによってさらに改善することもできるが、より多くの計算時間を要することになる。
カメラモーションに対する不変性を示すため、「Nicolas」というデータセットは、第1のビデオは手動であり、第2のビデオは三脚に取り付けられている2つのビデオを含んでいる。これが図10に示した異なる平均ビットレートに反映されている。このシナリオをさらに一層難しくするために、小さなカメラパンを適用し、約45°の視点間の平均角度を使用する。この場合もやはり、個々のイベントにおける動きをセグメント化することができず、比較的一定のビットレートが生じる。しかしそれでもなお、図11及び図12に示しているように、時間的オフセットの推定を極めて正確に計算することができる。さらに、相関グラフの傾きを調べることにより、この時間的な整合のロバスト性がわかる。
Claims (11)
- 第1のビデオシーケンスと第2のビデオシーケンスとの時間的な関係を決定する方法であって、
前記第1のビデオシーケンスから第1のパラメータを取得するステップであって、この第1のパラメータの経時的な変化が前記第1のビデオシーケンスのエントロピーの経時的な変化に対応するものである、ステップと、
前記第2のビデオシーケンスから第2のパラメータを取得するステップであって、この第2のパラメータの経時的な変化が前記第2のビデオシーケンスのエントロピーの経時的な変化に対応するものであり、前記第1のパラメータ及び前記第2のパラメータはそれぞれ、前記第1のビデオシーケンスまたは前記第2のビデオシーケンスを符号化または復号化するビデオコーデックから得られるビットレートまたはフレームサイズである、ステップと、
前記第1のパラメータの経時的な変化を前記第2のパラメータの経時的な変化とマッチングするステップであって、前記第1のパラメータの経時的な変化と前記第2のパラメータの経時的な変化との前記マッチングが、前記第1のパラメータの経時的な変化と前記第2のパラメータの経時的な変化との相互相関関数を計算することにより行われて、前記2つのビデオシーケンスの時間的な関係が決定されるものである、ステップと
を含む方法。 - 前記第1のビデオシーケンス及び前記第2のビデオシーケンスの経時的なエントロピーの変化を表すのに用いられる前記パラメータの差分値を取得するステップと、
より小さな強度値により大きな重みを与え、より大きな強度値により小さな重みを与える関数を適用するステップと、
フィルタ関数を適用して平滑化を行うステップと
のうちの1つまたは複数を含む前処理が行われる、請求項1に記載の方法。 - 前記第1のビデオシーケンスと前記第2のビデオシーケンスとの非線形なマッチングを行うために動的時間伸縮法を行うステップをさらに含む請求項1または2に記載の方法。
- 前記第1のビデオシーケンスまたは前記第2のビデオシーケンスのエントロピーの経時的な変化を示す前記パラメータに対する個々のフレームのブロックまたは画素のサブセットの寄与を減じるステップをさらに含む請求項1〜3のいずれか一項に記載の方法。
- 前記第2のビデオシーケンスのある長さのすべての選択にわたって前記第1のビデオシーケンスの前記第1のパラメータの相関を反復して求め、相関の最大値の中央値または平均値を結果として用いるステップをさらに含む請求項1〜4のいずれか一項に記載の方法。
- 第1のビデオシーケンスと第2のビデオシーケンスとの時間的な関係を決定する装置であって、
前記第1のビデオシーケンスから第1のパラメータを取得するモジュールであって、前記第1のパラメータの経時的な変化が前記第1のビデオシーケンスのエントロピーの経時的な変化に対応するものである、モジュールと、
前記第2のビデオシーケンスから第2のパラメータを取得するモジュールであって、前記第2のパラメータの経時的な変化が前記第2のビデオシーケンスのエントロピーの経時的な変化に対応するものであり、前記第1のパラメータ及び前記第2のパラメータはそれぞれ、前記第1のビデオシーケンスまたは前記第2のビデオシーケンスを符号化または復号化するビデオコーデックから得られるビットレートまたはフレームサイズである、モジュールと、
前記第1のパラメータの経時的な変化を前記第2のパラメータの経時的な変化とマッチングするモジュールであって、前記第1のパラメータの経時的な変化と前記第2のパラメータの経時的な変化との相互相関関数を計算することにより、前記第1のパラメータの経時的な変化と前記第2のパラメータの経時的な変化とのマッチングが行われ、前記2つのビデオシーケンスの時間的な関係が決定されるものである、モジュールと
を備えた装置。 - 前記第1のビデオシーケンス及び前記第2のビデオシーケンスの経時的なエントロピー変化を表すのに用いられる前記パラメータの差分値を取得するステップと、
より小さな強度値により大きな重みを与え、より大きな強度値により小さな重みを与える関数を適用するステップと、
フィルタ関数を適用して平滑化を行うステップと
のうちの1つまたは複数を含む前処理が行われる、請求項6に記載の装置。 - 前記第1のビデオシーケンスと前記第2のビデオシーケンスとの非線形なマッチングを行うために動的時間伸縮法を行うモジュールをさらに備えた請求項6または7に記載の装置。
- 前記第1のビデオシーケンスまたは第2のビデオシーケンスのエントロピーの経時的な変化を示す前記パラメータに対する個々のフレームのブロックまたは画素のサブセットの寄与を減じるモジュールをさらに備えた請求項6〜8のいずれか一項に記載の装置。
- 前記第2のビデオシーケンスのある長さのすべての選択にわたって前記第1のビデオシーケンスの前記第1のパラメータの相関を反復して求め、相関の最大値の中央値を結果として用いるモジュールをさらに備えた請求項6〜9のいずれか一項に記載の装置。
- 請求項1〜5のいずれか一項に記載の方法をコンピュータに実行させるコンピュータ・プログラム・コードを含むコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP09175917.5A EP2326091B1 (en) | 2009-11-13 | 2009-11-13 | Method and apparatus for synchronizing video data |
EP09175917.5 | 2009-11-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011109656A JP2011109656A (ja) | 2011-06-02 |
JP5165743B2 true JP5165743B2 (ja) | 2013-03-21 |
Family
ID=42062392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010252721A Active JP5165743B2 (ja) | 2009-11-13 | 2010-11-11 | ビデオデータの同期をとる方法及び装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20110122315A1 (ja) |
EP (1) | EP2326091B1 (ja) |
JP (1) | JP5165743B2 (ja) |
CN (1) | CN102075668B (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9936143B2 (en) | 2007-10-31 | 2018-04-03 | Google Technology Holdings LLC | Imager module with electronic shutter |
US8928809B2 (en) * | 2010-09-15 | 2015-01-06 | Verizon Patent And Licensing Inc. | Synchronizing videos |
EP2458510B1 (en) * | 2010-11-29 | 2014-05-07 | NTT DoCoMo, Inc. | Method and apparatus for performing a cross-correlation |
US9122877B2 (en) | 2011-03-21 | 2015-09-01 | Mcafee, Inc. | System and method for malware and network reputation correlation |
US9106680B2 (en) * | 2011-06-27 | 2015-08-11 | Mcafee, Inc. | System and method for protocol fingerprinting and reputation correlation |
EP2608546A1 (en) * | 2011-12-21 | 2013-06-26 | Thomson Licensing | Video processing apparatus and method for detecting a temporal synchronization mismatch |
US20130271655A1 (en) * | 2012-04-12 | 2013-10-17 | Google Inc. | System, apparatus and method to facilitate live video streaming |
US9392322B2 (en) | 2012-05-10 | 2016-07-12 | Google Technology Holdings LLC | Method of visually synchronizing differing camera feeds with common subject |
US9264584B2 (en) * | 2012-09-19 | 2016-02-16 | Tata Consultancy Services Limited | Video synchronization |
CN103402109B (zh) * | 2013-07-31 | 2015-07-08 | 上海交通大学 | 3d视频中左右视点间帧同步性的检测与保证方法 |
WO2015032363A1 (zh) * | 2013-09-09 | 2015-03-12 | Wang Hao | 伪彩控制装置和伪彩控制方法 |
EP2876890A1 (en) * | 2013-11-21 | 2015-05-27 | Thomson Licensing | Method and apparatus for frame accurate synchronization of video streams |
TWI505113B (zh) * | 2014-03-18 | 2015-10-21 | Vivotek Inc | 監視系統及其影像搜尋方法 |
US9357127B2 (en) | 2014-03-18 | 2016-05-31 | Google Technology Holdings LLC | System for auto-HDR capture decision making |
US9628702B2 (en) | 2014-05-21 | 2017-04-18 | Google Technology Holdings LLC | Enhanced image capture |
US9774779B2 (en) | 2014-05-21 | 2017-09-26 | Google Technology Holdings LLC | Enhanced image capture |
US9729784B2 (en) | 2014-05-21 | 2017-08-08 | Google Technology Holdings LLC | Enhanced image capture |
US9813611B2 (en) | 2014-05-21 | 2017-11-07 | Google Technology Holdings LLC | Enhanced image capture |
US9413947B2 (en) | 2014-07-31 | 2016-08-09 | Google Technology Holdings LLC | Capturing images of active subjects according to activity profiles |
US9654700B2 (en) | 2014-09-16 | 2017-05-16 | Google Technology Holdings LLC | Computational camera using fusion of image sensors |
EP3012777B1 (en) * | 2014-10-23 | 2017-03-15 | Axis AB | Modification of at least one parameter used by a video processing algorithm for monitoring of a scene |
EP3142372A1 (en) * | 2015-09-08 | 2017-03-15 | Thomson Licensing | Method and device for robust temporal synchronization of two video contents |
US10250941B2 (en) * | 2016-12-13 | 2019-04-02 | Nbcuniversal Media, Llc | System and method for mapping affiliated graphs using video fingerprints |
CN107835397B (zh) * | 2017-12-22 | 2019-12-24 | 成都华栖云科技有限公司 | 一种多镜头视频同步的方法 |
US11366738B2 (en) * | 2018-03-12 | 2022-06-21 | Headspin, Inc. | System to determine performance based on entropy values |
US20210352341A1 (en) * | 2020-05-06 | 2021-11-11 | At&T Intellectual Property I, L.P. | Scene cut-based time alignment of video streams |
CN112985415B (zh) * | 2021-04-15 | 2021-08-10 | 武汉光谷信息技术股份有限公司 | 一种室内定位方法及系统 |
SE545345C2 (en) | 2021-06-30 | 2023-07-11 | Tobii Ab | Method and system for alignment of data |
US20230328308A1 (en) * | 2022-04-07 | 2023-10-12 | Dazn Media Israel Ltd. | Synchronization of multiple content streams |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5960395A (en) * | 1996-02-09 | 1999-09-28 | Canon Kabushiki Kaisha | Pattern matching method, apparatus and computer readable memory medium for speech recognition using dynamic programming |
JP3263807B2 (ja) * | 1996-09-09 | 2002-03-11 | ソニー株式会社 | 画像符号化装置および画像符号化方法 |
IL119504A (en) * | 1996-10-28 | 2000-09-28 | Elop Electrooptics Ind Ltd | Audio-visual content verification method and system |
US6704455B1 (en) * | 1997-05-29 | 2004-03-09 | Ricoh Company, Ltd. | Image processing system and image processing method |
US20040179608A1 (en) * | 2003-02-27 | 2004-09-16 | Intel Corporation | Multiple-description coding methods and apparatus |
US8139896B1 (en) * | 2005-03-28 | 2012-03-20 | Grandeye, Ltd. | Tracking moving objects accurately on a wide-angle video |
US8009193B2 (en) * | 2006-06-05 | 2011-08-30 | Fuji Xerox Co., Ltd. | Unusual event detection via collaborative video mining |
US20090074084A1 (en) * | 2007-09-18 | 2009-03-19 | David Drezner | Method and System for Adaptive Preprocessing for Video Encoder |
JP5368482B2 (ja) * | 2008-02-05 | 2013-12-18 | トムソン ライセンシング | ビデオ符号化および復号におけるインプリシットなブロック分割のための方法および装置 |
-
2009
- 2009-11-13 EP EP09175917.5A patent/EP2326091B1/en active Active
-
2010
- 2010-11-11 JP JP2010252721A patent/JP5165743B2/ja active Active
- 2010-11-12 CN CN2010106087405A patent/CN102075668B/zh not_active Expired - Fee Related
- 2010-11-12 US US12/926,383 patent/US20110122315A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20110122315A1 (en) | 2011-05-26 |
EP2326091A1 (en) | 2011-05-25 |
JP2011109656A (ja) | 2011-06-02 |
CN102075668B (zh) | 2013-06-05 |
EP2326091B1 (en) | 2015-08-12 |
CN102075668A (zh) | 2011-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5165743B2 (ja) | ビデオデータの同期をとる方法及び装置 | |
Sitara et al. | Digital video tampering detection: An overview of passive techniques | |
Chatzitofis et al. | Human4d: A human-centric multimodal dataset for motions and immersive media | |
Dziembowski et al. | IV-PSNR—the objective quality metric for immersive video applications | |
US8718404B2 (en) | Method for two-step temporal video registration | |
Gryaditskaya et al. | Motion aware exposure bracketing for HDR video | |
Kim et al. | 3D video generation and service based on a TOF depth sensor in MPEG-4 multimedia framework | |
Argyriou et al. | Image, video and 3D data registration: medical, satellite and video processing applications with quality metrics | |
Mullan et al. | Residual-based forensic comparison of video sequences | |
Pan et al. | RenderMe-360: a large digital asset library and benchmarks towards high-fidelity head avatars | |
JP2012238932A (ja) | 3d自動色補正装置とその色補正方法と色補正プログラム | |
Li et al. | Perceptual quality assessment of face video compression: A benchmark and an effective method | |
Simone et al. | Omnidirectional video communications: new challenges for the quality assessment community | |
Sharma et al. | A review of passive forensic techniques for detection of copy-move attacks on digital videos | |
Yao et al. | Robust moving camera calibration for synthesizing free viewpoint soccer video | |
Zhang et al. | Blind perceptual quality assessment of LFI based on angular-spatial effect modeling | |
McLean | Structured video coding | |
Schroth et al. | Video synchronization using bit rate profiles | |
CN111542858B (zh) | 动态图像解析装置、系统、方法、以及存储介质 | |
US10282633B2 (en) | Cross-asset media analysis and processing | |
CN117956130A (zh) | 视频处理方法、装置、设备、系统及可读取存储介质 | |
Milani | Compression of multiple user photo galleries | |
Wang | Digital video forensics | |
Hu et al. | A multi-user oriented live free-viewpoint video streaming system based on view interpolation | |
Wang et al. | Towards space: time light field rendering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121219 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151228 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5165743 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |