JP6094775B2 - ビデオコンテンツ処理方法及びシステム - Google Patents

ビデオコンテンツ処理方法及びシステム Download PDF

Info

Publication number
JP6094775B2
JP6094775B2 JP2015218393A JP2015218393A JP6094775B2 JP 6094775 B2 JP6094775 B2 JP 6094775B2 JP 2015218393 A JP2015218393 A JP 2015218393A JP 2015218393 A JP2015218393 A JP 2015218393A JP 6094775 B2 JP6094775 B2 JP 6094775B2
Authority
JP
Japan
Prior art keywords
pixel value
image frame
obb
pixel
identified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015218393A
Other languages
English (en)
Other versions
JP2016095842A (ja
Inventor
ガーバズ サブリ
ガーバズ サブリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2016095842A publication Critical patent/JP2016095842A/ja
Application granted granted Critical
Publication of JP6094775B2 publication Critical patent/JP6094775B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)

Description

本開示の様々な実施形態は、ビデオコンテンツ処理に関する。より具体的には、本開示の様々な実施形態は、ビデオコンテンツの画像シーケンスから移動オブジェクトを抽出するためのビデオコンテンツ処理に関する。
ビデオ処理分野の進歩は、デジタルイメージング業界、並びにその関連装置及びイメージングアプリケーションに革命をもたらした。デジタルカメラ又はスマートフォンなどの装置は、ビデオ又は画像シーケンスを処理して新たなタイプのメディアを生成できる機能を有することができる。新たなタイプのメディアは、新たなタイプの写真及び/又は動画を含むことができる。
シナリオによっては、ビデオコンテンツの画像シーケンスから1又はそれ以上の移動オブジェクトを抽出することに基づいて新たなタイプのメディアを生成することができる。このようなビデオ処理で行われる多くの動作の1つは、ビデオ内で動いているように見える(単複の)オブジェクトの微細な境界抽出を含むことができる。しかしながら、このような画像シーケンスから(単複の)移動オブジェクトを抽出するために、このような(単複の)移動オブジェクトのための(単複の)微細なオブジェクト境界マスクを生成することは困難な場合がある。
当業者には、説明するシステムを、本出願の残り部分に図面を参照して示すような本開示のいくつかの態様と比較することによって、従来の伝統的方法のさらなる制限及び不利点が明らかになるであろう。
実質的に少なくとも1つの図に示し、及び/又はこれらの図に関連して説明し、特許請求の範囲にさらに完全に示すようなビデオコンテンツ処理方法及びシステムを提供する。
本開示のこれらの及びその他の特徴及び利点は、全体を通じて同じ参照符号が同じ要素を示す添付図面と共に本開示の以下の詳細な説明を考察することによって理解することができる。
本開示の実施形態による、例示的なビデオ処理装置を示すブロック図である。 本開示の実施形態による、開示するビデオコンテンツ処理方法及びシステムを実装するための第1の例示的なシナリオを示す図である。 本開示の実施形態による、開示するビデオコンテンツ処理方法及びシステムを実装するための第1の例示的なシナリオを示す図である。 本開示の実施形態による、開示するビデオコンテンツ処理方法及びシステムを実装するための第1の例示的なシナリオを示す図である。 本開示の実施形態による、開示するビデオコンテンツ処理方法及びシステムを実装するための第2の例示的なシナリオを示す図である。 本開示の実施形態による、例示的なビデオコンテンツ処理方法を示すフローチャートである。 本開示の実施形態による、例示的なビデオコンテンツ処理方法を示すフローチャートである。 本開示の実施形態による、例示的なビデオコンテンツ処理方法を示すフローチャートである。 本開示の実施形態による、開示するビデオコンテンツ処理方法のための例示的な隙間埋め技術を示すフローチャートである。
開示するビデオコンテンツ処理方法及びシステムは、後述する実施形態を含むことができる。本開示の例示的な態様は、ビデオコンテンツ内の1又はそれ以上の移動オブジェクトの1又はそれ以上のオブジェクト輪郭を特定できる方法を含むことができる。第1の移動オブジェクトの第1のオブジェクト輪郭を含むことができる第1のオブジェクト境界ボックス(OBB)を生成することができる。このようなOBBの生成は、特定された1又はそれ以上のオブジェクト輪郭に基づいて行うことができる。第1の宛先画像フレーム内で、第1の移動オブジェクトのための第1のオブジェクトマスクを動的に生成することができる。このような第1のオブジェクトマスクの生成は、生成された第1のOBB内の第1のオブジェクト輪郭の隙間埋めに基づいて行うことができる。
ある実施形態では、この方法が、ビデオコンテンツの3つの連続する画像フレームに基づいて1又はそれ以上の移動オブジェクトを検出するステップを含むことができる。3つの連続する画像フレームは、前の画像フレーム、現在の画像フレーム及び次の画像フレームを含むことができる。
ある実施形態では、方法が、現在の画像フレームを前の画像フレームに整列させるステップを含むことができる。ある実施形態では、方法が、次の画像フレームを現在の画像フレームに整列させるステップをさらに含むことができる。
ある実施形態では、方法が、整列した現在の画像フレームと前の画像フレームの間の第1の絶対差画像を特定するステップを含むことができる。ある実施形態では、方法が、整列した次の画像フレームと現在の画像フレームの間の第2の絶対差画像を特定するステップを含むことができる。
ある実施形態では、方法が、1又はそれ以上の移動オブジェクトに対応する1又はそれ以上のオブジェクト輪郭を検出するステップを含むことができる。このような検出は、特定された第1の絶対差画像及び第2の絶対差画像内で行うことができる。
ある実施形態では、方法が、第1の絶対差画像内の検出された1又はそれ以上のオブジェクト輪郭に基づいて第1のオブジェクト輪郭画像を特定するステップを含むことができる。ある実施形態では、方法が、第2の絶対差画像内の検出された1又はそれ以上のオブジェクト輪郭に基づいて第2のオブジェクト輪郭画像を特定するステップをさらに含むことができる。
ある実施形態では、方法が、生成された第1のオブジェクト輪郭画像と第2のオブジェクト輪郭画像との間の共通部分に基づいて、中間オブジェクト輪郭画像を特定することを含むことができる。ある実施形態では、方法が、特定された中間オブジェクト輪郭画像、及び中間オブジェクト輪郭画像に関連する勾配情報を利用するステップを含むことができる。このような利用は、1又はそれ以上の移動オブジェクトの1又はそれ以上のオブジェクト輪郭の特定のために行うことができる。
ある実施形態では、方法が、第1の宛先画像フレーム内に第1の画素値を設定するステップを含むことができる。ある実施形態では、方法が、特定された1又はそれ以上のオブジェクト輪郭から色属性を抽出するステップを含むことができる。このような抽出により、特定された1又はそれ以上のオブジェクト輪郭内に第2の画素値を設定することができる。
ある実施形態では、方法が、生成された第1のOBBを第1の宛先画像フレームの所定位置にコピーするステップを含むことができる。ある実施形態では、方法が、第1のOBB内の第1の画素が第3の画素値を有しているかどうかを検出するステップを含むことができる。ある実施形態では、方法が、第1の宛先画像フレーム内の隣接する第2の画素が第1の画素値を有しているか否かを検出するステップをさらに含むことができる。
ある実施形態では、方法が、隣接する第2の画素が第1の画素値を有していることが検出された時に、検出された第1の画素に第1の画素値を割り当てるステップを含むことができる。ある実施形態では、第1の画素値が灰色に対応することができる。第2の画素値は白色に対応し、第3の画素値は黒色に対応することができる。
ある実施形態では、方法が、第1のOBB内の第3の画素値を有する1又はそれ以上の画素に第2の画素値を割り当てるステップを含むことができる。このような第1のオブジェクト輪郭の隙間埋めのための割り当ては、第1のOBB内の2つの隣接する画素が第3の画素値及び第1の画素値でないことが検出された場合に行うことができる。
ある実施形態では、方法が、ビデオコンテンツ内で第2の移動オブジェクトが検出された時に、第2の移動オブジェクトを含む第2のOBBを生成するステップを含むことができる。ある実施形態では、方法が、生成された第2のOBBを第2の宛先画像フレームの所定位置にコピーするステップを含むことができる。第2の宛先画像フレームは、第1の移動オブジェクトの生成された第1のオブジェクトマスクを含む第1の宛先画像フレームに対応することができる。
ある実施形態では、方法が、第2のOBB内の第2の移動オブジェクトの第2のオブジェクトマスクを生成するステップを含むことができる。第2のOBB内の第2の移動オブジェクトは、第1の移動オブジェクトの生成された第1のオブジェクトマスクに関連することができる。ある実施形態では、方法が、生成された第1のオブジェクトマスク及び第2のオブジェクトマスクに基づいて、第1の移動オブジェクト及び第2の移動オブジェクトを抽出するステップを含むことができる。
図1は、本開示の実施形態による、例示的なビデオ処理装置を示すブロック図である。図1には、ビデオ処理装置102を示している。ビデオ処理装置102は、ビデオプロセッサ104などの1又はそれ以上のプロセッサ、メモリ106、I/O装置108などの1又はそれ以上の入力/出力(I/O)装置、及び感知装置110などの1又はそれ以上の感知装置を含むことができる。ビデオプロセッサ104は、メモリ106、I/O装置108及び感知装置110に通信可能に結合することができる。
ビデオ処理装置102は、移動オブジェクトのオブジェクト輪郭の隙間埋めに基づいて複数の移動オブジェクトのためのオブジェクトマスクを生成することができる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。ビデオ処理装置102の例としては、以下に限定されるわけではないが、スマートフォン、デジタルカメラ、カムコーダ、タブレットコンピュータ、ラップトップ、プロジェクタ、テレビ、インターネットプロトコルテレビ(IPTV)、及び/又は携帯情報端末(PDA)装置を挙げることができる。
ビデオプロセッサ104は、メモリ106に記憶された命令セットを実行することができる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。ビデオプロセッサ104は、カメラ又はカムコーダなどの1又はそれ以上のI/O装置から受け取ることができるビデオコンテンツを処理することができる。さらに、ビデオプロセッサ104は、メモリ106に記憶されたビデオコンテンツ及び/又は画像シーケンスなどのデータを読み出すこともできる。ビデオプロセッサ104は、当業で周知のいくつかのプロセッサ技術に基づいて実装することができる。ビデオプロセッサ104の例は、X86ベースプロセッサ、縮小命令セットコンピューティング(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピューティング(CISC)プロセッサ、マイクロプロセッサ、マイクロコントローラ、及び/又はその他のプロセッサとすることができる。
メモリ106は、ビデオプロセッサ104によって実行可能な少なくとも1つのコードセクションを有する機械コード及び/又はコンピュータプログラムを記憶することができる好適なロジック、回路及び/又はインターフェイスを含むことができる。さらに、メモリ106は、ビデオコンテンツ及び/又はその他のデータを記憶することもできる。さらに、メモリ106は、ビデオコンテンツのビデオフレームバッファ、ビデオコンテンツの画像シーケンス、オペレーティングシステム、及び関連するアプリケーションを記憶することもできる。メモリ106の実装例としては、以下に限定されるわけではないが、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、ハードディスクドライブ(HDD)、フラッシュメモリ、及び/又はセキュアデジタル(SD)カードを挙げることができる。
I/O装置108は、ビデオコンテンツ及び/又は画像を取り込むことができる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。さらに、I/O装置108は、1又はそれ以上のユーザから入力を受け取り、1又はそれ以上のユーザに出力を提供することもできる。I/O装置108は、ビデオプロセッサ104と通信することができる様々な入力及び出力装置を含むことができる。入力装置の例としては、以下に限定されるわけではないが、カメラ、カムコーダ、タッチ画面、入力ポート、モーションセンサ、光センサ、及び/又はドッキングステーションを挙げることができる。出力装置の例としては、以下に限定されるわけではないが、ディスプレイ画面(図示せず)、及び/又はプロジェクタ画面を挙げることができる。ディスプレイ画面は、ビデオ処理装置102の1又はそれ以上の機能及び/又はアプリケーションを表示することができる。ディスプレイ画面は、以下に限定されるわけではないが、液晶ディスプレイ(LCD)、発光ダイオードディスプレイ(LED)及び/又は有機発光ダイオードディスプレイ(OLED)技術などの複数の既知の技術を通じて実現することができる。プロジェクタ画面は、投影画像及び/又はビデオを表示するために使用される表面及び/又はホログラフィック画面とすることができる。ある実施形態では、入力装置と出力装置を2つの別個のユニットとして提供することができる。
感知装置110は、ビデオプロセッサ104によって実行可能な少なくとも1つのコードセクションを有する機械コード及び/又はコンピュータプログラムを記憶することができる好適なロジック、回路及び/又はインターフェイスを含むことができる。感知装置110は、画像、ビデオの取り込み、1又はそれ以上のユーザの確認認識、識別及び/又は検証に役立つ画像センサなどの1又はそれ以上のセンサを含むことができる。これらの1又はそれ以上のセンサは、1又はそれ以上のユーザから受け取られた1又はそれ以上のタッチベースの入力操作を検出するために使用される静電容量式タッチセンサを含むことができる。
ビデオプロセッサ104は、動作時にビデオの画像シーケンスを受け取ることができる。ある実施形態では、ビデオプロセッサ104が、受け取ったビデオの画像シーケンスからの画像フレームを、第1の解像度値から第2の解像度値にダウンサイズすることができる。ある実施形態では、第2の解像度値が、ビデオグラフィックスアレイ(VGA)サイズに対応することができる。
ある実施形態では、ビデオプロセッサ104が、画像シーケンス内の少なくとも3つの連続するダウンサイズされた画像フレームを循環バッファにバッファ処理することができる。これら3つの連続する画像フレームは、前の画像フレーム、現在の画像フレーム及び次の画像フレームを含むことができる。
ある実施形態では、ビデオプロセッサ104が、現在の画像フレームを前の画像フレームに整列させることができる。さらに、ビデオプロセッサ104は、次の画像フレームを現在の画像フレームに整列させることができる。ある実施形態では、ビデオプロセッサ104が、第1の絶対差画像及び第2の絶対差画像を特定することができる。第1の絶対差画像の特定は、現在の画像フレームと前の画像フレームとの整列に基づくことができる。第2の絶対差画像の特定は、次の画像フレームと現在の画像フレームとの整列に基づくことができる。
ある実施形態では、ビデオプロセッサ104が、第1の絶対差画像内の1又はそれ以上の移動オブジェクトの1又はそれ以上のオブジェクト輪郭を検出することができる。このような1又はそれ以上のオブジェクト輪郭の検出は、第2の絶対差画像内でも同時に行うことができる。ある実施形態では、特定された第1の絶対差画像及び特定された第2の絶対差画像から非重複領域を除去した後にこのような検出を行うことができる。ある実施形態では、当業で周知の1又はそれ以上の輪郭検出アルゴリズム又は手法を用いることによってこのような検出を行うことができる。このような輪郭検出アルゴリズム又は手法の例としては、以下に限定されるわけではないが、検索ベースのもの、ゼロ交差ベースのもの、Robertsオペレータ、Prewittオペレータ、Sobelオペレータ、Cannyオペレータ、及び/又はラプラシアンエッジ検出器を挙げることができる。とは言うものの、オブジェクト輪郭は、本開示の範囲を限定することなく、あらゆる好適な輪郭検出アルゴリズム又は手法を用いて検出し、精細化することができる。例えば、ある実施形態では、輪郭検出の結果を用いてオブジェクト輪郭のさらなる検出及び精細化を行うための所定の検出感度閾値を使用することによって輪郭検出アルゴリズムを実装することができる。
ある実施形態では、ビデオプロセッサ104が、特定された第1の絶対差画像内の検出された1又はそれ以上のオブジェクト輪郭に基づいて第1のオブジェクト輪郭画像を特定することができる。同様に、ビデオプロセッサ104は、特定された第2の絶対差画像内の第2のオブジェクト輪郭画像を同時に特定することもできる。
ある実施形態では、ビデオプロセッサ104が、検出された第1のオブジェクト輪郭画像と第2のオブジェクト輪郭画像との間の共通部分に基づいて中間オブジェクト輪郭画像を特定することができる。ある実施形態では、中間オブジェクト輪郭画像が、非重複領域を除去した現在の画像フレームに対応することができる。
ある実施形態では、ビデオプロセッサ104が、中間オブジェクト輪郭画像内の、Sobel勾配などの勾配情報を計算することができる。このような計算は、中間オブジェクト輪郭画像の1又はそれ以上のオブジェクト輪郭部分にオブジェクト輪郭情報が存在しない時に行うことができる。このような場合、ビデオプロセッサ104は、1又はそれ以上のオブジェクト輪郭部分のオブジェクト輪郭情報を回復することができる。このような1又はそれ以上のオブジェクト輪郭部分の回復には、勾配トレース操作を利用することができる。勾配情報及び特定された中間オブジェクト輪郭画像は、勾配トレース操作のための入力として用いることができる。
ある実施形態では、ビデオプロセッサ104が、1又はそれ以上の移動オブジェクトに対応する1又はそれ以上のオブジェクト輪郭を特定することができる。このような特定には、中間オブジェクト輪郭画像のオブジェクト輪郭情報、及び中間オブジェクト輪郭画像に関連する勾配情報を利用することができる。
ある実施形態では、ビデオプロセッサ104が、特定された1又はそれ以上のオブジェクト輪郭に基づいて1又はそれ以上の移動オブジェクトを検出することができる。ある実施形態では、ビデオプロセッサ104が、第1の移動オブジェクトの第1のオブジェクト輪郭を含む第1のOBBを生成することができる。このような第1のOBBの生成は、特定された1又はそれ以上のオブジェクト輪郭に基づくことができる。
ある実施形態では、ビデオプロセッサ104が、第1の宛先画像フレーム内に第1の画素値を設定することができる。ある実施形態では、第1の宛先画像フレームを、受け取ったビデオの画像シーケンス以外の画像フレームとすることができる。ある実施形態では、第1の宛先画像フレームを、ダウンサイズされた現在の画像フレームのサイズ及び解像度と同様のサイズ及び解像度とすることができる。
ある実施形態では、ビデオプロセッサ104が、特定された1又はそれ以上のオブジェクト輪郭から色属性を抽出して、特定された1又はそれ以上のオブジェクト輪郭内に第2の画素値が設定されるようにすることができる。ある実施形態では、ビデオプロセッサ104が、生成された第1のOBBを第1の宛先画像フレームの所定位置にコピーすることができる。
ある実施形態では、ビデオプロセッサ104が、第1のOBB内の第1の画素が第3の画素値を有しているかどうかを検出することができる。ある実施形態では、ビデオプロセッサ104が、第1の宛先画像フレーム内の第1の画素に隣接する第2の画素が第1の画素値を有しているかどうかをさらに検出することができる。ある実施形態では、隣接する第2の画素も第1の画素値を有することが検出された場合、ビデオプロセッサ104は、検出された第1の画素に第1の画素値を割り当てることができる。ある実施形態では、第1の画素値、第2の画素値及び第3の画素値が、それぞれ灰色、白色及び黒色に対応することができる。
ある実施形態では、ビデオプロセッサ104が、実際には第3の画素値を有している可能性のある第1のOBB内の1又はそれ以上の画素に第2の画素値を割り当てることができる。このような第2の画素値の割り当ては、第1のOBB内の2つの隣接する画素がそれぞれ第1の画素値及び第3の画素値を有していることが検出されなかった時に行うことができる。換言すれば、このような割り当ては、第1のオブジェクト輪郭の外側の全ての画素に灰色などの第1の画素値が割り当てられている時に行うことができる。第2の画素値の割り当ては、第1のOBB内の第1のオブジェクト輪郭の隙間埋めに対応することができる。
ある実施形態では、ビデオプロセッサ104が、第1の移動オブジェクトのための第1のオブジェクトマスクを動的に生成することができる。このような第1のオブジェクトマスクの生成は、第1のOBB内の第1の移動オブジェクトのオブジェクト輪郭の隙間埋めに基づいて、第1の宛先画像フレーム内で行うことができる。
ある実施形態では、3つの連続する画像フレーム内で第2の移動オブジェクトが検出された場合、ビデオプロセッサ104が第2のOBBを生成することができる。第2のOBBは、第2の移動オブジェクトの第2のオブジェクト輪郭を含むことができる。第2のOBBは、1又はそれ以上の移動オブジェクトの特定された1又はそれ以上のオブジェクト輪郭に基づいて生成することができる。
ある実施形態では、ビデオプロセッサ104が、生成された第2のOBBを第2の宛先画像フレームの所定位置にコピーすることができる。第2の宛先画像フレームは、第1の移動オブジェクトのための生成された第1のオブジェクトマスクを含むことができる第1の宛先画像フレームに対応することができる。
ある実施形態では、ビデオプロセッサ104が、第2のOBB内の第2の移動オブジェクトの第2のオブジェクトマスクを生成することができる。第2のOBB内の第2の移動オブジェクトは、第1の移動オブジェクトの生成された第1のオブジェクトマスクに関連することができる。ある実施形態では、ビデオプロセッサ104が、生成された第1のオブジェクトマスク及び第2のオブジェクトマスクに基づいて、第1の移動オブジェクト及び第2の移動オブジェクトを抽出することができる。
ある実施形態では、第1の画素値、第2の画素値及び第3の画素値が、それぞれ灰色、黒色及び白色に対応することができる。本開示の実施形態は、受け取った画像シーケンスの3つよりも多くの連続する画像フレームを使用することもできると理解されるであろう。このことは、開示する方法及びシステムの堅牢性を高めることができる。例えば、ある実施形態では、画像シーケンスの5つの連続する画像フレームを利用することができる。このような実施形態では、ビデオプロセッサ104が、5つの連続する画像フレームのうちの第1の画像フレームを第3の画像フレームに整列させることができる。同様に、ビデオプロセッサ104は、第5の画像フレームを第3の画像フレームに整列させることもできる。このような実施形態では、第1の画像フレームが、前の画像フレームに対応することができる。第3の画像フレームは、現在の画像フレームに対応することができる。第5の画像フレームは、上述したような次の画像フレームに対応することができる。同様に、ビデオプロセッサ104は、整列した第1の画像フレームと第3の画像フレームとの間の第1の絶対差画像を特定することができる。さらに、ビデオプロセッサ104は、整列した第5の画像フレームと第3の画像フレームとの間の第2の絶対差画像を特定することができる。
ある実施形態では、受け取った画像シーケンスからの画像フレームのダウンサイズ操作が、画像フレームのサイズ変更を意味することができる。サイズ変更は、(高精細(HD)などの)高解像度値から低解像度値(VGA)へのものとすることができる。ある実施形態では、連続する画像フレーム間の整列に、包括的全フレーム画像整列アルゴリズム、強度ベース整列アルゴリズム及び/又は特徴ベース整列アルゴリズムなどの、当業で周知の1又はそれ以上の整列アルゴリズムを用いることができる。
ある実施形態では、前の画像フレームと現在の画像フレームとの整列が、画像フレーム内の静的シーンに関することができる。同様に、次の画像フレームと現在の画像フレームとの整列も、画像フレーム内の静的シーンに関することができる。ある実施形態では、静的シーンが、1又はそれ以上の移動オブジェクトのビューを含むことができる。
ある実施形態では、ビデオプロセッサ104が、特定された第1の絶対差画像及び特定された第2の絶対差画像から非重複領域を除去することができる。ある実施形態では、ビデオプロセッサ104が、第1の絶対差画像の特定が行われ得る際に非重複領域を除去することができる。非重複領域は、対応しない冗長領域とすることができる。例えば、ビデオカメラはビデオを取り込むことができる。カメラを右方向に動かすと、前のフレーム内には存在し得ない部分的に新たなシーンを取り込むことができる。その後、前のフレームと現在のフレームを整列させると、カメラ視野が重複しないことによってフレーム境界に対応シーンが存在しないことがある。整列後の「非重複」領域は、このような操作によって定められる。
ある実施形態では、ビデオプロセッサ104が、ビデオの別の期間に存在することができる別の3つの連続する画像シーケンスを用いることによって、第1の移動オブジェクト及び第2の移動オブジェクトを抽出することができる。このような異なる期間における移動オブジェクトの抽出を用いて動画を生成することができる。生成されたオブジェクトマスクは、上述したようにオブジェクト輪郭の隙間埋めによって均一にすることができる。微細な境界及び均一なオブジェクトマスクの動的生成は、画像シーケンスからの移動オブジェクトの素早い抽出を可能にすることができる。このようなビデオコンテンツの画像シーケンスからの移動オブジェクトの抽出を映画製作室で使用して、例えばビデオを処理して様々な動画を作成することができる。例えば、スポーツ、乗り物及びその他の移動オブジェクトに関するアクションシーンなどにおいて、移動オブジェクトの特殊効果及び表現を含む動画を作成することができる。
ある実施形態では、ビデオプロセッサ104が、ビデオの画像シーケンスをリモートサーバ(図示せず)から受け取ることができる。ある実施形態では、ビデオプロセッサ104が、遠隔地に存在できるI/O装置108からビデオの画像シーケンスを受け取ることができる。
図2A、図2B及び図2Cに、本開示の実施形態による、開示するビデオコンテンツ処理方法及びシステムを実装するための第1の例示的なシナリオを示す。図2A、図2B及び図2Cの説明は、図1の要素に関連して行う。図2Aには、第1の宛先画像フレーム202及び第1のOBB204を示している。第1のOBB204は、第1の移動オブジェクトの第1のオブジェクト輪郭206を含むことができる。さらに、第1のオブジェクト輪郭206内には、領域206aなどの1又はそれ以上の領域が示されている。
第1の例示的なシナリオによれば、第1の宛先画像フレーム202を、予めメモリ106に記憶されている画像フレームとすることができる。ビデオプロセッサ104は、第1の宛先画像フレーム内の全ての画素に、灰色などの第1の画素値を設定することができる。第1のOBB204は、第1の移動オブジェクトを含む生成されたOBBに対応することができる。第1のオブジェクト輪郭206は、第1の移動オブジェクトの特定された第1のオブジェクト輪郭に対応することができる。ビデオプロセッサ104は、第1のオブジェクト輪郭206から色属性を抽出することができる。このような抽出では、第1のオブジェクト輪郭206に、白色などの第2の画素値を設定することができる。さらに、第1のオブジェクト輪郭206内の領域206a、及び第1のOBB204内の第1のオブジェクト輪郭206外側の矩形領域に黒色などの第3の画素値を設定することもできる。第1のオブジェクト輪郭206内の領域206aは、(図示のような)移動中の人物などの第1の移動オブジェクトのための均一なオブジェクトマスクを生成するために第2の画素値で隙間埋めすることが必要となり得る。
ビデオプロセッサ104は、動作時に、第1のOBB204を第1の宛先画像フレーム202の所定位置にコピーすることができる。例えば、このようなコピー操作は、「memcpy」コマンドなどのコピーコマンドを用いて行うことができる。「memcpy」コマンドは、第1のOBB204をコピー元から第1の宛先画像フレーム202にコピーする際に、第1のOBB204の情報を保持することができる。このような保持される情報は、第1のOBB204の画素値及び(画素座標情報などの)位置情報に対応することができる。コピー元は、ビデオコンテンツの現在の画像フレームに対応する、特定された中間オブジェクト輪郭画像を示すことができる。
図2Bを参照すると、図2Aの第1の例示的なシナリオの動作シーケンスに従う、第1の宛先画像フレーム202、第1のOBB204、及び第1のOBB204内の第1の移動オブジェクトの第1のオブジェクト輪郭206が示されている。さらに、第1のオブジェクトマスク206bも示されている。
ある実施形態では、ビデオプロセッサ104が、第1の宛先画像フレーム202内の2つの画素の画素値を検出することができる。例えば、ビデオプロセッサ104は、第1のOBB204内の第1の画素が第3の画素値を有しているかどうかを検出することができる。ビデオプロセッサ104は、第1の宛先画像フレーム202内の隣接する第2の画素が第1の画素値を有しているかどうかをさらに検出することができる。ある実施形態では、ビデオプロセッサ104が、第1のOBB204内の検出された第1の画素に第1の画素値を割り当てることができる。このような(灰色などの)第1の画素値の割り当ては、隣接する第2の画素が第1の画素値を有していることが検出された時に行われる。
ある実施形態では、このような検出及び割り当てを、第1のOBB204の境界画素から開始することができる。このような検出及び割り当ては、第1のOBB204内の第1のオブジェクト輪郭206の外側の全ての画素に第1の画素値が割り当てられるまで1又はそれ以上の方向に進むことができる。例えば、このような検出及び割り当ては、第1のOBB204内で左から右及び/又は右から左に1行ずつ反復的に進むことができる。同様に、このような検出及び割り当ては、最上部から最下部及び/又は最下部から最上部に1列ずつ反復的に進むことができる。行又は列内における検出及び割り当ては、第1のOBB204の境界画素の一端から開始して、第1のOBB204のもう一方の端部まで1又はそれ以上の方向に進むことができる。行又は列内における検出及び割り当ては、第2の画素値を有する画素が検出されるまで進むことができる。換言すれば、このような検出及び割り当ては、白色などの第2の画素値を有する第1のオブジェクト輪郭206に出くわすまで行うことができる。
ある実施形態では、ビデオプロセッサ104が、第1のOBB204内の第3の画素値を有している可能性のある1又はそれ以上の画素に第2の画素値を割り当てることができる。第3の画素値は、第1のオブジェクト輪郭206内の領域206aなどの1又はそれ以上の領域内に存在することができる。このような割り当ては、第1のOBB204内の2つの隣接する画素が第3の画素値及び第1の画素値でないことが検出された時に行われる。第2の画素値の割り当ては、第1のOBB204内の第1のオブジェクト輪郭206の隙間埋めに対応することができる。
ある実施形態では、ビデオプロセッサ104が、第1の移動オブジェクトのための第1のオブジェクトマスク206bを動的に生成することができる。このような第1のオブジェクトマスク206bの生成は、第1の宛先画像フレーム202の第1のOBB204内の第1のオブジェクト輪郭206の隙間埋めに基づくことができる。
図2Cを参照すると、図2Bの第1の例示的なシナリオの動作シーケンスに従う、第2の宛先画像フレーム202’、第1の移動オブジェクトの第1のオブジェクト輪郭206、第1のオブジェクトマスク206b、第2のOBB208、ボールの第2のオブジェクト輪郭210、及びボールの第2のオブジェクトマスク212が示されている。
第2の宛先画像フレーム202’は、第1の移動オブジェクトの第1のオブジェクトマスク206bを含む第1の宛先画像フレーム202に対応することができる。第2のOBB208は、生成された第2のOBB208(図1)に対応することができる。第2のOBB208は、ボールを含んでいる点を除いて第1のOBB204に類似する。ボールは、第2の移動オブジェクトに対応することができる。第1のOBB204及び第2のOBB208などのOBBの範囲は、OBB内に存在するオブジェクトのサイズに関連することができる。移動オブジェクトのサイズが大きい程、対応する移動オブジェクトを含むOBBも大きくすることができる。
ある実施形態では、ビデオプロセッサ104が、第2のOBB208を第2の宛先画像フレーム202’の所定位置にコピーすることができる。この所定位置は、ビデオの3つの連続する画像フレームのうちの現在の画像フレーム内のボールの位置に対応することができる。
ある実施形態では、ビデオプロセッサ104が、第2のOBB208内の第1の画素が第3の画素値を有しているかどうかを検出することができる。ビデオプロセッサ104は、第2の宛先画像フレーム202’内の隣接する第2の画素が第1の画素値を有しているかどうかをさらに検出することができる。ある実施形態では、ビデオプロセッサ104が、第2のOBB208内の検出された第1の画素に第1の画素値を割り当てることができる。このような検出及び割り当て技術は、OBB204について上述したものと類似することができる。ある実施形態では、ビデオプロセッサ104が、第1のオブジェクトマスク202bの場合と同様に第2のOBB208内のボールの第2のオブジェクトマスク212を生成することができる。
生成された第1のオブジェクトマスク206b及び第2のオブジェクトマスク212に基づいて、ビデオコンテンツの3つの連続する画像シーケンスから(人物などの)第1の移動オブジェクト及びボールを抽出することができる。このような第1の移動オブジェクト及びボール(第2の移動オブジェクト)の抽出は、別のビデオ期間に発生することができる別の3つの連続する画像シーケンスについて行うことができる。このような異なる期間における移動オブジェクトの抽出を用いて、特殊効果を含む動画を生成することができる。例えば、ビデオプロセッサ104は、異なる期間に抽出された移動オブジェクトをデジタル写真内でオーバーレイすることができる。
図3に、本開示の実施形態による、開示するビデオコンテンツ処理方法及びシステムを実装するための第2の例示的なシナリオを示す。図3の説明は、図1の要素に関連して行う。図1には、宛先画像フレーム302、OBB304、任意の形のオブジェクトのオブジェクト輪郭306、黒色の画素を有するオブジェクト輪郭306内の領域306a、及び任意の形のオブジェクトのオブジェクトマスク306bを示している。
この第2の例示的なシナリオでは、宛先画像フレーム302が、第1の宛先画像フレームに対応することができる。OBB304は、生成された第1のOBBに対応することができる。任意の形のオブジェクトのオブジェクト輪郭306は、第1の移動オブジェクトの第1のオブジェクト輪郭に対応することができる。任意の形のオブジェクトは、アクセスが困難な場合がある1又はそれ以上の範囲を含むことができる。例えば、オブジェクト輪郭306の外側の、英語のアルファベット文字「G」に似た溝状領域「A」がそれである。
ビデオプロセッサ104は、宛先画像フレーム302内に灰色などの第1の画素値を設定することができる。例えば、宛先画像フレーム302の全ての画素を灰色の背景値に設定することができる。ビデオプロセッサ104は、オブジェクト輪郭306から上記と同様の色属性を抽出することができる。例えば、このような抽出では、オブジェクト輪郭306に白色などの第2の画素値を設定することができる。また、第1のオブジェクト輪郭206内の領域306a、及びOBB304内のオブジェクト輪郭306の外側の矩形領域を黒色などの第3の画素値に設定することもできる。オブジェクト輪郭306内の領域306aは、任意の形のオブジェクトのための均一なオブジェクトマスクを生成するために第2の画素値で隙間埋めすることが必要となり得る。
ある実施形態では、ビデオプロセッサ104が、OBB304内の第1の画素が黒色などの第3の画素値を有しているかどうかを検出することができる。ビデオプロセッサ104は、宛先画像フレーム302内の隣接する第2の画素が第1の画素値を有しているかどうかをさらに検出することができる。例えば、第1の画素は、平面の(x,y)座標に対応する(OBB304の最下部左側の領域を指す黒色の矢印で示す)画素座標(2,10)を有することができる。「x」座標は横軸を示し、「y」座標は縦軸を示すことができる。隣接する第2の画素は、画素座標(1,10)を有することができる。ある実施形態では、隣接する第2の画素(1,10)が第1の画素値を有していることが検出された場合、ビデオプロセッサ104は、第1のOBB204内の検出された第1の画素(2,10)に第1の画素値を割り当てることができる。
上述の例では、OBB304内の第3の画素値を有している可能性のある連続する画素(3,10)を続けて検出することができる。連続する画素(3,10)に隣接する検出済みの第1の画素(2,10)は、割り当ての結果として、この時点で第1の画素値を有することができる。従って、ビデオプロセッサ104は、第1の画素(2,10)が第1の画素値を有していることが検出された時に、OBB304内の検出された連続する画素(3,10)に第1の画素値を割り当てることができる。
上述したように、このような検出及び割り当ては、OBB304内のオブジェクト輪郭306の外側の全ての画素に第1の画素値が割り当てられるまで1又はそれ以上の方向に反復的に進むことができる。第1の反復で範囲「A」などの一部の範囲が残った場合には、第2の反復で再び検出及び割り当て動作を開始することができる。上述したように、OBB304内の2つの隣接する画素が第3の画素値及び第1の画素値であることが検出された場合には、常にこのような検出及び割り当てを行うことができる。第2の反復は、OBB304内のオブジェクト輪郭306の外側の全ての画素に第1の画素値が割り当てられることを確実にするためのチェック機構に対応することができる。
ある実施形態では、ビデオプロセッサ104が、OBB304内の第3の画素値を有する1又はそれ以上の画素に第2の画素値を割り当てることができる。第3の画素値は、オブジェクト輪郭306内の領域306aに存在することができる。このような割り当ては、OBB304内の2つの隣接する画素が第3の画素値及び第1の画素値を有していることが検出されない時に行われる。ビデオプロセッサ104は、このような割り当てに基づいて、任意の形のオブジェクトのためのオブジェクトマスク306bを動的に生成することができる。第2の画素値の割り当ては、均一色のオブジェクトマスク306bを生成するために、オブジェクト輪郭306を白色などの第2の画素値で隙間埋めすることに対応することができる。
図4A、図4B及び図4Cは、本開示の実施形態による、例示的なビデオ処理方法を示すフローチャートである。図4A、図4B及び図4Cには、フローチャート400を示している。フローチャート400の説明は、図1に関連して行う。方法は、ステップ402から開始してステップ404に進む。
ステップ404において、ビデオの画像シーケンスを受け取ることができる。ステップ406において、受け取ったビデオの画像シーケンスからの画像フレームをダウンサイズすることができる。
ステップ408において、画像シーケンス内のダウンサイズされた3つの連続する画像フレームを循環バッファにバッファ処理することができる。ステップ410において、前の画像フレームを現在の画像フレームに整列させることができる。
ステップ412において、整列した前の画像フレームと現在の画像フレームの間の第1の絶対差画像を特定することができる。ある実施形態では、特定された第1の絶対差画像から非重複領域を除去することができる。ある実施形態では、第1の絶対差画像が特定された際に、同時に非重複領域を除去することができる。ステップ414において、特定された第1の絶対差画像内の1又はそれ以上の移動オブジェクトに対応する1又はそれ以上のオブジェクト輪郭を検出することができる。
ステップ416において、第1の絶対差画像内の検出された1又はそれ以上のオブジェクト輪郭に基づいて第1のオブジェクト輪郭画像を特定することができる。制御は、これと並行してステップ418〜ステップ424に進むことができる。ステップ418において、次の画像フレームを現在の画像フレームに整列させることができる。
ステップ420において、整列した次の画像フレームと現在の画像フレームの間の第2の絶対差画像を特定することができる。ある実施形態では、特定された第2の絶対差画像から非重複領域を除去することができる。ある実施形態では、第2の絶対差画像が特定された際に、同時に非重複領域を除去することができる。ステップ422において、特定された第2の絶対差画像内の1又はそれ以上の移動オブジェクトに対応する1又はそれ以上のオブジェクト輪郭を検出することができる。
ステップ424において、第2の絶対差画像内の検出された1又はそれ以上のオブジェクト輪郭に基づいて、第2のオブジェクト輪郭画像を特定することができる。ステップ426において、生成された第1のオブジェクト輪郭画像と第2のオブジェクト輪郭画像との間の共通部分に基づいて、中間オブジェクト輪郭画像を特定することができる。
ステップ428において、中間オブジェクト輪郭画像の1又はそれ以上の部分にオブジェクト輪郭情報が存在しないかどうかを判定することができる。存在しない場合、制御はステップ430に進む。ステップ430において、勾配トレース操作に基づいて、存在しないオブジェクト輪郭情報を回復することができる。
ステップ432において、中間オブジェクト輪郭画像のオブジェクト輪郭情報と、中間オブジェクト輪郭画像に関連する勾配情報とを利用して、1又はそれ以上の移動オブジェクトの1又はそれ以上のオブジェクト輪郭を特定することができる。ステップ434において、ビデオコンテンツ内の1又はそれ以上の移動オブジェクトの1又はそれ以上のオブジェクト輪郭を特定することができる。このような特定は、特定されたオブジェクト輪郭情報、及び中間オブジェクト輪郭画像に関連する勾配情報に基づくことができる。
ステップ436において、特定された1又はそれ以上のオブジェクト輪郭に基づいて、1又はそれ以上の移動オブジェクトを検出することができる。ステップ438において、特定された1又はそれ以上のオブジェクト輪郭に基づいて、第1の移動オブジェクトの第1のオブジェクト輪郭を含む第1のOBBを生成することができる。
ステップ440において、第1の移動オブジェクトの第1のオブジェクト輪郭を隙間埋めすることができる。ステップ442において、生成された第1のOBB内のオブジェクト輪郭の隙間埋めに基づいて、第1の宛先画像フレーム内に第1の移動オブジェクトのための第1のオブジェクトマスクを生成することができる。制御は、(図示のように)これと並行してステップ444〜ステップ446に進むことができる。
ステップ444において、第2の移動オブジェクトが検出された場合、第2の移動オブジェクトの第2のオブジェクト輪郭を含む第2のOBBを生成することができる。このような第2のOBBの生成は、特定された1又はそれ以上のオブジェクト輪郭に基づくことができる。ステップ446において、生成された第1のOBBの範囲内で第2の移動オブジェクトの第2のオブジェクト輪郭が検出された場合、第2のOBBを分割することができる。また、このような分割は、第2のオブジェクト輪郭が第1のオブジェクト輪郭に接していない時に行うことができる。
ステップ448において、第2の宛先画像フレーム内で、第2のOBB内の第2の移動オブジェクトの第2のオブジェクト輪郭を隙間埋めすることができる。このような第2の宛先画像フレームは、第1の移動オブジェクトのための生成された第1のオブジェクトマスクを含む第1の宛先画像フレームに対応することができる。ステップ450において、第2のOBB内の第2の移動オブジェクトの第2のオブジェクトマスクを生成することができる。
ステップ452において、生成された第1のオブジェクトマスク及び第2のオブジェクトマスクに基づいて、第1の移動オブジェクト及び第2の移動オブジェクトを抽出することができる。第2の移動オブジェクトが検出されない場合、制御は、ステップ442からステップ452に進むことができる。制御は、ステップ454に進んで終了する。
図5は、本開示の実施形態による、開示するビデオコンテンツ処理方法の例示的な隙間埋め技術を示すフローチャートである。図5には、図4Cのステップ440のサブステップについて説明するためのフローチャートを示している。フローチャート440の説明は、図1、図2A、図2B、図2C、図4A、図4B及び図4Cに関連して行う。このフローチャートは、ステップ440aから開始してステップ440bに進む。
ステップ440bにおいて、第1の宛先画像フレーム内に第1の画素値を設定することができる。ステップ440cにおいて、特定された第1のオブジェクト輪郭から色属性を抽出して、特定された第1のオブジェクト輪郭内に第2の画素値が設定されるようにすることができる。
ステップ440dにおいて、生成された第1のOBBを第1の宛先画像フレームの所定位置にコピーすることができる。ステップ440eにおいて、第1のOBB内の第1の画素が第3の画素値を有し、第1の宛先画像フレーム内の隣接する第2の画素が第1の画素値を有しているかどうかを検出する。第1のOBB内の第1の画素が第3の画素値を有し、隣接する第2の画素が第1の画素値を有している場合、制御はステップ440fに進むことができる。
ステップ440fにおいて、隣接する第2の画素が第1の画素値を有することが検出された場合、検出された第1の画素に第1の画素値を割り当てることができる。第1のOBB内の検出及び割り当てが完了するまでステップ440e〜440fを繰り返すことができる。第1のOBB内の第1の画素が第3の画素値を有しておらず、隣接する第2の画素が第1の画素値を有している場合、制御はステップ440gに進むことができる。
ステップ440gにおいて、第1のOBB内の第3の画素値を有する1又はそれ以上の画素に第2の画素値を割り当てることができる。このような1又はそれ以上の画素に対する第2の画素値の割り当ては、第1の移動オブジェクトの第1のオブジェクト輪郭の隙間埋めを引き起こすことができる。制御は、ステップ440hに進んで終了する。
本開示の実施形態によれば、ビデオコンテンツ処理システムが開示される。ビデオ処理装置102(図1)などの装置が、1又はそれ以上のビデオプロセッサ(以下、ビデオプロセッサ104(図1)と呼ぶ)を含むことができる。ビデオプロセッサ104は、ビデオコンテンツ内の1又はそれ以上の移動オブジェクトの1又はそれ以上のオブジェクト輪郭を特定することができる。さらに、ビデオプロセッサ104は、特定された1又はそれ以上のオブジェクト輪郭に基づいて、第1の移動オブジェクトの第1のオブジェクト輪郭を含むことができる第1のOBBを生成することができる。さらに、ビデオプロセッサ104は、生成された第1のOBB内の第1のオブジェクト輪郭の隙間埋めに基づいて、第1の宛先画像フレーム内で第1の移動オブジェクトのための第1のオブジェクトマスクを動的に生成することができる。
本開示の様々な実施形態は、ビデオデータを処理する機械及び/又はコンピュータによって実行できる少なくとも1つのコードセクションを有する機械コード及び/又はコンピュータプログラムを記憶した、非一時的コンピュータ可読媒体及び/又は記憶媒体、及び/又は非一時的機械可読媒体及び/又は記憶媒体を提供することができる。ビデオプロセッサ104における少なくとも1つのコードセクションは、ビデオコンテンツ内の1又はそれ以上の移動オブジェクトの1又はそれ以上のオブジェクト輪郭を特定することを含むステップを機械及び/又はコンピュータに実行させることができる。特定された1又はそれ以上のオブジェクト輪郭に基づいて、第1の移動オブジェクトの第1のオブジェクト輪郭を含むことができる第1のOBBを生成することができる。生成された第1のOBB内の第1のオブジェクト輪郭の隙間埋めに基づいて、第1の宛先画像フレーム内の第1の移動オブジェクトのための第1のオブジェクトマスクを生成することができる。
本開示は、ハードウェアの形で実現することも、又はハードウェアとソフトウェアの組み合わせの形で実現することもできる。本開示は、少なくとも1つのコンピュータシステム内で集中方式で実現することも、又は異なる要素を複数の相互接続されたコンピュータシステムにわたって分散できる分散方式で実現することもできる。本明細書で説明した方法を実行するように適合されたコンピュータシステム又はその他の装置が適することができる。ハードウェアとソフトウェアの組み合わせは、ロードされて実行された時に、本明細書で説明した方法を実行するようにコンピュータシステムを制御することができるコンピュータプログラムを含む汎用コンピュータシステムとすることができる。本開示は、他の機能も実行する集積回路の一部を含むハードウェアの形で実現することができる。
本開示は、本明細書で説明した方法の実装を可能にする全ての特徴を含み、コンピュータシステムにロードされた時にこれらの方法を実行できるコンピュータプログラム製品に組み込むこともできる。本文脈におけるコンピュータプログラムとは、情報処理能力を有するシステムに、特定の機能を直接的に、或いはa)別の言語、コード又は表記法への変換、b)異なる内容形態での複製、のいずれか又は両方を行った後に実行させるように意図された命令セットの、あらゆる言語、コード又は表記法におけるあらゆる表現を意味する。
いくつかの実施形態を参照しながら本開示について説明したが、当業者であれば、本開示の範囲から逸脱することなく様々な変更を行うことができ、同等物を代用することができると理解するであろう。また、本開示の範囲から逸脱することなく、本開示の教示に特定の状況又は内容を適合させるための多くの変更を行うこともできる。従って、本開示は、開示した特定の実施形態に限定されるものではなく、特許請求の範囲に該当する全ての実施形態を含むことが意図されている。

Claims (19)

  1. ビデオコンテンツ処理方法であって、
    ビデオプロセッサにおいて、
    前記ビデオコンテンツ内の1又はそれ以上の移動オブジェクトの1又はそれ以上のオブジェクト輪郭を特定するステップと、
    前記特定された前記1又はそれ以上のオブジェクト輪郭に基づいて、第1の移動オブジェクトの第1のオブジェクト輪郭を含む第1のオブジェクト境界ボックス(OBB)を生成するステップと、
    前記生成された前記第1のOBB内の前記第1のオブジェクト輪郭の隙間埋めに基づいて、第1の宛先画像フレーム内で前記第1の移動オブジェクトのための第1のオブジェクトマスクを動的に生成するステップと、
    前記第1の宛先画像フレーム内に第1の画素値を設定するステップと、
    前記特定された前記1又はそれ以上のオブジェクト輪郭から色属性を抽出して、前記特定された前記1又はそれ以上のオブジェクト輪郭内に第2の画素値が設定されるようにするステップと、
    前記生成された前記第1のOBBを前記第1の宛先画像フレームの所定位置にコピーするステップと、
    を含むことを特徴とする方法。
  2. 前記ビデオコンテンツの、前の画像フレーム、現在の画像フレーム及び次の画像フレームを含む3つの連続する画像フレームに基づいて、前記1又はそれ以上の移動オブジェクトを検出するステップをさらに含む、
    請求項1に記載の方法。
  3. 前記現在の画像フレームを前記前の画像フレームに整列させ、前記次の画像フレームを前記現在の画像フレームに整列させるステップと、
    前記整列した前記現在の画像フレームと前記前の画像フレームとの間の第1の絶対差画像、及び前記整列した前記次の画像フレームと前記現在の画像フレームとの間の第2の絶対差画像を特定するステップと、
    をさらに含む請求項2に記載の方法。
  4. 前記特定された前記第1の絶対差画像及び前記特定された前記第2の絶対差画像内の前記1又はそれ以上の移動オブジェクトに対応する前記1又はそれ以上のオブジェクト輪郭を検出するステップをさらに含む、
    請求項3に記載の方法。
  5. 前記第1の絶対差画像内の前記検出された前記1又はそれ以上のオブジェクト輪郭に基づいて第1のオブジェクト輪郭画像を特定し、前記第2の絶対差画像内の前記検出された前記1又はそれ以上のオブジェクト輪郭に基づいて第2のオブジェクト輪郭画像を特定するステップをさらに含む、
    請求項4に記載の方法。
  6. 前記特定された前記第1のオブジェクト輪郭画像と、前記特定された前記第2のオブジェクト輪郭画像との間の共通部分に基づいて、中間オブジェクト輪郭画像を特定するステップをさらに含む、
    請求項5に記載の方法。
  7. 前記特定された前記中間オブジェクト輪郭画像、及び該中間オブジェクト輪郭画像に関連する勾配情報を、前記1又はそれ以上の移動オブジェクトの前記1又はそれ以上のオブジェクト輪郭の前記特定に利用するステップをさらに含む、
    請求項6に記載の方法。
  8. 前記第1のOBB内の第1の画素が第3の画素値を有しており、前記第1の宛先画像フレーム内の隣接する第2の画素が前記第1の画素値を有しているかどうかを検出するステップと、
    前記隣接する前記第2の画素が前記第1の画素値を有していることが検出された場合、前記検出された前記第1の画素に前記第1の画素値を割り当てるステップと、
    をさらに含む請求項1に記載の方法。
  9. 前記第1の画素値は灰色に対応し、前記第2の画素値は白色に対応し、前記第3の画素値は黒色に対応する、
    請求項8に記載の方法。
  10. 前記第1のOBB内の2つの隣接する画素が前記第3の画素値及び第1の画素値でないことが検出された場合、前記第1のオブジェクト輪郭の前記隙間埋めのために、前記第1のOBB内の前記第3の画素値を有する1又はそれ以上の画素に前記第2の画素値を割り当てるステップをさらに含む、
    請求項8に記載の方法。
  11. 前記ビデオコンテンツ内で前記第2の移動オブジェクトが検出された場合、該第2の移動オブジェクトを含む第2のOBBを生成するステップをさらに含む、
    請求項1に記載の方法。
  12. 前記生成された前記第2のOBBを、前記第1の移動オブジェクトのための前記生成された前記第1のオブジェクトマスクを含む前記第1の宛先画像フレームに対応する第2の宛先画像フレームの所定位置にコピーするステップをさらに含む、
    請求項11に記載の方法。
  13. 前記第1の移動オブジェクトの前記生成された前記第1のオブジェクトマスクに関連する前記第2のOBB内の前記第2の移動オブジェクトの第2のオブジェクトマスクを生成するステップをさらに含む、
    請求項12に記載の方法。
  14. 前記生成された前記第1のオブジェクトマスク及び前記生成された前記第2のオブジェクトマスクに基づいて、前記第1の移動オブジェクト及び前記第2の移動オブジェクトを抽出するステップをさらに含む、
    請求項13に記載の方法。
  15. ビデオプロセッサを備えたビデオコンテンツ処理システムであって、
    前記ビデオプロセッサは、
    前記ビデオコンテンツ内の1又はそれ以上の移動オブジェクトの1又はそれ以上のオブジェクト輪郭を特定し、
    前記特定された前記1又はそれ以上のオブジェクト輪郭に基づいて、第1の移動オブジェクトの第1のオブジェクト輪郭を含む第1のオブジェクト境界ボックス(OBB)を生成し、
    前記生成された前記第1のOBB内の前記第1のオブジェクト輪郭の隙間埋めに基づいて、第1の宛先画像フレーム内で前記第1の移動オブジェクトのための第1のオブジェクトマスクを生成し、
    前記ビデオプロセッサはさらに、
    前記第1の宛先画像フレーム内に第1の画素値を設定し、
    前記特定された前記1又はそれ以上のオブジェクト輪郭から色属性を抽出して、前記特定された前記1又はそれ以上のオブジェクト輪郭内に第2の画素値が設定されるようにし、
    前記ビデオプロセッサはさらに、前記生成された前記第1のOBBを前記第1の宛先画像フレームの所定位置にコピーする、
    ことを特徴とするシステム。
  16. 前記ビデオプロセッサはさらに、前記ビデオコンテンツの、前の画像フレーム、現在の画像フレーム及び次の画像フレームを含む3つの連続する画像フレームに基づいて、前記1又はそれ以上の移動オブジェクトを検出する、
    請求項15に記載のシステム。
  17. 前記ビデオプロセッサはさらに、
    前記第1のOBB内の第1の画素が第3の画素値を有しており、前記第1の宛先画像フレーム内の隣接する第2の画素が前記第1の画素値を有しているかどうかを検出し、
    前記隣接する前記第2の画素が前記第1の画素値を有していることが検出された場合、前記検出された前記第1の画素に前記第1の画素値を割り当てる、
    請求項15に記載のシステム。
  18. 前記第1の画素値は灰色に対応し、前記第2の画素値は白色に対応し、前記第3の画素値は黒色に対応する、
    請求項17に記載のシステム。
  19. 前記ビデオプロセッサはさらに、前記第1のOBB内の2つの隣接する画素が前記第3の画素値及び第1の画素値でないことが検出された場合、前記第1のオブジェクト輪郭の前記隙間埋めのために、前記第1のOBB内の前記第3の画素値を有する1又はそれ以上の画素に前記第2の画素値を割り当てる、
    請求項17に記載のシステム。
JP2015218393A 2014-11-14 2015-11-06 ビデオコンテンツ処理方法及びシステム Active JP6094775B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/542,294 US10133927B2 (en) 2014-11-14 2014-11-14 Method and system for processing video content
US14/542,294 2014-11-14

Publications (2)

Publication Number Publication Date
JP2016095842A JP2016095842A (ja) 2016-05-26
JP6094775B2 true JP6094775B2 (ja) 2017-03-15

Family

ID=54608298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015218393A Active JP6094775B2 (ja) 2014-11-14 2015-11-06 ビデオコンテンツ処理方法及びシステム

Country Status (4)

Country Link
US (1) US10133927B2 (ja)
EP (1) EP3021281B1 (ja)
JP (1) JP6094775B2 (ja)
CN (1) CN105608709B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2528028B (en) * 2014-05-13 2017-08-09 String Labs Ltd Border tracing
US10311314B2 (en) 2016-11-23 2019-06-04 Ford Global Technologies, Llc Detection of lane-splitting motorcycles
US10290158B2 (en) 2017-02-03 2019-05-14 Ford Global Technologies, Llc System and method for assessing the interior of an autonomous vehicle
US10497100B2 (en) * 2017-03-17 2019-12-03 Disney Enterprises, Inc. Image cancellation from video
US10509974B2 (en) * 2017-04-21 2019-12-17 Ford Global Technologies, Llc Stain and trash detection systems and methods
EP3741102A4 (en) * 2018-04-23 2020-11-25 Guangdong Oppo Mobile Telecommunications Corp., Ltd. PROCESS FOR AUTOMATICALLY SWITCHING THE VIDEO RECORDING AND PLAYBACK FRAME RATE
US10997760B2 (en) * 2018-08-31 2021-05-04 Snap Inc. Augmented reality anthropomorphization system
TWI749365B (zh) * 2019-09-06 2021-12-11 瑞昱半導體股份有限公司 移動影像整合方法及移動影像整合系統
CN113362351A (zh) * 2020-03-05 2021-09-07 阿里巴巴集团控股有限公司 一种图像处理方法、装置、电子设备以及存储介质
US20230154136A1 (en) * 2020-04-06 2023-05-18 Telefonaktiebolaget Lm Ericsson (Publ) Facilitating annotation of objects

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3612227B2 (ja) 1998-01-07 2005-01-19 株式会社東芝 物体抽出装置
US6618439B1 (en) * 1999-07-06 2003-09-09 Industrial Technology Research Institute Fast motion-compensated video frame interpolator
US7221794B1 (en) * 2000-12-18 2007-05-22 Sportsvision, Inc. Foreground detection
AU2002319621A1 (en) 2001-07-17 2003-03-03 Amnis Corporation Computational methods for the segmentation of images of objects from background in a flow imaging instrument
JP2004118578A (ja) 2002-09-26 2004-04-15 Osaka Industrial Promotion Organization 輪郭線抽出方法、画像処理装置、及びコンピュータプログラム
US7095786B1 (en) * 2003-01-11 2006-08-22 Neo Magic Corp. Object tracking using adaptive block-size matching along object boundary and frame-skipping when object motion is low
JP4500635B2 (ja) 2004-09-13 2010-07-14 アサヒビール株式会社 熱可塑性接着剤検査装置及び検査方法
WO2006056614A1 (en) * 2004-11-27 2006-06-01 Bracco Imaging S.P.A. 2d / 3d integrated contour editor
FR2885719B1 (fr) * 2005-05-10 2007-12-07 Thomson Licensing Sa Procede et dispositif de suivi d'objets dans une sequence d'images
CN101371273A (zh) 2005-12-30 2009-02-18 意大利电信股份公司 视频序列的分割
TW200834459A (en) * 2007-02-05 2008-08-16 Huper Lab Co Ltd Video object segmentation method applied for rainy situations
JP5213486B2 (ja) * 2008-03-14 2013-06-19 株式会社ソニー・コンピュータエンタテインメント 対象物追跡装置および対象物追跡方法
JP4508256B2 (ja) * 2008-03-19 2010-07-21 ソニー株式会社 映像信号処理装置、撮像装置及び映像信号処理方法
US9019381B2 (en) * 2008-05-09 2015-04-28 Intuvision Inc. Video tracking systems and methods employing cognitive vision
TWI366140B (en) * 2008-06-11 2012-06-11 Vatics Inc Method for tracking multiple objects with spatial-color statistical model
US8170278B2 (en) * 2008-08-06 2012-05-01 Sri International System and method for detecting and tracking an object of interest in spatio-temporal space
US8175379B2 (en) * 2008-08-22 2012-05-08 Adobe Systems Incorporated Automatic video image segmentation
JP2010062610A (ja) 2008-09-01 2010-03-18 Konica Minolta Business Technologies Inc 画像処理装置及び画像処理方法
JP2010097438A (ja) 2008-10-16 2010-04-30 Keyence Corp 画像処理を用いた輪郭情報抽出方法、画像処理におけるパターンモデルの作成方法、画像処理におけるパターンモデルの位置決め方法、画像処理装置、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
US8358876B1 (en) * 2009-05-20 2013-01-22 Adobe Systems Incorporated System and method for content aware in place translations in images
CN101588445B (zh) * 2009-06-09 2011-01-19 宁波大学 一种基于深度的视频感兴趣区域提取方法
US8379985B2 (en) * 2009-07-03 2013-02-19 Sony Corporation Dominant gradient method for finding focused objects
US8379972B1 (en) * 2009-12-01 2013-02-19 Adobe Systems Incorporated Color decontamination for image compositing
US8422769B2 (en) * 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
JP2011186719A (ja) 2010-03-08 2011-09-22 Nippon Telegr & Teleph Corp <Ntt> 物体検出装置、物体検出方法及び物体検出プログラム
GB2478593B (en) * 2010-03-12 2017-05-31 Inst For Medical Informatics Optimising the initialization and convergence of active contours for segmentation of cell nuclei in histological sections
CN102970528B (zh) 2012-12-28 2016-12-21 北京航空航天大学 基于变化检测和帧差累积的视频对象分割方法
US20140313216A1 (en) * 2013-04-18 2014-10-23 Baldur Andrew Steingrimsson Recognition and Representation of Image Sketches
US9558571B2 (en) * 2013-08-28 2017-01-31 Adobe Systems Incorporated Contour gradients using three-dimensional models
US9213898B2 (en) * 2014-04-30 2015-12-15 Sony Corporation Object detection and extraction from image sequences
US10088549B2 (en) * 2015-06-25 2018-10-02 Appropolis Inc. System and a method for tracking mobile objects using cameras and tag devices
US10223590B2 (en) * 2016-08-01 2019-03-05 Qualcomm Incorporated Methods and systems of performing adaptive morphology operations in video analytics

Also Published As

Publication number Publication date
EP3021281A2 (en) 2016-05-18
CN105608709B (zh) 2018-11-16
JP2016095842A (ja) 2016-05-26
US10133927B2 (en) 2018-11-20
EP3021281B1 (en) 2019-05-01
EP3021281A3 (en) 2016-10-05
CN105608709A (zh) 2016-05-25
US20160140392A1 (en) 2016-05-19

Similar Documents

Publication Publication Date Title
JP6094775B2 (ja) ビデオコンテンツ処理方法及びシステム
US11663733B2 (en) Depth determination for images captured with a moving camera and representing moving features
US9767612B2 (en) Method, system and apparatus for removing a marker projected in a scene
US9519968B2 (en) Calibrating visual sensors using homography operators
US9807263B2 (en) Mobile document capture assistance using augmented reality
JP2018534698A (ja) Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム
JP2017503198A5 (ja)
US11620730B2 (en) Method for merging multiple images and post-processing of panorama
US9256792B2 (en) Image processing apparatus, image processing method, and program
JP2016540267A5 (ja)
WO2018098862A1 (zh) 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备
US10122912B2 (en) Device and method for detecting regions in an image
US20170243351A1 (en) Selective Local Registration Based on Registration Error
US20140204083A1 (en) Systems and methods for real-time distortion processing
US10536677B2 (en) Image processing apparatus and method
US20120249837A1 (en) Methods and Systems for Real-Time Image-Capture Feedback
WO2021084797A1 (ja) 物体検出装置、物体検出方法、物体検出プログラム及び学習装置
KR20150101343A (ko) 영상 투사 시스템
US11770551B2 (en) Object pose estimation and tracking using machine learning
JPWO2023042337A5 (ja)
US10671881B2 (en) Image processing system with discriminative control
JP2016091193A (ja) 画像処理装置、画像処理方法およびプログラム
JP7435298B2 (ja) 物体検出装置および物体検出方法
WO2021190655A1 (en) Method for merging multiple images and post-processing of panorama
JP6364944B2 (ja) 画像処理装置、投影および撮影の方法、ならびにコンピュータプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170131

R151 Written notification of patent or utility model registration

Ref document number: 6094775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250