JP2015530649A - ビデオシーケンスの画像の色をサンプル化する方法および色クラスタリングへの適用 - Google Patents

ビデオシーケンスの画像の色をサンプル化する方法および色クラスタリングへの適用 Download PDF

Info

Publication number
JP2015530649A
JP2015530649A JP2015526933A JP2015526933A JP2015530649A JP 2015530649 A JP2015530649 A JP 2015530649A JP 2015526933 A JP2015526933 A JP 2015526933A JP 2015526933 A JP2015526933 A JP 2015526933A JP 2015530649 A JP2015530649 A JP 2015530649A
Authority
JP
Japan
Prior art keywords
image
pixel
mask
color
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015526933A
Other languages
English (en)
Other versions
JP6275719B2 (ja
JP2015530649A5 (ja
Inventor
ポレ コリン
ポレ コリン
ケルヴェック ジョナサン
ケルヴェック ジョナサン
ジョリー エマニュエル
ジョリー エマニュエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2015530649A publication Critical patent/JP2015530649A/ja
Publication of JP2015530649A5 publication Critical patent/JP2015530649A5/ja
Application granted granted Critical
Publication of JP6275719B2 publication Critical patent/JP6275719B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/64Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor
    • H04N1/644Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor using a reduced set of representative colours, e.g. each representing a particular range in a colour space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Television Systems (AREA)

Abstract

本方法は、先行画像(1)に後続する各画像(2)に対して連続的に−当該先行画像(1)から当該後続画像(2)に向かう動きに対応する動きベクトルのマップに基づいて、当該後続画像(2)に対するピクセルマスクを構築するステップと、−当該後続画像(2)のピクセルをサンプルする対応するマスク画像を取得するために、当該ピクセルマスクを対応する後続画像(2)に適用するステップとを備える。この方法を色クラスタリングに適用することによって、制限されたコンピュータ資源を用いた色クラスタの反復的な更新が可能になる。

Description

本発明は、ビデオシーケンスの画像の色のクラスタリングに関し、特に、色の具体的な事前サンプリングに関する。
色のクラスタリングは、高価な計算資源を必要とする。計算資源の要求を低減するために、色は概して、クラスタ化される前にサンプルされる。このようなサンプリングの目的は、クラスタリングが考慮されなければならない各画像のピクセルの数を削減することである。画像のピクセルは、例えば、100のファクタ(factor)によってサンプルされ得る。それは、サンプルされたピクセルのみが色のクラスタリングに使用される:例えば、各画像のピクセルの1/100が考慮されるという意味である。サンプリングは、好適には、人工的な色を取り入れないために、任意のフィルタリングプロセスを用いずに遂行され、そして、実を言えば、サンプルされない色は、後続の色クラスタリングのために考慮される。このため、計算の複雑度と精度との間で公平なバランスを取るためのサブサンプリング率を注意深く決定しなければならない。このようなサンプリングの例として、ビデオコンテンツの画像が1920×1080HDTVとしてフォーマットされる場合、即ち、それぞれが約2百万ピクセルを有する場合、各画像は、ファクタ100によってフォーマット192×108、即ち、それぞれが約2万ピクセルである100のサブ画像を得るようにサンプルされることができる。10ラインのうちの各ラインに対し、我々は、10ピクセルのうちの1ピクセルを取り入れる。
サンプルされるまたはサンプルされない色のクラスタリング自体に対し、主要な要素は、これらの色を類似性に基づいた意味のあるクラスタに組織することである。非特許文献1において、クラスタ形成に対する広範な技術が提案されている。この論評によれば、クラスタリングアルゴリズムには2つのタイプ、即ち、階層アルゴリズムとパーティションアルゴリズムが存在する。パーティションクラスタリングアルゴリズムは、大規模なデータセットを伴う適用において階層的方法よりも有利である。パーティション技術は、通常、基準関数を最適化することによってクラスタを作り出す。パーティションクラスタリング技術において最も直感的で頻繁に使用される基準関数は、二乗誤差基準である。k平均法は、二乗誤差基準を用いた最も単純で最も広く使用されるアルゴリズムである。k平均法は、ランダムな初期パーティションから開始して、パターンとクラスタセンターとの間の類似度に基づいて、収束基準を満たすまでパターンをクラスタに再割り当てし続ける。k平均アルゴリズムは、実装し易い理由により好まれ、そしてそのアルゴリズムの時間複雑度はO(n)であり、ここにnは、パターンの数である。
非特許文献2において、著者Ju Guo Jongwon Kim Kuoその他は、平均シフトアルゴリズムと呼ばれるノンパラメトリック勾配ベースの反復色クラスタリングアルゴリズムを開示し、そのアルゴリズムは、色の類似度に従って堅固な初期の支配色領域を提供する。前のフレームから取得された支配色情報が次のフレームの初期シードとして使用されるこの色クラスタリング方法によれば、計算時間の量を50%削減することができる。
"Data clustering :A review", published in September 1999 in ACM Computing Surveys, 31(3), pp.264-323 "Fast video Object Segmentation Using Affine Motion And Gradient-Based Color Clustering" published at pages 486-91 in 1998 in the IEEE Second Workshop on Multimedia Signal Processing (Cat. No.98EX175)
本発明の目的は、ビデオシーケンスの色クラスタリングに必要である計算時間をさらに削減することである。
このために、本発明の主題は、ビデオシーケンスの先行画像に後続する画像に対するピクセルマスクを構築する方法であって、
−当該先行画像から当該後続画像に向かう動きに対応する動きベクトルのマップを構築するステップと、
−動きベクトルの当該マップを当該先行画像に適用することによって、動きが当該後続画像を参照して当該先行画像を補償する補償画像を生成するステップと、
−1ピクセルずつの、当該補償画像と当該先行画像との間の差分から当該後続画像に対するピクセルマスクを構築するステップとを備える。
変形形態として、本発明の主題はまた、ビデオシーケンスの先行画像に後続する画像に対するピクセルマスクを構築する方法でもあって、
−当該先行画像から当該後続画像に向かう動きに対応する動きベクトルのマップを構築するステップと、
−当該先行画像の各ピクセルに対応する動きベクトルと当該ピクセルの近傍に配置された近傍ピクセルに対応する動きベクトルとの間の差分に基づいて、当該後続画像に対するピクセルマスクを構築するステップとを備える。
好適には、上記の方法はまた、各ピクセルに対し、当該差分を所定の閾値と比較して、そして当該差分が当該所定の閾値未満であるとすぐに「0」値を当該ピクセルマスクの対応するピクセルに割り当てるか、または当該差分が当該所定の閾値に等しいまたは上回るとすぐに「1」値を当該ピクセルマスクの対応するピクセルに割り当てるステップも備える。
本発明の主題はまた、ビデオシーケンスの画像の色をサンプルして対応するマスク画像の色にする方法でもあり、このシーケンスの先行画像に後続する各画像に対して連続的に、
−上述したような方法によって当該後続画像に対するピクセルマスクを構築するステップと、
−当該後続画像のピクセルをサンプルする対応するマスク画像を取得するために当該ピクセルマスクを対応する後続画像に適用するステップとを備える。
より正確に言えば、ピクセルマスクが構築される時にそのピクセルマスクが後続画像に適用されるのであれば、この後続画像におけるピクセルの選択に対応するマスク画像が形成される。
本発明の主題はまた、ビデオシーケンスの画像の色をサンプルして対応するマスク画像の色にする方法でもあり、このシーケンスの先行画像に後続する各画像に対して連続的に、
−当該ピクセルマスクが当該後続画像に適用される時に、当該後続画像に対するピクセルマスクを構築して、当該後続画像におけるピクセルの選択に対応するマスク画像が形成されるようにするステップと、
−当該後続画像のピクセルをサンプルする対応するマスク画像を取得するために当該ピクセルマスクを対応する後続画像に適用するステップであって、
所与の後続画像に対するピクセルマスクの当該構築は、当該先行画像から当該後続画像に向かう動きに対応する動きベクトルのマップに基づくことを備える。
好適には、ビデオシーケンスの画像は、連続画像である。
第1の変形形態によれば、先行画像を有する当該ビデオシーケンスの各後続画像に対する、ピクセルマスクの構築は、以下のステップ:
−動きベクトルの当該マップを当該先行画像に適用することによって、動きが当該後続画像を参照して当該先行画像を補償する補償画像を生成するステップと、
−差分画像を得るために、1ピクセルずつの、当該補償画像と当該先行画像との間の差分を算出するステップと、
−当該差分画像の各ピクセルを所定の閾値と比較して、そして当該差分画像の当該ピクセルが所定の閾値未満であるとすぐに「0」値をピクセルマスクの対応するピクセルに割り当てるか、または当該差分画像の当該ピクセルが当該所定の閾値に等しいまたは上回るとすぐに「1」値をピクセルマスクの対応するピクセルに割り当てるステップとにより遂行される。
第2の変形形態によれば、先行画像を有する当該ビデオシーケンスの各後続画像対する、ピクセルマスクの構築は、以下のステップ:
−当該先行画像の各ピクセル対する、動きベクトルの当該マップ内の当該ピクセルに対応する動きベクトルと当該ピクセルの近傍に配置された近傍ピクセルに対応する動きベクトルとを比較して、そして当該ピクセルに対応する動きベクトルと近傍ピクセルに対応する動きベクトルとの間の差分が所定の閾値未満であるとすぐに「0」値をピクセルマスクの対応するピクセルに割り当てるか、または当該差分が当該所定の閾値に等しいまたは上回るとすぐに「1」値をピクセルマスクの対応するピクセルに割り当てるステップにより遂行される。
本発明の目的はまた、ビデオシーケンスの画像の色をクラスタ化する方法でもあり、クラスタ化される前に、先行画像を有しない当該ビデオシーケンスの画像を除けば、即ち、当該ビデオシーケンスの第1の画像を除けば、上述したようなサンプリングの方法により、クラスタ化する色がサンプルされる。
好適には、色をクラスタ化する方法は、色クラスタのセットを生成するためおよび当該色を当該生成されたセットの色クラスタに分散するために、ビデオシーケンスの第1の画像の色をクラスタ化する第1のステップと、マスク画像が取得されるたびに、色クラスタのセットを更新するためおよび当該色を当該更新されたセットの色クラスタに分散するために、すでにクラスタ化された色を当該マスク画像の色と一緒にクラスタ化するステップとを備える。
有利には、このような方法を用いて、色クラスタリングが反復的に遂行され、その後計算資源の使用を最適化する。
変形形態として、マスク画像が取得されるたびに、色クラスタのセットは、マスク画像の色のみを用いて更新され、そしてこれらの色は、その後、この更新されたセットの色クラスタに分散される。ビデオシーケンスのすべての画像の色のクラスタリングは、従って、計算資源の有利な節約によって反復的に構築される。
本発明の主題はまた、ビデオシーケンスの先行画像に後続する画像に対するピクセルマスクを構築するためのピクセルマスクビルダでもあり、
−当該先行画像から当該後続画像に向かう動きに対応する動きベクトルのマップを構築するように構成された動きベクトルマップビルダと、
−当該動きベクトルマップビルダによって構築された動きベクトルのマップを適用することによって動きが当該後続画像を参照して当該先行画像を補償する補償画像を生成するように構成された画像ジェネレータであって、当該ピクセルマスクビルダが、1ピクセルずつの、当該補償画像と当該先行画像との間の差分から当該後続画像に対するピクセルマスクを構築するように構成された、画像ジェネレータとを備える。
第2の変形形態として、本発明の主題はまた、ビデオシーケンスの先行画像に後続する画像に対するピクセルマスクを構築するためのピクセルマップビルダでもあり、当該先行画像から当該後続画像に向かう動きに対応する動きベクトルのマップを構築するように構成され、および当該先行画像の各ピクセルに対応する動きベクトルと当該ピクセルの近傍に配置された近傍ピクセルに対応する動きベクトルとの間の差分から当該後続画像に対するピクセルマスクを構築するように構成された、動きベクトルマップビルダを備える。
本発明の主題はまた、ビデオシーケンスの画像の色をサンプルして対応するマスク画像の色にするための色サンプラでもあり、
−このシーケンスの先行画像に後続する各画像に対して連続的に、ピクセルマスクを構築するための、本発明によるピクセルマップビルダと、
−当該後続画像のピクセルをサンプルする対応するマスク画像を取得するために、当該ピクセルマップビルダによって構築されたピクセルマスクを当該後続画像に適用するように構成されたマスク画像ビルダとを備える。
本発明の主題はまた、ビデオシーケンスの画像の色をクラスタ化するための色クラスタリングデバイスでもあり、
−ビデオシーケンスの画像の色をサンプルして対応するマスク画像の色にするための、本発明による色サンプラと、
−色サンプラによって提供されたマスク画像から色クラスタのセットを生成するように構成された色クラスタジェネレータと、
−マスク画像の色を色クラスタジェネレータによって生成された色クラスタに分散するように構成された色ディストリビュータとを備える。
本発明は、限定されない例として与えられ、および添付図面を参照する、以下の説明を読めばより明確に理解されるであろう。
先行画像の対応するピクセルとの比較による、画像の各ピクセルに対する動き推定の一般的図式を示す図である。 本発明によるサンプリング方法の概要フローチャートである。 この画像の上を覆う動きベクトルのマップを有する画像を示す図である。 本発明のサンプリング方法の実施形態によるピクセルマスクを適用することによって特定される図3の画像上の、分散エリアを示す図である。 本発明の第1の実施形態によるサンプリング方法の詳細なフローチャートである。 本発明の第2の実施形態によるサンプリング方法の詳細なフローチャートである。
本発明はこれより、ビデオシーケンスの画像の色の色クラスタリングを具体的であるが限定されない文脈において説明される。
本明細書に提示されたフローチャートが本発明を実施する例示的回路の概念図を表すことが当業者には理解されよう。それらの図は、実質的には、コンピュータ可読媒体で表され、そしてコンピュータまたはプロセッサによって、そのようなコンピュータまたはプロセッサが明示的に示されるか否かにかかわらず実行され得る。
図面に示されたさまざまな要素の機能は、専用ハードウェアならびに適切なソフトウェアと関連してソフトウェアを実行する能力があるハードウェアの使用を介して提供され得る。
図面に示された任意のスイッチまたは他の同様の要素は、単なる概念である。それらの機能は、プログラム論理の演算を介して、専用論理を介して、プログラム制御と専用論理の対話を介して実行されてもよく、特定の技術は、文脈からより具体的に理解されるように、実装者によって選択可能である。
ビデオシーケンスの画像の色のクラスタ化は、以下のステップにより遂行される。
ステップ1:ビデオシーケンスの第1の画像の色は、任意の所定の方法(上記のクラスタリングの例を参照)によりクラスタ化される。このクラスタリングの前に、これらの色のサンプリングが好適には、任意の所定の方法(上記のサンプリングの例を参照)により遂行される。第1の画像のピクセルは、例えば、100のファクタによって、この画像において100よりも1ピクセルを選択することによってサンプルされて、選択されたピクセルがこの画像に幾何学的に均一に分散されるようにする。このステップの結果、色クラスタの第1のセットが生成され、選択的サンプリングの後、色がこの第1の生成されたセットの色クラスタに分散される。生成された色クラスタは一般に、色の類似度に基づく。
ステップ2:後続画像、即ち、第2の画像に関連する動きベクトルのマップを、その画像の先行画像、即ち、第1の画像と比較して決定する。このステップは、図2のパート1によって図示される。
このような決定は、先行画像と後続する所与の画像との間の変位フレーム差(DFDs:Displaced Frame Differences)を最小にするためにそれ自体が周知の方法で遂行される。
変位フレーム差(DFDs)の計算は、DFD(P,T,V)=I(P,T)−I(P−V,T−1)という数式により行われる。ここに、Iは、画像内の位置Pにおけるピクセルの色に対応し、Tは、所与の画像の時間位置によって表される時間であり、Vは、先行画像と所与の画像との間のこのピクセルの動きである。ピクセルの色は、例えば、R値、G値またはB値のいずれかのような、通常の任意の成分値を介して表される。
所与の画像1が次の画像2と比較された関連する動きベクトルのマップの決定は一般に、「動き推定」と呼ばれる演算である。このマップの動きベクトルは、所与の全体画像1(グローバル動き推定)に関連する場合もあるし、または矩形ブロック、任意の形のパッチなどの特定部分または1ピクセルごとに関連する場合もある。本発明において、「1ピクセルごと」の手法が好適である。動きベクトルは、変換モデルまたはあらゆる3次元およびズームにおける回転および変換などの、実際のビデオカメラの動きを近似することができる他の多くのモデルによって表すことができる。
この決定されたマップの動きベクトルを所与の画像1に適用することによって、動き補償画像1′を生成し、その画像がその後続画像2と比較される。この後続画像(画像2)のピクセルに割り当てられる、このマップの各2次元ベクトルは、後続画像(画像2)内のこのピクセル座標から先行画像(画像1)内の対応するピクセルの座標までのオフセットを提供する。計算される動きベクトルは、画像1から画像2に向かう動きに対応する。それらのベクトルは、画像2のすべてのピクセルに対し、画像2の時間位置において定義される。これらの動きベクトルによって動き補償画像1が可能となる。
動き推定の後、DFDが画像の各ピクセルに関連付けられることになる。第1の近似として、高いDFD値が「閉塞(occlusion)」エリアに関連付けられた後、ビデオシーケンスの新しいオブジェクトがこれらのエリアの部分になる。そういうわけでDFDが高くそして動きフィールドが分散される(安定していない)ことが多い対応するピクセルのみを取り入れることが提案される。図1は、各ピクセルに対する動き推定の一般的図式を示し、図3は、この画像の上を覆う動きベクトルのマップを有する画像2を示す。
以下のステップ3の2つの異なる実施形態がこれより説明される。
ステップ3−実施形態1:図3に例示されたような動きベクトルの決定されたマップに基づいて、この第2の画像に対するピクセルマスクの構築を以下のサブステップ:
−第2の画像の各ピクセルの動きベクトルをこのピクセルに適用することによって、動きが第2の画像2を参照して第1の画像1を補償する補償画像を生成するステップと、
−差分画像を取得するために、1ピクセルずつの、生成された補償画像と第2の画像との間の差分を算出するステップと、
−計算された差分画像の各ピクセルを所定の閾値と比較して、そしてこの差分画像のピクセルが所定の閾値未満であるとすぐに0値をピクセルマスクの対応するピクセルに割り当てるか、またはこの差分画像のピクセルがこの所定の閾値に等しいまたは上回るとすぐに「1」値をピクセルマスクの対応するピクセルに割り当てるステップとにより行う。閾値は概して、実験によって決定され、例えば、最大ビデオ値が20%に設定される場合がある。
イラストレーション
8ビットRGBでエンコードされたビデオを用いて、0と255との間の値を有する各ピクセル成分(R、GおよびB)は、その閾値が255の20%、つまり、51に等しいことになる。
現在のピクセル位置における補償画像のピクセルの成分を(R1′,G1′,B1′)、および現在のピクセル位置における画像2のピクセルの成分を(R2,G2,B2)と名前付け、現在のピクセル位置におけるマスクのピクセルは、
− |R1,−R2|≧51および/または|G1,−G2|≧51および/または|B1,−B2|≧51であれば、値1
− そうでなければ、値0を有する。
任意には、ノイズを削減するために、ある形態学的フィルタリングが付加的にマスクに適用される可能性がある。
ステップ3−実施形態2:図3に示された動きベクトルの決定されたマップに基づいて、この第2の画像に対するピクセルマスクの構築は以下のようになる:
第2の画像の各ピクセルに対し、その動きベクトルとこのピクセルの近傍に配置された近傍ピクセルの動きベクトルとを比較して、そしてその動きベクトルと近傍ピクセルの動きベクトルとの差分が所定の閾値未満であるとすぐに0値をピクセルマスクの対応するピクセルに割り当てるか、または当該差分が当該所定の閾値に等しいまたは上回るとすぐに「1」値をピクセルマスクの対応するピクセルに割り当てる。
イラストレーション
動きベクトルのマップは、動き推定(Motion Estimation) モジュールの出力において提供される。画像の各ピクセルに関連付けられた1つの動きベクトルは、動きベクトルのマップのサイズが画像1または画像2のサイズと同じである。
マスクの算出:動きベクトルマップの各動きベクトルに対し、近傍ベクトルの平均距離が算出される。その近傍は、考慮される動きベクトルの周囲の(n×n)ウィンドウに配置される動きベクトルを含む。例えば、n=5。
cが現在のピクセル位置における動きベクトルの位置を表す場合、xがこの現在のピクセル位置cにおける動きベクトルの周囲の動きベクトルの位置を表す場合、Vが現在のピクセル位置cにおける動きベクトルである場合、VxcとVycがそれぞれ、この動きベクトルVの水平成分と垂直成分である場合、VijがVの近傍の動きベクトル(0<i≦nかつ0<j≦n)である場合、Vxi,jとVyi,jがそれぞれ、この動きベクトルVijの水平成分と垂直成分である場合、動きベクトルVとそのすべての近傍Vijとの間の平均距離がi=1からnまでおよびj=1からnまでに対する数式
により算出される。
その後、このピクセル位置cにおけるマスクの値は:
の20%>Dであれば、1に等しい
−そうでなければ、0に等しい。
図3に示された動きベクトルの決定されたマップに基づいて、このプロセスは、動きベクトルが他の動きベクトルと全体的に非常に異なる第2の画像エリアおいて特定できるようにさせる、即ち、いわゆる「外乱領域」を特定できるようにさせる。図4は、このような「外乱領域」を示す。これらのエリアにおけるピクセルに対し、時間T(第2の画像)におけるまたはT−1(第1の画像)における情報は、DFDを算出するために使用できない。そういうわけで動きフィールドが外乱されて、DFDが大きくなる。これらのエリアは概して、前の画像1、即ち、第1の画像においで閉塞していた第2の画像2のエリアに対応する。
ステップ3の最終において、どのような実施形態であれ、ピクセルマスクが構築される。この構築は、先行画像1から後続画像2に向かう動きに対応する動きベクトルのマップに基づく。
ステップ4:マスク画像を得るために、構築されたピクセルマスクを第2の画像に適用する。ピクセルマスクの具体的な構築プロセスに起因して、その適用の作用は、先行画像、即ち、第1の画像と比較して摂動される第2の画像のエリア−その後対応するピクセル−を選択することである。ピクセルマスクのこの適用の結果が、後続画像、即ち、第2の画像のピクセルの具体的なサンプリングである。
図5は、ステップ3が第1の実施形態により遂行される時のそのようなサンプリングを示す。差分画像の算出を介して進むこのサンプリングプロセスにより、ピクセルの差分が閾値よりも大きい時はいつも、対応するピクセル位置が摂動されたと宣言され、そしてそのようなピクセルは、次のステップにおいて、クラスタリングのために考慮されなければならない新しい画像情報のエリアの部分になることが考慮される。
図6は、ステップ3が第2の実施形態により遂行される時のそのようなサンプリングを示す。このサンプリングプロセスにより、第2のまたは現在の画像の動きベクトルがそのベクトル自体によって考慮される。第2のまたは現在の画像の各ピクセル位置において、対応する動きベクトルは、近傍の動きベクトルと比較される。このピクセル位置における動きベクトルフィールドの歪みが一定の閾値よりも大きい時はいつも、ピクセルは、次のステップのクラスタリングに考慮されなければならない新しい画像情報のエリアの部分になることが考慮される。
図5または図6において、参照番号1は、第1のまたは前の画像に関係し、参照番号2は、第2の、現在のまたは後続の画像に関係する。
ステップ5:好適には、上記のステップ1と同じクラスタリング方法を使用して、すでにクラスタ化された色を取得されたマスク画像の色と一緒にクラスタ化する。ここで、すでにクラスタ化された色は、第1の画像の色、任意にはサンプリングの後の色である。このクラスタリング方法を適用する前に、マスク画像の色のさらなるサンプリングが遂行され得る。ステップ5の結果として、色クラスタのセットの更新は、すでにクラスタ化された色および新しくクラスタ化された色をこの更新されたセットの色クラスタに分散することによって取得される。
本発明による第2の画像2の色の具体的なサンプリングのおかげで、この第2の画像に関する限り、この第2の画像のすべての色を取り入れる代わりに、第2の画像のピクセルマスクの出力における色のみが取り入れられ、従って、計算資源を節約する。
ビデオシーケンスの他の連続画像のそれぞれに対し、ステップ2からステップ5までがその後繰り返され、そこで第2の画像が現在の画像に置換され、そして第1の画像がこの現在の画像に先行する画像に置換される。現在の画像は、その先行画像を参照する後続画像と呼ばれる。本発明による方法により、マスク画像が取得されるたびに、色クラスタのセットを更新するためおよびこれらの色を更新されたセットの色クラスタに分散するために、すでにクラスタ化された色をこのマスク画像の色と一緒にクラスタ化するステップが遂行される。
プロセスの最終において、即ち、最後の画像が到達する時に、ビデオシーケンスのすべての画像の色クラスタリングが取得される。
本発明は、ハードウェア、ソフトウェア、ファームウェア、専用プロセッサ、またはそれらの組み合わせから成るさまざまな形態に実装され得ることを理解されたい。本発明は、特に、ハードウェアとソフトウェアとの組み合わせとして実装され得る。さらに、ソフトウェアは、プログラム記憶装置上で有形に実施されるアプリケーションプログラムとして実装され得る。アプリケーションプログラムは、任意の適切なアーキテクチャを備えるマシンにアップロードされ、そしてマシンによって実行され得る。好適には、マシンは、1または複数の中央処理装置(「CPU」)、ランダムアクセスメモリ(「RAM」)、および入力/出力(「I/O」)インタフェースなどのハードウェアを有するコンピュータプラットフォーム上で実装される。コンピュータプラットフォームはまた、オペレーティングシステムおよびマイクロ命令コードも含むことができる。本明細書に説明されるさまざまなプロセスおよび機能は、CPUによって実行され得る、マイクロ命令コードの一部またはアプリケーションプログラムの一部、あるいはそれらの任意の組み合わせのいずれかであってよい。さらに、付加的なデータ記憶装置および印刷装置などの、他のさまざまな周辺装置は、コンピュータプラットフォームに接続され得る。
特に、上述したような発明は、
−ビデオシーケンスの画像の色をサンプルして対応するマスク画像の色にするための色サンプラと、
−色サンプラによって提供されたマスク画像から色クラスタのセットを生成するように構成された色クラスタジェネレータと、
−マスク画像の色を色クラスタジェネレータによって生成された色クラスタに分散するように構成された色ディストリビュータとを備える色クラスタリングデバイスによって実装される。
色サンプラは、特に、
−ビデオシーケンスの先行画像1に後続する各画像2に対して連続的に、ピクセルマスクを構築するためのピクセルマップビルダと、
−この後続画像2のピクセルをサンプルする対応するマスク画像を取得するために、ピクセルマップビルダによって構築されたピクセルマスクをこの後続画像2に適用するように構成されたマスク画像ビルダとを備える。
第1の変形形態として、ピクセルマップビルダは、
−ビデオシーケンスの先行画像1からその後続画像2に向かう動きに対応する動きベクトルのマップを構築するように構成された動きベクトルマップビルダと、
−動きベクトルマップビルダによって構築された動きベクトルのマップを適用することによって動きがその後続画像2を参照して先行画像1を補償する補償画像1′を生成するように構成された画像ジェネレータを備える。
このピクセルマスクビルダは、1ピクセルずつの、補償画像1′と先行画像1との間の差分からピクセルマスクを構築するように構成される。
第2の変形形態として、ピクセルマスクビルダは、ビデオシーケンスの先行画像1からその後続画像2に向かう動きに対応する動きベクトルのマップを構築するように構成され、および当該先行画像の各ピクセルに対応する動きベクトルと当該ピクセルの近傍に配置された近傍ピクセルに対応する動きベクトルとの間の差分から後続画像2に対するピクセルマスクを構築するように構成された、動きベクトルマップビルダを備える。
本発明は、特定の例および好適実施形態について説明されているが、本発明は、これらの例および実施形態に限定されないことを理解されたい。特許請求される本発明は、従って、当業者には明らかであるように、本明細書に説明された特定の例および好適実施形態からの変形形態を含む。いくつかの具体的な実施形態が別個に説明されて特許請求される場合もあるが、ここに説明されて特許請求される実施形態のさまざまな特徴が組み合わせにおいて使用されてもよいことを理解されたい。特許請求の範囲において見られる参照数字は、単なる実例にすぎず、特許請求の範囲の範囲を限定する作用を有しない有しないものとする。

Claims (10)

  1. ビデオシーケンスの先行画像(1)に後続する画像(2)に対するピクセルマスクを構築する方法であって、
    −前記先行画像(1)から前記後続画像(2)に向かう動きに対応する動きベクトルのマップを構築するステップと、
    −動きベクトルの前記マップを前記先行画像(1)に適用することによって、動きが前記後続画像(2)を参照して前記先行画像(1)を補償する補償画像(1′)を生成するステップと、
    −1ピクセルずつの、前記補償画像(1′)と前記先行画像(1)との間の差分から前記後続画像(2)に対するピクセルマスクを構築するステップとを備えることを特徴とする方法。
  2. ビデオシーケンスの先行画像(1)に後続する画像(2)に対するピクセルマスクを構築する方法であって、
    −前記先行画像(1)から前記後続画像(2)に向かう動きに対応する動きベクトルのマップを構築するステップと、
    −前記先行画像の各ピクセルに対応する動きベクトルと前記ピクセルの近傍に配置された近傍ピクセルに対応する動きベクトルとの間の差分に基づいて、前記後続画像(2)に対するピクセルマスクを構築するステップとを備えることを特徴とする方法。
  3. 各ピクセルに対し、前記差分を所定の閾値と比較して、そして前記差分が前記所定の閾値未満であるとすぐに「0」値を前記ピクセルマスクの対応するピクセルに割り当てるか、または前記差分が前記所定の閾値に等しいまたは上回るとすぐに「1」値を前記ピクセルマスクの対応するピクセルに割り当てるステップをさらに備えることを特徴とする請求項1乃至2に記載のピクセルマスクを構築する方法。
  4. ビデオシーケンスの画像の色をサンプルして対応するマスク画像の色にする方法であって、このシーケンスの先行画像(1)に後続する各画像(2)に対して連続的に、
    −請求項1乃至3のいずれか1つに従って前記後続画像(2)に対するピクセルマスクを構築するステップと、
    −前記後続画像(2)のピクセルをサンプルする対応するマスク画像を取得するために前記ピクセルマスクを対応する後続画像(2)に適用するステップとを備えることを特徴とする方法。
  5. クラスタ化される前に、ビデオシーケンスの画像の色をクラスタ化する方法であって、クラスタ化する画像の色は、請求項4の方法に従ってサンプルされることを特徴とする方法。
  6. 色クラスタのセットを生成するためおよび前記色を前記生成されたセットの色クラスタに分散するために、ビデオシーケンスの第1の画像の色をクラスタ化する第1のステップと、マスク画像が取得されるたびに、色クラスタのセットを更新するためおよび前記色を前記更新されたセットの色クラスタに分散するために、すでにクラスタ化された色を前記マスク画像の色と一緒にクラスタ化するステップとを備えることを特徴とする請求項5に記載の色をクラスタ化する方法。
  7. ビデオシーケンスの先行画像(1)に後続する画像(2)に対するピクセルマスクを構築するためのピクセルマスクビルダであって、
    −前記先行画像(1)から前記後続画像(2)に向かう動きに対応する動きベクトルのマップを構築するように構成された動きベクトルマップビルダと、
    −前記動きベクトルマップビルダによって構築された動きベクトルのマップを適用することによって動きが前記後続画像(2)を参照して前記先行画像(1)を補償する補償画像(1′)を生成するように構成された画像ジェネレータであって、
    前記ピクセルマスクビルダが、1ピクセルずつの、前記補償画像(1′)と前記先行画像(1)との間の差分から前記後続画像(2)に対するピクセルマスクを構築するように構成された、画像ジェネレータとを備えることを特徴とするピクセルマスクビルダ。
  8. ビデオシーケンスの先行画像(1)に後続する画像(2)に対するピクセルマスクを構築するためのピクセルマップビルダであって、前記先行画像(1)から前記後続画像(2)に向かう動きに対応する動きベクトルのマップを構築するように構成され、および前記先行画像の各ピクセルに対応する動きベクトルと前記ピクセルの近傍に配置された近傍ピクセルに対応する動きベクトルとの間の差分から前記後続画像(2)に対するピクセルマスクを構築するように構成された、動きベクトルマップビルダを備えることを特徴とするピクセルマップビルダ。
  9. ビデオシーケンスの画像の色をサンプルして対応するマスク画像の色にするための色サンプラであって、
    −このシーケンスの先行画像(1)に後続する各画像(2)に対して連続的に、請求項8乃至9のいずれか1つに従ってピクセルマスクを構築するためのピクセルマップビルダと、
    −前記後続画像(2)のピクセルをサンプルする対応するマスク画像を取得するために、前記ピクセルマップビルダによって構築されたピクセルマスクを前記後続画像(2)に適用するように構成されたマスク画像ビルダとを備えることを特徴とする色サンプル。
  10. ビデオシーケンスの画像の色をクラスタ化するための色クラスタリングデバイスであって、
    −ビデオシーケンスの画像の色をサンプルして対応するマスク画像の色にするための、請求項9に従った本発明による色サンプラと、
    −色サンプラによって提供されたマスク画像から色クラスタのセットを生成するように構成された色クラスタジェネレータと、
    −マスク画像の色を色クラスタジェネレータによって生成された色クラスタに分散するように構成された色ディストリビュータとを備えることを特徴とする色クラスタリングデバイス。
JP2015526933A 2012-08-14 2013-08-07 ビデオシーケンスの画像の色をサンプル化する方法および色クラスタリングへの適用 Expired - Fee Related JP6275719B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP12306003.0A EP2698764A1 (en) 2012-08-14 2012-08-14 Method of sampling colors of images of a video sequence, and application to color clustering
EP12306003.0 2012-08-14
PCT/EP2013/066565 WO2014026895A2 (en) 2012-08-14 2013-08-07 Method of sampling colors of images of a video sequence, and application to color clustering

Publications (3)

Publication Number Publication Date
JP2015530649A true JP2015530649A (ja) 2015-10-15
JP2015530649A5 JP2015530649A5 (ja) 2016-09-29
JP6275719B2 JP6275719B2 (ja) 2018-02-07

Family

ID=46875707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015526933A Expired - Fee Related JP6275719B2 (ja) 2012-08-14 2013-08-07 ビデオシーケンスの画像の色をサンプル化する方法および色クラスタリングへの適用

Country Status (6)

Country Link
US (1) US9911195B2 (ja)
EP (2) EP2698764A1 (ja)
JP (1) JP6275719B2 (ja)
KR (1) KR20150043327A (ja)
CN (1) CN104584556B (ja)
WO (1) WO2014026895A2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9401026B2 (en) * 2014-03-12 2016-07-26 Nokia Technologies Oy Method and apparatus for image segmentation algorithm
CN108520524A (zh) * 2018-04-10 2018-09-11 深圳市唯特视科技有限公司 一种基于边缘聚类的图像迭代过度分割方法
US20200068214A1 (en) * 2018-08-27 2020-02-27 Ati Technologies Ulc Motion estimation using pixel activity metrics
US11200678B2 (en) * 2019-09-17 2021-12-14 Sony Corporation Image-based mask frame interpolation
CN110969170B (zh) * 2019-12-03 2024-03-08 北京奇艺世纪科技有限公司 一种图像主题色提取方法、装置及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06350974A (ja) * 1993-04-13 1994-12-22 Matsushita Electric Ind Co Ltd フレーム静止画像生成装置
JPH07212760A (ja) * 1994-01-14 1995-08-11 Nippon Telegr & Teleph Corp <Ntt> 動画像の動き補償予測符号化方法
JP2003513538A (ja) * 1999-10-22 2003-04-08 アクティブスカイ,インコーポレイテッド オブジェクト指向ビデオシステム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5408542A (en) 1992-05-12 1995-04-18 Apple Computer, Inc. Method and apparatus for real-time lossless compression and decompression of image data
US7417640B1 (en) 1999-01-29 2008-08-26 Lg Electronics Inc. Method for dominant color setting of video region and data structure and method of confidence measure extraction
US6526169B1 (en) 1999-03-15 2003-02-25 Grass Valley (Us), Inc. Histogram-based segmentation of objects from a video signal via color moments
US6785329B1 (en) * 1999-12-21 2004-08-31 Microsoft Corporation Automatic video object extraction
CN1311409C (zh) * 2002-07-31 2007-04-18 皇家飞利浦电子股份有限公司 用于分割的系统和方法
US7330193B2 (en) * 2005-07-08 2008-02-12 Seiko Epson Corporation Low noise dithering and color palette designs
US7804980B2 (en) 2005-08-24 2010-09-28 Denso Corporation Environment recognition device
KR100914515B1 (ko) 2006-06-23 2009-09-02 주식회사 칼라짚미디어 색상 기반 이미지 코드의 색상 판별 방법
GB0818561D0 (en) * 2008-10-09 2008-11-19 Isis Innovation Visual tracking of objects in images, and segmentation of images
CN101533515A (zh) 2009-04-13 2009-09-16 浙江大学 一种面向视频监控的基于块的背景建模方法
US8767127B2 (en) * 2009-04-17 2014-07-01 General Instrument Corporation System for reducing noise in video processing
US8358834B2 (en) * 2009-08-18 2013-01-22 Behavioral Recognition Systems Background model for complex and dynamic scenes
CN101931792A (zh) 2010-08-04 2010-12-29 丁天 一种高清视频流中多车牌定位的方法
TWI464604B (zh) * 2010-11-29 2014-12-11 Ind Tech Res Inst 資料分群方法與裝置、資料處理裝置及影像處理裝置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06350974A (ja) * 1993-04-13 1994-12-22 Matsushita Electric Ind Co Ltd フレーム静止画像生成装置
JPH07212760A (ja) * 1994-01-14 1995-08-11 Nippon Telegr & Teleph Corp <Ntt> 動画像の動き補償予測符号化方法
JP2003513538A (ja) * 1999-10-22 2003-04-08 アクティブスカイ,インコーポレイテッド オブジェクト指向ビデオシステム

Also Published As

Publication number Publication date
US20150248767A1 (en) 2015-09-03
CN104584556B (zh) 2018-07-10
WO2014026895A2 (en) 2014-02-20
US9911195B2 (en) 2018-03-06
WO2014026895A3 (en) 2014-04-10
EP2698764A1 (en) 2014-02-19
JP6275719B2 (ja) 2018-02-07
CN104584556A (zh) 2015-04-29
EP2885913A2 (en) 2015-06-24
KR20150043327A (ko) 2015-04-22

Similar Documents

Publication Publication Date Title
US20220222776A1 (en) Multi-Stage Multi-Reference Bootstrapping for Video Super-Resolution
JP6275719B2 (ja) ビデオシーケンスの画像の色をサンプル化する方法および色クラスタリングへの適用
CN108352074A (zh) 准参数光学流估计
US8670611B2 (en) Background understanding in video data
TW201433162A (zh) 電子裝置及其影像選擇方法
US9153203B2 (en) Temporally consistent superpixels
US20230007240A1 (en) Techniques for deep neural network based inter-frame prediction in video coding
CN106251348B (zh) 一种面向深度相机的自适应多线索融合背景减除方法
US9386266B2 (en) Method and apparatus for increasing frame rate of an image stream using at least one higher frame rate image stream
KR102340988B1 (ko) 고해상도 객체 검출장치 및 방법
CN109661815B (zh) 存在相机阵列的显著强度变化的情况下的鲁棒视差估计
EP3251086A1 (en) Method and apparatus for generating an initial superpixel label map for an image
CN114529456A (zh) 一种视频的超分辨率处理方法、装置、设备及介质
JP2006516062A (ja) ディジタル画像の奥行き順序付けを行う方法及び装置
CN110689014B (zh) 感兴趣区域的检测方法、装置、电子设备及可读存储介质
JP2014110020A (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN109002802B (zh) 基于自适应鲁棒主成分分析的视频前景分离方法和系统
US20160093062A1 (en) Method and apparatus for estimating absolute motion values in image sequences
US9361540B2 (en) Fast image processing for recognition objectives system
KR101359351B1 (ko) 연산 스킵 기법에 의한 고속 스테레오 영상 정합 방법
JP2001307104A (ja) 動画像のオブジェクト抽出装置
CN117409043B (zh) 一种亚像素级视频目标跟踪方法、装置、设备及存储介质
KR20130111498A (ko) 연산 스킵 기법에 의한 고속 스테레오 영상 정합 방법
JP2021026311A (ja) 画像処理装置、画像処理方法、およびプログラム
CN117576142A (zh) 用于进行图像分割的方法、装置及计算机可读介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160808

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161202

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170628

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180110

R150 Certificate of patent or registration of utility model

Ref document number: 6275719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees