JP5254997B2 - 発見フレーム領域についての動き推定 - Google Patents

発見フレーム領域についての動き推定 Download PDF

Info

Publication number
JP5254997B2
JP5254997B2 JP2009547199A JP2009547199A JP5254997B2 JP 5254997 B2 JP5254997 B2 JP 5254997B2 JP 2009547199 A JP2009547199 A JP 2009547199A JP 2009547199 A JP2009547199 A JP 2009547199A JP 5254997 B2 JP5254997 B2 JP 5254997B2
Authority
JP
Japan
Prior art keywords
group
motion
frame
value
discovery
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009547199A
Other languages
English (en)
Other versions
JP2010517416A (ja
Inventor
ケニース アンデション,
クリントン プリドル,
ジョナタン サミュエルソン,
Original Assignee
テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エル エム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Publication of JP2010517416A publication Critical patent/JP2010517416A/ja
Application granted granted Critical
Publication of JP5254997B2 publication Critical patent/JP5254997B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/38Circuits or arrangements for blanking or otherwise eliminating unwanted parts of pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、一般に画像処理に関する。特には、画像における発見領域の動き推定に関する。
フレームレートのアップコンバージョンに関する動機付けは、高フレームレートのビデオシーケンスが、フレームレートの低いビデオシーケンスよりもより高品質の体験を提供すると一般的に考えられていることに因っている。ビデオシーケンスのフレームレートは、既存のフレーム間に予測フレームを挿入することにより増加させることができる。良好なアプローチは、入力ビデオシーケンスにおいて、前フレームと次フレームとの間の連続的な動きを探索して、双方向のブロックベースの動き推定を利用して中間フレームを予測するものである。加速度を表す非連続のアプローチを利用することもできるが、連続性を利用したアプローチは、その簡潔さ及び複雑度が低いために利用されている。中間フレームはブロックに分割され、各ブロックには動きベクトルが何らかの方法で割り当てられる。
フレームレートのアップコンバージョン・アルゴリズムの多くに関連する問題、或いは、欠点は、画像のパン、回転、ズームの扱いである。図1は、画像20から画像10へ遷移する際の、左方向へのカメラパンを示している。このように、新しいエリアが画像10の左側境界に沿って登場する。画像10では、画像20には含まれていない観衆を写す部分や広告表示がある。これらの“新しい”領域は、前の画像20において正確な参照領域を有しない。対照的に、新しい領域に含まれる画素ブロックは、典型的にはイントラモードにより符号化されるか、或いは、もしインター符号化される場合は、類似しているが実際の動き(カメラパン)は表さない前の画像20内の領域をポイントする動きベクトルを有する。これらの画素ブロックについて正確な動きベクトルが得られないことにより、フレームレートのアップコンバージョンは困難となり、補間画像に視覚的な副作用をもたらす可能性がある。
非特許文献1は、判定対象フレームFt及び後続フレームFt+1において、発見領域(uncovered area)としてのブロックBiが発見できる一方で、前フレームFt-1には発見できない場合の、該ブロックの識別方法について述べている。そのようなブロックは、イントラ・ブロックとして符号化され、他のブロックにより動き補償はなされない。
チェン Y.Kら 「送信された真の動きを利用したフレームレート・アップコンバージョン」、マルチメディア信号処理に関するIEEEワークショップ、1998年12月 ウィガンド Tら 「H.264/AVC ビデオ符号化標準概説」、ビデオテクノロジーのための回路及びシステムに関するIEEEワークショップ、2003年7月
非特許文献1は、発見ブロック(uncovered blocks)の取り扱いを記載するが、発見画素(uncovered pixels)についてはイントラ符号化を想定している。このことは、フレームレートのアップコンバージョンにおいて利用可能な、いかなる動きベクトルも発見ブロックが有していないことを意味する。
本発明は、先行技術におけるこれらの欠点及び他の欠点を解消する。
本発明の一般的な目的は、ビデオフレームの発見領域における画像要素を識別することである。
本発明の他の目的は、識別された発見グループ(uncovered groups)の画像要素について動き推定を行うことである。
これらの目的及び他の目的は、特許請求の範囲に記載の本発明により達成される。
端的には、本発明はビデオシーケンスにおけるフレームの発見領域における画像要素のグループについての識別及び動き推定を含む。この発見領域は、カメラのパン、ズーミング、或いは、回転のためにビデオシーケンスの前フレームに存在しない画像要素または画素を含む。
典型的には前フレームであるところのビデオシーケンスにおける参照フレームの少なくとも一部から現フレームの少なくとも一部への、画像要素の特性値の大域的動きを表す値が決定される。決定された大域的動き値は、現フレーム内の発見グループを識別するために用いられる。即ち、これらのグループは、フレームの発見領域に存在する少なくとも1つの画像要素を含む。好ましくは、発見グループは、参照フレームに対するフレーム内のグループの大域的動きを適用する際に、原フレームにおいて、参照フレームにおいて関連グループを有しないグループとして識別される。典型的に、大域的動きは代わりに参照画像の境界の外側を示す。
本発明の動き推定では、所定の大域的動きを、識別された発見グループの動きを表す値として割り当てる。このことは、従来はどんな“真の”動きベクトルも割り当てられなかったこれらのグループが、例えば、フレームレートのアップコンバージョンにおいて利用できるような、動きを表す値を有するであろうことを意味する。
好適な実施形態では、フレームの発見領域と残りのフレーム領域との間の境界上に存在する、境界発見グループは、大域的動きの代わりに局所的動きを再割り当てするために調査される。その場合、残りのフレーム部分に存在する隣接グループの動きを表す値は、それぞれが互いに比較され、また、大域的動きとも比較される。もし所定の基準を満たす場合には、即ち、少なくとも最小数の隣接する動き値が、大域的動きと有意差を有し、かつ、この少なくとも最小数の隣接する動き値が、互いに大きく異ならない場合に、発見グループには、隣接する動き値に基づいて決定されるローカル動き値が再割り当てされる。
ゆえに本発明は、フレーム内の発見グループにも動き値を割当てることを可能とする。これらの動き値は、構築されるフレーム内の画像要素の特性値を決定する際に利用される参照フレームを識別するために、フレームレートのアップコンバージョンにおいて有用とされる。
本発明は、その更なる目的及び利益と共に、添付する図面と共に以下の記述を参照することにより最も良く理解されるであろう。
ビデオシーケンスにおける2つの画像フレームを示す図である。 本発明の実施形態に対応する動き推定方法のフローチャートである。 ビデオシーケンスにおける隣接フレームを示す図である。 図2の推定方法の追加ステップを示すフローチャートである。 図2の推定方法の追加ステップを示すフローチャートである。 本発明の実施形態に対応する局所的動き値の割当てを示す図である。 本発明の実施形態に対応する特性値の推定方法のフローチャートである。 図7の推定方法における推定ステップの実施形態を示すフローチャートである。 ビデオシーケンスにおける隣接フレームを示す図である。 フレームレートのアップコンバージョンにおいて本発明を利用することの利点と、従来技術の課題を説明する図である。 本発明に対応する動き推定器のブロック図である。 本発明に対応するグループ推定装置のブロック図である。
図面全体を通して、同一の参照番号は、対応するか、または、類似の要素について使用される。
本発明は一般に画像処理技術に関連し、特には、ビデオシーケンスにおける画像及びフレームの発見領域における画像要素のグループを取り扱うための方法及び装置に関する。
本発明では、ビデオシーケンス或いはフレームシーケンスは、複数の、即ち少なくとも2つのフレーム或いは画像を有する。そのようなフレームは、順に、連続する1以上のスライスで構成されるものと見なされ、そのようなスライスは、画像要素或いは画素を含む1以上のマクロブロックからなる。本発明では、“画像要素”はシーケンスにおけるフレームや画像の最小要素を定義するために使用される。そのような画像要素は、色(RGB空間における、赤、緑、青)或いは、輝度(Y)とクロミナンス(Cr、Cb、場合によってはU,Vで定義される)といった、関連する画像要素特性を有する。画像要素の典型的な例は、フレーム或いは写真の画素である。本発明は特に、所定のフレームレートにおいて複数の連続するフレームを有するビデオシーケンスに適合されている。
画像要素は、画像要素のグループに整理される。“画像要素のグループ”という表現は、先行技術において知られているあらゆるフレーム区分を定義し、復号及び符号化においてまとめて扱われる画像要素の集合と見なされる。一般に、そのようなグループは長方形(M×N)或いは、正方形(M×M)の画像要素のグループである。そのようなグループ化の一例には、動画像圧縮標準規格におけるマクロブロックがある。そのようなマクロブロックは、一般には16×16の画像要素のサイズを有する。マクロブロックは、16×8、8×16、8×8、8×4、4×8及び4×4の画像要素といった、複数のいわゆるサブマクロブロック・パーティションから構成される。8×8のサブマクロブロック・パーティションは、しばしばサブマクロブロック或いはサブブロックとして定義され、4×4パーティションは、しばしばブロックと定義される。
画像或いはフレームにおける所謂発見領域は、ビデオシーケンスにおける前フレームとの対応を有しない画像要素に対応する。発見領域は、典型的には、動画の記録におけるパン、ズーミング及び回転の少なくともいずれかにより、新たなオブジェクトが登場することにより発生する。ビデオシーケンスのビットサイズを小さくするためには、イントラ符号化やインター符号化のような公知の技術に従ってフレームが符号化されなければならない[非特許文献2]。インター符号化は一般的に、イントラ符号化に比べて符号化ブロックにおけるビット数の効率がよい。しかしながら、インター符号化は現ブロックの参照を開始する場合に利用可能な、ビデオシーケンスの他のフレームにおける対応、或いは、(近い)マッチングのとれた参照領域を有することが前提となる。もし、そのようなマッチングが取れない場合、ブロックは一般的にはイントラ符号化されるので、比較的多くのビット数が必要となる。
発見領域における画像要素は、前フレームとどのような対応も有しない。結果として、これらはイントラ符号化されるか、或いは、正確なマッチングが得られない場合であっても、最大限に努力したインター符号化が施されるであろう。これは後続の復号及び描画処理においては、一般には十分に機能し、視覚的に許容可能な結果を提供するものである。しかしながら、もしビデオシーケンスにフレームレートのアップコンバージョンが施される場合、発見画像要素について“真正でない”動き値を利用したインター符号化が行われていたならば、構築された中間フレームには視覚的に許容できない重大な問題が発生することが考えられる。
図10は、ビデオシーケンスにおける2つのフレームの中間フレームとして構成されたフレーム30を示す。フレーム30の右側部分は線審を示しており、これは拡大して更に示されている。左側の図から分かるように、この線審の一部には視聴者から見れば明らかに誤った色が割り当てられている。そのような問題は、先行技術におけるインター符号化をフレームレートのアップコンバージョンと共に利用する限り発生するかも知れない。
本発明は、ビデオシーケンスのフレーム内の少なくとも1つの画像要素のグループについて動き推定を実行する方法を提供することにより、そのような視覚的エラーのリスクを軽減する。本方法の動作ステップは図2のフローチャートに示される。本方法はステップS1で開始され、フレーム/ビデオシーケンスにおいて、参照フレームの少なくとも参照部分から、現フレームの少なくとも一部への、画像要素特性値の大域的動き値を決定する。この大域的動き値は、シーケンス内で参照フレームから現フレームへ向かう、画素のグローバルな、或いは、全体的な動きを示している。
次のステップS2では、決定された大域的動き値を利用して、少なくとも1つの画像要素の所謂発見グループを少なくとも1つ識別する。これらの発見グループは、フレームの発見領域に存在する。よって、少なくとも1つのグループは、ビデオシーケンスの前フレームに存在しない画像要素を含む。本ステップS2の好適な実施形態では、発見グループを、現フレームにおいて、現フレームのグループから前フレームのグループへ大域的動きを適用した場合に関連グループを前フレームに有しないグループとして識別する。言い換えると、もし大域的動きが前フレームにおける発見グループのための動きベクトル或いは位置ずれベクトルとして利用されるとすれば、大域的動きは、前フレームの境界の外側に存在する(想像上の)グループに向かうであろう。この状況は、図3に示される。左側のフレーム20は、現フレーム10に対するビデオシーケンス1における前の時間インスタンスの前フレームに対応する。前フレーム20から現フレーム10へ向かう場合に画像はパンされており、それにより前フレーム20内に存在しない画像要素11の領域13が現れる。この場合、大域的動き50は右から左への運動である。
画像要素11の現グループ12が、発見グループであるかどうか、及び、フレーム10の発見領域13に属するかどうかを決定するためには、現グループ12に適用された決定大域的動き値50が、現フレーム20の境界の外側を指し示すかをチェックする。そのような場合、現グループ12は、発見領域13に属し、さもなくば、現フレームの残りの部分15に対応する。また、前フレーム20において、現フレーム10における現グループ12と同一部分を占める画像要素21のグループ22が識別される。グループ22は、決定された大域的動き値50に従って移動され、最後のグループ位置24へ到達する。もしこの位置24が、フレーム境界20の外部となる場合、現グループ12は発見領域13に属する。さもなくば、現グループ12は、現フレーム10の残りの部分15に対応する。
S2において発見グループが一旦識別されると、S3に進んで、決定された大域的動き値が、発見グループの動き推定値或いは位置ずれ推定値として割り当てられる。よって、発見グループは、位置ずれ値が割り当てられることとなり、当該位置ずれ値は、ここで更に説明するような、フレームレートのアップコンバージョンにおいて新フレームを構築するなどと行った、異なる目的のために後々利用することができる。
本発明の好適な実施形態では、グループが発見フレーム領域と残りの領域とのいずれに属するのかを判定するために大域的動き値を利用することで、フレーム内の画像要素グループの全て、或いは一部がテストされる。その場合、ステップS2において発見グループと識別された全てのグループは、大域的動き値が、その動き推定値として割り当てられる。このことは、ステップS2及びS3が、フレーム内の異なるグループについてシリアル又はパラレルに、好ましくは複数回実行されることを意味する。
本発明の大域的動き値は、あらゆるベクトル値v=[x,y]を取ることができ、シーケンスにおいて参照フレームから現フレームへ移る際に、画素パラメータがどの程度移動したかに応じて、ベクトル成分x及びyはゼロベクトルから非ゼロ値の範囲を有する。
図4は、本発明の実施形態の大域的動き値の決定処理を示すフローチャートである。当該方法はステップS10において開始され、ベクトルセットが与えられる。このベクトルセットは、現フレームの少なくとも一部における各画像要素グループについて、参照フレームにおける少なくとも1つの画像要素の参照グループを参照する各関連位置ずれベクトル又は動きベクトルを含む。よって、現フレームの少なくとも一部における各グループには、好ましくはフレーム内の各グループには、参照フレーム内の参照グループを指し示す、或いはそれと関連づけられた位置ずれベクトルが割り当てられる。
この位置ずれベクトルは、H.264のようなビデオコーデックの符号化済動きベクトルフィールドから与えられる。そのような動きベクトルは、従来的にフレームのインター符号化において利用され、本発明に対応する別の目的以外でも再利用できる。もし、そのような動きベクトルがビデオコーデックから入手可能でない場合、動き推定探索により決定することができる。その場合、好ましくは、動きベクトルセットを生成する目的は有しないが、本発明の大域的動き値を決定するために利用できる先行技術のアルゴリズムに従った、専用の動き推定探索が実行される。
一般に、現フレームの残り部分における各画像要素グループは、ビデオコーデックにより生成されたか、或いは、動き推定により生成された関連動きベクトルを有することができる。しかしながら、新たに発見された範囲に属するグループのような、いくつかのグループは、ビデオコーデックによりイントラブロックとして符号化されることがあるため、動きベクトルが割り当てられていないかもしれない。そのような場合、係るグループは本発明の動きベクトルの処理を省略することができる。このことは、現フレームの一部(だが、主要な部分)のグループのみと、それに対して割り当てられた動き/位置ずれベクトルが、大域的動き値を計算するために以下のステップS11において利用されることを意味する。
次のステップS11は、ステップS10から提供された(フェッチされた、或いは、計算された)ベクトルセットからの位置ずれベクトルを利用して、大域的動き値を決定する。簡素な実施形態では、大域的動き値はベクトルセットの位置ずれベクトルの平均ベクトルとして決定される。これは計算上は簡単な実施形態であるが、正確な大域的動き値の取得という観点で考えた場合には最適なものからはほど遠い。よって、ステップS11の好適な実施形態では、各画像要素の現フレームにおける位置に応じて変化するベクトル成分値を有する位置依存の大域的動きベクトル(値)、即ち、v=v(x、y)が、ステップS11において決定される。
ステップS11好適な実施形態では、以下の大域的動き値の式を利用する。
v=Ax+b
ここで、x=[x y]は、現グループの現フレームにおける位置を示す。v=[vxy]は、現グループにおける大域的動き値を示す。
Figure 0005254997
及びb=[b12]は、ステップS10で提供される位置ずれベクトルに基づいて推定される行列及びベクトルを示す。行列A及びベクトルbについて値を計算するために、与えられる位置ずれベクトルについて最小二乗法が使用される。よって、位置ずれベクトルと大域的動き値との間の二乗誤差を最小化する点で、最良の結果を与える行列及びベクトルが、ステップS11において推定される。最終的な大域的動き値v=Ax+bは、カメラのパン、ズーミング及び回転のような、背景に最も共通する動きを補足することができる。
上記コンセプトは、大域的動き値の他のパラメータ化にも、以下のように適用できる。
Figure 0005254997
あるいは、より高次の要素でもよい。方法は、図2のステップS2に続く。そこでは、決定された大域的動き値が適用され、現グループのグループ座標x及びyを利用して、当該位置での大域的動き値が計算され、そのグループが発見グループか否かが判定される。
ビデオコーデックから、或いは、専用動き推定探索から得られた位置ずれベクトルの利用は、本発明の大域的動き値を決定するために利用される位置ずれベクトルを取得する特定の実施形態である。他の実施形態をその代わりに採用することもでき、本発明により考慮される。例えば、位相補正に基づく動き推定を、大域的動き値を取得するために利用することができる。他の例は、大域的動きのための動き推定が画素について繰り返し行われるもの、即ち、画素ベースの動き推定である。
図5は、図2の動き推定方法の好適な実施形態の追加ステップを示すフローチャートである。本方法は、図2のステップS3から継続する。次のステップS20は、フレーム内で発見領域に属すると識別されたグループについて実行される。さらに、発見グループは、フレーム内で、発見領域に属しないと識別された隣接グループのセットを有する。よって、発見グループは、カバーされたフレーム領域と残りの領域との間の境界に存在する。ここで、隣接グループのセットは、残りのフレーム領域内にある。
上述のように、フレームの残り部分に存在するグループは、好ましくは位置ずれ値や動き値とそれぞれ関連している。これらの動き値は、ビデオコーデックの符号化された動きベクトルフィールドから、或いは、専用動き推定探索から取得することができる。ステップS20は、隣接グループに関連する動き値を、決定された大域的動き値と比較する。次のステップS21は、発見グループの周辺に大域的動きからの局所的動き分散が存在するかどうかを判定する。このように、ステップS21は、少なくとも最小数の動き値が、大域的動き値と異なるかどうかを、少なくとも最小差分を有するこれらのグループ位置に適用した場合に判定する。図6は、発見領域13と残りのフレーム領域15との間の境界を示すフレームの一部を表した図である。現在の発見グループ12は検証中である。このグループは、発見領域13には存在しない3つの隣接グループ16,18を含む(、また、発見領域13に5つの隣接グループ14が存在する)。これらの発見済の隣接グループ18、16のそれぞれは、関連動き値50、52を有する。この例では、グループ18の位置を検討すると、隣接グループ18の1つが、フレームの大域的動き値と一致するか、ほぼ一致する動き値50を有している。しかしながら、残りの2つの隣接グループ16は、大域的動き値50とは明らかに異なる動き値52を有する。このことは、隣接グループの3分の2は、局所的動き分散を提供することを意味する。
典型的な実施形態では、ステップS21において、局所的動き分散を有するために大域的動きとは異なる動き値を有するはずの最小数の隣接グループは、好ましくは隣接グループの半数より多い。発見領域13と残りのフレーム部分15との間の水平方向或いは垂直方向の境界に関する最も典型的なケースでは、発見グループ12は3つ又は2つの隣接グループ16、18を残りの部分に有する。前者の場合、隣接グループの少なくとも2つは局所的動き分散を有するために大域的動きとは異なる動き値を有するに違いない。後者の場合、全ての隣接グループはこの分散を提供するはずである。
隣接グループの動き値と、大域的動きとの間の相違点は、異なる実施形態に従って決定することができる。第1の場合、ベクトル間の相対的方向のみにより検証される。その場合、大域的動きvと動き値dとの間の角度θは、以下のように求められる。
θ=arccos{(v・d)/(|v||d|)}
この角度θは、参照角度θrefと比較することができ、もし2つの角度の相違が最小閾値を超える場合、或いは、2つの角度の商が閾値を超える(或いは下回る)場合、動き値dは大域的動き値vとは少なくとも最小差分だけ異なると見なされる。
別の実施形態では、動き値と大域的動き値との間の差分ベクトルqが計算される。
q=v−d
もしこの差分ベクトルの長さ(|q|)が最小閾値を超える場合、動き値dは、少なくとも最小差分だけは大域的動き値vと異なると見なされる。これは、X値とY値とを独立に大域的動き値と比較することにより実現することができる。もし、dのX成分とY成分の両方が対応するvの成分と最小閾値以上に異ならなかった場合、動き値dは大域的動き値vと同一の動きを表現するものと見なされる。さもなくば、動き値は大域的動き値と明らかな差を有する。
好適な実施形態では、最小数の隣接グループのみが、大域的動き値とは著しく異なる動き値を有し、ステップS21における局所的動き分散を有する訳ではない。更なる好適な状況では、大域的動き値と有意差を有する動き値は、それらが互いに大きく異なるはずはない。このことは図6にも示されている。大域的動き値50とは異なる動き値52を有する2つの隣接グループ16は、完全に平行で等価な動き値52をそれぞれ有する。ゆえに、その相違は、ゼロ度、或いは、ゼロ差分ベクトルであり、使用する特定の相違を調査する実施形態に依存する。
上述と同一のテストを、関連する動き値52の間の相違を判定するために利用することができる。その場合、対になったテストされる動き値の間の角度はは、最大角度を超えてはならないか、或いは、対になったテストされる動き値の間の差分ベクトルは、最大長を超えるベクトル長を有してはならない。もし、最小数の値がこれらの条件を満足する場合、ステップS21における局所的動き分散を入手することができるが、それ以外では入手できない。最小数は、大域的動き値と著しく異なる動き値の半数より多い値とすることができる。即ち、図6の例では、2つの動き値52は、互いに大きく異なるべきではない。或いは、動き値は、他のテストされたいずれの動き値からも大きく異なるべきではない。
もし、上記の1つ又は、好ましくは2つの基準((i)第1の最小数の動きベクトルが、大域的動き値から著しく異なる、ii)これらの動きベクトルのうち、少なくとも第2の最小数の動きベクトルは、互いに大きく異なってはならない。)を満たすような、ステップS21における局所的動き分散が存在する場合、方法はステップS22に移行し、それ以外は、処理を終える。
ステップS22は、隣接グループと関連づけられた動きベクトルから得られた動き値を、動き推定として、テストされる発見グループのために割り当てる。このことは、現在の発見グループについて、従前に割り当てられた(図2のステップS3)大域的動き値が、隣接グループと関連づけられた動き値、または、そこから計算された動き値により置き換えられることを意味する。動き値は、単一の基準i)を満たす、或いは、2つの基準i)とii)を要求する場合には2つの基準を満たす、関連する隣接グループの何れの値とすることもできる。また、平均動き値を基準i)または基準i)及びii)を満たす隣接動き値に基づいて決定するといった、より詳細な実施形態を利用することもできる。この平均局所的動き値は、ステップS22において発見グループに割り当てられる。
次の追加のステップS23は、発見現グループと同一行或いは同一列に、さらに発見グループが有るかどうかを調べる。本実施形態では、発見フレーム部分と残りのフレーム部分との間の境界が垂直方向で有れば、同一行が調べられる。同様に、水平方向の境界の場合には同一列が調べられる。図6は、垂直境界の場合における、発見グループ12と同一行に存在する1つの追加グループ14を示している。その場合、ステップS22において発見グループに新たに割り当てられた局所的動き値は、ステップS24において、この(これらの)隣接グループにも割り当てられる。これらのステップS23及びS24は、ステップS22における大域的動き値の代わりに局所的動き値が割り当てられる発見各グループについて、好ましくは実行される。
好ましくは、同一行或いは同一列の、識別された全ての発見グループは、カバーされたフレーム部分と残りのフレーム部分との境界と隣り合う発見グループと同一の局所的動き値が割り当てられる。より詳細な実施形態では、同一行或いは同一列に沿っており、発見残りの境界にも及んでいる局所的動きの傾向が、発見グループの局所的動き値の決定に利用される。その場合、行或いは列に沿った動きの局所的変化をより正確に反映するために、発見グループについての動き値の線形外挿が計算される。動き値のセットの情報は、同一行、或いは、同一列に存在し、発見フレーム部分の境界に最も近接するが依然として残りの部分に存在しているNグループを含み、この外挿処理に利用することができる。ここでNは、例えば、2或いは3といった、ある複数の整数値を表す。
本発明の教示を採用することにより、フレーム内の全てのグループは動き値と関連づけられるであろう。残りのフレームグループに存在するグループは、それらの動き値をビデオコーデックや専用の動き探索から取得し、発見グループには、グローバル動き値が割り当てられるか、或いは、本発明に従い局所的動き値が再割当てされる。
フレーム内のグループの全て或いは大多数に対する動き値の割当ては、ビデオシーケンス内で新たなフレームを構築する際のフレームレートのアップコンバージョンにおいて大きな利益をもたらす。
図7は、後続する或いは先行する時間インスタンスを有する、シーケンス内の既存の参照フレームとの関連で、ビデオシーケンス内の特定の時間インスタンスにおいて構築されるべきフレーム内の少なくとも1つの画像要素のグループの特性値を推定する方法を示すフローチャートである。本方法は、図2のステップS3、或いは図5のステップS24から継続するものである。このことは、本発明の動き推定方法は、動き値を、参照フレームの発見領域内に存在する少なくとも1つの発見グループに割り当てるために、最初に参照フレームに対して適用されることを意味する。
次のステップS30では、参照フレームにおける発見グループの中から参照グループが選択される。この選択された参照グループは、構築されるフレームにおいて決定されるべきグループを横切る(グローバル或いは局所的な)動き値が割り当てられている。この状況は図3に示されている。参照フレーム10における発見グループ12に、本発明に対応する大域的動き値50が割り当てられている。その場合、構築されるフレーム30が、前フレームti-1と参照フレームti+1の時間の中間の時間tiに位置する場合、大域的動き値の半分により、参照グループ12が決定されるべき画像要素31の現グループ32の位置に移動される。このことは、特定の参照グループを選択して、決定されるグループ32内の画像要素31の画素値の決定のために利用する場合に、参照フレーム10における発見グループ12に割り当てられる動き値が利用されることを意味する。即ち、利用する参照グループは、構築されるフレーム30内のグループ32を通過する動き値を有する発見グループ12である。
グループ内の画像要素の特性値は、参照グループの特性値に基づいてステップS31において推定される。ある実施形態では、この推定ステップは単純に、参照グループの特性値を、グループの各画像要素に割り当てることを含む。特性値にはまた、ローパスフィルタ処理が施されても良い。これは、この処理を施さないと、これらのグループが、双方向の補間の結果いくらかのボケが発生している他のグループと比較して、鮮明になってしまうことがあるからである。
本発明では、構築されるフレーム内の画像要素の他のグループについては、従来技術に従って、前フレームの参照グループ、及び、後フレームの別の参照グループに基づく特性値の従来の双方向補間が実行される、ことが期待される。しかしながら、発見グループは、前(或いは後)フレームにおいていかなる関連グループも有していないため、上述の実施形態に従って扱われる。
上述の実施形態では、現グループのために、特性値を推定する際に単一の参照グループを利用した。図8及び図9は、推定に際し、異なる参照フレームにおける2つの参照グループを利用する別の実施形態を図示する。本方法は、図7のステップS30から継続する。次のステップS40は、ビデオシーケンス1における第2の異なる時間インスタンスと関連づけられた第2の参照フレーム40における少なくとも1つの画像要素の第2の参照グループ42を識別する。2つの参照フレーム10、40は、構築されるフレーム30に対して、時間基準でビデオシーケンス1の同一の側に位置する。よって、2つの参照フレーム10、40は、時間インスタンスtiの構築されるフレーム30に対して、時間インスタンスti-1及びti-3のような2つの先行フレーム、或いは、時間インスタンスti+1及びti+3のような2つの後続フレームとなり得る。
第2の参照グループ42は、参照グループ42に割り当てられた動き値に基づいてステップS40において識別される。好適な実施形態では、第2の参照グループ42が、第1の参照フレーム10の第1の参照グループ12に向かう動き値が割り当てられた第2の参照フレーム40におけるグループとして識別される。
次のステップS41は、第1の参照グループ12と第2の参照グループ42の特性値に基づいて、グループ12における画像要素の特性値を外挿する。そのような外挿処理は公知の技術であるが、例えば、第2の参照グループ42と比較して構築されるフレーム30に時間的に近い第1の参照グループ12の特性値が、第2の参照グループ42よりも重み付けが大きくなるような重み付けを行うことを含んでもよい。
図10は、フレームレートのアップコンバージョンを行う場合の、発見グループについての真正な動き推定を行わない従来技術と比較した、本発明を利用する利点を説明する図である。左側の写真は、ビデオシーケンスから従来の補間技術及び外挿技術を利用してフレーム構築を行った場合を示している。右側の対応する写真は、本発明に従って構築されたものである。2つの拡大部分からよく分かるように、本発明は、写真の右側に存在するラインズマンのより正確な構築を可能としている。
本発明は、フレームレートのアップコンバージョンとの関係でのみ利点があるわけではない。本発明はまた、符号化ビットストリームからの動きベクトルフィールドの改良にも利用することができる。このことは、従来は動きベクトルが割り当てられなかった発見グループが、本発明により動き値を割り当てられることを意味する。
本発明の別の応用例には、エラー隠蔽がある。フレームやフレームの一部に歪みがある場合に、本発明により生成された改良ベクトルフィールドを利用して、当該フレーム等を一方向予測、或いは、双方向予測により置き換えることができる。本発明はまた、復号される次フレームについてより良好な符号化効率を達成する手段として、予測動きベクトルフィールドを、再構成された動きベクトルフィールドから取得するために利用することもできる。
図11は、ビデオシーケンスのフレーム内の少なくとも1つの画像要素のグループについての動き推定を行う装置の構成を示すブロック図である。参照フレームの少なくとも一部から、シーケンス内の現フレームの少なくとも一部への画像要素の特性値の大域的動き値を決定するための大域的動き決定器110は、装置100に配置される。決定器110は、フレームの一部における各画像要素グループについて、参照フレーム内の参照グループを参照する位置ずれベクトルを含むベクトルセットを提供するように構成されたセット提供器140に、好ましくは接続される。セット提供器140は、このセットを内部或いは外部のビデオコーデックからフェッチするか、或いは、動き推定探索において位置ずれベクトルを推定する機能を含むことができる。決定器110は、大域的動き値の行列A及びベクトルbを決定することにより、好ましくは、上記の位置依存の大域的動き値の一つとして大域的動き値を生成する。
装置100はまた、決定器110からの大域的動き値に基づいて、フレームの発見領域内の、少なくとも1つの画像要素の発見グループを識別するためにグループ識別器120を含む。このグループ識別器120は、好ましくは発見グループを、フレーム内のグループからの大域的動き値を、参照フレームに適用した場合に、参照フレーム内にいかなる関連グループも有しないフレーム内のグループとして識別する。典型的な実施形態では、参照フレームの境界の外側に結局たどり着く。
動き割当器130は、大域的動き値を、グループ識別器120により識別された発見グループのための動き値、或いは、動きベクトルとして割り当てる。
装置100は、任意であるが好ましくは、グループのセットの動き値を比較するように構成された動き比較器150を含むものである。これらのグループは、フレーム内の発見領域には存在しないが、発見グループに隣接する。比較器150は、これらの隣接グループのそれぞれの動き値を、決定器110からの大域的動き値と比較し、少なくとも最小数の動き値が大域的動き値と有意差を有するかどうか、即ち、少なくとも最小差分を有するかを調べる。
もし、発見グループと関連する局所的動き分散が存在する場合、即ち、少なくとも最小数の検証された隣接動き値が、大域的動き値と有意差を有する場合、動き割当器130は、新しい動き値を大域的動き値と置き換えて発見グループに割り当てる。この新しい動き値は、大域的動きに対して、有意差のある動きを有する隣接グループの一つの動き値であるか、或いは、大域的動き値と有意差のある隣接する動きの少なくとも一部に基づいて計算される動き値である。
代替的な実施形態では、動き比較器150はまた、大域的動き値と有意差を有する隣接動き値同士を比較する。比較器150は、もし、隣接する動き値が互いに大きく異ならない、即ち、最大差分を超えない場合、発見グループについて、動き値を再割り当てするように割当器130に指示するだけである。上述の比較についての実施形態を、この基準について調査するために比較器150は利用することができる。このことは、もし、これらの2つの基準が満足されると比較器150が決定した場合には、割当器130は新しい動き値を発見グループに割り当てるだけであることを意味する。
発見グループが割当器130により再割当された局所的動き値を取得すると、グループ識別器120は、発見グループと同一のグループ行或いはグループ列に存在するが、残りのフレーム部分に存在する隣接グループからさらに離れている他の発見グループを、好ましくは識別する。その場合、動き割当器130は動き値を、この(これらの)発見グループにも再割り当てする。再割り当てされた動き値は、発見領域と残りのフレーム領域との間の境界に隣接する発見グループに従前に割り当てられたものと同一であるか、或いは、外挿などにより、そこから少なくとも部分的に計算された動き値である。
動き推定器100のブロック110から150は、ハードウェア、ソフトウェア、及びハードウェア及びソフトウェアの組合せの少なくともいずれかにより提供することができる。ブロック110から150は、有線、或いは、無線の通信システムのノードにおいて実施される、或いは、当該ノードに接続される、ビデオやフレームを処理する端末、或いは、サーバにおいて実施することができる。また、動き推定器100のブロック110から150は、TVデコーダ、コンピュータ、移動体電話機、或いは、デコーダ及び画像描画デバイスの少なくともいずれかを有するか、そこに接続された他のユーザ機器のような、ユーザ端末内で構成することもできる。
図12は、ビデオシーケンスで構築されたフレーム内の少なくとも1つの画像要素のグループの特性値を推定する、装置200の構成を示すブロック図である。装置200は、図11に示す本発明に対応した上述の動き推定器100を含む。動き推定器は、構築されるフレームに対しビデオシーケンスの時間軸上で前又は後ろに位置する参照フレーム上で、動き推定を実行するように構成される。動き推定器100が実行する動き推定では、大域的動き値或いは、局所的動き値が、参照フレーム内の少なくとも1つ、好ましくは全ての発見グループに割り当てられる。
参照フレーム内で発見グループの中から参照グループを選択するために、グループセレクタ210が装置200内に与えられる。セレクタ210は、構築されるフレーム内のグループを横切る動き値が割り当てられた、発見グループとして参照グループを好ましくは選択する。言い換えれば、その動き値は、参照フレームからシーケンス内の別の前のフレーム或いは後ろのフレームへ向かう参照グループの動き値に沿って移動する場合に、グループをまっすぐに通過するものである。
装置200はまた、グループセレクタ210により選択された参照グループの特性値に基づいてグループの特性値を推定するように構成された、特性値推定器220を有する。この推定器220は、構築されるフレームにおけるグループの対応画像要素に対して、参照グループの特性値を好ましくは割り当てる。
好適な実施形態では、グループセレクタ210はまた、ビデオシーケンスにおける第2参照フレーム内の第2の参照グループを選択するようにも構成される。この第2参照フレームは、好ましくはフレーム時間について、第1の参照フレームと比較して構築されるフレームから離れて位置する。第2のグループは、第2の参照グループに割り当てられた動き値に基づいてグループセレクタ210により識別される。セレクタ210は典型的には、第2の参照グループを、第1の参照フレーム内の第1の参照グループに向かう動き値が割り当てられた第2のフレームにおけるグループとして選択する。
推定器220は、第1及び第2の参照グループの両方の特性値に基づいて、グループの特性値を推定する。この特性値推定は、構築されるグループに時間的に近い参照フレームに位置する参照グループからの参照特性値に対して、他の参照フレームからのものよりも重み付けを高くすることで、第1及び第2の参照グループの値について好ましくは異なる重み付けを利用して、特性値の外挿により実行される。
グループ推定装置200のブロック100、210及び220は、ハードウェア、ソフトウェア、及びハードウェア及びソフトウェアの組合せの少なくともいずれかにより提供することができる。ブロック100、210及び220は、有線、或いは、無線の通信システムのノードにおいて実施される、或いは、当該ノードに接続される、ビデオやフレームを処理する端末、或いは、サーバにおいて実施することができる。また、グループ推定装置200のブロック100、210及び220は、TVデコーダ、コンピュータ、移動体電話機、或いは、デコーダ及び画像描画デバイスの少なくともいずれかを有するか、そこに接続された他のユーザ機器のような、ユーザ端末内で構成することもできる。
当業者によれば、さまざまな修正及び変更を、特許請求の範囲に記載した発明の範囲から逸脱することなく本発明に対して施すことが可能であることを理解するであろう。

Claims (22)

  1. ビデオシーケンスの時間インスタンスと関連づけられたフレーム内の少なくとも1つの画像要素のグループのための動き推定方法であって、
    前記ビデオシーケンスにおける前の時間インスタンスと関連する前フレームの少なくとも一部から、前記フレームの少なくとも一部への、画像要素の特性値の大域的動き値としてのベクトル値を決定する工程と、
    前記決定された大域的動き値に基づいて、前記前フレームとの対応を有しない前記フレームの発見領域における少なくとも1つの画像要素の発見グループを識別する工程と、
    前記大域的動き値を、前記発見グループの動き推定値として該発見グループ(12,14)に割り当てる工程と、
    を備えることを特徴とする方法。
  2. 前記識別する工程は、前記発見グループを、前記フレーム内の前記グループから前記前フレームへ前記大域的動きを適用した場合に前記前フレーム内に関連グループを有しない、前記フレーム内のグループとして識別することを特徴とする請求項1に記載の方法。
  3. 前記フレームの少なくとも一部に含まれる各グループについて、前記前フレーム内の関連グループを参照する各動き値を含む動きセットを提供する工程をさらに備え、
    前記決定する工程では、前記動きセットの動き値の少なくとも一部に基づいて、前記大域的な動き値を決定することを特徴とする請求項1又は2に記載の方法。
  4. 前記決定する工程では、前記動きセットの動き値の少なくとも一部に基づいて、位置依存の大域的動き値を決定することを特徴とする請求項3に記載の方法。
  5. 前記決定する工程は、前記動きセットの動き値の少なくとも一部に基づいて、式v=Ax+bで表現される前記位置依存の大域的動き値を決定するために、最小二乗法により行列
    Figure 0005254997
    とベクトルb=[b12Tの成分を推定し、
    v=[vx vyTは、大域的動き値であって、vxは、第1の方向における前記大域的動き値の第1ベクトル成分であり、vyは、直交する第2の方向における前記大域的動き値の第2のベクトル成分であり、x=[x y]Tは、前記フレームの画像要素の位置を示す
    ことを特徴とする請求項3または4に記載の方法。
  6. 前記発見領域に属していないと識別された隣接グループの隣接セットを有する前記発見グループについて、前記隣接セットの前記隣接グループと関連する動き値を、前記大域的動き値と比較する工程と、
    少なくとも最小数の前記動き値が前記大域的な動き値と少なくとも最小差分において異なる場合に、前記発見グループに、前記隣接セットの隣接グループと関連づけられた動き値に基づいて提供される動き値を割り当てる工程と
    をさらに備えることを特徴とする請求項1乃至5のいずれか1項に記載の方法。
  7. 少なくとも前記最小差分において前記大域的動き値と異なる前記動き値同士を比較する工程をさらに備え、
    前記割り当てる工程では、少なくとも前記最小差分において前記大域的動き値と異なる前記動き値同士が、最大差分を超えない範囲で互いに異なる場合に、前記隣接セットの前記隣接グループと関連づけられた動き値に基づいて提供される動き値を、前記発見グループに割り当てる
    ことを特徴とする請求項6に記載の方法。
  8. 前記フレーム内で、前記発見グループと同一のグループ行、或いはグループ列に存在するが、前記発見領域と対応するものとして識別されていない隣接グループを有しない少なくとも1つの発見グループを識別する工程と、
    前記同一のグループ行又はグループ列の前記発見グループに割り当てられた動き値が、前記大域的動き値と異なる場合に、前記少なくとも1つの発見グループに、前記同一のグループ行又はグループ列の前記発見グループに割り当てられた動き値を割り当てる工程と
    をさらに備えることを特徴とする請求項6または7に記載の方法。
  9. ビデオシーケンス内の第1の異なる時間インスタンスを有する第1の参照フレームに対する、該ビデオシーケンスの時間インスタンスと関連づけられたフレーム内の少なくとも1つの画像要素のグループの特性値を推定する方法であって、
    前記第1の参照フレーム内の少なくとも1つの発見グループについて、請求項1乃至8のいずれか1項に記載の動き推定を実行する工程と、
    前記少なくとも1つの発見グループに割り当てられた各動き値に基づいて、前記少なくとも1つの発見グループの中から、第1の参照グループを選択する工程と、
    前記第1の参照グループの前記特性値に基づいて、前記グループの前記特性値を推定する工程と
    を備えることを特徴とする方法。
  10. 前記選択する工程では、前記第1の参照グループを、前記フレーム内の前記グループを横切る動き値が割り当てられた発見グループとして選択することを特徴とする請求項9に記載の方法。
  11. 前記ビデオシーケンス内で第2の異なる時間インスタンスと関連づけられた第2の参照フレーム内の第2の参照グループを、前記第2の参照グループに割り当てられた動き値に基づいて識別する工程をさらに備え、
    前記推定する工程では、前記第1の参照グループの特性値と前記第2の参照グループの特性値とに基づいて、前記グループの前記特性値を推定する
    ことを特徴とする請求項9又は10に記載の方法。
  12. 前記識別する工程では、前記第2の参照グループを、前記第1の参照フレーム内の前記第1の参照グループに向かう動き値が割り当てられた、前記第2の参照フレーム内のグループとして識別することを特徴とする請求項11に記載の方法。
  13. ビデオシーケンス内で時間インスタンスと関連づけられたフレーム内の少なくとも1つの画像要素のグループについて動き推定を行う動き推定器であって、
    前記ビデオシーケンスにおける前の時間インスタンスと関連する前フレームの少なくとも一部から、前記フレームの少なくとも一部への、画像要素の特性値の大域的動き値としてのベクトル値決定する動き決定器と、
    前記決定された大域的動きに基づいて、前記前フレームとの対応を有しない前記フレームの発見領域における少なくとも1つの画像要素の発見グループを識別するグループ識別器と
    前記大域的動き値を、前記発見グループに割り当てる動き割当器と、
    を備えることを特徴とする動き推定器。
  14. 前記グループ識別器は、前記発見グループを、前記フレーム内の前記グループから前記前フレームへ前記大域的動きを適用した場合に前記前フレーム内に関連グループを有しない、前記フレーム内のグループとして識別するように構成されることを特徴とする請求項13に記載の動き推定器。
  15. 前記フレームの少なくとも一部に含まれる各グループについて、前記前フレーム内の関連グループを参照する各動き値を含む動きセットを提供するセット提供器をさらに備え、
    前記動き決定器は、前記動きセットの動き値の少なくとも一部に基づいて、前記大域的な動き値を決定するように構成されることを特徴とする請求項13又は14に記載の動き推定器。
  16. 前記発見領域に属していないと識別された隣接グループの隣接セットを有する前記発見グループについて、前記隣接セットの前記隣接グループと関連する動き値を、前記大域的動き値と比較する動き比較器をさらに備え、
    前記動き割当器は、少なくとも最小数の前記動き値が前記大域的な動き値と少なくとも最小差分において異なる場合に、前記発見グループに、前記隣接セットの隣接グループと関連づけられた動き値に基づいて提供される動き値を割り当てるように構成されることを特徴とする請求項13乃至15のいずれか1項に記載の動き推定器。
  17. 前記動き比較器は、少なくとも前記最小差分において前記大域的動き値と異なる前記動き値同士を比較するように構成され、
    前記動き割当器は、少なくとも前記最小差分において前記大域的動き値と異なる前記動き値同士が、最大差分を超えない範囲で互いに異なる場合に、前記隣接セットの前記隣接グループと関連づけられた動き値に基づいて提供される動き値を、前記発見グループに割り当てるように構成される
    ことを特徴とする請求項16に記載の動き推定器。
  18. 前記グループ識別器は、前記フレーム内で、前記発見部ループと同一のグループ行、或いはグループ列に存在するが、前記発見領域と対応するものとして識別されていない隣接グループを有しない少なくとも1つの発見グループを識別するように構成され、
    前記動き割当器は、前記同一のグループ行又はグループ列の前記発見グループに割り当てられた動き値が、前記大域的動き値と異なる場合に、前記少なくとも1つの発見グループに、前記同一のグループ行又はグループ列の前記発見グループに割り当てられた動き値を割り当てるように構成されることを特徴とする請求項16または17に記載の動き推定器。
  19. ビデオシーケンス内の第1の異なる時間インスタンスを有する第1の参照フレームに対する、該ビデオシーケンスの時間インスタンスと関連づけられたフレーム内の少なくとも1つの画像要素のグループの特性値を推定する装置であって、
    前記第1の参照フレーム内の少なくとも1つの発見グループについて動き推定を実行する、請求項13乃至18のいずれか1項に記載の動き推定器と、
    前記第1の参照グループに割り当てられた動き値に基づいて、前記少なくとも1つの発見グループの中から、第1の参照グループを選択するグループセレクタと、
    前記第1の参照グループの前記特性値に基づいて、前記グループの前記特性値を決定する特性値推定器と
    を備えることを特徴とする装置。
  20. 前記グループ選択器は、前記第1の参照グループを、前記フレーム内の前記グループを横切る動き値が割り当てられた発見グループとして選択するように構成されることを特徴とする請求項19に記載の装置。
  21. 前記グループセレクタは、前記ビデオシーケンス内で第2の異なる時間インスタンスと関連づけられた第2の参照フレーム内の第2の参照グループを、前記第2の参照グループに割り当てられた動き値に基づいて選択するように構成され、
    前記特性値推定器は、前記第1の参照グループの特性値と前記第2の参照グループの特性値とに基づいて、前記グループの前記特性値を推定するように構成される
    ことを特徴とする請求項19又は20に記載の装置。
  22. 前記グループセレクタは、前記第2の参照グループを、前記第1の参照フレーム内の前記第1の参照グループに向かう動き値が割り当てられた、前記第2の参照フレーム内のグループとして識別するように構成されることを特徴とする請求項21に記載の装置。
JP2009547199A 2007-01-26 2008-01-14 発見フレーム領域についての動き推定 Expired - Fee Related JP5254997B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US89751107P 2007-01-26 2007-01-26
US60/897,511 2007-01-26
PCT/SE2008/050034 WO2008091206A1 (en) 2007-01-26 2008-01-14 Motion estimation for uncovered frame regions

Publications (2)

Publication Number Publication Date
JP2010517416A JP2010517416A (ja) 2010-05-20
JP5254997B2 true JP5254997B2 (ja) 2013-08-07

Family

ID=39644716

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2009547199A Expired - Fee Related JP5254997B2 (ja) 2007-01-26 2008-01-14 発見フレーム領域についての動き推定
JP2009547200A Expired - Fee Related JP5190469B2 (ja) 2007-01-26 2008-01-14 画像における境界領域処理

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2009547200A Expired - Fee Related JP5190469B2 (ja) 2007-01-26 2008-01-14 画像における境界領域処理

Country Status (4)

Country Link
US (3) US20100027667A1 (ja)
EP (2) EP2122573B1 (ja)
JP (2) JP5254997B2 (ja)
WO (2) WO2008091206A1 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE373826T1 (de) * 1999-01-29 2007-10-15 Roche Diagnostics Gmbh Verfahren zum nachweis von n-terminalem probnp
US20080115175A1 (en) * 2006-11-13 2008-05-15 Rodriguez Arturo A System and method for signaling characteristics of pictures' interdependencies
US8416859B2 (en) * 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
US8875199B2 (en) * 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
US8155207B2 (en) 2008-01-09 2012-04-10 Cisco Technology, Inc. Processing and managing pictures at the concatenation of two video streams
US8958486B2 (en) * 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
US8804845B2 (en) * 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
EP2213097A2 (en) * 2007-10-16 2010-08-04 Cisco Technology, Inc. Conveyance of concatenation properties and picture orderness in a video stream
US8718388B2 (en) * 2007-12-11 2014-05-06 Cisco Technology, Inc. Video processing with tiered interdependencies of pictures
US8416858B2 (en) * 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
US8886022B2 (en) 2008-06-12 2014-11-11 Cisco Technology, Inc. Picture interdependencies signals in context of MMCO to assist stream manipulation
US8699578B2 (en) 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
US8705631B2 (en) * 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
US8971402B2 (en) * 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
US8840602B2 (en) 2008-07-31 2014-09-23 Acclarent, Inc. Systems and methods for anesthetizing ear tissue
WO2010049755A1 (en) * 2008-10-29 2010-05-06 Nds Limited Video signature
US8259814B2 (en) * 2008-11-12 2012-09-04 Cisco Technology, Inc. Processing of a video program having plural processed representations of a single video signal for reconstruction and output
FR2939900A1 (fr) * 2008-12-17 2010-06-18 Sagem Defense Securite Dispositif d'hybridation en boucle fermee integre par construction.
US8326131B2 (en) * 2009-02-20 2012-12-04 Cisco Technology, Inc. Signalling of decodable sub-sequences
US8782261B1 (en) 2009-04-03 2014-07-15 Cisco Technology, Inc. System and method for authorization of segment boundary notifications
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
US8279926B2 (en) 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
US20110222837A1 (en) * 2010-03-11 2011-09-15 Cisco Technology, Inc. Management of picture referencing in video streams for plural playback modes
CN103404122B (zh) * 2011-01-28 2017-03-22 皇家飞利浦电子股份有限公司 基于运动矢量的运动对象比较
CN103136741A (zh) * 2011-12-05 2013-06-05 联咏科技股份有限公司 固定图案的边缘检测方法与电路
EP2645713A1 (en) * 2012-03-30 2013-10-02 Alcatel Lucent Method and apparatus for encoding a selected spatial portion of a video stream
US9071842B2 (en) * 2012-04-19 2015-06-30 Vixs Systems Inc. Detection of video feature based on variance metric
US20130321497A1 (en) * 2012-06-05 2013-12-05 Shenzhen China Star Optoelectronics Technology Co., Ltd. Method of Signal Compensation, Transformation Circuit in Liquid Crystal Panel, and Liquid Crystal Display Device
JPWO2016142965A1 (ja) * 2015-03-10 2017-12-21 日本電気株式会社 映像処理装置、映像処理方法及び映像処理プログラムを記憶する記録媒体
US11216847B2 (en) 2016-03-22 2022-01-04 Sensormatic Electronics, LLC System and method for retail customer tracking in surveillance camera network
US10192414B2 (en) * 2016-03-22 2019-01-29 Sensormatic Electronics, LLC System and method for overlap detection in surveillance camera network
US10318836B2 (en) * 2016-03-22 2019-06-11 Sensormatic Electronics, LLC System and method for designating surveillance camera regions of interest
US10665071B2 (en) 2016-03-22 2020-05-26 Sensormatic Electronics, LLC System and method for deadzone detection in surveillance camera network
US10475315B2 (en) 2016-03-22 2019-11-12 Sensormatic Electronics, LLC System and method for configuring surveillance cameras using mobile computing devices
US10347102B2 (en) 2016-03-22 2019-07-09 Sensormatic Electronics, LLC Method and system for surveillance camera arbitration of uplink consumption
US10764539B2 (en) 2016-03-22 2020-09-01 Sensormatic Electronics, LLC System and method for using mobile device of zone and correlated motion detection
US11601583B2 (en) 2016-03-22 2023-03-07 Johnson Controls Tyco IP Holdings LLP System and method for controlling surveillance cameras
US9965680B2 (en) 2016-03-22 2018-05-08 Sensormatic Electronics, LLC Method and system for conveying data from monitored scene via surveillance cameras
US10733231B2 (en) 2016-03-22 2020-08-04 Sensormatic Electronics, LLC Method and system for modeling image of interest to users
WO2018174618A1 (ko) * 2017-03-22 2018-09-27 한국전자통신연구원 참조 블록을 사용하는 예측 방법 및 장치
US10218992B2 (en) * 2017-07-24 2019-02-26 Cisco Technology, Inc. Encoding, transmission and decoding of combined high motion and high fidelity content
EP3451665A1 (en) 2017-09-01 2019-03-06 Thomson Licensing Refinement of internal sub-blocks of a coding unit
TWI744660B (zh) 2018-06-29 2021-11-01 大陸商北京字節跳動網絡技術有限公司 運動估計區域改進
CN110896492B (zh) * 2018-09-13 2022-01-28 阿里巴巴(中国)有限公司 图像处理方法、装置及存储介质

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2612557B2 (ja) * 1985-12-18 1997-05-21 ソニー株式会社 データ伝送受信システム及びデータ復号装置
GB2231749B (en) * 1989-04-27 1993-09-29 Sony Corp Motion dependent video signal processing
SE469412B (sv) * 1992-04-13 1993-06-28 Dv Sweden Ab Saett att adaptivt estimera icke oenskade globala bildinstabiliteter i bildsekvenser i digitala videosignaler
JP3490142B2 (ja) * 1994-06-24 2004-01-26 株式会社東芝 動画像符号化方法及び装置
US5929940A (en) * 1995-10-25 1999-07-27 U.S. Philips Corporation Method and device for estimating motion between images, system for encoding segmented images
EP0837602A3 (en) 1996-10-17 1999-10-06 Kabushiki Kaisha Toshiba Letterbox image detection apparatus
US6249613B1 (en) * 1997-03-31 2001-06-19 Sharp Laboratories Of America, Inc. Mosaic generation and sprite-based coding with automatic foreground and background separation
JP2935357B2 (ja) * 1997-06-02 1999-08-16 日本ビクター株式会社 映像信号高能率符号化装置
US6061400A (en) * 1997-11-20 2000-05-09 Hitachi America Ltd. Methods and apparatus for detecting scene conditions likely to cause prediction errors in reduced resolution video decoders and for using the detected information
US6192080B1 (en) * 1998-12-04 2001-02-20 Mitsubishi Electric Research Laboratories, Inc. Motion compensated digital video signal processing
WO2000070879A1 (en) * 1999-05-13 2000-11-23 Stmicroelectronics Asia Pacific Pte Ltd. Adaptive motion estimator
US6618439B1 (en) * 1999-07-06 2003-09-09 Industrial Technology Research Institute Fast motion-compensated video frame interpolator
US7072398B2 (en) * 2000-12-06 2006-07-04 Kai-Kuang Ma System and method for motion vector generation and analysis of digital video clips
KR20010087552A (ko) * 2000-03-07 2001-09-21 구자홍 엠펙(mpeg)압축 비디오 환경에서 매크로 블록의시공간상의 분포를 이용한 디졸브/페이드 검출 방법
US6337925B1 (en) * 2000-05-08 2002-01-08 Adobe Systems Incorporated Method for determining a border in a complex scene with applications to image masking
FR2811791B1 (fr) * 2000-07-13 2002-11-22 France Telecom Estimateur de mouvement pour le codage et le decodage de sequences d'images
US7068852B2 (en) * 2001-01-23 2006-06-27 Zoran Corporation Edge detection and sharpening process for an image
CN1251509C (zh) * 2001-04-10 2006-04-12 皇家菲利浦电子有限公司 帧序列的编码方法
JP4596224B2 (ja) * 2001-06-27 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
KR100412501B1 (ko) * 2001-11-30 2003-12-31 삼성전자주식회사 움직임 보상을 위한 화소값 선택 장치 및 방법
KR100441509B1 (ko) * 2002-02-25 2004-07-23 삼성전자주식회사 주사포맷변환장치 및 방법
US7254268B2 (en) * 2002-04-11 2007-08-07 Arcsoft, Inc. Object extraction
EP1376471A1 (en) * 2002-06-19 2004-01-02 STMicroelectronics S.r.l. Motion estimation for stabilization of an image sequence
US7349583B2 (en) * 2003-09-05 2008-03-25 The Regents Of The University Of California Global motion estimation image coding and processing
US7574070B2 (en) * 2003-09-30 2009-08-11 Canon Kabushiki Kaisha Correction of subject area detection information, and image combining apparatus and method using the correction
EP1583364A1 (en) 2004-03-30 2005-10-05 Matsushita Electric Industrial Co., Ltd. Motion compensated interpolation of images at image borders for frame rate conversion
TW200607355A (en) * 2004-05-04 2006-02-16 Qualcomm Inc Method and apparatus for motion compensated frame rate up conversion for block-based low bit rate video
US8553776B2 (en) * 2004-07-21 2013-10-08 QUALCOMM Inorporated Method and apparatus for motion vector assignment
US7447337B2 (en) * 2004-10-25 2008-11-04 Hewlett-Packard Development Company, L.P. Video content understanding through real time video motion analysis
JP2008521324A (ja) * 2004-11-22 2008-06-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ カバーリング及びアンカバーリングを扱う動きベクトル場の投影
US7593603B1 (en) * 2004-11-30 2009-09-22 Adobe Systems Incorporated Multi-behavior image correction tool
US7755667B2 (en) * 2005-05-17 2010-07-13 Eastman Kodak Company Image sequence stabilization method and camera having dual path image sequence stabilization
KR100699261B1 (ko) * 2005-06-24 2007-03-27 삼성전자주식회사 움직임 에러 검출장치와 이를 포함하는 움직임 에러보정장치와 이에 의한 움직임 에러 검출방법 및 움직임에러 보정방법
JP5134001B2 (ja) * 2006-10-18 2013-01-30 アップル インコーポレイテッド 下層のフィルタリングを備えたスケーラブルビデオ符号化

Also Published As

Publication number Publication date
US20090316997A1 (en) 2009-12-24
EP2108177B1 (en) 2019-04-10
US8498495B2 (en) 2013-07-30
EP2122573B1 (en) 2018-05-30
JP2010517416A (ja) 2010-05-20
EP2108177A1 (en) 2009-10-14
EP2122573A4 (en) 2017-07-19
US20160112717A1 (en) 2016-04-21
EP2122573A1 (en) 2009-11-25
WO2008091206A1 (en) 2008-07-31
JP2010517417A (ja) 2010-05-20
EP2108177A4 (en) 2017-08-23
US20100027667A1 (en) 2010-02-04
US9860554B2 (en) 2018-01-02
WO2008091207A8 (en) 2008-09-12
WO2008091207A1 (en) 2008-07-31
JP5190469B2 (ja) 2013-04-24

Similar Documents

Publication Publication Date Title
JP5254997B2 (ja) 発見フレーム領域についての動き推定
US7352812B2 (en) Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding
US7720148B2 (en) Efficient multi-frame motion estimation for video compression
TWI531216B (zh) Image processing apparatus and method
US8780970B2 (en) Motion wake identification and control mechanism
US8837591B2 (en) Image block classification
TWI401972B (zh) 時間性錯誤隱藏方法
US7212573B2 (en) Method and/or apparatus for determining minimum positive reference indices for a direct prediction mode
JP2017508346A (ja) ビデオコーディングのための適応的な動きベクトル分解シグナリング
US20120300837A1 (en) Method and apparatus for using segmentation-based coding of prediction information
US20090274213A1 (en) Apparatus and method for computationally efficient intra prediction in a video coder
JP2004328633A (ja) 動き予測補償装置及びその方法
JP2007515115A (ja) 内挿される画素値の計算方法の改良
EP2532163B1 (en) Improved method and apparatus for sub-pixel interpolation
CN105992012B (zh) 一种错误隐藏的方法和装置
KR100778469B1 (ko) 움직임 추정 최적화 방법 및 장치
Zhang et al. Textural and Directional Information Based Offset In-Loop Filtering in AVS3

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130418

R150 Certificate of patent or registration of utility model

Ref document number: 5254997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees