JP2006506726A - テンプレート予測を用いた画像のセグメント化 - Google Patents
テンプレート予測を用いた画像のセグメント化 Download PDFInfo
- Publication number
- JP2006506726A JP2006506726A JP2004552949A JP2004552949A JP2006506726A JP 2006506726 A JP2006506726 A JP 2006506726A JP 2004552949 A JP2004552949 A JP 2004552949A JP 2004552949 A JP2004552949 A JP 2004552949A JP 2006506726 A JP2006506726 A JP 2006506726A
- Authority
- JP
- Japan
- Prior art keywords
- segment
- image
- group
- groups
- template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Processing (AREA)
Abstract
本発明は、テンプレートと空間的予測を用いた画像セグメント化に関する。カレントピクセルの特性を予測するため、周囲のピクセルのテンプレートを用いる。ピクセルは、その特性のテンプレートからの差異により、周囲のピクセルのセグメントに割り当てられる。
Description
本発明は、画像をセグメントグループにセグメント化する方法に関する。前記セグメントは画像特性に基づく。この方法は、セグメント化のためにピクセルグループを決定するステップと、前記ピクセルグループについて主要特徴(feature characteristics)を決定するステップを有する。
本発明は、画像セグメント化を計算する機器に関する。その機器は、画像のピクセルをピクセルグループにグループ化するグループ化手段と、前記ピクセルグループから主要特徴を抽出する抽出手段とを有する。
結局、本発明は上記の方法と機器の使用に関する。
画像セグメント化は、多数の画像およびビデオ処理手順で重要である。例えば、MPEGビデオストリーム等のビデオ圧縮だけでなく、オブジェクト認識、分類で基本的である。
画像セグメント化の結果において、セグメント化にどの特徴や特性を用いるかが重要である。画像セグメントは、1以上の特性が多かれ少なかれ一定であるかまたは連続である画像領域として定義できる。
画像セグメント化に使用する特性以外に、セグメント化方法がセグメント化の結果において重要である。画像セグメントを1以上の特性が多かれ少なかれ一定であるかまたは連続である画像領域として定義した場合、セグメント化プロセスは、等しいまたは類似の特性を有するセグメントをこの定義を満たすセグメントにグループ化しなければならない。
セグメント化のプロセスとして、1つのグループの特性とその周囲のグループの特性の間の際だけに基づく方法がある。周囲のグループがすでにセグメント化されている場合、そのグループがどのセグメントに所属するかは分かっている。よって、1つのグループの特性をその周囲のグループの特性と比較することにより、その1つのグループを分類してもよい。その1つのグループの特性が閾値よりも大きく異なっているとき、新しいセグメントとする。その1つのグループの特性が周囲のグループの特性と少ししか違わないか、または等しい場合、その1つのグループは最も一致するセグメントに割り当てられる。
このいわゆる局所予測法は、1つのグループの特性とその周囲のグループの特性間の差異だけを見る方法である。エラー値のこの計算は、特性のベクトルノルム
すべてのセグメントiはラベル1iに対応し、セグメント化の間、画像のすべてのグループは上記ラベルに割り当てられる。グループのセグメント化を計算するアルゴリズムは、以下のように記述できる。
上に示したように、現在の方法には過剰セグメント化と計算が複雑になるという欠点がある。この方法は画像とビデオ素材に使用するにはあまり適していない。
本発明の目的は、計算があまり複雑でない画像セグメント化の方法および機器を提供することである。本発明の別の目的は、ノイズの多い画像であってもセグメント化できる、ノイズに強い方法及び機器を提供することである。本発明の別の目的は、画像やビデオ素材を取り巻く制約に適合する方法及び機器を提供することである。本発明のさらに別の目的は、空間的および/または時間的一貫性を考慮に入れ、リアルタイムの実施が可能な方法及び機器を提供することである。
本発明の上記その他の目的は、画像をセグメントグループにセグメント化する方法であって、前記セグメントは画像特性に基づき、周囲のグループからセグメントテンプレートを決定するステップであって、前記セグメントテンプレートは前記周囲のグループ内の一定または連続な特性を記述するところのステップと、前記グループの特性を前記セグメントテンプレートの特性と比較することにより、前記グループについてエラー値を計算するステップと、前記グループを前記セグメントテンプレートの1つに割り当てるか、または前記エラー値に基づき新しいセグメントテンプレートを生成するかを決定するステップとを有することを特徴とする方法により解決される。
本発明の画像は、静止画でもビデオ画像でもよい。セグメントは、特性がだいたい一定か連続である画像領域として定義される。特性は、ルミナンス値またはクロミナンス値、これらの統計的偏差、その他標準偏差、歪度、尖度等の値であってもよい。特性は、ルミナンスヒストグラムやクロミナンスヒスグラムであってもよく、共起関係に基づくものでもよい。フラクタル次元を特性の定義に用いてもよい。画像をセグメント化する特性はそのセグメント化の目的に応じて決まる。異なるアプリケーションには異なる特性に基づく異なるセグメント化をする方が有利である。
ピクセルグループはNxMピクセルのブロックであってもよく、特に、4x4、8x8、16x16、32x32ピクセル等であるが、必ずしもN=Mである必要はない。
テンプレートは特性を記述する。その特性はセグメント内で一定または連続である。セグメントのリストが保持される。そのリストにはセグメントの特性の違いが記載されている。例えば、テンプレートはセグメント内の特性の重み付け平均であってもよい。1つのグループの特性がテンプレートリスト内のテンプレートと大きく異なるとき、新しいセグメントが作られる。そうでなければ、そのグループは最もマッチするテンプレートに割り当てられる。
画像をセグメント化する時、1つのグループから次のグループへ画像のスキャンを実行する。このように、1つのグループの周囲のグループは、すでにセグメント化されているかも知れない。このセグメント化を用いて、カレントグループのセグメント化をする。このように局所情報を用いる。
本発明によると、この局所情報をセグメント化に使用する。カレントグループの特性は、周囲のグループのセグメントテンプレートと比較される。その特性が周囲のグループのセグメントテンプレートの1つとマッチするとき、カレントグループは周囲のセグメントの最もマッチするものに割り当てられる。カレントグループの特性が周囲のセグメントテンプレートのいずれともフィットしないとき、異なるセグメントテンプレートを有する新しいセグメントとする。
本技術分野で知られた多様な計算方法を用いてエラー値を計算してもよい。
画像全体のセグメンテーションマスクを計算するためには、請求項2に記載の方法が好ましい。
画像またはビデオ中の画像シーケンス内の空間的および時間的差異を説明するため、請求項3に記載の方法を提案し、動き予測も可能としている。
請求項4に記載の方法は、本発明の好ましい実施形態である。計算の煩雑さを押さえるため、セグメント化プロセスはメモリーレイアウトにマッチしなければならない。例えば、スキャンの順序はメモリーレイアウトとマッチしなければならない。画像は通常1次元アレイに記憶される。そのアレイは、画像の左上のピクセルから始まり、右下のピクセルで終わる。またはその逆である。周囲のセグメントテンプレートのキャッシングを効率的にするため、スキャン方向も、左から右へ、上から下へ、またはその逆でなければならない。
周囲のセグメントテンプレートの空間的または時間的キャッシングとともに、前に処理した情報も使用する。
請求項5に記載の閾値により、画像の特殊性、例えばノイズ値によりセグメンテーションを調整することができる。
請求項6ないし8に記載の方法により、セグメント化の目的に合わせてセグメント化を調整することができる。セグメント化に異なる特性を用いると異なる結果が得られるからである。
動きセグメント化を説明するため、請求項9に記載の方法を提案した。これにより、ピクセルグループをその動きで特徴づけることができる。その動きは動きテンプレートで表すことができる。
請求項10によると、画像情報をセグメント化に用いる場合、画像の位置情報に基づいてセグメンテーションを実行してもよい。例えば、画像中の異なるゾーンが異なる特性としてセグメント化しなければならない場合である。
本発明の他の態様は、請求項11に記載の機器であって、その機器は、画像のピクセルをグループにグループ化するグループ化手段と、前記グループから主要特徴を抽出する抽出手段と、周囲のグループのセグメントテンプレートを記憶する記憶手段と、前記抽出された特性を前記セグメントテンプレートの特性と比較する比較手段と、前記ピクセルグループを前記セグメントテンプレートの1つに割り当てるか、または前記抽出された特性と前記セグメントテンプレートの特性間で決定されたエラー値に基づき新しいセグメントテンプレートを生成するかを決定する決定手段とを有する。
本発明のさらに別の態様は、画像および/またはビデオ処理、医療画像処理、農作物分析、ビデオ圧縮、動き予測、気象分析、組み立て監視、および/または侵入検知における、前記方法または前記機器の使用である。ビデオと画像の品質はコンシューマエレクトロニクスおよび産業画像処理においてますます重要になっている。画像の圧縮と修正を効率的に行うため、画像コンテントに対する理解を進める必要がある。この知識を増やすため、画像のセグメント化は重要なツールである。本発明による画像のセグメント化は、費用効率が高く、あまり複雑でないハードウェアで実行することができる。このように、マスマーケットにおいて、画像強調だけではなく、動き推定および圧縮を可能とする。
本発明の上記その他の態様は、添付した図面を参照しながら以下の詳細な説明を読めば明らかとなるであろう。
図1は、本発明による方法を示すフローチャートである。最初のステップ2において、画像の主要特徴が抽出される。これらの主要特徴は、ステップ4において周囲のピクセルグループのセグメントテンプレートの特性と比較される。
カレントグループの特性が周囲のグループのセグメント点プレー他の特性と相違する場合、ステップ6でカレントグループの特性に基づき、新しいセグメントテンプレートが生成される。この新しいセグメントテンプレートは、ステップ8で、すでに記憶されたセグメントテンプレートとともに記憶される。これらのセグメントテンプレートは、すでにセグメント化されたピクセルグループを表す。
記憶されたセグメントテンプレートに基づき、ステップ10において、周囲のピクセルグループのセグメントテンプレートを用いてカレントグループのテンプレートを予測する。すなわち、記憶されたセグメントテンプレートから、カレントグループに隣接するピクセルグループのテンプレートを抽出する。好ましくは、メモリマッチドスキャニング(memory matched scanning)の場合、これらはカレントグループの上の行の3つのグループとカレントグループの左側の1つのグループである。これらの4つのテンプレートがカレントグループのテンプレートの予測に使用する。
すでに指摘したように、ステップ4において、カレントグループの特性が周囲のセグメントのテンプレートの特性と比較される。エラー値が計算され、それに基づき、カレントグループが周囲のセグメントに割り当てられるか、または新しいセグメントが生成される。
画像のすべてのグループがスキャンされセグメント化された後、セグメント化に使用した特性に基づき、セグメンテーションマスクが出される12。このセグメンテーションマスクは、カレント画像のセグメント化された表示である。
セグメント化がブロックベースの場合、ブロックのすべてのピクセルが1つのセグメントに割り当てられる。これにより、計算の劇的に煩雑でなくなる。セグメント化はPALやNTSC等のビデオストリームに対して実行することもできる。これらのビデオストリーム内で、画像セグメント化の強い手がかりはルミナンス(Y)とクロミナンス(U、V)、およびテクスチャである。これらの特性は、3つのヒストグラムで効率的に捕捉でき、ルミナンス値Yについて8ビンのヒストグラム、クロミナンス値U、Vについて4ビンずつのヒストグラムである。動き情報は、これらの特性に加えて使用されてもよい。
ビンを効率的に使用することが重要であり、ヒストグラムは局所化できるので、最小値と最大値を決めることが重要である。これらの最小値および最大値に基づいて、これらの値の間でビンを均等に分配することができる。最小値と最大値はビデオストリームの前の画像で決定してもよい。
画像内のノイズを説明するために、これらの値に最小値と最大値が設定され、5%のサンプルは最小値より低く、5%の値は最大値より大きくなる。ビンの外のサンプルは、外側ビンに割り当てられる。周囲のグループのヒストグラムはカレントグループの周囲の4つのグループについて
局所セグメント化の予測は上で説明した。それにより、エラー値に基づき新しいセグメントが生成されるか、またはそのグループが周囲で最もよく一致するセグメントに割り当てられる。
局所差異の利点は、セグメント化プロセスに局所情報を用いることである。これによりセグメント化の空間的一貫性が確保される。この空間的一貫性は、大域テンプレートのみを用いてセグメント化をしたとき、失われてしまう。
大域テンプレートマッチングについて、画像中のすべてのセグメントのテンプレートは記憶され、カレントグループの特性が画像のすべてのテンプレートの特性と比較される。セグメントにグループを割り当てるため、次のステップを実行する。
テンプレートを用いてセグメント化し、特性が徐々に変化するセグメント同士が一緒になるのを防ぎ、局所セグメント化のように計算を煩雑にしないため、カレントブロックの特性がその周囲のテンプレートの特性から大きく離れている場合に、新しいセグメントをつくる。
ここで、
画像をセグメント化する機器を図2に示した。グループ化手段14、抽出手段16、記憶手段17、比較手段18、決定手段20、第2の記憶手段22が示されている。本機器の動作は以下の通りである。
入来画像がグループ化手段14によりピクセルグループにグループ化される。このグループは、8x8、16x16、32x32ピクセル等のピクセルブロックでもよい。これらのグループから抽出手段16により主要特徴が抽出される。各グループについて、主要特性が第2の記憶手段22に記憶される。比較手段18は、各グループの主要特徴を、記憶手段17に記憶されている周辺のグループのセグメントテンプレートと比較する。決定手段20は、カレントグループの特性の周囲のセグメントテンプレートの特性からの差異が閾値を超えるかどうかを決定する。差異が閾値を超えるとき、新しいテンプレートが生成され、記憶手段17に記憶される。その他の場合はすべて、カレントグループは周囲のグループの最もマッチするテンプレートに割り当てられる。すべてのグループをセグメント化した後、セグメンテーションマスクを出力する。
図3は、画像を記憶するメモリアレイ24を説明するための図である。ピクセルは、アレイ24の左上241,1から右下245,5の順番で記憶される。これは矢印24aで示した。ピクセルを、アレイの右下245,5から左上241,1の順番で記憶することも可能である。これは矢印24bで示した。
メモリーマッチトスキャニング(memory matched scanning)を用いると、スキャン方向は記憶方向と一致しなければならない。これは図4に示した。スキャンがメモリーマッチト(memory matched)の場合、スキャン方向は、記憶方向24a、24bに応じて矢印24cまたは24dの通りである。
第1の実施形態において、スキャンは矢印24cのように右下から左上方向である。位置243,3のピクセルをセグメント化する際、周囲のピクセル244,4、244,3、244,2、243,4のセグメントテンプレートは既知である。ピクセル243,3は、周囲のピクセル244,4、244,3、244,2、243,4のセグメントテンプレートの1つに割り当てられるか、もしくは新しいセグメントテンプレートが生成される。この判断は差異値に基づく。
第2の実施形態において、スキャンは矢印24dのように左上から右下方向である。位置243,3のピクセルをセグメント化する際、周囲のピクセル242,2、242,3、242,4、243,2のセグメントテンプレートは既知である。ピクセル243,3は、周囲のピクセル242,2、242,3、242,4、243,2のセグメントテンプレートの1つに割り当てられるか、もしくは新しいセグメントテンプレートが生成される。この判断は差異値に基づく。
テンプレートマッチングのみでなく空間的情報も用いることにより、セグメント化は高速かつノイズに強くなる。画像のセグメント化、圧縮、強調は、コンシューマエレクトロニクス、MPEGストリーム、医療機器等の多数のアプリケーションのビデオストリームに対してオンラインで実行することができる。
Claims (12)
- 画像をセグメントグループにセグメント化する方法であって、前記セグメントは画像特性に基づき、
a)セグメント化のためピクセルグループを決定するステップと、
b)前記ピクセルグループについて主要特徴を決定するステップと、
c)周囲のグループからセグメントテンプレートを決定するステップであって、前記セグメントテンプレートは前記周囲のグループ内の一定または連続な特性を記述するところのステップと、
d)前記グループの特性を前記セグメントテンプレートの特性と比較することにより、前記グループについてエラー値を計算するステップと、
e)前記グループを前記セグメントテンプレートの1つに割り当てるか、または前記エラー値に基づき新しいセグメントテンプレートを生成するかを決定するステップとを有することを特徴とする方法。 - 請求項1に記載の方法であって、
前記画像について複数のグループを決定するステップと、
前記画像のすべてのグループについて前記ステップa)からe)を実行するステップを有することを特徴とする方法。 - 請求項1に記載の方法であって、
前記セグメントテンプレートは空間的および/または時間的に決定することを特徴とする方法。 - 請求項1に記載の方法であって、
セグメント化のための前記ピクセルグループのスキャンはメモリマッチトにより行われることを特徴とする方法。 - 請求項1に記載の方法であって、
前記グループを前記セグメントテンプレートの1つに割り当てるか、または前記エラー値に基づき新しいセグメントテンプレートを生成するかの決定は閾値に基づくことを特徴とする方法。 - 請求項1に記載の方法であって、
前記特性は、クロミナンスおよび/またはルミナンス値、ピクセルの統計的微分、ヒストグラム、共起マトリックスおよび/またはフラクタル次元に基づくことを特徴とする方法。 - 請求項1に記載の方法であって、
前記セグメントテンプレートは前記ピクセルの平均ルミナンスおよびクロミナンススパンを有することを特徴とする方法。 - 請求項2に記載の方法であって、
前記セグメントテンプレートは少なくとも1つのヒストグラムを有することを特徴とする方法。 - 請求項3に記載の方法であって、
前記セグメントテンプレートはモーションモデルを有することを特徴とする方法。 - 請求項1に記載の方法であって、
前記セグメントテンプレートは画像位置情報を有することを特徴とする方法。 - 請求項1に記載の画像セグメント化を計算する機器であって、
画像のピクセルをグループにグループ化するグループ化手段と、
前記グループから主要特徴を抽出する抽出手段と、
周囲のグループのセグメントテンプレートを記憶する記憶手段と、
前記抽出された特性を前記セグメントテンプレートの特性と比較する比較手段と、
前記ピクセルグループを前記セグメントテンプレートの1つに割り当てるか、または前記抽出された特性と前記セグメントテンプレートの特性間で決定されたエラー値に基づき新しいセグメントテンプレートを生成するかを決定する決定手段とを有することを特徴とする機器。 - 画像および/またはビデオ処理、医療画像処理、農作物分析、ビデオ圧縮、動き予測、気象分析、組み立て監視、および/または侵入検知における、請求項1に記載の方法または請求項11に記載の機器の使用。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP02079799 | 2002-11-19 | ||
PCT/IB2003/004813 WO2004047022A2 (en) | 2002-11-19 | 2003-10-28 | Image segmentation using template prediction |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006506726A true JP2006506726A (ja) | 2006-02-23 |
Family
ID=32319624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004552949A Withdrawn JP2006506726A (ja) | 2002-11-19 | 2003-10-28 | テンプレート予測を用いた画像のセグメント化 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20060056689A1 (ja) |
EP (1) | EP1565879A2 (ja) |
JP (1) | JP2006506726A (ja) |
KR (1) | KR20050067438A (ja) |
CN (1) | CN1711557A (ja) |
AU (1) | AU2003274484A1 (ja) |
WO (1) | WO2004047022A2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015518594A (ja) * | 2012-03-10 | 2015-07-02 | ソニー株式会社 | デジタル画像分析のため空間制約を用いた統合インタラクティブセグメンテーション法 |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10242255B2 (en) | 2002-02-15 | 2019-03-26 | Microsoft Technology Licensing, Llc | Gesture recognition system using depth perceptive sensors |
US9959463B2 (en) | 2002-02-15 | 2018-05-01 | Microsoft Technology Licensing, Llc | Gesture recognition system using depth perceptive sensors |
SE0401850D0 (sv) * | 2003-12-19 | 2004-07-08 | Ericsson Telefon Ab L M | Image processing |
US8009871B2 (en) * | 2005-02-08 | 2011-08-30 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
US8145249B2 (en) * | 2005-11-04 | 2012-03-27 | Cisco Technology, Inc. | Method and system for providing a proxy media service |
US7751348B2 (en) * | 2005-11-04 | 2010-07-06 | Cisco Technology, Inc. | Method and system for providing a push-to-talk communication session |
US7792899B2 (en) * | 2006-03-24 | 2010-09-07 | Cisco Technology, Inc. | Automatically providing announcements for a push-to-talk communication session |
US7809390B2 (en) * | 2006-10-30 | 2010-10-05 | Cisco Technology, Inc. | Method and system for providing information about a push-to-talk communication session |
US8401304B2 (en) * | 2007-07-27 | 2013-03-19 | Sportvision, Inc. | Detecting an object in an image using edge detection and morphological processing |
CN101424972B (zh) * | 2007-11-02 | 2010-06-16 | 财团法人工业技术研究院 | 在连续影像中计算目标非结构化物体位置的方法 |
US8059865B2 (en) * | 2007-11-09 | 2011-11-15 | The Nielsen Company (Us), Llc | Methods and apparatus to specify regions of interest in video frames |
US8804819B1 (en) | 2011-04-19 | 2014-08-12 | Google Inc. | Method and apparatus for encoding video using data frequency |
US9749638B1 (en) | 2011-04-28 | 2017-08-29 | Google Inc. | Method and apparatus for encoding video with dynamic quality improvement |
US8705620B1 (en) * | 2011-04-28 | 2014-04-22 | Google Inc. | Method and apparatus for encoding anchor frame by encoding features using layers |
TWI441062B (zh) | 2011-06-21 | 2014-06-11 | Pixart Imaging Inc | 光學觸控系統及其影像處理方法 |
CN102855023B (zh) * | 2011-07-01 | 2016-06-01 | 原相科技股份有限公司 | 光学触控系统及其影像处理方法 |
US9072929B1 (en) * | 2011-12-01 | 2015-07-07 | Nebraska Global Investment Company, LLC | Image capture system |
WO2013141923A2 (en) * | 2011-12-20 | 2013-09-26 | Sadar 3D, Inc. | Scanners, targets, and methods for surveying |
US9781447B1 (en) | 2012-06-21 | 2017-10-03 | Google Inc. | Correlation based inter-plane prediction encoding and decoding |
CN102867315B (zh) * | 2012-07-09 | 2015-08-19 | 上海交通大学 | 卫星云图的压缩方法 |
JP2014027442A (ja) * | 2012-07-26 | 2014-02-06 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム |
US9167268B1 (en) | 2012-08-09 | 2015-10-20 | Google Inc. | Second-order orthogonal spatial intra prediction |
US9344742B2 (en) | 2012-08-10 | 2016-05-17 | Google Inc. | Transform-domain intra prediction |
US9380298B1 (en) | 2012-08-10 | 2016-06-28 | Google Inc. | Object-based intra-prediction |
US9369732B2 (en) | 2012-10-08 | 2016-06-14 | Google Inc. | Lossless intra-prediction video coding |
US9628790B1 (en) | 2013-01-03 | 2017-04-18 | Google Inc. | Adaptive composite intra prediction for image and video compression |
US9225979B1 (en) | 2013-01-30 | 2015-12-29 | Google Inc. | Remote access encoding |
US9247251B1 (en) | 2013-07-26 | 2016-01-26 | Google Inc. | Right-edge extension for quad-tree intra-prediction |
CN105608459B (zh) | 2014-10-29 | 2018-09-14 | 阿里巴巴集团控股有限公司 | 商品图片的分割方法及其装置 |
JP6264475B2 (ja) * | 2015-01-30 | 2018-01-24 | ディーエスグローバル カンパニー,リミテッド | 仮想撮影サービス方法 |
WO2018209057A1 (en) * | 2017-05-11 | 2018-11-15 | The Research Foundation For The State University Of New York | System and method associated with predicting segmentation quality of objects in analysis of copious image data |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2805429B1 (fr) * | 2000-02-21 | 2002-08-16 | Telediffusion Fse | Procede de controle de la qualite numeriques distribuees par detection de faux contours |
-
2003
- 2003-10-28 KR KR1020057009063A patent/KR20050067438A/ko not_active Application Discontinuation
- 2003-10-28 CN CNA200380103514XA patent/CN1711557A/zh active Pending
- 2003-10-28 WO PCT/IB2003/004813 patent/WO2004047022A2/en not_active Application Discontinuation
- 2003-10-28 US US10/535,059 patent/US20060056689A1/en not_active Abandoned
- 2003-10-28 JP JP2004552949A patent/JP2006506726A/ja not_active Withdrawn
- 2003-10-28 EP EP03758459A patent/EP1565879A2/en not_active Withdrawn
- 2003-10-28 AU AU2003274484A patent/AU2003274484A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015518594A (ja) * | 2012-03-10 | 2015-07-02 | ソニー株式会社 | デジタル画像分析のため空間制約を用いた統合インタラクティブセグメンテーション法 |
Also Published As
Publication number | Publication date |
---|---|
US20060056689A1 (en) | 2006-03-16 |
KR20050067438A (ko) | 2005-07-01 |
WO2004047022A2 (en) | 2004-06-03 |
WO2004047022A3 (en) | 2004-12-29 |
EP1565879A2 (en) | 2005-08-24 |
CN1711557A (zh) | 2005-12-21 |
AU2003274484A1 (en) | 2004-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006506726A (ja) | テンプレート予測を用いた画像のセグメント化 | |
KR100901904B1 (ko) | 카메라 움직임 추정 방법 및 비디오 움직임 식별 장치 | |
JP4653155B2 (ja) | 画像処理方法及び装置 | |
JP2809659B2 (ja) | ビデオ画像処理 | |
US5654772A (en) | Method for change detection in moving images | |
JP2012226745A (ja) | 奥行き画像内の物体を検出する方法およびシステム | |
EP1542153A1 (en) | Object detection | |
CN115019111B (zh) | 用于互联网文创作品的数据处理方法 | |
CN112104869B (zh) | 一种视频大数据存储及转码优化系统 | |
JP5578816B2 (ja) | 画像処理装置 | |
EP1542152A1 (en) | Object detection | |
JP2005509983A (ja) | 確率的フレームワークを用いるブロブベースの分析のためのコンピュータビジョン方法およびシステム | |
CN111383244A (zh) | 一种目标检测跟踪方法 | |
CN116233479B (zh) | 基于数据处理的直播信息内容审核系统及方法 | |
Mohanty et al. | A survey on moving object detection using background subtraction methods in video | |
Laumer et al. | Moving object detection in the H. 264/AVC compressed domain | |
CN110310303B (zh) | 图像分析多目标跟踪方法 | |
EP2372640A1 (en) | Methods of representing and analysing images | |
EP2658255A1 (en) | Methods and devices for object detection in coded video data | |
CN110519597B (zh) | 一种基于hevc的编码方法、装置、计算设备和介质 | |
JP2005517257A (ja) | セグメント化装置及び方法 | |
Marie et al. | Dynamic background subtraction using moments | |
JP3763279B2 (ja) | 物体抽出システム、物体抽出方法および物体抽出プログラム | |
CN115249254B (zh) | 一种基于ar技术的目标跟踪方法及系统 | |
Kim et al. | Detection of moving edges based on the concept of entropy and cross-entropy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061025 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20070511 |