JP2016027490A - マルチキュー・オブジェクトの検出および分析のための方法、システム、製品、およびコンピュータ・プログラム(マルチキュー・オブジェクトの検出および分析) - Google Patents
マルチキュー・オブジェクトの検出および分析のための方法、システム、製品、およびコンピュータ・プログラム(マルチキュー・オブジェクトの検出および分析) Download PDFInfo
- Publication number
- JP2016027490A JP2016027490A JP2015186476A JP2015186476A JP2016027490A JP 2016027490 A JP2016027490 A JP 2016027490A JP 2015186476 A JP2015186476 A JP 2015186476A JP 2015186476 A JP2015186476 A JP 2015186476A JP 2016027490 A JP2016027490 A JP 2016027490A
- Authority
- JP
- Japan
- Prior art keywords
- foreground
- cell
- cells
- color density
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 98
- 238000004590 computer program Methods 0.000 title claims description 13
- 238000001514 detection method Methods 0.000 title abstract description 21
- 238000004458 analytical method Methods 0.000 title abstract description 18
- 239000003086 colorant Substances 0.000 claims abstract description 17
- 238000012545 processing Methods 0.000 claims description 34
- 230000006870 function Effects 0.000 claims description 28
- 238000002372 labelling Methods 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 14
- 238000012986 modification Methods 0.000 claims description 4
- 230000004048 modification Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 claims description 2
- 238000012937 correction Methods 0.000 claims 2
- 210000004027 cell Anatomy 0.000 description 195
- 230000008569 process Effects 0.000 description 47
- 238000010586 diagram Methods 0.000 description 15
- 230000003044 adaptive effect Effects 0.000 description 8
- 238000011084 recovery Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 210000002287 horizontal cell Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/142—Edging; Contouring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】前景オブジェクトは、ビデオ・データ・イメージの領域を、それぞれが当該の前景オブジェクトよりも小さい個別セルのグリッド・アレイに分割することによって、背景モデルと区別される。前景オブジェクトのイメージ・データは連続する複数のセル全体にわたる。セルのそれぞれは、セル内の累積された縁部エネルギーが縁部エネルギーしきい値を満たす場合、各セル内の異なる色の色濃度が色濃度差分しきい値だけ異なる場合、あるいは、1つまたは複数の組み合わせ規則に鑑みた当該決定の組み合わせの関数として、前景としてラベル付けされる。
【選択図】図7
Description
ビデオ・データ・イメージの当該の領域を、複数の個別セルのグリッド・アレイに分割することであって、イメージ・データ・フレーム内の前景オブジェクトのイメージ・データが連続する複数のセルにわたるように、セルのそれぞれが当該の前景オブジェクトの2次元のエリア・サイズよりも小さい2次元のエリア面積を有する、分割すること、セルのそれぞれについてフレーム・イメージ・データを獲得すること、各セル内の縁部のエネルギーを検出および累積し、累積された縁部エネルギーが縁部エネルギーしきい値を満たす場合に前景を示すか、または累積された縁部エネルギーが縁部エネルギーしきい値を満たさない場合に背景を示す、セルのそれぞれについて、縁部エネルギー前景指示出力を生成すること、各セル内の複数の異なる色のそれぞれについて色の濃さを決定し、そのセルに関して決定された色濃度のうちの1つが決定された色濃度のうちの他方よりも色濃度差分しきい値だけ濃い場合に前景を示すか、または、そのセルに関して決定された色濃度のうちのいずれの他方よりも色濃度差分しきい値だけ濃い決定された色濃度がない場合に背景を示す、セルのそれぞれについて、色濃度前景指示出力を生成すること、色濃度前景指示出力および前景指示出力組み合わせ規則の関数としての各セルに関する色濃度前景指示出力に応答して、セルのそれぞれを前景または背景としてラベル付けすること、ならびに、前景オブジェクトを画定するために前景セルとしてラベル付けされたセルからフレーム・イメージ・データを使用することを、コンピュータ処理ユニットに実行させる命令を含む。
104で、セルのそれぞれで検出された縁部のエネルギーが決定および累積され(組み合わせられ)、106で、各セルが車両の一部であるか否かを判別するために、各セルの累積された縁部エネルギーが縁部エネルギーしきい値と比較される。より詳細には、セル内の累積された縁部エネルギーが縁部エネルギーしきい値を満たす場合、セルは106で、前景(車両オブジェクトの一部)であることを意味する「1」(または正)とラベル付けされ、満たさない場合、106で、背景であることを意味する「0」(または負)とラベル付けされる。
f(cm(e))={1
0[1]
上式で、cmはm番目のセルであり、E(xi)はピクセルxiでの縁部のエネルギーである。セル内の縁部エネルギーの合計が縁部エネルギーしきい値teよりも大きい場合、「1」として、したがって前景車両オブジェクト交通の一部として再ラベル付け(またはラベル付け)され、そうでない場合、背景の一部(道路、私道など)として「ゼロ」がラベル付けされたままである(あるいはラベル付けまたは再ラベル付けされる)。他の実施形態は、異なる縁部検出アルゴリズム、たとえばCannyまたはPrewittなどを使用することが可能であり、さらに当業者であれば他の実施形態も明らかとなろう。
縁部エネルギー・プロセス104/106と並行した(あるいは別の)プロセスにおいて、108で、セルのそれぞれにおける複数の異なる色のそれぞれの濃さが決定される。110で、異なる色について決定された色濃度が各セル内で比較され、この比較が色オブジェクトの存在を示す(1つまたは複数の色が、色濃度差分しきい値だけ1つまたは複数の他の色よりも濃い濃度を有する)場合、セルは前景を意味する「1」または「正」としてラベル付けまたは再ラベル付けされる。あるいは、比較が実質上背景を示す灰色/モノクロ・イメージ情報を示す場合、セルは、背景を意味する「ゼロ」または「負」としてラベル付けまたは再ラベル付けされる。
f(cm(c))={0
1[2]
上式で、下付き文字は、色チャネルの2つのセット間での濃さの差異を示し、たとえば(Drg=ΣN i=1|drg|),drg)は赤のチャネル(「r」)と緑のチャネル(「g」)との間の濃さの差異を意味し、f(cm(c))はm番目のセルであるcmの色濃度差異である。式[2]は、色チャネルのうちの1つの濃度が他の2つと大幅に異なる場合、セルが前景オブジェクトであることを示唆する。所与の濃度値とは異なり、セル内の色濃度間で決定された絶対的差異は、一般に、照明の変化に対してより堅固である。式[2]によって導出された情報は、赤い車または黄色いタクシーなどの、比較的色彩豊かな車両の検出で非常に効果的である。色濃度差分しきい値(tc)は、当業者であれば理解されるように、ユーザによって、またはフィードバック・プロセスおよび生成された結果と既知の値でのビデオ入力のトレーニングとの比較を介して自動的に、システムが高精度を有する動作ポイントに設定することができる。
本発明の実施形態は、隣接するセル値に関してそれらのコンテキストを考慮することによって、セル204内の誤った正のラベルも減少させる。この例では、隣接セルの色濃度の整合性およびオブジェクト・ブロック・コンテキストという、2つのコンテキストを考慮することができる。
前述のように、104/106で、セル204内で決定された縁部エネルギーの関数として実行される、セル204のデータに対する正のオブジェクト決定/ラベルの正確さは、イメージ・データの課題によって損なわれる可能性がある。たとえば、セル内で認識可能な背景特徴によって作成されるノイズ(道路の車線マーキング、縁石など)が、背景セルに適用されることになる誤った正セル・ラベルを作成する可能性がある。また、相対的に大型の車両(トラック、バスなど)は、いくつかのセル内で縁部が認識できない大きな平坦領域を有する可能性があり、これらのセルのいくつかを背景要素として誤って検出すること、および誤った負/ゼロのラベル付けにつながる。
f(cm(c1))={0
1[3]
上式で、Vrgb=(ν1,ν2,ν3)’は個別のRGBチャネルそれぞれについての濃度値の合計であり、隣接セルのセット、m番目のセル(cm)の隣接セルの色濃度f(cm(c1))に関係し、(tc1)は色整合性しきい値である。他の実施形態では、隣接セルの色濃度の整合性プロセス112は、セルに関する色ヒストグラムを構築すること、および、たとえばBhattacharyaプロセスなどの適切なメトリクスを用いてそれらの間の距離を計算することを含み、当業者であれば他の適切な隣接セルの色濃度整合性プロセスが明らかとなろう。
110および112で生成された正の前景セル204ラベルは、114で、正にラベル付けされたセル204の接続された隣接するグループによって形成されるブロックのサイズを、1つまたは複数テンプレート・フィルタと比較する、オブジェクト・ブロック・コンテキスト・プロセスを介してさらに妥当性検査される。当該ブロックがテンプレート基準を満たす場合、ブロックを形成する正にラベル付けされたセル204はそれぞれ前景セルとして妥当性検査され、満たさない場合、背景セルを意味するゼロまたは負の値に再ラベル付けまたはリセットされる。
Claims (26)
- 前景オブジェクトと背景モデルとを区別するための方法であって、
プログラム可能デバイスによって、ビデオ・データ・イメージの領域を、それぞれが背景ラベルで初期化された複数の個別セルのグリッド・アレイに分割することであって、イメージ・データ・フレーム内の前記前景オブジェクトのイメージ・データが連続する複数のセルにわたるように、前記セルのそれぞれが前景オブジェクトの2次元のエリア・サイズよりも小さい2次元のエリア面積を有する、分割すること、
前記プログラム可能デバイスによって、前記セルのそれぞれについてフレーム・イメージ・データを獲得すること、
前記プログラム可能デバイスによって各前記セル内の縁部のエネルギーを検出および累積し、縁部エネルギーしきい値を満たし現在背景としてラベル付けされている累積された縁部エネルギーを有する前記セルのそれぞれを、前景として再ラベル付けすること、
前記プログラム可能デバイスによって各セル内の複数の異なる色のそれぞれについて色の濃さを決定し、そのセルに関して決定された色濃度のうちの他方よりも色濃度差分しきい値だけ濃い前記決定された色濃度のうちの1つを有し、現在背景としてラベル付けされている、前記セルのそれぞれを、前景として再ラベル付けすること、および、
前記プログラム可能デバイスによって、前景オブジェクトを画定するために前景として再ラベル付けされた前記セルから前記フレーム・イメージ・データを使用すること、
を含む、方法。 - 前記縁部エネルギーしきい値を満たす累積された縁部エネルギーを有することに応答して、前記プログラム可能デバイスによって前景として再ラベル付けされた前記セルのそれぞれについて、前記プログラム可能デバイスが、
前記再ラベル付けされたセルの色の濃度合計を生成するために、前記セルについて決定された前記異なる色濃度を合計すること、
前記再ラベル付けされたセルの前記生成された色濃度合計と、前記再レベル付けされたセルに隣接する複数のセルのそれぞれについて決定された前記色濃度の合計とを比較すること、および、
前記再ラベル付けされたセルの前記生成された色濃度合計が、前記再レベル付けされたセルに隣接する複数のセルのそれぞれについて決定された前記色濃度の比較された合計よりも、色整合性しきい値だけ大きい場合、前記再ラベル付けされたセルの前記ラベルを前記背景ラベルに修正することであって、前記ラベルを修正することは、前記プログラム可能デバイスが前記前景オブジェクトを画定するために前景として再ラベル付けされた前記セルから前記フレーム・イメージ・データを使用するステップに先立って実行される、修正すること、
をさらに含む、請求項1に記載の方法。 - 前記プログラム可能デバイスが、
前記再ラベル付けされた前景セルの連続するグループによって形成されるブロックのサイズを、テンプレート・フィルタと比較すること、および、
前記比較されたテンプレート・フィルタに適合しない前記ブロックの連続するグループの前記再ラベル付けされた前景セルのそれぞれの前記ラベルを修正することであって、前記ラベルを修正することは、前記プログラム可能デバイスが前記前景オブジェクトを画定するために前景として再ラベル付けされた前記セルから前記フレーム・イメージ・データを使用するステップに先立って実行される、修正すること、
をさらに含む、請求項2に記載の方法。 - 前記テンプレートが高さおよび幅を有し、前記ブロックの連続するグループの高さが前記テンプレート高さよりも小さい場合、または、前記ブロックの連続するグループの幅が前記テンプレート幅よりも小さい場合、前記プログラム可能デバイスが、前記ブロックの連続するグループのうちの1つの前記再ラベル付けされた前景セルのそれぞれの前記ラベルを修正する、請求項3に記載の方法。
- コンピュータ読み取り可能プログラム・コードを、処理ユニット、コンピュータ読み取り可能メモリ、およびコンピュータ読み取り可能有形記憶媒体を備えるコンピュータ・システムに統合することをさらに含み、前記コンピュータ読み取り可能プログラム・コードは前記コンピュータ読み取り可能有形記憶媒体上に具体化され、前記コンピュータ読み取り可能メモリを介して前記処理ユニットによって実行された場合、
前記当該領域を前記グリッド・アレイに分割するステップと、
前記セルのそれぞれについて前記フレーム・イメージを獲得するステップと、
前記各セル内の前記縁部のエネルギーを検出および累積し、縁部エネルギーしきい値を満たし現在背景としてラベル付けされている前記累積された縁部エネルギーを有する前記セルのそれぞれを、前景として再ラベル付けするステップと、
各セル内の前記複数の異なる色のそれぞれについて前記デバイス色濃度を決定し、そのセルに関して決定された前記色濃度のうちの他方よりも前記色濃度差分しきい値だけ濃い前記決定された色濃度のうちの1つを有し、現在背景としてラベル付けされている、前記セルのそれぞれを、前景として再ラベル付けするステップと、
前記前景オブジェクトを画定するために前景として再ラベル付けされた前記セルから前記フレーム・イメージ・データを使用するステップと、
を、前記処理ユニットに実行させる命令を含む、請求項3に記載の方法。 - 前記決定された色濃度のうちの前記異なる色が、赤、相対的緑、および青の色チャネルのうちの1つである、請求項3に記載の方法。
- 累積された縁部エネルギーが縁部エネルギーしきい値を満たす場合に前景を示すか、または前記累積された縁部エネルギーが前記縁部エネルギーしきい値を満たさない場合に背景を示す、前記セルのそれぞれについて、縁部エネルギー前景指示出力を生成すること、
そのセルに関して決定された前記色濃度のうちの1つが前記決定された色濃度のうちの他方よりも色濃度差分しきい値だけ濃い場合に前景を示すか、または、そのセルに関して決定された前記色濃度のうちのいずれの他方よりも前記色濃度差分しきい値だけ濃い前記決定された色濃度がない場合に背景を示す、前記セルのそれぞれについて、色濃度前景指示出力を生成すること、
前記色濃度前景指示出力および前景指示出力組み合わせ規則の関数としての前記各セルに関する前記色濃度前景指示出力に応答して、前記セルのそれぞれを前景または背景としてラベル付けすること、および、
前記プログラム可能デバイスによって、前景オブジェクトを画定するために前景セルとしてラベル付けされた前記セルから前記フレーム・イメージ・データを使用すること、
をさらに含む、請求項1に記載の方法。 - 前記前景指示出力組み合わせ規則が、前記セルを前景としてラベル付けするために、前景を示すための前記色濃度前景指示出力および前記縁部エネルギー前景指示出力の両方を必要とし、前記プログラム可能デバイスによって前記セルのそれぞれを前景または背景としてラベル付けするステップが、
前記縁部エネルギー前景指示出力および前記色濃度前景指示出力の入力に、前記セルが前景であることを前記入力の両方が示す場合、前記セルのそれぞれ1つについて真の出力を生成する、論理AND演算を適用すること、および、
生成された真の出力を有する前記セルのそれぞれを前記前景セルとしてラベル付けすること、
を含む、請求項7に記載の方法。 - 前記縁部エネルギーしきい値を満たす累積された縁部エネルギーを有することに応答して、前景として示され前記セルのそれぞれについて、前記プログラム可能デバイスが、
色の濃度合計を生成するために、前記異なる決定された色濃度を合計すること、
前記生成された色濃度合計と、前記生成された色濃度合計を有する前記セルに隣接する複数のセルのそれぞれについて決定された前記色濃度の合計とを比較すること、および、
前記生成された色濃度合計が、前記複数の隣接セルのそれぞれについて決定された前記色濃度の前記比較された合計よりも、色整合性しきい値だけ大きい場合、前記生成された色濃度合計を有する前記セルに関する前記前景指示出力を、背景を示すように修正することであって、前記前景指示出力を修正することは、前記前景指示出力組み合わせ規則の関数として、前記セルを前景または背景としてラベル付けするステップに先立って実行される、修正すること、
をさらに含む、請求項8に記載の方法。 - 前記プログラム可能デバイスが、
前記ラベル付けされた前景セルの連続するグループによって形成される前記ブロックのサイズを、テンプレート・フィルタと比較すること、および、
前記比較されたテンプレート・フィルタに適合しない前記ブロックの連続するグループの前記再セルのそれぞれの前記ラベルを修正することであって、前記ラベルを修正することは、前記プログラム可能デバイスが前記前景オブジェクトを画定するために前景としてラベル付けされた前記セルから前記フレーム・イメージ・データを使用するステップに先立って実行される、修正すること、
をさらに含む、請求項9に記載の方法。 - 前記テンプレートが高さおよび幅を有し、前記ブロックの連続するグループの高さが前記テンプレート高さよりも小さい場合、または、前記ブロックの連続するグループの幅が前記テンプレート幅よりも小さい場合、前記プログラム可能デバイスが、前記ブロックの連続するグループのうちの前記再ラベル付けされた前景セルのそれぞれの前記ラベルを修正する、請求項10に記載の方法。
- コンピュータ読み取り可能プログラム・コードを、処理ユニット、コンピュータ読み取り可能メモリ、およびコンピュータ読み取り可能有形記憶媒体を備えるコンピュータ・システムに統合することをさらに含み、前記コンピュータ読み取り可能プログラム・コードは前記コンピュータ読み取り可能有形記憶媒体上に具体化され、前記コンピュータ読み取り可能メモリを介して前記処理ユニットによって実行された場合、
ビデオ・データ・イメージの前記当該領域を前記個別セルのグリッド・アレイに分割するステップと、
前記セルのそれぞれについて前記フレーム・イメージを獲得するステップと、
前記各セル内の前記縁部のエネルギーを検出および累積し、累積された縁部エネルギーが縁部エネルギーしきい値を満たす場合に前景を示すか、または前記累積された縁部エネルギーが前記縁部エネルギーしきい値を満たさない場合に背景を示す、前記セルのそれぞれについて、前記縁部エネルギー前景指示出力を生成するステップと、
前記各セル内の前記異なる色のそれぞれについて前記色濃度を決定し、そのセルに関して決定された前記色濃度のうちの1つが前記決定された色濃度のうちの他方よりも前記色濃度差分しきい値だけ濃い場合に前景を示すか、または、そのセルに関して決定された前記色濃度のうちのいずれの他方よりも前記色濃度差分しきい値だけ濃い前記決定された色濃度がない場合に背景を示す、前記セルのそれぞれについて、前記色濃度前景指示出力を生成するステップと、
前記色濃度前景指示出力および前景指示出力組み合わせ規則の関数としての前記各セルに関する前記色濃度前景指示出力に応答して、前記セルのそれぞれを前景または背景としてラベル付けするステップと、
前景オブジェクトを画定するために前景セルとしてラベル付けされた前記セルから前記フレーム・イメージ・データを使用するステップと、
を、前記処理ユニットに実行させる命令を含む、請求項7に記載の方法。 - コンピュータ読み取り可能メモリおよび有形のコンピュータ読み取り可能記憶媒体と通信する処理ユニットを備え、
前記コンピュータ読み取り可能メモリを介して前記有形のコンピュータ読み取り可能記憶媒体上に記憶されたプログラム命令を実行する場合、前記処理ユニットは、
ビデオ・データ・イメージの当該の領域を、それぞれが背景ラベルで初期化された複数の個別セルのグリッド・アレイに分割することであって、イメージ・データ・フレーム内の前記前景オブジェクトのイメージ・データが連続する複数のセルにわたるように、前記セルのそれぞれが当該の前景オブジェクトの2次元のエリア・サイズよりも小さい2次元のエリア面積を有する、分割すること、
前記セルのそれぞれについてフレーム・イメージ・データを獲得すること、
各前記セル内の縁部のエネルギーを検出および累積し、縁部エネルギーしきい値を満たし現在背景としてラベル付けされている累積された縁部エネルギーを有する前記セルのそれぞれを、前景として再ラベル付けすること、
各セル内の複数の異なる色のそれぞれについて色の濃さを決定し、そのセルに関して決定された前記色濃度のうちの他方よりも色濃度差分しきい値だけ濃い前記決定された色濃度のうちの1つを有し、現在背景としてラベル付けされている、前記セルのそれぞれを、前景として再ラベル付けすること、および、
前景オブジェクトを画定するために前景として再ラベル付けされた前記セルから前記フレーム・イメージ・データを使用すること、
を実行する、システム。 - 前記コンピュータ読み取り可能メモリを介して前記コンピュータ読み取り可能記憶媒体上に記憶された前記プログラム命令を実行する場合、前記処理ユニットは、
前記縁部エネルギーしきい値を満たす累積された縁部エネルギーを有することに応答して、前景として再ラベル付けされた前記セルのそれぞれについて、
前記再ラベル付けされたセルの色の濃度合計を生成するために、前記セルについて決定された前記異なる色濃度を合計すること、
前記再ラベル付けされたセルの前記生成された色濃度合計と、前記再レベル付けされたセルに隣接する複数のセルのそれぞれについて決定された前記色濃度の合計とを比較すること、および、
前記再ラベル付けされたセルの前記生成された色濃度合計が、前記再レベル付けされたセルに隣接する複数のセルのそれぞれについて決定された前記色濃度の比較された合計よりも、色整合性しきい値だけ大きい場合、前記再ラベル付けされたセルの前記ラベルを前記背景ラベルに修正することであって、前記ラベルは、前記前景オブジェクトを画定するために前景として再ラベル付けされた前記セルから前記フレーム・イメージ・データを使用することに先立って修正される、修正すること、
をさらに実行する、請求項13に記載のシステム。 - 前記コンピュータ読み取り可能メモリを介して前記コンピュータ読み取り可能記憶媒体上に記憶された前記プログラム命令を実行する場合、前記処理ユニットは、
前記再ラベル付けされた前景セルの連続するグループによって形成される前記ブロックのサイズを、テンプレート・フィルタと比較すること、および、
前記比較されたテンプレート・フィルタに適合しない前記ブロックの連続するグループの前記再ラベル付けされた前景セルのそれぞれの前記ラベルを修正することであって、前記ラベルは、前記前景オブジェクトを画定するために前景として再ラベル付けされた前記セルから前記フレーム・イメージ・データを使用することに先立って修正される、修正すること、
をさらに実行する、請求項14に記載のシステム。 - 前記テンプレートが高さおよび幅を有し、前記コンピュータ読み取り可能メモリを介して前記コンピュータ読み取り可能記憶媒体上に記憶された前記プログラム命令を実行する場合、前記処理ユニットは、前記ブロックの連続するグループの高さが前記テンプレート高さよりも小さい場合、または、前記ブロックの連続するグループの幅が前記テンプレート幅よりも小さい場合、前記ブロックの連続するグループのうちの1つの前記再ラベル付けされた前景セルのそれぞれの前記ラベルをさらに修正する、請求項15に記載のシステム。
- 前記テンプレート高さは少なくとも前記セル2つの高さであり、前記テンプレート幅は少なくとも前記セル2つの幅である、請求項16に記載のシステム。
- 前景オブジェクトと背景モデルを区別するためのプログラムであって、
ビデオ・データ・イメージの領域を、それぞれが背景ラベルで初期化された複数の個別セルのグリッド・アレイに分割することであって、イメージ・データ・フレーム内の前記前景オブジェクトのイメージ・データが連続する複数のセルにわたるように、前記セルのそれぞれが当該の前景オブジェクトの2次元のエリア・サイズよりも小さい2次元のエリア面積を有する、分割すること、
前記セルのそれぞれについてフレーム・イメージ・データを獲得すること、
各前記セル内の縁部のエネルギーを検出および累積し、縁部エネルギーしきい値を満たし現在背景としてラベル付けされている累積された縁部エネルギーを有する前記セルのそれぞれを、前景として再ラベル付けすること、
各セル内の複数の異なる色のそれぞれについて色の濃さを決定し、そのセルに関して決定された色濃度のうちの他方よりも色濃度差分しきい値だけ濃い前記決定された色濃度のうちの1つを有し、現在背景としてラベル付けされている、前記セルのそれぞれを、前景として再ラベル付けすること、および、
前景オブジェクトを画定するために前景として再ラベル付けされた前記セルから前記フレーム・イメージ・データを使用すること、
を、前記コンピュータ処理ユニットに実行させる命令を含む、プログラム。 - 累積された縁部エネルギーが縁部エネルギーしきい値を満たす場合に前景を示すか、または前記累積された縁部エネルギーが前記縁部エネルギーしきい値を満たさない場合に背景を示す、前記セルのそれぞれについて、縁部エネルギー前景指示出力を生成すること、
そのセルに関して決定された前記色濃度のうちの1つが前記決定された色濃度のうちの他方よりも色濃度差分しきい値だけ濃い場合に前景を示すか、または、そのセルに関して決定された前記色濃度のうちのいずれの他方よりも前記色濃度差分しきい値だけ濃い前記決定された色濃度がない場合に背景を示す、前記セルのそれぞれについて、色濃度前景指示出力を生成すること、
前記色濃度前景指示出力および前景指示出力組み合わせ規則の関数としての前記各セルに関する前記色濃度前景指示出力に応答して、前記セルのそれぞれを前景または背景としてラベル付けすること、および、
前景オブジェクトを画定するために前景セルとしてラベル付けされた前記セルから前記フレーム・イメージ・データを使用すること、
を、前記コンピュータ処理ユニットに実行させる、請求項18に記載のプログラム。 - 前記前景指示出力組み合わせ規則が、前記セルを前景としてラベル付けするために、前景を示すための前記色濃度前景指示出力および前記縁部エネルギー前景指示出力の両方を必要とし、
前記縁部エネルギー前景指示出力および前記色濃度前景指示出力の入力に、前記セルが前景であることを前記入力の両方が示す場合、前記セルのそれぞれ1つについて真の出力を生成する、論理AND演算を適用すること、および、
生成された真の出力を有する前記セルのそれぞれを前記前景セルとしてラベル付けすること、
によって、さらに前記コンピュータ処理ユニットに前記セルのそれぞれを前景または背景としてラベル付けさせる、請求項19に記載のプログラム。 - 前記縁部エネルギーしきい値を満たす累積された縁部エネルギーを有することに応答して、前景として示された前記セルのそれぞれについて、
色の濃度合計を生成するために、前記異なる決定された色濃度を合計すること、
前記生成された色濃度合計と、前記生成された色濃度合計を有する前記セルに隣接する複数のセルのそれぞれについて決定された前記色濃度の合計とを比較すること、および、
前記生成された色濃度合計が、前記複数の隣接セルのそれぞれについて決定された前記色濃度の前記比較された合計よりも、色整合性しきい値だけ大きい場合、前記生成された色濃度合計を有する前記セルに関する前記前景指示出力を、背景を示すように修正することであって、前記前景指示出力は、前記前景指示出力組み合わせ規則の関数として、前記セルを前景または背景としてラベル付けすることに先立って修正される、修正すること、を、さらに前記コンピュータ処理ユニットに実行させる、請求項20に記載のプログラム。 - 前記ラベル付けされた前景セルの連続するグループによって形成される前記ブロックのサイズを、テンプレート・フィルタと比較すること、および、
前記比較されたテンプレート・フィルタに適合しない前記ブロックの連続するグループの前記再セルのそれぞれの前記ラベルを修正することであって、前記ラベルは、前記前景オブジェクトを画定するために前景としてラベル付けされた前記セルから前記フレーム・イメージ・データを使用することに先立って修正される、修正すること、
を、さらに前記コンピュータ処理ユニットに実行させる、請求項21に記載のプログラム。 - 前記テンプレートが高さおよび幅を有し、前記ブロックの連続するグループの高さが前記テンプレート高さよりも小さい場合、または、前記ブロックの連続するグループの幅が前記テンプレート幅よりも小さい場合、前記ブロックの連続するグループのうちの前記ラベル付けされた前景セルのそれぞれの前記ラベルを修正することを、さらに前記コンピュータ処理ユニットに実行させる、請求項22に記載のプログラム。
- 請求項1から12のいずれか一項に記載の方法を実行するように適合されたプログラム・コード手段を含むコンピュータ・プログラムであって、コンピュータ上で実行されるコンピュータ・プログラム。
- 前景オブジェクトと背景モデルを区別するための方法であって、
プログラム可能デバイスによって、ビデオ・データ・イメージの領域を、複数の個別セルのグリッド・アレイに分割することであって、イメージ・データ・フレーム内の前記前景オブジェクトのイメージ・データが連続する複数のセルにわたるように、前記セルのそれぞれが当該の前景オブジェクトの2次元のエリア・サイズよりも小さい2次元のエリア面積を有する、分割すること、
前記プログラム可能デバイスによって、前記セルのそれぞれについてフレーム・イメージ・データを獲得すること、
前記プログラム可能デバイスによって各前記セル内の縁部のエネルギーを検出および累積し、累積された縁部エネルギーが縁部エネルギーしきい値を満たす場合に前景を示すか、または前記累積された縁部エネルギーが前記縁部エネルギーしきい値を満たさない場合に背景を示す、前記セルのそれぞれについて、縁部エネルギー前景指示出力を生成すること、
前記プログラム可能デバイスによって前記各セル内の複数の異なる色のそれぞれについて色濃度を決定し、そのセルに関して決定された色濃度のうちの1つが前記決定された色濃度のうちの他方よりも色濃度差分しきい値だけ濃い場合に前景を示すか、または、そのセルに関して決定された前記色濃度のうちのいずれの他方よりも前記色濃度差分しきい値だけ濃い前記決定された色濃度がない場合に背景を示す、前記セルのそれぞれについて、色濃度前景指示出力を生成すること、
前記色濃度前景指示出力および前景指示出力組み合わせ規則の関数としての前記各セルに関する前記色濃度前景指示出力に応答して、前記セルのそれぞれを前景または背景としてラベル付けすること、および、
前記プログラム可能デバイスによって、前景オブジェクトを画定するために前景セルとしてラベル付けされた前記セルから前記フレーム・イメージ・データを使用すること、
を含む、方法。 - ビデオ・データ・イメージの当該の領域を、複数の個別セルのグリッド・アレイに分割することであって、イメージ・データ・フレーム内の前記前景オブジェクトのイメージ・データが連続する複数のセルにわたるように、前記セルのそれぞれが当該の前景オブジェクトの2次元のエリア・サイズよりも小さい2次元のエリア面積を有する、分割すること、
前記セルのそれぞれについてフレーム・イメージ・データを獲得すること、
各前記セル内の縁部のエネルギーを検出および累積し、累積された縁部エネルギーが縁部エネルギーしきい値を満たす場合に前景を示すか、または前記累積された縁部エネルギーが前記縁部エネルギーしきい値を満たさない場合に背景を示す、前記セルのそれぞれについて、縁部エネルギー前景指示出力を生成すること、
前記各セル内の複数の異なる色のそれぞれについて色濃度を決定し、そのセルに関して決定された前記色濃度のうちの1つが前記決定された色濃度のうちの他方よりも色濃度差分しきい値だけ濃い場合に前景を示すか、または、そのセルに関して決定された前記色濃度のうちのいずれの他方よりも前記色濃度差分しきい値だけ濃い前記決定された色濃度がない場合に背景を示す、前記セルのそれぞれについて、色濃度前景指示出力を生成すること、
前記色濃度前景指示出力および前景指示出力組み合わせ規則の関数としての前記各セルに関する前記色濃度前景指示出力に応答して、前記セルのそれぞれを前景または背景としてラベル付けすること、および、
前景オブジェクトを画定するために前景セルとしてラベル付けされた前記セルから前記フレーム・イメージ・データを使用すること、
を、前記コンピュータ処理ユニットに実行させる、プログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/523,074 | 2012-06-14 | ||
US13/523,074 US8917934B2 (en) | 2012-06-14 | 2012-06-14 | Multi-cue object detection and analysis |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015506345A Division JP5815910B2 (ja) | 2012-06-14 | 2013-05-31 | マルチキュー・オブジェクトの検出および分析のための方法、システム、製品、およびコンピュータ・プログラム(マルチキュー・オブジェクトの検出および分析) |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016027490A true JP2016027490A (ja) | 2016-02-18 |
JP6180482B2 JP6180482B2 (ja) | 2017-08-16 |
Family
ID=49755982
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015506345A Active JP5815910B2 (ja) | 2012-06-14 | 2013-05-31 | マルチキュー・オブジェクトの検出および分析のための方法、システム、製品、およびコンピュータ・プログラム(マルチキュー・オブジェクトの検出および分析) |
JP2015186476A Active JP6180482B2 (ja) | 2012-06-14 | 2015-09-24 | マルチキュー・オブジェクトの検出および分析のための方法、システム、製品、およびコンピュータ・プログラム(マルチキュー・オブジェクトの検出および分析) |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015506345A Active JP5815910B2 (ja) | 2012-06-14 | 2013-05-31 | マルチキュー・オブジェクトの検出および分析のための方法、システム、製品、およびコンピュータ・プログラム(マルチキュー・オブジェクトの検出および分析) |
Country Status (6)
Country | Link |
---|---|
US (4) | US8917934B2 (ja) |
JP (2) | JP5815910B2 (ja) |
CN (1) | CN104350510B (ja) |
DE (1) | DE112013001858B4 (ja) |
GB (1) | GB2516204B (ja) |
WO (1) | WO2013186662A1 (ja) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8943426B2 (en) * | 2011-11-03 | 2015-01-27 | Htc Corporation | Method for displaying background wallpaper and one or more user interface elements on display unit of electrical apparatus at the same time, computer program product for the method and electrical apparatus implementing the method |
US8917934B2 (en) | 2012-06-14 | 2014-12-23 | International Business Machines Corporation | Multi-cue object detection and analysis |
KR101384332B1 (ko) * | 2012-09-06 | 2014-04-10 | 현대모비스 주식회사 | 차량 영상처리 장치 및 방법과 이를 이용한 차량 영상처리 시스템 |
US9020248B2 (en) * | 2013-02-22 | 2015-04-28 | Nec Laboratories America, Inc. | Window dependent feature regions and strict spatial layout for object detection |
US9213896B2 (en) * | 2013-03-05 | 2015-12-15 | Mitsubishi Electric Research Laboratories, Inc. | Method for detecting and tracking objects in image sequences of scenes acquired by a stationary camera |
US9020198B2 (en) * | 2013-03-14 | 2015-04-28 | Nec Laboratories America, Inc. | Dimension-wise spatial layout importance selection: an alternative way to handle object deformation |
US9595125B2 (en) * | 2013-08-30 | 2017-03-14 | Qualcomm Incorporated | Expanding a digital representation of a physical plane |
US9996974B2 (en) * | 2013-08-30 | 2018-06-12 | Qualcomm Incorporated | Method and apparatus for representing a physical scene |
GB2528028B (en) | 2014-05-13 | 2017-08-09 | String Labs Ltd | Border tracing |
GB2528233B (en) | 2014-05-13 | 2017-02-22 | String Labs Ltd | Identifying features |
GB2528429B (en) | 2014-05-13 | 2016-12-14 | String Labs Ltd | Border detection |
GB2528027B (en) | 2014-05-13 | 2016-12-14 | String Labs Ltd | Perimeter detection |
WO2015186341A1 (ja) | 2014-06-03 | 2015-12-10 | 日本電気株式会社 | 画像処理システム、画像処理方法及びプログラム記憶媒体 |
CN107709930B (zh) * | 2015-06-18 | 2021-08-31 | 宝马股份公司 | 用于表示地图要素的方法和装置以及用于定位车辆/机器人的方法和装置 |
US9946951B2 (en) * | 2015-08-12 | 2018-04-17 | International Business Machines Corporation | Self-optimized object detection using online detector selection |
US9734597B2 (en) * | 2015-12-18 | 2017-08-15 | Intel Corporation | Interpolated minimum-maximum compression/decompression for efficient processing of graphics data at computing devices |
US9953448B2 (en) * | 2016-01-26 | 2018-04-24 | Sony Corporation | Method and system for image processing |
CN107092855A (zh) * | 2016-02-18 | 2017-08-25 | 日本电气株式会社 | 车辆部件识别方法和设备、车辆识别方法和设备 |
US10766154B2 (en) * | 2016-02-19 | 2020-09-08 | Koninklijke Philips N.V. | System and method for treating a part of a body |
CN105678834B (zh) | 2016-02-26 | 2019-12-17 | 腾讯科技(深圳)有限公司 | 区分对象的方法和装置 |
CN106408588A (zh) * | 2016-04-29 | 2017-02-15 | 广西科技大学 | 一种基于图像处理技术的投篮命中率影响因素的分析方法 |
US10301041B2 (en) * | 2016-06-09 | 2019-05-28 | California Institute Of Technology | Systems and methods for tracking moving objects |
CN106127292B (zh) * | 2016-06-29 | 2019-05-07 | 上海小蚁科技有限公司 | 流量计数方法和设备 |
US10037890B2 (en) * | 2016-10-11 | 2018-07-31 | Lam Research Corporation | Method for selectively etching with reduced aspect ratio dependence |
WO2018068311A1 (zh) * | 2016-10-14 | 2018-04-19 | 富士通株式会社 | 背景模型的提取装置、交通拥堵状况检测方法和装置 |
CN109427062A (zh) * | 2017-08-30 | 2019-03-05 | 深圳星行科技有限公司 | 道路特征标记方法、装置、计算机设备以及可读存储介质 |
CN107977978B (zh) * | 2017-11-01 | 2020-08-21 | 浙江农林大学 | 一种基于椭圆轴关系确定细胞粘连方式的方法及系统 |
CN109961065B (zh) * | 2017-12-25 | 2021-05-25 | 中国科学院沈阳自动化研究所 | 一种海面舰船目标检测方法 |
CN108763580A (zh) * | 2018-06-08 | 2018-11-06 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机存储介质 |
CN109034058B (zh) * | 2018-07-25 | 2022-01-04 | 哈工大机器人(合肥)国际创新研究院 | 一种针对图像中区域划分和自修正方法和系统 |
JP7139181B2 (ja) | 2018-07-26 | 2022-09-20 | ワイエイシイテクノロジーズ株式会社 | プラズマ処理装置 |
CN109887276B (zh) * | 2019-01-30 | 2020-11-03 | 北京同方软件有限公司 | 基于前景提取与深度学习融合的夜间交通拥堵检测方法 |
CN110399803B (zh) * | 2019-07-01 | 2022-04-22 | 北京邮电大学 | 一种车辆检测方法及装置 |
JP7446756B2 (ja) * | 2019-10-02 | 2024-03-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US11009604B1 (en) * | 2020-01-31 | 2021-05-18 | Zebra Technologies Corporation | Methods for detecting if a time of flight (ToF) sensor is looking into a container |
CN113361299B (zh) * | 2020-03-03 | 2023-08-15 | 浙江宇视科技有限公司 | 一种异常停车的检测方法、装置、存储介质及电子设备 |
US11651685B2 (en) | 2020-09-23 | 2023-05-16 | International Business Machines Corporation | Traffic data analysis and traffic jam prediction |
US11887328B1 (en) * | 2022-08-04 | 2024-01-30 | VergeSense, Inc. | Method for debugging images and tracking usage patterns of anonymous objects within a space |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09270007A (ja) * | 1996-03-29 | 1997-10-14 | Nagoya Denki Kogyo Kk | 車両検出方法およびこれを用いた車両検出装置 |
JP2003281700A (ja) * | 2002-03-25 | 2003-10-03 | Toshiba Corp | 割り込み車両検出装置及びその方法 |
US20100046831A1 (en) * | 2008-08-24 | 2010-02-25 | Samsung Electronics Co., Ltd | Method of processing image and image forming apparatus using the same |
JP2010277227A (ja) * | 2009-05-27 | 2010-12-09 | Sharp Corp | 画像処理装置、画像処理方法、コンピュータプログラム及び記録媒体 |
JP2011233072A (ja) * | 2010-04-30 | 2011-11-17 | Fujitsu Ltd | ロボット、位置推定方法及びプログラム |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4339745A (en) * | 1980-05-14 | 1982-07-13 | General Electric Company | Optical character recognition |
US5161107A (en) * | 1990-10-25 | 1992-11-03 | Mestech Creation Corporation | Traffic surveillance system |
US5268967A (en) * | 1992-06-29 | 1993-12-07 | Eastman Kodak Company | Method for automatic foreground and background detection in digital radiographic images |
US6782126B2 (en) * | 2001-02-20 | 2004-08-24 | International Business Machines Corporation | Method for combining feature distance with spatial distance for segmentation |
US6778705B2 (en) * | 2001-02-27 | 2004-08-17 | Koninklijke Philips Electronics N.V. | Classification of objects through model ensembles |
CN1213592C (zh) * | 2001-07-31 | 2005-08-03 | 佳能株式会社 | 采用自适应二值化的图象处理方法和设备 |
US6973213B2 (en) * | 2001-10-12 | 2005-12-06 | Xerox Corporation | Background-based image segmentation |
JP3789812B2 (ja) | 2001-12-17 | 2006-06-28 | 三菱電機株式会社 | 宇宙航行光学機器及びその汚染物質除去方法 |
US7043474B2 (en) * | 2002-04-15 | 2006-05-09 | International Business Machines Corporation | System and method for measuring image similarity based on semantic meaning |
US7260257B2 (en) * | 2002-06-19 | 2007-08-21 | Microsoft Corp. | System and method for whiteboard and audio capture |
DE10353785B4 (de) * | 2003-11-18 | 2006-05-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zur Erfassung von verschiedenen Zelltypen von Zellen in einer biologischen Probe |
JP4760044B2 (ja) * | 2004-03-08 | 2011-08-31 | セイコーエプソン株式会社 | 画像における主要被写体の決定 |
US7668365B2 (en) * | 2004-03-08 | 2010-02-23 | Seiko Epson Corporation | Determination of main object on image and improvement of image quality according to main object |
US7848567B2 (en) * | 2004-09-23 | 2010-12-07 | Fuji Xerox Co., Ltd. | Determining regions of interest in synthetic images |
US8126283B1 (en) * | 2005-10-13 | 2012-02-28 | Maxim Integrated Products, Inc. | Video encoding statistics extraction using non-exclusive content categories |
WO2008014826A1 (en) * | 2006-08-03 | 2008-02-07 | Alterface S.A. | Method and device for identifying and extracting images of multiple users, and for recognizing user gestures |
JP4558047B2 (ja) * | 2008-01-23 | 2010-10-06 | オリンパス株式会社 | 顕微鏡システム、画像生成方法、及びプログラム |
EP2093698A1 (en) | 2008-02-19 | 2009-08-26 | British Telecommunications Public Limited Company | Crowd congestion analysis |
JP4772839B2 (ja) * | 2008-08-13 | 2011-09-14 | 株式会社エヌ・ティ・ティ・ドコモ | 画像識別方法および撮像装置 |
CN102165493B (zh) * | 2008-09-25 | 2013-11-06 | 澳大利亚国家Ict有限公司 | 对图像中的车辆的检测 |
CN101699512B (zh) | 2009-10-30 | 2011-09-21 | 无锡景象数字技术有限公司 | 一种基于背景差异抠图和稀疏光流法的深度的生成方法 |
US8358808B2 (en) | 2010-01-08 | 2013-01-22 | University Of Washington | Video-based vehicle detection and tracking using spatio-temporal maps |
JP2011209966A (ja) | 2010-03-29 | 2011-10-20 | Sony Corp | 画像処理装置および方法、並びにプログラム |
US8483481B2 (en) | 2010-07-27 | 2013-07-09 | International Business Machines Corporation | Foreground analysis based on tracking information |
CN101944267B (zh) | 2010-09-08 | 2012-04-18 | 大连古野软件有限公司 | 基于视频的烟火检测装置 |
AU2010241260B2 (en) * | 2010-10-29 | 2013-12-19 | Canon Kabushiki Kaisha | Foreground background separation in a scene with unstable textures |
CN102270343B (zh) | 2011-07-27 | 2013-06-19 | 宁波大学 | 一种基于Ising图模型的图像分割方法 |
US9113059B2 (en) * | 2011-11-30 | 2015-08-18 | Canon Kabushiki Kaisha | Image pickup apparatus and image region discrimination method |
US20130259374A1 (en) * | 2012-03-29 | 2013-10-03 | Lulu He | Image segmentation |
US8917934B2 (en) | 2012-06-14 | 2014-12-23 | International Business Machines Corporation | Multi-cue object detection and analysis |
-
2012
- 2012-06-14 US US13/523,074 patent/US8917934B2/en active Active
-
2013
- 2013-05-31 CN CN201380028291.9A patent/CN104350510B/zh active Active
- 2013-05-31 GB GB1420407.7A patent/GB2516204B/en active Active
- 2013-05-31 JP JP2015506345A patent/JP5815910B2/ja active Active
- 2013-05-31 DE DE112013001858.6T patent/DE112013001858B4/de active Active
- 2013-05-31 WO PCT/IB2013/054505 patent/WO2013186662A1/en active Application Filing
-
2014
- 2014-11-11 US US14/538,233 patent/US9171375B2/en active Active
-
2015
- 2015-09-22 US US14/861,085 patent/US9396548B2/en not_active Expired - Fee Related
- 2015-09-24 JP JP2015186476A patent/JP6180482B2/ja active Active
-
2016
- 2016-06-08 US US15/176,289 patent/US10037604B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09270007A (ja) * | 1996-03-29 | 1997-10-14 | Nagoya Denki Kogyo Kk | 車両検出方法およびこれを用いた車両検出装置 |
JP2003281700A (ja) * | 2002-03-25 | 2003-10-03 | Toshiba Corp | 割り込み車両検出装置及びその方法 |
US20100046831A1 (en) * | 2008-08-24 | 2010-02-25 | Samsung Electronics Co., Ltd | Method of processing image and image forming apparatus using the same |
JP2010277227A (ja) * | 2009-05-27 | 2010-12-09 | Sharp Corp | 画像処理装置、画像処理方法、コンピュータプログラム及び記録媒体 |
JP2011233072A (ja) * | 2010-04-30 | 2011-11-17 | Fujitsu Ltd | ロボット、位置推定方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20160284097A1 (en) | 2016-09-29 |
GB2516204A (en) | 2015-01-14 |
GB2516204B (en) | 2015-09-16 |
US9171375B2 (en) | 2015-10-27 |
JP5815910B2 (ja) | 2015-11-17 |
CN104350510A (zh) | 2015-02-11 |
JP2015514278A (ja) | 2015-05-18 |
GB201420407D0 (en) | 2014-12-31 |
DE112013001858T5 (de) | 2014-12-24 |
US20150063689A1 (en) | 2015-03-05 |
CN104350510B (zh) | 2017-10-31 |
US10037604B2 (en) | 2018-07-31 |
US9396548B2 (en) | 2016-07-19 |
WO2013186662A1 (en) | 2013-12-19 |
DE112013001858B4 (de) | 2018-06-21 |
US20160012606A1 (en) | 2016-01-14 |
JP6180482B2 (ja) | 2017-08-16 |
US8917934B2 (en) | 2014-12-23 |
US20130336581A1 (en) | 2013-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6180482B2 (ja) | マルチキュー・オブジェクトの検出および分析のための方法、システム、製品、およびコンピュータ・プログラム(マルチキュー・オブジェクトの検出および分析) | |
US10261574B2 (en) | Real-time detection system for parked vehicles | |
Messelodi et al. | A computer vision system for the detection and classification of vehicles at urban road intersections | |
Zheng et al. | A novel vehicle detection method with high resolution highway aerial image | |
RU2484531C2 (ru) | Устройство обработки видеоинформации системы охранной сигнализации | |
Azevedo et al. | Automatic vehicle trajectory extraction by aerial remote sensing | |
Barcellos et al. | A novel video based system for detecting and counting vehicles at user-defined virtual loops | |
US9104919B2 (en) | Multi-cue object association | |
Guerrieri et al. | Flexible and stone pavements distress detection and measurement by deep learning and low-cost detection devices | |
Bu et al. | A UAV photography–based detection method for defective road marking | |
Delavarian et al. | Multi‐camera multiple vehicle tracking in urban intersections based on multilayer graphs | |
KR et al. | Moving vehicle identification using background registration technique for traffic surveillance | |
Muniruzzaman et al. | Deterministic algorithm for traffic detection in free-flow and congestion using video sensor | |
Pun et al. | A real-time detector for parked vehicles based on hybrid background modeling | |
Oh et al. | Development of an integrated system based vehicle tracking algorithm with shadow removal and occlusion handling methods | |
Li et al. | A video-based algorithm for moving objects detection at signalized intersection | |
Ata et al. | A fine tuned tracking of vehicles under different video degradations | |
Sankaranarayanan et al. | Improved Vehicle Detection Accuracy and Processing Time for Video Based ITS Applications | |
Bartolomé-Hornillos et al. | A self-adaptive automatic incident detection system for road surveillance based on deep learning | |
Hamdan et al. | Measuring the road traffic intensity using neural network with computer vision | |
KR102498538B1 (ko) | 세그멘테이션 기반의 영상 분석 시스템, 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체 | |
Kansal et al. | Real time system for vehicle counting with speed estimation and license plate detection | |
Mohammed et al. | Autonomous driving object detection using ACF | |
Fernandez et al. | Traffic flow analysis | |
Amoguis et al. | Road Lane Segmentation and Functionality Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6180482 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |