JP6474854B2 - 背景モデルを更新するための方法及び装置 - Google Patents
背景モデルを更新するための方法及び装置 Download PDFInfo
- Publication number
- JP6474854B2 JP6474854B2 JP2017108872A JP2017108872A JP6474854B2 JP 6474854 B2 JP6474854 B2 JP 6474854B2 JP 2017108872 A JP2017108872 A JP 2017108872A JP 2017108872 A JP2017108872 A JP 2017108872A JP 6474854 B2 JP6474854 B2 JP 6474854B2
- Authority
- JP
- Japan
- Prior art keywords
- background
- pixel
- image
- samples
- collection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 25
- 238000013459 approach Methods 0.000 description 12
- 230000015654 memory Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 230000000877 morphologic effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Description
画像を受信すること、
画像の各ピクセルに対して背景サンプルの集合体を含む背景モデルを使用し、背景差分を実行することによって画像の各ピクセルを前景又は背景として分類すること、
画像の各ピクセルが背景として分類されることによって背景モデルを更新すること、
類似性条件を満たすピクセルに関連する背景サンプルの集合体の中から背景サンプルを選択すること、
類似性条件を満たす背景サンプルをピクセルの画像データで置き換えること
を含む、画像の背景差分で使用される背景モデルの更新のための装置で実行される方法によって実現される。
画像シーケンスを受信して、画像シーケンス中の毎N番目の画像を除き、画像シーケンス中の各画像に対して分類するステップと更新するステップを繰り返すことであって、N>2では、背景モデルの更新は代わりに、背景として分類されたN番目の画像の各ピクセルによって行われる、繰り返すことと、
ピクセルに関連する背景サンプルの集合体の中の背景サンプルをピクセルの画像データによって置き換えることであって、置き換えられた背景サンプルは、N番目の画像の全ピクセルと同一の背景サンプルの集合体のインデックスを有する、置き換えること
を含む。
ピクセルの画像データを、ピクセルに関連する背景サンプルの集合体の中の各背景サンプルと比較することと、
分類閾値未満の値だけピクセルの画像データと異なる背景サンプルの数が所定の数を下回る場合には、ピクセルが前景であると判定することと
を含みうる。
として表現されうる。結論として、「類似した背景サンプルはない」という事象は、
を否定する事象と同等となる。
画像を受信するように構成された受信器と、
画像の各ピクセルに対する背景サンプルの集合体を含む背景モデルを用いて、背景差分を実行することによって、画像の各ピクセルを前景又は背景として分類するように構成された分類コンポーネントと、
背景として分類される画像の各ピクセルに対して、
類似性条件を満たすピクセルに関連する背景サンプルの集合体の中の背景サンプルを選択すること、
類似性条件を満たす背景サンプルをピクセルの画像データで置き換えること
によって、背景モデルを更新するように構成された背景更新コンポーネントと
を備える、画像の背景差分用に使用される背景モデルを更新するための装置が提供される。
はピクセルmの背景サンプルの集合体を意味する。各観測値
はkチャネル(例えば、RGBカラー空間内では、各観測値はR、G、Bの3つのチャネルで表現される)を有する。画像データが閾値Tr未満の値だけ各背景サンプルと異なるか否かを知るため、画像220の各ピクセル228に関して、前景分類器114は、画像データ、すなわち(該当する場合には各チャネルに対する)強度値を、ピクセル228に関連する集合体240の中の各背景サンプルと比較する。例えば、前景分類器114は、
に従って、閾値Tr未満の値だけピクセルの画像データとは異なる背景サンプルを“1”に結び付けてもよく、他の背景サンプルは値“0”に結び付けられる。閾値Tr未満の値だけピクセルの画像データとは異なる集合体240の背景サンプルの数が、所定の数TNを上回るか等しい場合には、前景分類器114はピクセルが背景に属すると判定しうる。そうでない場合には、ピクセルは前景に属する。
に従って、時刻tで背景ピクセルに対して値“1”を、前景ピクセルに対して値“0”を取るバイナリマスクBtによって実装されうる。別の言い方をするならば、前景分類器114はこのように、閾値Tr未満の値だけピクセル228の画像データとは異なる集合体240の背景サンプルの数をカウントしてもよい。この数が所定の数TNに等しいか、これを超える場合には、前景分類器はピクセルが背景234に属し、それ以外のときには前景232に属すると判定する。したがって、前景分類器は、ピクセル228の画像データに(式1の意味で)類似する集合体240の中に少なくともTN個の背景サンプルを検出する。
このように、前景分類器114は、論理OR演算(すなわち、第1の背景サンプル、又は第2の背景サンプル、又は第3の背景サンプルなど)の実行により、閾値未満の値だけピクセルの画像データとは異なるピクセルに関連する背景サンプルの少なくとも1つが、閾値Tr未満の値だけピクセル228の画像データと異なるかどうかをチェックしうる。上記が当てはまらない場合には、前景分類器114はピクセルを前景に属するとして分類する。このように、論理演算が必要とする処理能力とメモリ使用量は少ないため、計算の複雑性は軽減されうる。
のように更新しうる。背景の運動が起こった場合には、運動はすぐに再び起こる可能性が高いため、背景の新しい動的な変化に迅速に応答し、ゆっくりと減少するため、一般的に、νincrはνdecrよりも大きい。
となりうる。類似性閾値は、上述の閾値Trと同等の大きさになりうる。例えば、類似性閾値は、前述の式Tr=Tc+aν(m)で用いられた定数Tcと等しくなるように、或いはやや低くなるように設定されうる。
Claims (8)
- 画像(220)の背景差分に使用される背景モデルを更新するための装置(110)で実行される方法であって、
画像シーケンスの一部である画像(220)を受信するステップ(S02)と、
前記画像の各ピクセルに対する背景サンプルの集合体(240)を含む背景モデルを使用して背景差分を実行することにより、前記画像(220)の各ピクセル(228)を前景(232)又は背景(234)として分類するステップ(S04)であって、前記ピクセル(228)に関連する背景サンプルの前記集合体(240)はインデックス付けされる、分類するステップ(S04)と、
背景として分類される前記画像の各ピクセルに対して、
背景サンプルの前記集合体(240)の中から、前記ピクセルに関連する、類似性条件を満たす背景サンプル(242、342)を選択するステップ(S06a)であって、前記背景サンプルが類似性閾値未満の値だけ前記ピクセル(228)の前記画像のデータと異なる場合には、前記類似性条件は背景サンプル(242、342)に対して満たされる、選択するステップ(S06a)、
前記類似性条件を満たす前記背景サンプルを前記ピクセルの画像データで置き換えるステップ(S06b)
によって前記背景モデルを更新するステップ(S06)と
を含み、
前記選択するステップ(S06a)は、前記類似性条件を満たす背景サンプル(242)が見つかるまで、前記ピクセルの前記画像データを背景サンプルの前記集合体の中の前記背景サンプルと1つずつ比較することによって、前記ピクセル(228)に関連する背景サンプルの前記集合体(240)を繰り返し検索することを含み、
前記繰り返し検索は、前記画像シーケンス中の先行画像のピクセルに関する繰り返し検索を開始するために使用されるインデックスに続く背景サンプルの前記集合体のインデックス(244)で開始される、方法。 - 背景サンプルの前記集合体(240)の中に前記類似性条件を満たす背景サンプルが1つもない場合には、前記類似性条件を満たさない背景サンプルが、前記ピクセル(228)の画像のデータで置き換えられる、請求項1に記載の方法。
- 前記画像(420)の各ピクセル(428)に対して、
前記ピクセル(428)に関連する背景サンプルの前記集合体(240)の中に、各背景サンプルがどれだけの期間にわたって含まれていたかを記録することを更に含み、
所定の制限時間よりも長い期間にわたって背景サンプルの前記集合体(240)の中に含まれていた背景サンプルはなかったという条件のもとで、前記選択するステップ(S06a)と置き換えるステップ(S06b)は行われ、
背景サンプルが所定の制限時間よりも長い期間にわたって背景サンプルが前記集合体の中に含まれていた場合には、前記所定の制限時間よりも長い期間にわたって背景サンプルの前記集合体の中にあった前記背景サンプル(442)は前記ピクセル(428)の画像データによって置き換えられる、請求項1又は2に記載の方法。 - 画像シーケンスを受信して、前記画像シーケンス中の毎N番目の画像(520)を除き、前記画像シーケンス中の各画像に対して分類するステップ(S04)と更新するステップ(S06)を繰り返すことであって、N>2では、前記背景モデルの前記更新は代わりに、背景として分類されたN番目の画像(520)の各ピクセル(528a、520b、528c)によって行われる、繰り返すことと、
前記ピクセルに関連する背景サンプルの前記集合体(540a、540b、540c)の中の背景サンプルを前記ピクセル(528a、520b、528c)の画像データによって置き換えることであって、N番目の画像(520)の全ピクセル(528a、520b、528c)で置き換えられる前記集合体(540a、540b、540c)の前記各背景サンプルは同一のインデックスを有する、置き換えることと
を更に含む、請求項1から3のいずれか一項に記載の方法。 - 前記画像の各ピクセルに対して、前記画像の各ピクセル(228)を前景(232)又は背景(234)として分類するステップ(S04)は、
前記ピクセル(228)の前記画像データを、前記ピクセルに関連する背景サンプルの前記集合体(240)の中の前記背景サンプルの各々と比較することと、
前記ピクセル(228)の前記画像データと分類閾値未満の値だけ異なる背景サンプルの数が所定の数を下回る場合には、前記ピクセル(228)が前景(234)であると判定することと
を含む、請求項1から4のいずれか一項に記載の方法。 - 前記所定の数が1に等しく、前記ピクセル(228)が前景(234)であると判定するステップは、
前記ピクセル(228)に関連する前記背景サンプルの少なくとも1つが前記ピクセルの前記画像データと異なり、その差分が分類閾値未満の値である場合には、前記ピクセル(228)が背景であると判定し、そうでない場合には、前記ピクセル(228)は前景であると判定すること
を含む、請求項5に記載の方法。 - コンピュータに、請求項1から6のいずれか一項に記載の方法を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
- 画像(220)の背景差分に使用される背景モデルを更新するための装置(110)であって、
画像シーケンスの一部である画像(220)を受信するように構成された受信器(112)と、
前記画像(220)の各ピクセル(228)に対する背景サンプルの集合体(240)を含む背景モデルを使用して背景差分を実行することにより、前記画像(220)の各ピクセル(228)を前景(232)又は背景(234)として分類するように構成された分類コンポーネント(114)であって、前記ピクセル(228)に関連する背景サンプルの前記集合体(240)はインデックス付けされる、分類コンポーネント(114)と、
背景として分類される前記画像の各ピクセルに対して、
背景サンプルの前記集合体(240)の中から、前記ピクセル(228)に関連する、類似性条件を満たす背景サンプル(242、342)を選択することであって、前記背景サンプルが、類似性閾値未満の値だけ前記ピクセル(228)の前記画像のデータと異なる場合には、前記類似性条件は背景サンプル(242、342)に対して満たされる、選択すること、
前記類似性条件を満たす前記背景サンプル(242、342)を前記ピクセル(228)の画像データで置き換えること
によって前記背景モデルを更新するように構成された背景更新コンポーネント(118)と
を含み、
背景サンプル(242、342)を前記選択することは、前記類似性条件を満たす背景サンプル(242)が見つかるまで、前記ピクセル(228)の前記画像データを背景サンプルの前記集合体(240)の中の前記背景サンプルと1つずつ比較することによって、前記ピクセル(228)に関連する背景サンプルの前記集合体(240)を繰り返し検索することを含み、
前記繰り返し検索は、前記画像シーケンス中の先行画像のピクセルに関する繰り返し検索を開始するために使用されるインデックスに続く背景サンプルの前記集合体のインデックス(244)で開始される、装置(110)。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16173451.2 | 2016-06-08 | ||
EP16173451.2A EP3255585B1 (en) | 2016-06-08 | 2016-06-08 | Method and apparatus for updating a background model |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018022475A JP2018022475A (ja) | 2018-02-08 |
JP2018022475A5 JP2018022475A5 (ja) | 2018-06-14 |
JP6474854B2 true JP6474854B2 (ja) | 2019-02-27 |
Family
ID=56117546
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017108872A Active JP6474854B2 (ja) | 2016-06-08 | 2017-06-01 | 背景モデルを更新するための方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10489916B2 (ja) |
EP (1) | EP3255585B1 (ja) |
JP (1) | JP6474854B2 (ja) |
KR (1) | KR101891225B1 (ja) |
CN (1) | CN107481256B (ja) |
TW (1) | TWI660326B (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106204636B (zh) * | 2016-06-27 | 2019-03-22 | 北京大学深圳研究生院 | 基于监控视频的视频前景提取方法 |
KR102629594B1 (ko) * | 2018-04-09 | 2024-01-29 | 한화비전 주식회사 | 객체 및 배경 구분 방법 |
TWI668669B (zh) * | 2018-05-31 | 2019-08-11 | 國立中央大學 | 物件追蹤系統及方法 |
EP3582181B1 (en) * | 2018-06-14 | 2020-04-01 | Axis AB | Method, device and system for determining whether pixel positions in an image frame belong to a background or a foreground |
EP3667557B1 (en) * | 2018-12-13 | 2021-06-16 | Axis AB | Method and device for tracking an object |
CN110018529B (zh) * | 2019-02-22 | 2021-08-17 | 南方科技大学 | 降雨测量方法、装置、计算机设备和存储介质 |
WO2020251151A1 (ko) * | 2019-06-14 | 2020-12-17 | 고려대학교 산학협력단 | 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치 |
CN110864412B (zh) * | 2019-08-12 | 2021-02-12 | 珠海格力电器股份有限公司 | 空调控制方法及系统 |
EP3800615A1 (en) * | 2019-10-01 | 2021-04-07 | Axis AB | Method and device for image analysis |
US11361574B2 (en) * | 2019-10-23 | 2022-06-14 | Bendix Commercial Vehicle Systems Llc | System and method for monitoring for driver presence and position using a driver facing camera |
CN111588384B (zh) * | 2020-05-27 | 2023-08-22 | 京东方科技集团股份有限公司 | 获得血糖检测结果的方法、装置及设备 |
CN113827233A (zh) * | 2020-06-24 | 2021-12-24 | 京东方科技集团股份有限公司 | 用户特征值检测方法及装置、存储介质及电子设备 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002109546A (ja) * | 2000-09-29 | 2002-04-12 | Toshiba Corp | 背景画像の取得方法および装置 |
US7190809B2 (en) * | 2002-06-28 | 2007-03-13 | Koninklijke Philips Electronics N.V. | Enhanced background model employing object classification for improved background-foreground segmentation |
DE602007004841D1 (de) * | 2007-07-08 | 2010-04-01 | Univ Liege | Extraktor für visuellen Hintergrund |
AU2008200966B2 (en) * | 2008-02-28 | 2012-03-15 | Canon Kabushiki Kaisha | Stationary object detection using multi-mode background modelling |
US8948516B2 (en) | 2009-12-21 | 2015-02-03 | St-Ericsson Sa | Method for regenerating the background of digital images of a video stream |
JP2012033100A (ja) * | 2010-08-02 | 2012-02-16 | Canon Inc | 画像処理装置、画像処理方法、及びコンピュータプログラム |
JP5761954B2 (ja) * | 2010-10-13 | 2015-08-12 | セコム株式会社 | 画像センサ |
EP2463821A1 (en) * | 2010-12-08 | 2012-06-13 | Alcatel Lucent | Method and system for segmenting an image |
US8873852B2 (en) * | 2011-09-29 | 2014-10-28 | Mediatek Singapore Pte. Ltd | Method and apparatus for foreground object detection |
AU2011265429B2 (en) * | 2011-12-21 | 2015-08-13 | Canon Kabushiki Kaisha | Method and system for robust scene modelling in an image sequence |
US20130308856A1 (en) * | 2012-01-12 | 2013-11-21 | Google Inc. | Background Detection As An Optimization For Gesture Recognition |
US10073543B2 (en) * | 2014-03-07 | 2018-09-11 | Htc Corporation | Image segmentation device and image segmentation method |
TWI518603B (zh) * | 2014-05-22 | 2016-01-21 | 宏達國際電子股份有限公司 | 影像編輯方法與電子裝置 |
KR101643917B1 (ko) * | 2014-09-15 | 2016-08-01 | (주)인더스웰 | 실사 영상 기반의 스마트 피팅장치 |
US9471844B2 (en) * | 2014-10-29 | 2016-10-18 | Behavioral Recognition Systems, Inc. | Dynamic absorption window for foreground background detector |
EP3246874B1 (en) * | 2016-05-16 | 2018-03-14 | Axis AB | Method and apparatus for updating a background model used for background subtraction of an image |
TWI615806B (zh) * | 2016-10-11 | 2018-02-21 | 威聯通科技股份有限公司 | 影像背景學習方法及電子裝置 |
-
2016
- 2016-06-08 EP EP16173451.2A patent/EP3255585B1/en active Active
-
2017
- 2017-05-25 TW TW106117302A patent/TWI660326B/zh active
- 2017-06-01 JP JP2017108872A patent/JP6474854B2/ja active Active
- 2017-06-02 KR KR1020170068951A patent/KR101891225B1/ko active IP Right Grant
- 2017-06-02 CN CN201710407697.8A patent/CN107481256B/zh active Active
- 2017-06-08 US US15/617,686 patent/US10489916B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018022475A (ja) | 2018-02-08 |
KR20170138938A (ko) | 2017-12-18 |
TWI660326B (zh) | 2019-05-21 |
EP3255585A1 (en) | 2017-12-13 |
TW201810186A (zh) | 2018-03-16 |
CN107481256B (zh) | 2019-05-14 |
KR101891225B1 (ko) | 2018-08-24 |
CN107481256A (zh) | 2017-12-15 |
US10489916B2 (en) | 2019-11-26 |
US20170358093A1 (en) | 2017-12-14 |
EP3255585B1 (en) | 2018-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6474854B2 (ja) | 背景モデルを更新するための方法及び装置 | |
JP6509275B2 (ja) | 画像の背景差分に用いられる背景モデルを更新する方法及び装置 | |
Sen-Ching et al. | Robust techniques for background subtraction in urban traffic video | |
US9230175B2 (en) | System and method for motion detection in a surveillance video | |
US10607098B2 (en) | System of a video frame detector for video content identification and method thereof | |
CN108229456B (zh) | 目标跟踪方法和装置、电子设备、计算机存储介质 | |
US10373320B2 (en) | Method for detecting moving objects in a video having non-stationary background | |
KR101764845B1 (ko) | 다중 이동 물체의 겹침 제거 및 추적을 위한 영상 감시 장치 및 방법 | |
Herrero et al. | Background subtraction techniques: Systematic evaluation and comparative analysis | |
JP2002288658A (ja) | 領域分割された映像の領域特徴値整合に基づいた客体抽出装置およびその方法 | |
Ma et al. | Detecting Motion Object By Spatio-Temporal Entropy. | |
Roy et al. | Foreground segmentation using adaptive 3 phase background model | |
CN110969645A (zh) | 面向拥挤场景的无监督异常轨迹检测方法和装置 | |
KR101690050B1 (ko) | 지능형 영상보안 시스템 및 객체 추적 방법 | |
JP2014110020A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
KR101137110B1 (ko) | 영상 내 물체 감시 방법 및 장치 | |
Bou et al. | Reviewing ViBe, a popular background subtraction algorithm for real-time applications | |
CN112613516A (zh) | 用于航拍视频数据的语义分割方法 | |
Lindstrom et al. | Background and foreground modeling using an online EM algorithm | |
Sun et al. | Long-term Object Tracking Based on Improved Continuously Adaptive Mean Shift Algorithm. | |
KR102594422B1 (ko) | 그라운드에 프로젝트된 오브젝트의 무게 중심을 예측하는 오브젝트 디텍터를 학습하는 방법, 학습된 오브젝트 디텍터를 이용하여 서로 다른 뷰잉 프러스텀을 가지는 복수의 카메라로부터 촬영된 특정 공간 내에서 동일한 오브젝트를 식별하는 방법, 그리고, 이를 이용한 학습 장치 및 오브젝트 식별 장치 | |
Kiran et al. | Real-time background subtraction using adaptive sampling and cascade of gaussians | |
Mould et al. | A conservative scene model update policy | |
Teixeira et al. | Cascaded change detection for foreground segmentation | |
JP2006146457A (ja) | 動物体輪郭抽出方法及び装置並びに動物体輪郭抽出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180427 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180427 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180427 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180723 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6474854 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |