JP6603123B2 - 動物体の検出装置、検出方法及びプログラム - Google Patents

動物体の検出装置、検出方法及びプログラム Download PDF

Info

Publication number
JP6603123B2
JP6603123B2 JP2015253598A JP2015253598A JP6603123B2 JP 6603123 B2 JP6603123 B2 JP 6603123B2 JP 2015253598 A JP2015253598 A JP 2015253598A JP 2015253598 A JP2015253598 A JP 2015253598A JP 6603123 B2 JP6603123 B2 JP 6603123B2
Authority
JP
Japan
Prior art keywords
background image
frame
image
processing target
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015253598A
Other languages
English (en)
Other versions
JP2017117300A (ja
Inventor
智史 上野
達也 小林
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2015253598A priority Critical patent/JP6603123B2/ja
Publication of JP2017117300A publication Critical patent/JP2017117300A/ja
Application granted granted Critical
Publication of JP6603123B2 publication Critical patent/JP6603123B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、固定カメラで撮影した映像から動物体を精度よく検出する動物体の検出装置、検出方法及びプログラムに関する。
固定カメラで撮影した映像から撮像ノイズ、多少の照明変動および周期的に微小に移動する領域の影響を取り除いて動物体を精度よく検出する技術は、監視映像解析技術の前処理として非常に重要であり、人物行動解析や異常行動検出に利用できる。映像から動物体を検出するために、映像の前後フレームの差分を動物体と認識する背景差分法が提案されており、この背景差分法を基本とする様々な動物体検出方法が考案されている。
非特許文献1は、動物体が全く存在しない背景画像、或いは、フレーム全体を通して考慮すると動物体がほとんど存在しない背景映像を元に背景モデルを作成し、動物体を検出したいフレームと背景モデルとの比較を行うことで動物体を検出する構成を開示している。また、特許文献1は、背景モデルの生成方法を開示している。具体的には、背景画像注目画素に対して、上下左右および斜めの計8方向に対して画素探索を行い、注目画素との明度差が閾値以上である参照画素をそれぞれ見つける。つまり、8つの参照画素を見つける。そして、8つの参照画素それぞれの注目画素に対する明度差が正であるか負であるかを記録しておく。そして、入力フレームについても、注目画素と8つの参照画素の明度差の正負を判定し、背景画像の8つの正負の値と、入力フレームの8つの正負の値の一致数が所定数以下であると、当該注目画素は動物体であると判定する。なお、この所定数は例えば6程度の値が使用される。
特開2003−141546号公報
岩田,佐藤,尾崎,坂上,"統計的リーチ特徴法に基づくロバスト背景差分,"電子情報通信学会論文誌,D Vol.J92−D No.8,pp.1251−1259,2009年
しかしながら、上記の従来方式では、一時的に移動させられた静止物体を動物体として検出してしまう。
本発明は、静止物体を動物体として誤検出する頻度を減らし、精度良く動物体を検出できる動物体の検出装置、検出方法及びプログラムを提供するものである。
本発明の一側面によると、動物体の検出装置は、処理対象フレームと当該処理対象フレームより時間的に前のフレームとの差分に基づき差分画像を生成する第1生成手段と、前記処理対象フレームに対する背景画像である第1背景画像を、前記処理対象フレームより時間的に前のフレームに対する第3背景画像と、前記処理対象フレームより時間的に前のフレームとを混合することで生成し、前記処理対象フレームに対する背景画像である第2背景画像を、前記処理対象フレームより時間的に前のフレームに対する第4背景画像と、前記処理対象フレームより時間的に前のフレームとを混合することで生成する第2生成手段であって、前記第1背景画像は、前記第2背景画像より前記処理対象フレームより時間的に前のフレームの混合比率が低く、前記第4背景画像は前記第3背景画像とは異なる、前記第2生成手段と、前記処理対象フレームと前記第1背景画像とに基づき前景に対応する画素を示す第1前景候補画像を生成し、前記処理対象フレームと前記第2背景画像とに基づき前景に対応する画素を示す第2前景候補画像を生成する第3生成手段と、前記第1前景候補画像と前記差分画像を比較することで、前記第1前景候補画像が前景と示す画素の領域のうちの静止物体に対応する第1領域を検出する第1検出手段と、前記第1領域と前記第2前景候補画像の対応する領域を比較することで、前記第1検出手段が検出した第1領域から誤検出された第1領域を判定し、前記第1検出手段が検出した第1領域から誤検出された第1領域を除いた第2領域を判定し、前記第1前景候補画像が前景と示す画素の領域から前記第2領域を除いた領域を動物体に対応する領域と検出する第2検出手段と、を備えていることを特徴とする。
本発明によると、静止物体を動物体として誤検出する頻度を減らし、精度良く動物体を検出することができる。
一実施形態による動物体の検出装置の構成図。 一実施形態の説明のための入力画像を示す図。 図2の入力画像の差分画像を示す図。 図2の入力画像に対する前景候補画像を示す図。
以下、本発明の例示的な実施形態について図面を参照して説明する。なお、以下の実施形態は例示であり、本発明を実施形態の内容に限定するものではない。また、以下の各図においては、実施形態の説明に必要ではない構成要素については図から省略する。なお、以下の説明において、入力画像のt番目のフレームをIとし、t番目のフレームに対する背景画像をBと表記する。また、以下の説明において、2つのフレーム間の差分を取るとは、2つのフレームの同じ位置の画素の画素値の差分をその画素値とする画像を生成することを意味するものとする。和等の計算においても同様である。また、本発明において、動物体とは動物又は人の様に自力で移動する物体を意味し、本発明においての検出対象である。一方、静止物体とは自力で移動できず、動物体が力を加えたときのみ移動させられる物体を意味するものとする。
図1は、動画像内の動物体を検出する、本実施形態による検出装置の構成図である。検出装置は、カメラが撮影した動画像を入力画像とし、入力画像の各フレーム内の動物体を検出する。なお、図1においては、処理対象フレームを動画像中のt番目のフレームとし、t番目のフレームに関する信号のみを表示している。しかしながら、各機能ブロックは、過去のフレームにアクセス可能なものとする。
背景画像生成部3は、処理対象であるt番目のフレームに対する背景画像Bをその1つ前、つまり、(t−1)番目のフレームに対する背景画像Bt−1と、t−1番目のフレームIt−1とを混合することで生成する。具体的には、以下の式(1)により背景画像Bを生成する。
=(1−α)Bt-1+αIt-1 (1)
ここでαは、t−1番目のフレームIt−1の混合比率であり、0から1の値をとる。式(1)から明らかな様に、混合比率αが大きい程、入力画像の重みが大きくなり、背景画像は入力画像の変化に追随する。一方、混合比率αが小さくなると、背景画像は入力画像が大きく変化してもその変化は小さくなる。なお、1番目のフレームに対する背景画像Bは、カメラの動物体の無い状況で撮影した画像に基づき予め作成しておく。
本実施形態では、複数の混合比率αを使用して複数種類の背景画像をそれぞれ生成する。以下では、説明の簡略化のためαhigh及びαlow(αhigh>αlow)の2つの混合比率を使用し、2種類の背景画像を生成するものとする。そして、混合比率αhighを使用して生成するt番目のフレームに対する背景画像をBhigh と表記し、混合比率αlowを使用して生成するt番目のフレームに対する背景画像をBlow と表記する。つまり、背景画像Bhigh は、1つ前のフレームに対する背景画像Bhigh t−1と、入力フレームIt-1から生成され、背景画像Blow は、1つ前のフレームに対する背景画像Blow t−1と、入力フレームIt-1から生成される。
差分画像生成部1は、入力画像の処理対象フレームIと、そのひとつ前のフレームIt−1との差分を判定し、第1閾値以上の画素を白画素とし、第1閾値未満の画素を黒画素とした2値画像である差分画像Dを生成する。図2(A)〜(C)は、入力画像の例であり、(A)、(B)、(C)の時間順となっている。なお、図2(A)〜(C)は、連続するフレームではなく、図2(A)と図2(B)との間には、複数の他のフレームが存在し、図2(B)と図2(C)の間にも、複数の他のフレームが存在する。
図2(A)は、室内に置かれた椅子を人が動かしている状態の画像であり、図2(B)は、動かした椅子を置いた後、人が後向きに進んでいる状態の画像であり、図3(C)は、その後、人が立ち止った状態の画像である。
図3(A)〜図3(C)は、それぞれ、図2(A)〜(C)に対応する差分画像である。画素値のフレーム間における差分は、動いている物体の輪郭付近の画素においてその値が大きくなるため、図3(A)では、人及び椅子の輪郭が白画素として検出されている。一方、図3(B)において椅子は既に静止しているため人の輪郭が白画素として検出されている。また、図3(C)において人は静止しているがその輪郭が白画素として検出されている。これは、椅子の様な静止物体とは異なり、動物体は、静止していたとしても微妙な動きがあるからである。しかしながら、輪郭近傍において検出される白画素の数は、図3(B)の様に移動しているときと比較して少なくなる。なお、図3(A)〜(C)においては、影の変化等による影響に起因する白画素が動物体の無い位置においても検出されている。
前景候補画像生成部2は、処理対象フレームIから背景画像Bhigh を減じ、第2閾値以上の画素を白画素とし、閾値未満の画素を黒画素とした2値画像である前景候補画像Fhigh を生成する。同様に、前景候補画像生成部2は、処理対象フレームIから背景画像Blow を減じ、第2閾値以上の画素を白画素とし、閾値未満の画素を黒画素とした2値画像である前景候補画像Flow を生成する。上記処理から明らかな様に、前景候補画像の白画素は、前景に対応すると想定される画素であり、黒画素は背景に対応すると想定される画素である。なお、第2閾値は第1閾値と同じ値であっても、異なる値であっても良い。また、前景候補画像の生成は、処理対象フレームIから背景画像を減じて閾値と比較することに限定されず、例えば、GMMモデルに基づく前景抽出等、任意の前景抽出方法を利用できる。図4(A)〜(C)は、図2(A)〜(C)に対する前景候補画像Fhigh を示し、図4(D)〜(F)は、図2(A)〜(C)に対する前景候補画像Flow を示している。図4(A)及び(D)に示す様に、椅子を動かしている間においては、前景候補画像Fhigh と前景候補画像Flow の両方において椅子も前景、つまり白画素として検出されている。
また、上述した様に、背景画像Blow は、入力画像の影響をあまり受けないため、図4(E)及び図4(F)の両方において椅子は、依然、前景として検出されている。一方、背景画像Bhigh は、入力画像の影響を強く受けるため図4(B)においては椅子の一部の画素のみが前景として検出されている。また、図4(C)においては椅子の位置に対応する画素の殆どは背景として検出されている。なお、図4(B)において人物に対応する画素は、その大部分が白画素として検出されているが、図4(C)において人物に対応する画素の白画素数は、図4(B)より少なくなっている。これは、背景画像Bhigh は、入力画像の影響を強く受けるため、図4(C)における背景画像Bhigh においては、静止している人物も背景として扱われ始めているからである。
静止物検出部4は、前景候補画像Flow において白画素が連続する領域を判定する。例えば、図4(D)では人と椅子に対応する白画素が1つの領域として判定される。また、図4(E)及び(F)では、人に対応する白画素が1つの領域として判定され、椅子に対応する白画素も1つの領域として判定される。また、ノイズ等の影響により生じた白画素も1つの領域として判定される。なお、領域内の白画素の数が所定数より少ない場合には、ノイズとして扱い、以後の処理においては使用しない構成であっても良い。
静止物検出部4は、前景候補画像Flow の各領域についてその白画素数Xと、領域の白画素のうち、差分画像Dの対応する画素(同じ位置の画素)おいても白画素である数Y(以下、重複数と呼ぶ。)を求め、さらに、その比(Y/X)を求める。そして、静止物検出部4は、前景候補画像Flow の各領域の内、その比(Y/X)が第3閾値以下となる領域を静止物領域C として出力する。なお、nは1〜Nの整数であり、Nは、比(Y/X)が第3閾値以下である領域の数である。例えば、図4(E)の人物領域に対応する白画素と図3(B)の人物領域に対応する白画素を比較すると、重複数Yは多く、よって、図4(E)の人物領域は、静止物領域としては検出されない。一方、図4(E)の椅子領域に対応する白画素と図3(B)の対応画素を比較すると、重複数Yは少なく、よって、図4(E)の椅子領域は、静止物領域として検出される。図4(F)の椅子領域も同様に静止物領域として検出される。
一方、図2(C)では、人物も静止しているため、図4(F)の人物領域に対応する白画素と図3(C)の人物領域に対応する白画素を比較すると重複数Yはそれ程多くなく、よって、図4(F)の人物領域は、静止物領域C として誤検出され得る。本実施形態では、動物体検出部5においてこの様な誤検出を減少させる。まず、動物体検出部5は、入力される静止物領域C のそれぞれについて、白画素数Kと、静止物領域C の白画素の内、前景候補画像Fhigh の対応する画素(同じ位置の画素)でも白画素である数、つまり、重複数Lとを求め、さらに、その比(L/K)を算出する。そして、比(L/K)が第4閾値以上のものを誤検出した静止物領域C であると判定する。例えば、上述した様に、図4(F)の人物領域は、静止物領域C と誤検出され得るが、図4(C)に示す様に、図4(F)の人物領域に対する重複数は大きく、よって、比(L/K)と第4閾値を比較することで誤検出を判定することができる。一方、図4(F)の椅子領域については、図4(C)から明らかな様に重複数は小さく、よって、図4(F)の椅子領域については、静止物領域C であることが確認される。
動物体検出部5は、前景候補画像Flow のうち、誤検出を削除した後の静止物領域C に対応する画素を黒画素に変更する。変更後の画像において、黒画素は背景に対応し、白画素は動物体に対応する。したがって、入力フレームIから変更後の画像の白画素の部分を取り出すことで動物体に対応する部分のみを抜出した前景画像を生成することができる。
以上の構成により、一時的に移動した静止物が前景、つまり動物体として検出されることを防ぐことができる。また、一時的に静止している動物体を背景と誤検出すること頻度も減らすことができる。
なお、本実施形態では、式(1)に示す様に、背景画像Bの算出については、混合対象である1つ前の入力フレームをそのまま使用していた。しかしながら、図1に示す様に、動物体検出部5の検出結果を利用する構成とすることもできる。例えば、動物体検出部5は、入力フレームIの動物体に対応する画素を背景画像生成部3に通知する。そして、背景画像生成部3においては、次のフレームに対するBhigh t+1とBlow t+1を生成する際に、動物体に対応する画素と、それ以外の画素においてはαhigh及びαlow値を異ならせる。具体的には、Bhigh t+1の生成において、動物体に対応する画素以外の画素については、αhighを使用し、動物体に対応する画素についてはαhighより小さい値を使用する構成とすることができる。Blow t+1の生成においても同様である。例えば、αを0とすると、更新後の背景画像には、入力フレームの動物体領域の影響が及ばず、より動物体の検出精度が高くなる。
また、本実施形態では、αhigh及びαlow(αhigh>αlow)の2つの混合比率を使用し、2種類の背景画像を生成したが、3つ以上の混合比率を使用することもできる。この場合、3つから2つを選択した組合せそれぞれについて、組み合わせの2つの混合比率の値の小さい方をαlow、値の大きい方をαhighとしてそれぞれ静止物領域C を検出する。例えば、4つの組み合わせを使用した場合には、各組み合わせそれぞれについて静止物領域C を検出する。そして、例えば、1つの組み合わせでのみ検出した静止物領域Ctについては誤検出と判定する様に、それぞれの組み合わせの検出結果に基づき多数決判定により誤検出を判定することができる。
さらに、本実施形態において差分画像生成部1は連続するフレーム間の差分により差分画像を生成していたが、本発明はそれに限定されず、処理対象フレームと、当該処理対象フレームより時間的に数フレーム前のフレームとの差分により差分画像を生成しても良い。さらに、本実施形態において、背景画像生成部3は、フレーム毎に背景画像を更新していたが、数フレーム毎に更新する構成であっても良い。例えば、3フレーム毎に更新するものとすると、背景画像を更新すると、更新後の3フレームについては同じ背景画像を使用する。そして、背景画像を更新する際には、更新前の3フレームのいずれかのフレームを使用して更新する構成とすることができる。
なお、本発明による検出装置は、コンピュータを上記検出装置として動作させるプログラムにより実現することができる。これらコンピュータプログラムは、コンピュータが読み取り可能な記憶媒体に記憶されて、又は、ネットワーク経由で配布が可能なものである。
1:差分画像生成部、2:前景候補画像生成部、3:背景画像生成部、4:静止物検出部、5:動物体検出部

Claims (13)

  1. 処理対象フレームと当該処理対象フレームより時間的に前のフレームとの差分に基づき差分画像を生成する第1生成手段と、
    前記処理対象フレームに対する背景画像である第1背景画像を、前記処理対象フレームより時間的に前のフレームに対する第3背景画像と、前記処理対象フレームより時間的に前のフレームとを混合することで生成し、前記処理対象フレームに対する背景画像である第2背景画像を、前記処理対象フレームより時間的に前のフレームに対する第4背景画像と、前記処理対象フレームより時間的に前のフレームとを混合することで生成する第2生成手段であって、前記第1背景画像は、前記第2背景画像より前記処理対象フレームより時間的に前のフレームの混合比率が低く、前記第4背景画像は前記第3背景画像とは異なる、前記第2生成手段と、
    前記処理対象フレームと前記第1背景画像とに基づき前景に対応する画素を示す第1前景候補画像を生成し、前記処理対象フレームと前記第2背景画像とに基づき前景に対応する画素を示す第2前景候補画像を生成する第3生成手段と、
    前記第1前景候補画像と前記差分画像を比較することで、前記第1前景候補画像が前景と示す画素の領域のうちの静止物体に対応する第1領域を検出する第1検出手段と、
    前記第1領域と前記第2前景候補画像の対応する領域を比較することで、前記第1検出手段が検出した第1領域から誤検出された第1領域を判定し、前記第1検出手段が検出した第1領域から誤検出された第1領域を除いた第2領域を判定し、前記第1前景候補画像が前景と示す画素の領域から前記第2領域を除いた領域を動物体に対応する領域と検出する第2検出手段と、
    を備えていることを特徴とする動物体の検出装置。
  2. 前記第1生成手段は、処理対象フレームと当該処理対象フレームより時間的に1つ前のフレームとの差分に基づき前記差分画像を生成することを特徴とする請求項1に記載の検出装置。
  3. 前記第1生成手段は、前記処理対象フレームと当該処理対象フレームより時間的に前のフレームの対応する画素の画素値の差分を第1閾値と比較し、
    前記差分画像は、前記画素値の差分が前記第1閾値より大きい第1画素を示すことを特徴とする請求項1又は2に記載の検出装置。
  4. 前記第1検出手段は、前記第1前景候補画像が前景と示す画素の領域のそれぞれについて、領域内の画素の画素数に対する、当該領域に対応する前記差分画像の画素のうちの前記第1画素の数の比に基づき前記第1領域を検出することを特徴とする請求項3に記載の検出装置。
  5. 前記第1検出手段は、領域内の画素の画素数に対する、当該領域に対応する前記差分画像の画素のうちの前記第1画素の数の比が第3閾値未満の領域を前記第1領域と検出することを特徴とする請求項4に記載の検出装置。
  6. 前記第2検出手段は、第1領域の画素の画素数に対する、当該第1領域に対応する前記第2前景候補画像の画素のうちの前景に対応する画素の数の比に基づき誤検出された第1領域を検出することを特徴とする請求項3から5のいずれか1項に記載の検出装置。
  7. 前記第2検出手段は、第1領域の画素の画素数に対する、当該第1領域に対応する前記第2前景候補画像の画素のうちの前景に対応する画素の数の比が第4閾値以上の第1領域を誤検出された第1領域と検出することを特徴とする請求項6に記載の検出装置。
  8. 前記第1前景候補画像が前景に対応すると示す画素は、前記処理対象フレームと前記第1背景画像の対応する画素の画素値の差分が第2閾値より大きい画素であり、
    前記第2前景候補画像が前景に対応すると示す画素は、前記処理対象フレームと前記第2背景画像の対応する画素の画素値の差分が第2閾値より大きい画素であることを特徴とする請求項1から7のいずれか1項に記載の検出装置。
  9. 前記第2生成手段は、前記処理対象フレームに対する背景画像である第1背景画像を、前記処理対象フレームより時間的に1つ前のフレームに対する第3背景画像と、前記処理対象フレームより時間的に1つ前のフレームとを混合することで生成し、前記処理対象フレームに対する背景画像である第2背景画像を、前記処理対象フレームより時間的に1つ前のフレームに対する第4背景画像であって、前記第3背景画像とは異なる前記第4背景画像と、前記処理対象フレームより時間的に1つ前のフレームとを混合することで生成することを特徴とする請求項1から8のいずれか1項に記載の検出装置。
  10. 前記第2生成手段は、前記第3背景画像と前記処理対象フレームより時間的に前のフレームとを混合する際に、混合対象のフレームの画素の内、前記第2検出手段が検出した動物体に対応する領域の画素の混合比率を、それ以外の画素の混合比率より小さくし、前記第4背景画像と前記処理対象フレームより時間的に前のフレームとを混合する際に、混合対象のフレームの画素の内、前記第2検出手段が検出した動物体に対応する領域の画素の混合比率を、それ以外の画素の混合比率より小さくすることを特徴とする請求項1から9のいずれか1項に記載の検出装置。
  11. 前記第2生成手段は、複数の第1背景画像と、複数の第2背景画像を生成し、前記複数の第1背景画像の1つの第1背景画像と、前記複数の第2背景画像の1つの第2背景画像を1つの組として、複数の組を生成し、
    前記第3生成手段は、前記複数の組それぞれについて対応する前記第1前景候補画像及び前記第2前景候補画像を生成し、
    前記第1検出手段は、前記複数の組に対応する前記第1前景候補画像それぞれについて前記第1領域を検出し、
    前記第2検出手段は、前記複数の組に対応する前記第1領域それぞれについて同じ組の前記第2前景候補画像に基づき前記第2領域を判定し、前記複数の組それぞれについて動物体に対応する領域を検出し、前記複数の組の動物体に対応する領域を多数決判定することで、前記処理対象フレームの動物体に対応する領域を検出することを特徴とする請求項1から10のいずれか1項に記載の検出装置。
  12. 検出装置における動画像内の動物体の検出方法であって、
    処理対象フレームと当該処理対象フレームより時間的に前のフレームとの差分に基づき差分画像を生成する第1生成ステップと、
    前記処理対象フレームに対する背景画像である第1背景画像を、前記処理対象フレームより時間的に前のフレームに対する第3背景画像と、前記処理対象フレームより時間的に前のフレームとを混合することで生成し、前記処理対象フレームに対する背景画像である第2背景画像を、前記処理対象フレームより時間的に前のフレームに対する第4背景画像と、前記処理対象フレームより時間的に前のフレームとを混合することで生成する第2生成ステップであって、前記第1背景画像は、前記第2背景画像より前記処理対象フレームより時間的に前のフレームの混合比率が低く、前記第4背景画像は前記第3背景画像とは異なる、前記第2生成ステップと、
    前記処理対象フレームと前記第1背景画像とに基づき前景に対応する画素を示す第1前景候補画像を生成し、前記処理対象フレームと前記第2背景画像とに基づき前景に対応する画素を示す第2前景候補画像を生成する第3生成ステップと、
    前記第1前景候補画像と前記差分画像を比較することで、前記第1前景候補画像が前景と示す画素の領域のうちの静止物体に対応する第1領域を検出する第1検出ステップと、
    前記第1領域と前記第2前景候補画像の対応する領域を比較することで、前記第1検出ステップで検出された第1領域から誤検出された第1領域を判定し、前記第1検出ステップで検出された第1領域から誤検出された第1領域を除いた第2領域を判定し、前記第1前景候補画像が前景と示す画素の領域から前記第2領域を除いた領域を動物体に対応する領域と検出する第2検出ステップと、
    を含むことを特徴とする検出方法。
  13. 請求項1から11のいずれか1項に記載の検出装置としてコンピュータを機能させることを特徴とするプログラム。
JP2015253598A 2015-12-25 2015-12-25 動物体の検出装置、検出方法及びプログラム Active JP6603123B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015253598A JP6603123B2 (ja) 2015-12-25 2015-12-25 動物体の検出装置、検出方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015253598A JP6603123B2 (ja) 2015-12-25 2015-12-25 動物体の検出装置、検出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2017117300A JP2017117300A (ja) 2017-06-29
JP6603123B2 true JP6603123B2 (ja) 2019-11-06

Family

ID=59231750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015253598A Active JP6603123B2 (ja) 2015-12-25 2015-12-25 動物体の検出装置、検出方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6603123B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7154045B2 (ja) * 2018-06-14 2022-10-17 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法
JP2021110973A (ja) * 2020-01-06 2021-08-02 オムロン株式会社 人体検出装置および人体検出方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5213627B2 (ja) * 2008-10-07 2013-06-19 キヤノン株式会社 画像処理装置及び画像処理方法
JP6246508B2 (ja) * 2013-06-25 2017-12-13 グローリー株式会社 動体画像抽出方法及び動体画像抽出装置

Also Published As

Publication number Publication date
JP2017117300A (ja) 2017-06-29

Similar Documents

Publication Publication Date Title
JP6509275B2 (ja) 画像の背景差分に用いられる背景モデルを更新する方法及び装置
US20170223234A1 (en) Systems and methods for extracting foreground video
US8818028B2 (en) Systems and methods for accurate user foreground video extraction
Denman et al. An adaptive optical flow technique for person tracking systems
US8218831B2 (en) Combined face detection and background registration
US7916944B2 (en) System and method for feature level foreground segmentation
US10776931B2 (en) Image processing system for detecting stationary state of moving object from image, image processing method, and recording medium
US20140105498A1 (en) System and method for low complexity change detection in a sequence of images through background estimation
JP4969291B2 (ja) 移動物体追跡装置
JP6652051B2 (ja) 検出システム、検出方法及びプログラム
US10614336B2 (en) Method, system, and computer-readable recording medium for image-based object tracking
JP2015219879A (ja) 画像認識システム、画像認識方法およびプログラム
Tang et al. Multiple-kernel adaptive segmentation and tracking (MAST) for robust object tracking
JP6603123B2 (ja) 動物体の検出装置、検出方法及びプログラム
Su et al. Moving object segmentation using improved running gaussian average background model
US20200065979A1 (en) Imaging system and method with motion detection
JP2007201933A (ja) 画像を用いた監視装置
US20160210755A1 (en) Method and apparatus for generating temporally consistent superpixels
US11495006B2 (en) Object detection method for static scene and associated electronic device
US11270442B2 (en) Motion image integration method and motion image integration system capable of merging motion object images
Liang et al. Real-time background subtraction under varying lighting conditions
RU2676028C1 (ru) Способ обнаружения оставленного предмета в видеопотоке
JP2009266169A (ja) 情報処理装置及び方法、並びにプログラム
Yang et al. Dual frame differences based background extraction algorithm
JP6266461B2 (ja) 対象検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190408

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191010

R150 Certificate of patent or registration of utility model

Ref document number: 6603123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150