JPWO2015186347A1 - 検出システム、検出方法及びプログラム - Google Patents

検出システム、検出方法及びプログラム Download PDF

Info

Publication number
JPWO2015186347A1
JPWO2015186347A1 JP2016525700A JP2016525700A JPWO2015186347A1 JP WO2015186347 A1 JPWO2015186347 A1 JP WO2015186347A1 JP 2016525700 A JP2016525700 A JP 2016525700A JP 2016525700 A JP2016525700 A JP 2016525700A JP WO2015186347 A1 JPWO2015186347 A1 JP WO2015186347A1
Authority
JP
Japan
Prior art keywords
background model
image frame
difference
background
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016525700A
Other languages
English (en)
Other versions
JP6652051B2 (ja
Inventor
博義 宮野
博義 宮野
哲明 鈴木
哲明 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2015186347A1 publication Critical patent/JPWO2015186347A1/ja
Application granted granted Critical
Publication of JP6652051B2 publication Critical patent/JP6652051B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

好適に移動体を検出することのできる検出システム、検出方法及びプログラムを提供する。検出システムは、撮影時刻の異なる複数の画像フレームの入力を受ける画像入力部110と、処理時刻の画像フレームを元に生成された第1の背景モデルと、第1の背景モデルよりも処理時刻の画像フレームの影響が小さい第2の背景モデルと、第2の背景モデルよりも処理時刻の画像フレームの影響が小さい第3の背景モデルとの間で、それぞれ差異を算出する背景モデル間距離計算部150と、第2の背景モデルと第3の背景モデルとの差異が第1の閾値以上であり、かつ、第1の背景モデルと第3の背景モデルとの差異が、第1の背景モデルと第2の背景モデルとの差異の第2の閾値倍以上である、画像フレーム内の第1の領域を検出する移動体検出部160を備える。

Description

本発明に係るいくつかの態様は、検出システム、検出方法及びプログラム記憶媒体に関する。
近年、ビデオ監視などの用途において、人や車等の移動体を検出し追跡することに対するニーズが高まっている。このようなニーズの高まりにあわせて、移動体を検出し、検出した移動体を追跡する手法が数多く提案されている。ここで移動体は、画像に映る物体のうち、常に移動をつづける物体のみに限られるものではなく、一時的に停止(静止/滞留ともいう。)する場合をも含む。換言すれば、移動体は、画像中の背景とみなされる部分以外に映る物体全般を指す。例えば、ビデオ監視での監視対象として一般的である人や車は、常に動いているわけではなく、一時的に停止したり駐車したりといった静止状態が発生する。そのため、一時的に停止する場合でも検出できるようにすることが、ビデオ監視などの用途において重要である。
移動体を検出する手法の1つとして、背景差分法が知られている(例えば、非特許文献1及び非特許文献2参照)。背景差分法は、背景として記憶している画像と、カメラで撮影された画像とを比較して、違いのある領域を移動体として抽出する手法である。ここで、背景差分を用いて移動体を検出する場合、解析を行う時点における正確な背景抽出が必要となる。単純に観測開始時のデータを固定的に背景として利用する場合には、照明の変化など環境が変化していくことに伴う背景変化の影響を受けて誤検出が多く発生してしまうからである。そこで、このような課題を回避すべく、最新の一定時間内の観測画像から例えば各画素について平均値を算出する等の手法により、解析を行う時点での背景を推定することが多い。例えば非特許文献1には、背景の更新を逐次行いながら背景差分法を適用する方法が開示されている。
一方、置き去りにされた物体や一定時間滞留する人物のような一時的な静止する物体に限定して抽出する技術も存在する(例えば、特許文献1参照)。特許文献1には、シーン中の動きを複数の異なる時間幅の背景モデルで解析する手法が開示されている。当該手法では、長時間のレンジで解析された長期背景モデルと、短時間のレンジで解析された短期背景モデルを作成する。短期背景モデルに基づく背景差分で移動体が検知されず、長期背景モデルに基づく背景差分で移動体が検知される状態が所定回数継続すれば、一時的な静止物が存在するものとして、当該静止物が移動体として検出される。
特許第5058010号公報
川端敦、谷藤真也、諸岡泰男。「移動体像の抽出技術」、情報処理学会、vol.28、no.4、pp.395-402、1987 C. Stauffer and W. E. L. Grimson, "Adaptive background mixture models for real-time tracking", Proceedings of CVPR, vol.2, pp. 246-252, 1999
非特許文献1のように、逐次更新された背景画像と解析対象の画像との差分(「背景差分」ともいう)を抽出する手法において、背景画像を解析する時間幅よりも長時間人や車等の移動体が滞在する場合を検討する。この場合、当該移動体は背景画像の一部と判定されてしまうため、検知できないという課題がある。一方で、一時的な静止物を検出するために解析する時間幅を長くすると、照明変動のような外部ノイズによる背景変化の影響を受けやすくなるため、静止物以外の背景画像の一時的な変化を多く誤検出する課題が生じる。
また、特許文献1は一時的な静止物を検出することを意図したものであるが、長期背景モデルに基づく背景差分が観測画像取得時の真の背景を表現できることを前提としている。そのため、照明変動のような時々刻々と背景が変化する環境では、長期背景モデルが観測画像取得時の真の背景との違いが大きくなるため、誤検出を十分に抑止するのは困難であった。
本発明のいくつかの態様は前述の課題に鑑みてなされたものであり、好適に移動体を検出することのできる検出システム、検出方法及びプログラム記憶媒体を提供することを目的の1つとする。
本発明に係る1の検出システムは、撮影時刻の異なる複数の画像フレームの入力を受ける入力手段と、処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとの間で、それぞれ差異を算出する算出手段と、前記第2の背景モデルと前記第3の背景モデルとの差異が第1の閾値以上であり、かつ、前記第1の背景モデルと前記第3の背景モデルとの差異が、前記第1の背景モデルと前記第2の背景モデルとの差異の第2の閾値倍以上である、前記画像フレーム内の第1の領域を検出する検出手段とを備える。
本発明に係る1の検出方法は、撮影時刻の異なる複数の画像フレームの入力を受けるステップと、処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとの間で、それぞれ差異を算出するステップと、前記第2の背景モデルと前記第3の背景モデルとの差異が第1の閾値以上であり、かつ、前記第1の背景モデルと前記第3の背景モデルとの差異が、前記第1の背景モデルと前記第2の背景モデルとの差異の第2の閾値倍以上である、前記画像フレーム内の第1の領域を検出するステップとをコンピュータが行う。
本発明に係る1のプログラムは、撮影時刻の異なる複数の画像フレームの入力を受ける処理と、処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとの間で、それぞれ差異を算出する処理と、前記第2の背景モデルと前記第3の背景モデルとの差異が第1の閾値以上であり、かつ、前記第1の背景モデルと前記第3の背景モデルとの差異が、前記第1の背景モデルと前記第2の背景モデルとの差異の第2の閾値倍以上である、前記画像フレーム内の第1の領域を検出する処理とをコンピュータに実行させる。
なお、本発明において、「部」や「手段」、「装置」、「システム」とは、単に物理的手段を意味するものではなく、その「部」や「手段」、「装置」、「システム」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や「手段」、「装置」、「システム」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や「手段」、「装置」、「システム」の機能が1つの物理的手段や装置により実現されても良い。
本発明によれば、好適に移動体を検出することのできる検出システム、検出方法及びプログラム記憶媒体を提供することができる。
背景モデルと入力画像フレームとの関係を説明するための図である。 第1実施形態に係る検出システムの概略構成を示す機能ブロック図である。 図2に示す検出システムの処理の流れを示すフローチャートである。 図2に示す検出システムを実装可能なハードウェアの構成を示すブロック図である。 第2実施形態に係る検出システムの概略構成を示す機能ブロック図である。
以下に本発明の実施形態を説明する。以下の説明及び参照する図面の記載において、同一又は類似の構成には、それぞれ同一又は類似の符号が付されている。
(1 第1実施形態)
(1.1 概要)
図1乃至図4は、第1実施形態を説明するための図である。以下、これらの図を参照しながら説明する。
本実施形態は、カメラ等の撮影装置により撮影された映像中から、人物や車などの、移動や一時的な滞留を繰り返す移動体を検出する検出システムに関する。特に、本実施形態に係る検出システムでは、照明変動のような時々刻々と環境が変化する場合であっても、人や車などの移動体を好適に検出する。
そのために本実施形態に係る検出システムは、図1に示すように、映像から切りだされた各時刻の画像フレームを元にそれぞれ作成される3つの背景モデルを生成し、これらの背景モデルを用いて移動体の検出を行う。これらの3つの背景モデルは、それぞれ背景モデルの元となる複数の画像フレームが撮影される時刻の時間幅(解析対象の時間幅)が異なる。以下、これらの3つの背景モデルを、長期背景モデル、中期背景モデル、及び短期背景モデルと呼ぶ。
移動体の検出の際には、長期背景モデルと短期背景モデルとを比較し、差分のある画素領域を移動体として検出することができる。このとき、何らかの原因で一時的に静止する可能性のある移動体を検出するために、長期背景モデルは、移動体が静止すると想定される時間よりも十分に長い時間幅の画像フレームから作成される。
ここで、背景(移動体を除く領域)が時間とともに変化しない環境であれば、単純に長期背景モデルと短期背景モデル(処理時刻に係る1枚の画像フレームをも含む)との差異を検出することで移動体の有無を判定することができる。しかしながら、照明変動等の理由により背景自体が変化する場合には、短期背景モデルと長期背景モデルとの間には、移動体が存在する領域のみならず、移動体の存在しない背景部分についても大きな差異が生じてしまう。よって、長期背景モデルと短期背景モデルとを単純に比較しただけでは、移動体の領域を特定するのは難しい。
しかしながら、短期背景モデルと中期背景モデルとの間、及び中期背景モデルと長期背景モデルとの間であれば、移動体の存在しない背景部分の差異が小さくなる。この性質を活かし、本実施形態に係る検出システムは、長期背景モデルと短期背景モデルとの間よりも解析対象の時間幅の差が小さい、中期背景モデルを用いて移動体を検出する。以下の2つの条件を満たす場合に、本実施形態に係る検出システムは、当該条件を満たす画素領域を、一時的に静止している移動体が存在する領域として検出する。
(条件1)中期背景モデルと長期背景モデルとの差異が、予め定めた閾値以上である。
(条件2)短期背景モデルと長期背景モデルとの間に、短期背景モデルと中期背景モデルとの差異の、予め定めた定数倍以上の差異がある。
これにより、移動体の存在しない背景領域に関しては、中期背景モデルと長期背景モデルとの差異が閾値より小さければ、条件1を満たさないため、検出システムは当該領域を背景として検出することができる。
また、移動体が一定時間停止した場合には、当該静止している移動体が中期背景モデルに大きな影響を与える一方で、長期背景モデルには殆ど影響を与えない。そのため、中期背景モデルと長期背景モデルとの間には移動体の領域には予め定めた閾値以上の差異が生じる。すなわち、上記条件1を満たす。また、中期背景モデルには、前述のとおり移動体が大きな影響を与えることから、短期背景モデルと中期背景モデルとの間の差異は小さくなる。よって、短期背景モデルと長期背景モデルとの間に、短期背景モデルと中期背景モデルとの差異の、予め定めた定数倍以上の差異が生じるようになる。すなわち、条件2を満たす。これにより、移動体の存在する領域に関しては、条件1及び条件2の双方を満足するため、検出システムは当該領域を移動体の存在する領域として検出することができる。
更に、一時的に静止していた移動体が、動き出して存在しなくなった直後には、中期背景モデルには、存在しなくなった移動体が大きな影響を与え続ける一方で、短期背景モデルには、当該移動体の影響が殆ど無くなる。そのため、中期背景モデルと短期背景モデルとの差異が非常に大きくなる。また、一般的に長期背景モデルと短期背景モデルとの差異が小さくなる。これにより、条件2を満たさなくなるため、検出システムは、当該領域を背景として検出することができる。
つまり、本実施形態に係る検出システムは、例えば照明変動などの外部ノイズによる背景変化が生じる環境下にあっても、一時的に静止する人や車などの移動体を好適に検出できる。
なお、本実施形態では、検出システム100は3つの背景モデルを利用して移動体を検出しているが、これに限られるものではない。検出対象の移動体の静止時間に応じて、生成した4以上の多数の背景モデルから3つの背景モデルを短期背景モデル、中期背景モデル、及び長期背景モデルとして抽出し、それらの間の差異に応じて移動体を検出するようにしても良い。
(1.2 システム構成)
以下、図2を参照しながら、本実施形態に係る検出システムのシステム構成を説明する。図2は、本実施形態に係る検出システム100のシステム構成を示すブロック図である。図2に示す検出システム100は、画像入力部110、背景モデル取得部120、背景モデルデータベース(DB)130、背景モデル更新部140、背景モデル間距離計算部150、移動体検出部160、移動体検出パラメータ辞書170、及び結果出力部180を含む。
(1.2.1 画像入力部110)
画像入力部110は、図示しないカメラ等の撮影装置から逐次映像を構成する画像フレーム、すなわちそれぞれ撮影時刻の異なる画像フレームの入力を受ける。換言すれば、画像入力部110は、処理時刻における画像フレームの入力を受ける。ここで、画像フレームはモノクロ画像であっても良いし、カラー画像であっても良い。モノクロ画像であれば、画像フレームには各画素に1つの値が含まれる。カラー画像であれば、画像フレームには各画素に3つの値(例えばRGB、YCbCr等の色表現)を有する。或いは画像フレームには、TOF(Time of Flight)カメラなどにより得られる距離情報等、画素毎に4つ以上の値を有してもよい。
(1.2.2 背景モデル取得部120)
背景モデル取得部120は、画像入力部110から入力された画像フレーム、及び、背景モデルDB130に格納されている短期背景モデル、中期背景モデル、及び長期背景モデルの3つの背景モデルを読み込む。
(1.2.3 背景モデルDB130)
背景モデルDB130は、解析元となる画像フレームの撮影時刻の時刻幅の異なる短期背景モデル、中期背景モデル、及び長期背景モデルを含む複数の背景モデルを格納する。
ここで、各背景モデルの形式は種々考えられるが、例えば画像入力部110から入力される画像フレームと同様の画像形式とすることができる。この場合、例えば背景モデルをモノクロ画像とするのであれば、各画素毎に1つの値が、カラー画像とするのであれば各画素毎に3つの値が含まれる。
或いは、背景モデルは、各画素毎に、その元となった各画像フレームの画素値の尤度を示す、各画素毎の分布関数とすることも考えられる。ここで分布関数は、例えばヒストグラムとすることも考えられるし、或いは、複数のガウシアンの和により分布関数としてもよい。
前述のとおり、短期背景モデル、中期背景モデル、及び長期背景モデルは、元となる画像フレームの撮影時刻の時間幅がそれぞれ異なり、短期背景モデル、中期背景モデル、長期背景モデルの順に、時間幅が長くなる。特に短期背景モデルに関しては、画像入力部110から入力された画像フレームを、そのまま短期背景モデルとして採用することも考えられる。その場合には、背景モデルDB130では短期背景モデルを管理しないことも考えられる。
(1.2.4 背景モデル更新部140)
背景モデル更新部140は、背景モデル取得部120が取得した処理時刻の画像フレーム及び背景モデルDB130に記憶された背景モデルから、処理時刻の画像フレーム(最も新しい時刻の画像フレーム)を考慮した短期背景モデル、中期背景モデル、長期背景モデルを生成する。生成された背景モデルは、背景モデルDB130に格納される。
本実施形態において、短期背景モデル、中期背景モデル、及び長期背景モデルは、それぞれ元となる画像フレームの時間幅が異なる。図1に示すように、短期背景モデルは処理時刻から最も短い時間幅に撮影された画像フレームから、中期背景モデルはそれよりも長い時間幅に撮影された画像フレームから、長期背景モデルは最も長い時間幅に撮影された画像フレームから、それぞれ生成される。
背景モデルの作成方法としては、例えば、各背景モデルごとに定められた時間幅分の各画像フレームについて、画素毎に平均値を取ったり、最頻度の画素値を取ったりすることが考えられる。或いは、前述のとおり画素毎の分布関数とするのであれば、それぞれの画像フレームの画素値の分布関数を生成することが考えられる。
なお、上述の移動体検出値を用いる条件のうち、条件2が満たされない場合には、一時的に静止していた移動体が動き出した直後であり、中期背景モデルに移動体が大きな影響を与えているものと考えられる。よって、背景モデル更新部140は、中期背景モデルに与える処理時刻近傍の入力画像の影響(重み)を大きくし、中期背景モデルが短期背景モデルにより近づくように更新方法を変えても良い。これにより、中期背景モデルを速やかに移動体がいない背景状態に近づけることが可能となるため、誤検出を抑制することが可能となる。
なお、本実施形態では、短期背景モデル、中期背景モデル、及び長期背景モデルは、それぞれ元となる画像フレームの撮影時刻の時間幅が異なるものとして説明しているが、これに限られるものではない。短期背景モデル、中期背景モデル、及び長期背景モデルは、処理時刻(最も新しい時刻)の画像フレームが与える影響の大きさが異なる背景モデルであると理解することもできる。すなわち、短期背景モデルは、処理時刻の画像フレームの与える影響が最も大きく、長期背景モデルは、処理時刻の画像フレームの与える影響は最も小さい。よって、時間幅という概念を用いる代わりに更新係数という概念を導入し、画像入力部110から入力された画像フレームを用いて背景モデルを更新する際の更新係数を短期背景モデル、中期背景モデル及び長期背景モデルで変えるようにしても良い。
この場合、例えば、背景モデルがIbgであり、画像入力部110から入力された画像フレームをIとすると、
[数1]
Figure 2015186347
として、背景モデルを更新することができる。この式において、aは0以上1以下の定数であり、短期背景モデルと中期背景モデルと長期背景モデルとで異なる値を取る。短期背景モデル、中期背景モデル、及び長期背景モデルの定数をa1、a2、a3とすると、
[数2]
Figure 2015186347
との関係が成立する。a1=1の場合には、短期背景モデルは新しい画像フレームで常に置き換えられる。また、a3=0の場合には、長期背景モデルは固定の背景モデルを利用することを意味する。背景モデルとして固定の背景モデルを用いる場合であっても、同様の方式により更新することができる。
(1.2.5 背景モデル間距離計算部150)
背景モデル間距離計算部150は、背景モデル取得部120が取得した3つの背景モデル間の差異を数値で示す距離値を、各画素毎に計算する。具体的には、各画素毎に、短期背景モデルと中期背景モデルとの距離、短期背景モデルと長期背景モデルとの距離、中期背景モデルと長期背景モデルとの距離を、背景モデル間距離計算部150はそれぞれ算出する。
例えば、背景モデルを画像形式とする場合には、背景モデル間距離計算部150は、各画素の画素値の差分値もしくは差分ベクトルを算出した上で、その絶対値若しくは大きさを距離として計算することが考えられる。背景モデルが画素毎に複数の値を持っている場合、例えばRGBやYCbCr、HSV等のカラー画像形式である場合には、それぞれの値について差分値を算出した上で、それらの差分値の絶対値総和を、各画素の距離とすることも考えられる。或いは、処理対象の画素位置を中心とした近傍3×3画像や5×5画像等の近傍部分画像を抽出した上で、抽出された2つの近傍部分画像の画素値をそれぞれ2つのベクトルと捉え、当該2つのベクトルのベクトル間距離や正規化相関rを計算してもよい。この場合、例えばモノクロ画像形式の背景モデルで近傍3×3画像により距離を算出する場合には、9次元ベクトル同士の距離を算出することになる。また、RGBカラー画像で近傍5×5画像により距離を算出する場合には、75次元(5×5×3)ベクトル同士の距離を算出することになる。
なお、正規化相関rを距離に用いる場合には、相関rは1が最大値であり、rが1に近いほど同一に近いことを示す。よって、距離の尺度に変換するため、1−rを距離を示す値として用いることができる。或いは、エッジ強調フィルタなどで上記近傍部分画像に対して前処理を行った上で、距離を計算してもよい。
また、背景モデルにヒストグラムなどの分布関数を用いる場合、背景モデル間距離計算部150は、2つのヒストグラムの共通部分の面積や、バタチャリヤ距離などのヒストグラム距離計算手法を用いて、背景モデル間の距離を計算することができる。
なお、上述の手法では、背景モデル間距離計算部150は画素毎に距離を計算するものとして説明したが、これに限られるものではない。例えば、背景モデル間距離計算部150は、画像をいくつかの領域単位、例えばメッシュ状に区切った上で、当該メッシュ単位毎に距離を算出する等の手法を用いることもできる。なお、距離はマイナス値を取るようにしても良い。
また、短期背景モデル、中期背景モデル、及び長期背景モデルは、それぞれ異なる形式であることも考えられる。例えば、短期背景モデルは画像形式とし、中期背景モデルは画素毎の分布関数としてもよい。この場合、距離の計算方法としては、例えば、短期背景モデルで保持されている画素値を中心として、予め定めた標準偏差の正規分布のヒストグラムを生成する。そして、当該ヒストグラムを短期背景モデルにおける分布関数とみなして、当該ヒストグラムと中期背景モデルのヒストグラムとを比較することにより距離を算出する手法を採用することが考えられる。或いは、中期背景モデルの各画素の分布関数から画素毎に平均値を算出した上で、当該平均値の集合として生成される画像形式の中期背景モデルと、短期背景モデルとを比較することにより距離を算出することも考えられる。
(1.2.6 移動体検出部160)
移動体検出部160は、各画素毎に、背景モデル間距離の情報、及び移動体検出パラメータ辞書170に格納されているパラメータを用いて、移動体の写る領域に含まれているか否かを判定する。より具体的には、移動体検出部160は、以下の2つの条件を満たす場合に、処理対象の画素が移動体の写る領域に含まれていると判定する。
(条件1)中期背景モデルと長期背景モデルとの距離が、予め定めた閾値以上である。
(条件2)短期背景モデルと長期背景モデルとの間に、短期背景モデルと中期背景モデルとの距離の、予め定めた定数倍以上の距離がある。
ここで、条件1の「予め定めた閾値」及び条件2の「予め定めた定数倍」が、それぞれ移動体検出パラメータ辞書170に含まれるパラメータである。
一時的に静止する移動体を検出するために、長期背景モデルは、移動体が静止すると想定される時間よりも長時間の時間幅の画像フレームから生成される。移動体の存在しない背景領域の変化が発生しない環境であれば、単純に長期背景モデルと短期背景モデル(処理時刻の画像フレーム自体であっても良い)とを比較することで移動体の有無を判定することができる。しかしながら、例えば照明変動などの外部ノイズの影響で背景領域も時々刻々と変化する場合には、単純に短期背景モデルと長期背景モデルとを比較しただけでは、移動体の存在する領域のみならず背景領域でも、両者の間に大きな距離値が生じる。すなわち、移動体の領域を検出するのは難しい。
しかしながら、解析対象となる時間窓の差が小さい、短期背景モデルと中期背景モデルとの間の差異、及び中期背景モデルと長期背景モデルとの差異に関しては、照明変動などの外部ノイズの影響が小さいため、背景領域における距離値は小さくなる。
また、背景がゆるやかに変化する場合には、移動体が存在しなければ、短期背景モデルが最も処理時刻の背景に近く、次に中期背景モデルが処理時刻の背景に近い。すなわち、長期背景モデルが処理時刻の背景からは最も遠い。すなわち、短期背景モデルと中期背景モデルとの間の距離は、短期背景モデルと長期背景モデルとの距離に1以下の定数を乗じた値よりも小さくなる。当該定数は、各背景モデルの解析対象となる時間幅によって変化し、中期背景モデルの時間幅と長期背景モデルの時間幅とが近ければ1に近い値となり、中期背景モデルの時間幅と長期背景モデルの時間幅との差が大きければ1より小さい値となる。
移動体検出部160による上記条件1、条件2を用いた検出方法はこのような特性を利用したものである。背景領域は中期背景モデルと長期背景モデルとの距離が小さくなる(閾値以下となる)ことなら、移動体検出部160は条件1により背景領域として判別することができる。
また、移動体が一定時間静止している場合には、中期背景モデルに静止している移動体が大きな影響を与える一方で、長期背景モデルにはあまり影響を与えないことから、中期背景モデルと長期背景モデルとの間の距離は、予め定めた閾値以上となる。すなわち、条件1を満たす。加えて、中期背景モデルには移動体が背景に大きな影響を与えるため、短期背景モデルとの距離が小さくなる。よって、短期背景モデルと長期背景モデルとの距離が、短期背景モデルと中期背景モデルとの間の距離の予め定めた定数倍以上となる。すなわち、条件2も満たす。よって、移動体検出部160は移動体の存在する領域を好適に抽出できる。
一時的に静止していた移動体が動き出した直後には、中期背景モデルには依然として移動体が大きな影響を与え続けている一方で、短期背景モデルには殆ど移動体の影響がなくなる。つまり、短期背景モデルと中期背景モデルとの間に大きな距離が生じる。これにより、条件2が満たされなくなるため、移動体検出部160は処理時刻の画像フレームでは移動体を検出しなくなる。
加えて、移動し続けている移動体(静止していない移動体)も検出するために、移動体検出パラメータ辞書170に移動中の移動体を検出するための閾値を用意しておいてもよい。この場合、移動体検出部160は、中期背景モデルと短期背景モデルとの間の距離が当該閾値以上であれば、移動中の移動体が存在するものとして、当該移動体の領域(閾値以上の領域)を検出するようにしても良い。これにより、一時的に移動と静止とを繰り返す人や車などの移動体を常に検出することができる。
(1.2.7 結果出力部180)
結果出力部180は、移動体検出部160で得られた移動体の情報を出力する。出力方法は種々考えられるが、例えば、移動体領域を1とし、それ以外の領域を0とした2値画像として出力することができる。或いは、当該2値画像に対してラベリング処理を施すことによって連結部分を生成し、連結成分毎に外接矩形を出力することも考えられる。
若しくは、本実施形態に係る検出システムによる検出方法を用いて、短期背景モデルと中期背景モデルとの距離が大きいために検出された移動体を移動中の移動体として出力し、中期背景モデルと長期背景モデルとの距離が大きいために検出された移動体を一時的に滞留(静止)している移動体として出力することも考えられる。この場合、例えば、出力される画像は、移動中の移動体として検出された画素の画素値を1とし、一時的に静止している移動体として検出された画素の画素値を2とし、それ以外の画素値を0として3値で出力することが考えられる。場合によっては、短期背景モデルと中期背景モデルとの距離、及び中期背景モデルと長期背景モデルとの距離の両方が大きくなる場合も考えられるが、その場合には移動中物体として1を出力してもよいし、或いは、全体として4値取ることを可能とした上で、どちらかわからないものとして画素値3を出力するようにしても良い。
(1.3 処理の流れ)
以下、検出システム100の処理の流れを、図3を参照しながら説明する。図3は、本実施形態に係る検出システム100の処理の流れを示すフローチャートである。
なお、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して若しくは並列に実行することができ、また、各処理ステップ間に他のステップを追加しても良い。更に、便宜上1つのステップとして記載されているステップは複数のステップに分けて実行することもでき、便宜上複数に分けて記載されているステップを1ステップとして実行することもできる。
画像入力部110は、新しい画像フレーム(処理時刻の画像フレーム)の入力を受ける(S301)。また、背景モデル取得部120は、背景モデルDB130に格納された短期背景モデル、中期背景モデル及び長期背景モデルを読み込む(S303)。
背景モデル間距離計算部150は、各画素に対して、短期背景モデルと中期背景モデルとの間の距離、中期背景モデルと長期背景モデルとの間の距離、及び短期背景モデルと長期背景モデルとの間の距離を算出する(S305)。移動体検出部160は、背景モデル間距離計算部150が算出した各背景モデル間の距離に対して、上記条件1及び条件2を満たすか否かを判別することにより、各画素が移動体の映る領域であるか否かを判別する(S307)。結果出力部180は、検出結果を出力する(S309)。
また、背景モデル更新部140は、画像入力部110から入力された画像フレームを用いて各背景モデルを更新し、更新した背景モデルを背景モデルDB130に記憶させる(S311)。
(1.4 ハードウェア構成の具体例)
以下、図4を参照しながら、上述してきた検出システム100をコンピュータにより実現する場合のハードウェア構成の一例を説明する。なお、検出システム100の機能は、複数のコンピュータにより実現することも可能である。
図4に示すように、検出システム100は、プロセッサ401、メモリ403、記憶装置405、入力インタフェース(I/F)部407、データI/F部409、通信I/F部411、及び表示装置413を含む。
プロセッサ401は、メモリ403に記憶されているプログラムを実行することにより、検出システム100の様々な処理を制御する。例えば、図2に示した画像入力部110、背景モデル取得部120、背景モデル更新部140、背景モデル間距離計算部150、移動体検出部160、及び結果出力部180にかかる処理は、メモリ403に一時記憶された上で主にプロセッサ401上で動作するプログラムとして実現可能である。
メモリ403は、例えばRAM(Random Access Memory)等の記憶媒体である。メモリ403は、プロセッサ401によって実行されるプログラムのプログラムコードや、プログラムの実行時に必要となるデータを一時的に記憶する。
記憶装置405は、例えばハードディスクやフラッシュメモリ等の不揮発性の記憶媒体である。記憶装置405は、オペレーティングシステムや、画像入力部110、背景モデル取得部120、背景モデル更新部140、背景モデル間距離計算部150、移動体検出部160、及び結果出力部180を実現するための各種プログラムや、背景モデルDB130や移動体検出パラメータ辞書170を含む各種データ等を記憶できる。記憶装置405に記憶されているプログラムやデータは、必要に応じてメモリ403にロードされることにより、プロセッサ401から参照される。
入力I/F部407は、ユーザからの入力を受け付けるためのデバイスである。入力I/F部407の具体例としては、キーボードやマウス、タッチパネル等があげられる。入力I/F部407は、例えばUSB(Universal Serial Bus)等のインタフェースを介して検出システム100に接続されても良い。
データI/F部409は、検出システム100の外部からデータを入力するためのデバイスである。データI/F部409の具体例としては、各種記憶媒体に記憶されているデータを読み取るためのドライブ装置等がある。データI/F部409は、検出システム100の外部に設けられても良い。その場合、データI/F部409は、例えばUSB等のインタフェースを介して検出システム100へと接続される。
通信I/F部411は、検出システム100の外部の装置、例えば撮影装置(ビデオカメラや監視カメラ、デジタルカメラ)等との間で有線又は無線によりデータ通信するためのデバイスである。通信I/F部411は検出システム100の外部に設けられてもよい。その場合、通信I/F部411は、例えばUSB等のインタフェースを介して検出システム100に接続される。
表示装置413は、例えば結果出力部180が出力する移動体の検出結果等を表示するためのデバイスである。表示装置413の具体例としては、例えば液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイ等があげられる。表示装置413は、検出システム100の外部に設けられても良い。その場合、表示装置413は、例えばディスプレイケーブル等を介して検出システム100に接続される。
(1.5 本実施形態に係る効果)
以上説明したように、本実施形態に係る検出システム100は、短期背景モデル、中期背景モデル、及び長期背景モデルの間のそれぞれの差異を検出し、それらを利用することで、特に一時的に静止する移動体を好適に検出することができる。
(2 第2実施形態)
以下、第2実施形態を、図5を参照しながら説明する。図5は、検出システム500の機能構成を示すブロック図である。図5に示すように、検出システム500は、入力部510と、算出部520と、検出部530とを含む。
入力部510は、例えば映像を構成する、撮影時刻の異なる複数の画像フレームの入力を受ける。
算出部520は、処理時刻の画像フレームを元に生成された第1の背景モデルと、第1の背景モデルよりも処理時刻の画像フレームの影響が小さい第2の背景モデルと、第2の背景モデルよりも処理時刻の画像フレームの影響が小さい第3の背景モデルとの間で、それぞれ差異を算出する。
検出部530は、第2の背景モデルと第3の背景モデルとの差異が第1の閾値以上であり、かつ、第1の背景モデルと第3の背景モデルとの差異が、第1の背景モデルと第2の背景モデルとの差異の第2の閾値倍以上である、画像フレーム内の第1の領域を検出する。
このように実装することで、本実施形態に係る検出システム500は、好適に移動体を検出することができる。
(3 付記事項)
なお、前述の実施形態の構成は、組み合わせたり或いは一部の構成部分を入れ替えたりしてもよい。また、本発明の構成は前述の実施形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加えてもよい。
なお、前述の各実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。また、本発明のプログラムは、上記の各実施形態で説明した各動作を、コンピュータに実行させるプログラムであれば良い。
(付記1)
撮影時刻の異なる複数の画像フレームの入力を受ける入力手段と、処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとの間で、それぞれ差異を算出する算出手段と、前記第2の背景モデルと前記第3の背景モデルとの差異が第1の閾値以上であり、かつ、前記第1の背景モデルと前記第3の背景モデルとの差異が、前記第1の背景モデルと前記第2の背景モデルとの差異の第2の閾値倍以上である、前記画像フレーム内の第1の領域を検出する検出手段とを備える、検出システム。
(付記2)
前記第1の背景モデルと、前記第2の背景モデルと、前記第3の背景モデルとは、考慮される画像フレームの撮影時刻の時間幅が異なる付記1記載の検出システム。
(付記3)
前記検出手段は、前記第1の背景モデルと前記第2の背景モデルとの差異が第3の閾値以上である、前記画像フレーム内の第2の領域を検出する、付記1又は付記2記載の検出システム。
(付記4)
前記第1の領域と、前記第2の領域とを区別して出力する出力手段を更に備える、付記1乃至付記3のいずれか1項記載の検出システム。
(付記5)
前記第2の背景モデルにおける前記処理時刻の画像フレームの影響が可変である、付記1乃至付記4のいずれか1項記載の検出システム。
(付記6)
前記処理時刻の画像フレーム中の前記第1の領域についての前記第2の背景モデルに対して与える影響が、他の領域が前記第2の背景モデルに対して与える影響よりも小さい、付記1乃至付記5のいずれか1項記載の検出システム。
(付記7)
撮影時刻の異なる複数の画像フレームの入力を受けるステップと、処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとの間で、それぞれ差異を算出するステップと、前記第2の背景モデルと前記第3の背景モデルとの差異が第1の閾値以上であり、かつ、前記第1の背景モデルと前記第3の背景モデルとの差異が、前記第1の背景モデルと前記第2の背景モデルとの差異の第2の閾値倍以上である、前記画像フレーム内の第1の領域を検出するステップとをコンピュータが行う、検出方法。
(付記8)
前記第1の背景モデルと、前記第2の背景モデルと、前記第3の背景モデルとは、考慮される画像フレームの撮影時刻の時間幅が異なる付記7記載の検出方法。
(付記9)
前記検出手段は、前記第1の背景モデルと前記第2の背景モデルとの差異が第3の閾値以上である、前記画像フレーム内の第2の領域を検出する、付記7又は付記8記載の検出方法。
(付記10)
前記第1の領域と、前記第2の領域とを区別して出力する出力手段を更に備える、付記7乃至付記9のいずれか1項記載の検出方法。
(付記11)
前記第2の背景モデルにおける前記処理時刻の画像フレームの影響が可変である、付記7乃至付記10のいずれか1項記載の検出方法。
(付記12)
前記処理時刻の画像フレーム中の前記第1の領域についての前記第2の背景モデルに対して与える影響が、他の領域が前記第2の背景モデルに対して与える影響よりも小さい、付記11記載の検出方法。
(付記13)
撮影時刻の異なる複数の画像フレームの入力を受ける処理と、処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとの間で、それぞれ差異を算出する処理と、前記第2の背景モデルと前記第3の背景モデルとの差異が第1の閾値以上であり、かつ、前記第1の背景モデルと前記第3の背景モデルとの差異が、前記第1の背景モデルと前記第2の背景モデルとの差異の第2の閾値倍以上である、前記画像フレーム内の第1の領域を検出する処理とをコンピュータに実行させるプログラム。
(付記14)
前記第1の背景モデルと、前記第2の背景モデルと、前記第3の背景モデルとは、考慮される画像フレームの撮影時刻の時間幅が異なる付記13記載のプログラム。
(付記15)
前記検出手段は、前記第1の背景モデルと前記第2の背景モデルとの差異が第3の閾値以上である、前記画像フレーム内の第2の領域を検出する、付記13又は付記14記載のプログラム。
(付記16)
前記第1の領域と、前記第2の領域とを区別して出力する出力手段を更に備える、付記13乃至付記15のいずれか1項記載のプログラム。
(付記17)
前記第2の背景モデルにおける前記処理時刻の画像フレームの影響が可変である、付記13乃至付記16のいずれか1項記載のプログラム。
(付記18)
前記処理時刻の画像フレーム中の前記第1の領域についての前記第2の背景モデルに対して与える影響が、他の領域が前記第2の背景モデルに対して与える影響よりも小さい、付記17記載のプログラム。
以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
この出願は、2014年6月3日に出願された日本出願特願2014−115207を基礎とする優先権を主張し、その開示の全てをここに取り込む。
100 :検出システム
110 :画像入力部
120 :背景モデル取得部
130 :背景モデルデータベース
140 :背景モデル更新部
150 :背景モデル間距離計算部
160 :移動体検出部
170 :移動体検出パラメータ辞書
180 :結果出力部
401 :プロセッサ
403 :メモリ
405 :記憶装置
407 :入力インタフェース部
409 :データインタフェース部
411 :通信インタフェース部
413 :表示装置
500 :検出システム
510 :入力部
520 :算出部
530 :検出部

Claims (8)

  1. 撮影時刻の異なる複数の画像フレームの入力を受ける入力手段と、
    処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとの間で、それぞれ差異を算出する算出手段と、
    前記第2の背景モデルと前記第3の背景モデルとの差異が第1の閾値以上であり、かつ、前記第1の背景モデルと前記第3の背景モデルとの差異が、前記第1の背景モデルと前記第2の背景モデルとの差異の第2の閾値倍以上である、前記画像フレーム内の第1の領域を検出する検出手段と
    を備える、検出システム。
  2. 前記第1の背景モデルと、前記第2の背景モデルと、前記第3の背景モデルとは、考慮される画像フレームの撮影時刻の時間幅が異なる
    請求項1記載の検出システム。
  3. 前記検出手段は、前記第1の背景モデルと前記第2の背景モデルとの差異が第3の閾値以上である、前記画像フレーム内の第2の領域を検出する、
    請求項1又は請求項2記載の検出システム。
  4. 前記第1の領域と、前記第2の領域とを区別して出力する出力手段
    を更に備える、請求項1乃至請求項3のいずれか1項記載の検出システム。
  5. 前記第2の背景モデルにおける前記処理時刻の画像フレームの影響が可変である、
    請求項1乃至請求項4のいずれか1項記載の検出システム。
  6. 前記処理時刻の画像フレーム中の前記第1の領域についての前記第2の背景モデルに対して与える影響が、他の領域が前記第2の背景モデルに対して与える影響よりも小さい、請求項5記載の検出システム。
  7. コンピュータが、
    撮影時刻の異なる複数の画像フレームの入力を受信し、
    処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとの間で、それぞれ差異を算出し、
    前記第2の背景モデルと前記第3の背景モデルとの差異が第1の閾値以上であり、かつ、前記第1の背景モデルと前記第3の背景モデルとの差異が、前記第1の背景モデルと前記第2の背景モデルとの差異の第2の閾値倍以上である、前記画像フレーム内の第1の領域を検出する検出方法。
  8. 撮影時刻の異なる複数の画像フレームの入力を受ける処理と、
    処理時刻の画像フレームを元に生成された第1の背景モデルと、前記第1の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第2の背景モデルと、前記第2の背景モデルよりも前記処理時刻の画像フレームの影響が小さい第3の背景モデルとの間で、それぞれ差異を算出する処理と、
    前記第2の背景モデルと前記第3の背景モデルとの差異が第1の閾値以上であり、かつ、前記第1の背景モデルと前記第3の背景モデルとの差異が、前記第1の背景モデルと前記第2の背景モデルとの差異の第2の閾値倍以上である、前記画像フレーム内の第1の領域を検出する処理と
    をコンピュータに実行させるプログラムを記憶するプログラム記憶媒体。
JP2016525700A 2014-06-03 2015-06-02 検出システム、検出方法及びプログラム Active JP6652051B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014115207 2014-06-03
JP2014115207 2014-06-03
PCT/JP2015/002775 WO2015186347A1 (ja) 2014-06-03 2015-06-02 検出システム、検出方法及びプログラム記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2015186347A1 true JPWO2015186347A1 (ja) 2017-04-27
JP6652051B2 JP6652051B2 (ja) 2020-02-19

Family

ID=54766430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016525700A Active JP6652051B2 (ja) 2014-06-03 2015-06-02 検出システム、検出方法及びプログラム

Country Status (3)

Country Link
US (1) US10115206B2 (ja)
JP (1) JP6652051B2 (ja)
WO (1) WO2015186347A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106548488B (zh) * 2016-10-25 2019-02-15 电子科技大学 一种基于背景模型及帧间差分的前景检测方法
CN110114803B (zh) * 2016-12-28 2023-06-27 松下电器(美国)知识产权公司 三维模型分发方法、三维模型接收方法、三维模型分发装置以及三维模型接收装置
JP7154045B2 (ja) * 2018-06-14 2022-10-17 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法
JP7233873B2 (ja) * 2018-09-19 2023-03-07 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN111193916B (zh) * 2018-12-29 2022-03-29 中科寒武纪科技股份有限公司 运算方法
CN112329616B (zh) * 2020-11-04 2023-08-11 北京百度网讯科技有限公司 目标检测方法、装置、设备以及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110164185A1 (en) * 2010-01-04 2011-07-07 Samsung Electronics Co., Ltd. Apparatus and method for processing image data
JP2011198244A (ja) * 2010-03-23 2011-10-06 Hiromitsu Hama 対象物認識システム及び該システムを利用する監視システム、見守りシステム
JP5058010B2 (ja) * 2007-04-05 2012-10-24 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド シーン中に置き去りにされた物体を検出する方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2012009579A (es) * 2010-02-19 2012-10-01 Toshiba Kk Sistema de rastreo de objetos en movimiento y metodo de rastreo de objetos en movimiento.
CN103826102B (zh) * 2014-02-24 2018-03-30 深圳市华宝电子科技有限公司 一种运动目标的识别方法、装置
US10079827B2 (en) * 2015-03-16 2018-09-18 Ricoh Company, Ltd. Information processing apparatus, information processing method, and information processing system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5058010B2 (ja) * 2007-04-05 2012-10-24 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド シーン中に置き去りにされた物体を検出する方法
US20110164185A1 (en) * 2010-01-04 2011-07-07 Samsung Electronics Co., Ltd. Apparatus and method for processing image data
JP2011198244A (ja) * 2010-03-23 2011-10-06 Hiromitsu Hama 対象物認識システム及び該システムを利用する監視システム、見守りシステム

Also Published As

Publication number Publication date
WO2015186347A1 (ja) 2015-12-10
US10115206B2 (en) 2018-10-30
JP6652051B2 (ja) 2020-02-19
US20170186179A1 (en) 2017-06-29

Similar Documents

Publication Publication Date Title
JP7447932B2 (ja) 画像処理システム、画像処理方法及びプログラム
WO2015186347A1 (ja) 検出システム、検出方法及びプログラム記憶媒体
CN107851318B (zh) 用于对象跟踪的系统和方法
US9858483B2 (en) Background understanding in video data
JP6482195B2 (ja) 画像認識装置、画像認識方法及びプログラム
US10776931B2 (en) Image processing system for detecting stationary state of moving object from image, image processing method, and recording medium
WO2019020103A1 (zh) 目标识别方法、装置、存储介质和电子设备
US20130162867A1 (en) Method and system for robust scene modelling in an image sequence
US10970896B2 (en) Image processing apparatus, image processing method, and storage medium
JP6436077B2 (ja) 画像処理システム、画像処理方法及びプログラム
KR20130104286A (ko) 영상 처리 방법
WO2018082308A1 (zh) 一种图像处理方法及终端
JP7067023B2 (ja) 情報処理装置、背景更新方法および背景更新プログラム
US11521392B2 (en) Image processing apparatus and image processing method for image analysis process
US11288816B2 (en) Image detection device, image detection method and storage medium storing program
JP2014203133A (ja) 画像処理装置、画像処理方法
JP2017097554A (ja) 特徴点追跡装置、特徴点追跡方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200106

R150 Certificate of patent or registration of utility model

Ref document number: 6652051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150