JP2009123150A - 対象物検出装置及び方法、対象物検出システム、プログラム - Google Patents
対象物検出装置及び方法、対象物検出システム、プログラム Download PDFInfo
- Publication number
- JP2009123150A JP2009123150A JP2007299201A JP2007299201A JP2009123150A JP 2009123150 A JP2009123150 A JP 2009123150A JP 2007299201 A JP2007299201 A JP 2007299201A JP 2007299201 A JP2007299201 A JP 2007299201A JP 2009123150 A JP2009123150 A JP 2009123150A
- Authority
- JP
- Japan
- Prior art keywords
- image
- background
- model
- images
- background model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】緩やかな照明変化と急激な照明変化の双方に対応した正確な対象物検出を行う。
【解決手段】現フレーム画像の撮影近辺の過去数フレーム分のフレーム画像から背景モデル画像を含む推定モデルを生成する一方、照明条件を異ならせて予め撮影した多数のサンプル背景画像から各々に背景モデル画像を含む複数の統計モデルを生成する。各統計モデルの背景モデル画像にとっての照明条件は異なる統計モデル間で異なる。現フレーム画像と複数の統計モデルを比較し、現フレーム画像に対して最も類似な背景モデル画像を有する統計モデルを探索し、その探索結果が前回のフレーム画像に対する探索結果と同じであるかを判別する。同じであれば、今回と前回のフレーム間で照明変化がないと推定し、推定モデルを用いて背景差分を行って対象物を検出する一方、異なれば、照明変化があったと推定し、統計モデルを用いて対象物を検出する。
【選択図】図5
【解決手段】現フレーム画像の撮影近辺の過去数フレーム分のフレーム画像から背景モデル画像を含む推定モデルを生成する一方、照明条件を異ならせて予め撮影した多数のサンプル背景画像から各々に背景モデル画像を含む複数の統計モデルを生成する。各統計モデルの背景モデル画像にとっての照明条件は異なる統計モデル間で異なる。現フレーム画像と複数の統計モデルを比較し、現フレーム画像に対して最も類似な背景モデル画像を有する統計モデルを探索し、その探索結果が前回のフレーム画像に対する探索結果と同じであるかを判別する。同じであれば、今回と前回のフレーム間で照明変化がないと推定し、推定モデルを用いて背景差分を行って対象物を検出する一方、異なれば、照明変化があったと推定し、統計モデルを用いて対象物を検出する。
【選択図】図5
Description
本発明は、カメラの取得画像を用いて対象物を検出する対象物検出装置及び対象物検出方法並びに対象物検出システムに関する。また、それらに対応するプログラムに関する。
カメラの取得画像を用いた対象物の検出及び抽出処理は、一般的に、2枚の画像を比較することで実現される。この比較には、予め用意した背景画像と現在の取得画像との差分をとる背景差分や、時間的に連続する2枚の画像の差分をとるフレーム間差分が用いられる。しかしながら、この種の対象物検出方法を用いる場合、比較される2枚の画像間で、検出されるべき対象物以外に変化があると正確な対象物検出が困難となる。その代表的な要因がカメラの撮影環境の照明変化である。カメラの撮影環境は太陽光や照明装置の照明光等によって照らされるが、この撮影環境の照明変化によって取得画像の明るさや色合いが変化する。例えば、照明変化によって比較される2枚の画像間の明るさが異なってくると、本来検出されるべき対象物領域だけでなく背景領域に対してまでも所定の閾値以上の差分値が得られてしまい、対象物と背景の区別が困難となる。
撮影環境の照明条件は様々に変化するが、大別すると、その変化は緩やかな変化と急激な変化とに分けられる。例えば、室内を撮影して室内の対象物を検出しようとする場合、撮影環境の照明の照度は、日中の太陽光の照度変化等によって比較的緩やかに変化する一方で、照明装置の電源オン/オフ等によって大幅に且つ瞬時に変化しうる。前者の緩やかな変化に対してはある程度対応することができても、後者の瞬時変化が生じると、対象物の検出に背景差分を用いた場合は勿論のこと、フレーム間差分を用いた場合であっても変化速度によっては正確な対象物検出ができなくなる。
尚、特許文献1には、照明条件の変化に対応して正確な対象物検出を実現しようとする検出方法が提案されている。この検出方法では、背景差分に用いる背景画像を2通りの時間遅れをもって更新させることで、比較的緩やかな変化に対応すると共に長時間静止していた人物等を背景と捉えてしまうことによる誤検出を解消しようとしている。しかしながら、結局は、2通りの時間遅れの設定如何によっては現実の環境に対して全く対応できないこともある。例えば、2通りの時間遅れの内、長い方の時間遅れよりも長く人物が静止しておれば、その人物を背景と捉えてしまうことから逃れられないし、2通りの時間遅れの内、短い方の時間遅れよりも短時間で照度変化が生じれば、正確な対象物検出は望めない。
そこで本発明は、照明条件を含むカメラの周辺環境条件の変化に対応し、正確な対象物検出を実現することができる対象物検出装置、対象物検出システム、対象物検出方法及びプログラムを提供することを目的とする。
上記目的を達成するために本発明に係る対象物検出装置は、カメラの撮影に基づく被検出画像を順次取得し、前記被検出画像と対比用背景画像との差分結果に基づいて前記カメラの撮影領域内における対象物を検出する対象物検出装置において、互いに異なる複数の背景モデル画像を保持する保持手段と、前記被検出画像の画像特徴に影響を与える前記カメラの周辺環境条件の変化に応じて前記複数の背景モデル画像の内の何れかを選択し、選択した背景モデル画像に基づいて前記対比用背景画像を生成する選択手段と、を備えたことを特徴とする。
被検出画像の画像特徴に影響を与えるカメラの周辺環境条件は、カメラの照明条件の変化などに起因して様々に変化しうる。この変化に対応するべく上記の如く構成する。これにより、例えば、複数の背景モデル画像の中に、比較的緩やかな周辺環境条件の変化に対応するための背景モデル画像と急激な周辺環境条件の変化に対応するための背景モデル画像を含ませておき、これらを実際の周辺環境条件の変化に応じて使い分けるといったことが可能となる。従って、様々な周辺環境条件の変化に対応した、正確な対象物検出を実現することが可能となる。
具体的には例えば、前記複数の背景モデル画像は、今回の被検出画像の撮影時を基準とする直近過去の所定数枚分の被検出画像を用いて作成される第1の背景モデル画像と、前記撮影領域内に前記対象物が含まれない状態で予め撮影された画像を用いて作成される第2の背景モデル画像と、を含み、前記選択手段は、前記周辺環境条件の変化に応じて第1又は第2の背景モデル画像を選択する。
第1の背景モデル画像には、被検出画像の撮影時近辺の周辺環境条件が反映されることとなるため、第1の背景モデル画像を用いれば緩やかな周辺環境条件の変化に良好に対応することができる。但し、周辺環境条件に急激な変化が生じた場合は、第1の背景モデル画像で対応しきれないことが多い。そこで、それの対応に適した第2の背景モデル画像を、第1の背景モデル画像とは別個に用意しておく。そして、実際の周辺環境条件の変化に応じて、第1と第2の背景モデル画像を使い分けるようにする。
また、前記第2の背景モデル画像を、2以上の背景モデル画像から成る背景モデル画像群とすることができる。この背景モデル画像群を形成する各背景モデル画像を、便宜上、統計モデル画像と呼ぶこととし、以下のような構成を採用することもできる。
即ち、具体的には例えば、前記第2の背景モデル画像は、各々が背景モデル画像として機能する複数の統計モデル画像から形成され、前記複数の統計モデル画像は、前記撮影領域内に前記対象物が含まれない状態で予め撮影された複数の画像に基づいて生成され、 各統計モデル画像の生成元の画像の撮影時における前記周辺環境条件は異なる統計モデル画像間で異なり、前記選択手段は、前記被検出画像と各統計モデル画像との比較に基づいて、前記複数の統計モデル画像の内、前記被検出画像に最も類似する統計モデル画像を探索する探索手段を備えて、順次取得される各被検出画像に対して前記探索を行い、前回の被検出画像に対する探索結果と今回の被検出画像に対する探索結果が同じであるか否かに基づいて前回と今回の撮影間において前記周辺環境条件が変化したか否かを推定し、両探索結果が同じである場合は変化なしと推定して今回の被検出画像に対して前記第1の背景モデル画像を選択する一方、両探索結果が異なる場合は変化ありと推定して今回の被検出画像に対して前記第2の背景モデル画像を選択する。
このように、周辺環境条件の異なる複数の画像から複数の統計モデル画像を生成する。この複数の統計モデル画像を用いた探索手段の探索結果を前回と今回で比較することにより、周辺環境条件の変化を推定することが可能となる。
そして例えば、前記選択手段は、今回の被検出画像に対して前記第1の背景モデル画像を選択した際、前記第1の背景モデル画像を今回の被検出画像に対する前記対比用背景画像として取り扱い、今回の被検出画像に対して前記第2の背景モデル画像を選択した際、今回の被検出画像に対して探索された統計モデル画像を今回の被検出画像に対する前記対比用背景画像として取り扱う。
周辺環境条件に変化がないと推定された場合は第1の背景モデル画像が選択される。この場合は、被検出画像の撮影時近辺の周辺環境条件が反映された第1の背景モデル画像を対比用背景画像として用いることが適切である。一方、周辺環境条件に変化があると推定された場合は第2の背景モデル画像が選択される。この場合は、第1の背景モデル画像で対応しきれないことが多いため、統計モデル画像を対比用背景画像として用いる。この際、前記探索手段で探索された統計モデル画像を用いることで良好な対象物検出を維持することができる。
或いは例えば、前記選択手段は、今回の被検出画像に対して前記第1の背景モデル画像を選択した際、前記第1の背景モデル画像を今回の被検出画像に対する前記対比用背景画像として取り扱い、今回の被検出画像に対して前記第2の背景モデル画像を選択した際、前記複数の統計モデル画像から今回の被検出画像に対する前記対比用背景画像を生成する。
周辺環境条件に変化がないと推定された場合は第1の背景モデル画像が選択される。この場合は、被検出画像の撮影時近辺の周辺環境条件が反映された第1の背景モデル画像を対比用背景画像として用いることが適切である。一方、周辺環境条件に変化があると推定された場合は第2の背景モデル画像が選択される。この場合は、第1の背景モデル画像で対応しきれないことが多いため、統計モデル画像から対比用背景画像を生成する。この際、上記の如く、複数の統計モデル画像から対比用背景画像を生成することで、対象物の検出精度向上を図ることもできる。
また例えば、前記被検出画像内において前記対象物が描画されている領域を指定する情報、又は、前記被検出画像内に前記対象物が含まれていないことを表す情報を受け、受けた情報に基づいて前記第2の背景モデル画像の更新を行う更新手段を当該対象物検出装置に更に設けるようにしてもよい。
これにより、第2の背景モデル画像を、より望ましいものへと更新していくことが可能となる。
また、上記目的を達成するために本発明に係る対象物検出システムは、撮影によって被検出画像を得るカメラと、上記の何れかに記載の対象物検出装置と、前記被検出画像に基づく画像を表示する表示装置と、を備え、前記対象物検出装置による対象物の検出結果を外部に報知する。
このシステムによれば、正確な対象物の検出結果をシステムの使用者に知らせることが可能である。
また、上記目的を達成するために本発明に係る対象物検出方法は、撮影によって被検出画像を得るカメラ及び前記被検出画像に基づく画像を表示する表示装置を備えるシステムに用いられ、且つ、前記カメラから前記被検出画像を順次取得し、前記被検出画像と対比用背景画像との差分結果に基づいて前記カメラの撮影領域内における対象物を検出して該検出結果を外部に報知する対象物検出方法において、互いに異なる複数の背景モデル画像を用意し、前記被検出画像の画像特徴に影響を与える前記カメラの周辺環境条件の変化に応じて前記複数の背景モデル画像の内の何れかを選択し、選択した背景モデル画像に基づいて前記対比用背景画像を生成することを特徴とする。
また、上記目的を達成するために本発明に係るプログラムは、カメラの撮影によって順次得られる被検出画像と対比用背景画像との差分結果に基づいて前記カメラの撮影領域内における対象物を検出する機能をコンピュータに実現させるためのプログラムであって、 前記コンピュータが備えるメモリ内に互いに異なる複数の背景モデル画像を保持する機能、及び、前記被検出画像の画像特徴に影響を与える前記カメラの周辺環境条件の変化に応じて前記複数の背景モデル画像の内の何れかを選択し、選択した背景モデル画像に基づいて前記対比用背景画像を生成する機能、を前記コンピュータに実現させることを特徴とする。
本発明によれば、照明条件を含むカメラの周辺環境条件の変化に対応し、正確な対象物検出を実現することができる。
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第6実施例を説明するが、まず、各実施例に共通する事項又は各実施例にて参照される事項について説明する。
図1は、本発明の実施形態に係る対象物検出システムの全体ブロック図である。対象物検出システムは、カメラ1、検出処理部2、表示部3及び操作部4を備え、カメラ1の撮影画像に基づいてカメラ1の撮影領域(換言すれば、カメラ1の視野)内に存在しうる検出対象物を検出する。以下の説明では、検出対象物(以下、単に「対象物」と略記する)が、主として人物である場合を想定する。
カメラ1として、CCD(Charge Coupled Devices)を用いたカメラや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いたカメラが用いられる。検出処理部2は、集積回路等を用いて形成される。表示部3は、液晶ディスプレイパネル等から形成される表示装置である。操作部4は、対象物検出システムの使用者(以下、「監視者」という)による操作を受け付ける。操作部4に対してなされた操作の内容は検出処理部2に伝達される。操作部4は、表示部3と共にグラフィカルユーザインタフェース(Graphical User Interface;以下、「GUI」という)を形成する。監視者は、GUIを介して必要な操作を施すことにより、所望の指示内容を検出処理部2に与える。
カメラ1は、所定のフレーム周期にて順次撮影を行う。この順次撮影によって周期的に得られる各画像を、以下「フレーム画像」という。フレーム画像を表す画像データは、検出処理部2に送られる。カメラ1の撮影領域は固定されているものとする。また、本実施形態では、カメラ1の撮影領域が家屋等の室内である場合を想定し、また、カメラ1の撮影領域を照らす光源に蛍光灯などの照明装置と太陽光とが含まれている場合を想定する。但し、カメラ1の撮影領域を室外とすることも可能であるし、また、光源の数及び種類は任意である。太陽光及び室内に設けられた照明装置の照明光以外の外光(例えば、ネオンの光)によってカメラ1の撮影領域が一時的に照らされる場合もあり、そのような外光も、カメラ1の撮影領域を照らす光源の一種と捉えられる。
検出処理部2は、符号11〜18にて参照される各部位を備える。検出処理部2の各部位の機能を概略的に説明する。尚、検出処理部2内の各部位は、検出処理部2内の他部位で生成される各データを必要に応じて自由に参照可能となっている。
画像取得部11は、順次、カメラ1から出力される画像データを読み出すことにより各フレーム画像を取得する。差分処理部12は、フレーム画像とモデル選択処理部18から与えられる対比用背景画像との差分処理を行ってフレーム画像内の対象物を抽出する。表示制御部13は、その抽出結果をフレーム画像に反映させた画像が表示部3にて表示されるように表示用の画像データを生成して出力する。図2に、フレーム画像及び対比用背景画像と両画像に対して差分処理を施すことで得られる差分結果画像の例を示す。この差分結果画像から対象物としての人物が抽出される。例えば、いわゆる背景差分法を用いて差分結果画像を得ることができる。尚、図2のフレーム画像には、部屋の角、部屋の床、部屋の2つの壁及び一方の壁に沿って直立している人物が描写されている。
推定モデル生成部14は、対比用背景画像の元となる推定モデルを生成する。推定モデル保持メモリ15は、推定モデル生成部14にて生成された推定モデルを保持する(即ち、記憶する)。統計モデル生成部16は、対比用背景画像の元となる統計モデルを生成する。統計モデル保持メモリ17は、統計モデル生成部16にて生成された統計モデルを保持する(即ち、記憶する)。モデル選択処理部18は、推定モデル又は統計モデルを選択して、選択したモデルに基づく対比用背景画像を生成する。
対象物が抽出されるべきフレーム画像を、特に「被検出画像」と呼ぶ。各フレーム画像が、順次、差分処理部12に送られて被検出画像として取り扱われる。以下の説明において、現時点において被検出画像として取り扱われるフレーム画像を、現フレーム画像又は今回のフレーム画像と呼び、そのフレーム画像が得られるフレームを現フレーム又は今回のフレームと呼ぶ。後述の、過去、前回、次回という記述は、今回のフレームを基準として述べたものである。尚、本明細書において、「フレーム」という文言は、画像を意味する文言ではなく、時間を表す文言として解釈されるものとする。フレームは、フレーム画像を得るための撮影タイミング或いは撮影区間とも換言される。例えば、或る着目したタイミングにおける被写体をカメラ1によって撮影した場合、その撮影によって得られるフレーム画像が現フレーム画像であるとすると、現フレームという文言及び今回のフレームという文言は、上記の着目したタイミングを意味している。
図3は、推定モデルの意義を説明するための図である。推定モデルは、現フレームから見た直近過去の所定数フレーム分のフレーム画像を用いて生成される。例えば、その所定数が30である場合、現フレームを起点として、30フレーム前から前回フレームまでの合計30フレーム分のフレーム画像を用いて推定モデルが生成される。推定モデルは、背景画像をモデル化した1枚の背景モデル画像と、差分処理部12での差分処理にて参照される偏差リストと、から形成される。推定モデルの背景モデル画像は、例えば、上記の直近過去の所定数フレーム分のフレーム画像を平均化することによって生成される。推定モデルは、第1の背景モデルとして機能する。尚、背景画像とは、カメラ1の撮影領域内に対象物が存在していない状態においてカメラ1によって撮影された画像、換言すれば、対象物を含まないフレーム画像を意味する。また、背景モデルとは、対象物を含まない撮影領域についての画像情報をモデル化した背景モデル画像とその他の情報を組み合わせたものであり、推定モデルは、背景モデルの一種である。
図4は、統計モデルの意義を説明するための図である。統計モデルを作成するために、対象物の実際の検出を行うに先立って事前に多数のフレーム画像をカメラ1に取得させておく。この事前に取得された各フレーム画像を、以下、サンプル背景画像という。全てのサンプル背景画像を撮影時において、カメラ1の撮影領域内に対象物が含まれていないものとする。一方で、取得された多数のサンプル背景画像の中には、カメラ1の周辺の照明条件(以下、単に照明条件という)が互いに異なる複数のサンプル背景画像が含まれているものとする。但し、照明条件が同じ状態で撮影された複数のサンプル背景画像も、多数のサンプル背景画像の中に含まれうる。
これを実現するために、例えば、対象物の実際の検出を行うに先立ってサンプル背景画像取得用の期間を設け、その期間中において、カメラ1に多数のフレーム画像をサンプル背景画像として取得させる。この期間中には、カメラ1の撮影領域を照らす照明装置の電源オン/オフや、カメラ1の撮影領域を照らす太陽光の照度変化などが生じている。尚、照明条件は、カメラ1の撮影領域を照らす光源の状態を意味し、照明状態とも換言される。照明条件が異なれば、カメラ1の撮影領域を照らす光源の照度や色温度が異なり、得られるフレーム画像の明るさや色合いも異なってくる。
図4に示す如く、統計モデルは複数個生成され、複数の統計モデルが統計モデル保持メモリ17に保持される。生成される統計モデルの個数を、Nで表す(Nは2以上の整数)。各統計モデルは、背景画像をモデル化した1枚の背景モデル画像と、差分処理部12での差分処理にて参照される偏差リストと、から形成される。N個の統計モデルは、第2の背景モデルとして機能する。1つの統計モデルの背景モデル画像は、基本的に、似通ったサンプル背景画像を集めて平均化することにより生成され、異なる統計モデル間で背景モデル画像の明るさや色合いなどが異なる。
カメラ1の照明条件(特に、照度)は、日中の太陽光の照度変化等によって比較的緩やかに変化する一方で、照明装置の電源オン/オフ等によって大幅に且つ瞬時に変化しうる。前者の変化の状態は第1の背景モデル(推定モデル)に逐次反映されるため、第1の背景モデルを用いれば前者の変化に対して正確な対象物検出を実現可能である。一方、第1の背景モデルを用いたのでは、後者の変化の状態に対応しきれないことがある。そこで、照明条件に大幅な瞬時変化が生じたと推定される場合は、多数のサンプル背景画像から統計的に作成された第2の背景モデル(N個の統計モデル)を用いて対象物の検出処理を行う。
このように、本実施形態では、カメラ1の照明条件の変化を推定し、その推定結果に応じて第1の背景モデルと第2の背景モデルを使い分ける。これにより、照明条件の緩やかな変化と大幅な瞬時変化の双方に対応した正確な対象物検出が可能となる。
図5に、本実施形態に係る対象物検出システムの全体的な動作の流れを表すフローチャートを示す。ステップS1〜S11から成るループ処理を、各フレーム画像に対して実行する。フレーム周期は、例えば、1/3〜1/5秒である。ステップS12〜S14の各処理は、このループ処理と切り離して実行される。ステップS1の処理は画像取得部11によって実行され、ステップS2〜S6の各処理はモデル選択処理部18によって実行され、ステップS7、S8及びS10の各処理は差分処理部12によって実行され、ステップS9の処理は推定モデル生成部14によって実行され、ステップS11の処理は表示制御部13及び表示部3によって実行される。ステップS12の処理は、監視者による操作部4への操作によって実現され、ステップS13及びS14の各処理は統計モデル生成部16によって実行される。
各ステップの概要を説明する。ステップS1において、カメラ1から現フレーム画像を取得する。続くステップS2において、統計モデル保持メモリ17に記憶されたN個の統計モデルの夫々と現フレーム画像とを比較し、ステップS3において、現フレーム画像に対して最も類似する背景モデル画像を含む1つの統計モデルを探索する。
そして、ステップS4において、現フレーム画像に対する探索結果が前回のフレーム画像に対する探索結果と同じであるか否かを判断する。即ち、現フレーム画像に対して探索された統計モデルと前回のフレーム画像に対して探索された統計モデルとが同じであるか否かを判断する。同じである場合は、前回のフレーム画像の撮影時における照明条件と今回のそれとが同じであると推測されるため、対象物の検出に推定モデルを用いることができる。そこで、両探索結果が同じである場合は、前回と今回のフレーム間において照明条件が変化していないと推定してステップS5に移行し、ステップS5において推定モデルから対比用背景画像を生成する。一方、現フレーム画像に対する探索結果と前回のフレーム画像に対する探索結果が異なる場合は、前回のフレーム画像の撮影時における照明条件と今回のそれとが異なると推測されるため、対象物の検出に推定モデルを用いるのは適切ではない。そこで、両探索結果が異なる場合は、前回と今回のフレーム間において照明条件が変化したと推定してステップS6に移行し、ステップS6において統計モデルから対比用背景画像を生成する。尚、照明条件に関して、変化がないとは、完全に変化がない状態を含むだけでなく、変化があってもそれが無視できる程度に小さい状態をも含む。
ステップS5又はS6で対比用背景画像が生成されるとステップS7に移行し、その対比用背景画像と現フレーム画像との間で差分処理を行う。この差分処理の結果に基づき、現フレーム画像の全体領域から対象物領域及び背景領域が抽出される。対象物領域の抽出及び背景領域の抽出は、夫々、ステップS10及びS8にて実行される。対象物領域とは、対象物が描画されている領域を意味し、背景領域とは、対象物を含まない背景が描画されている領域を意味する。従って、フレーム画像の全体領域は、対象物領域と背景領域の合成領域に相当する。
対象物領域及び背景領域が抽出された後、ステップS9において、その抽出結果に基づき推定モデルが更新されると共に、ステップS11において、対象物領域の抽出結果が表示部3の表示画面上に表示される。例えば、対象物領域と背景領域を区別して視認可能なように、図1の表示制御部13が、現フレーム画像に対象物領域を囲む枠を重畳した表示用画像を生成し、これを表示部3の表示画面上に表示させる。図6に、図2のフレーム画像から生成された表示用画像の例を示す。図6において、符号210が表示用画像であり、符合211が付された破線四角枠は、重畳表示された対象物領域を囲む枠である。ステップS9及びS11の処理を終えると、ステップS1に戻り、次回のフレーム画像に対してステップS1〜S11の各処理が実行される。
ステップS12〜S14の処理は必要に応じて行われ、それらの処理によって統計モデルがより望ましいものに更新される。ステップS12〜S14の処理内容については後述する。
以下、対象物検出システムのより詳細な動作や構成を説明する実施例として、第1〜第6実施例を説明する。或る実施例に記載した事項は、矛盾なき限り、他の実施例にも適用可能である。
<<第1実施例>>
まず、第1実施例を説明する。第1実施例では、図5のステップS4において現フレーム画像に対する探索結果が前回のフレーム画像に対する探索結果と同じと判断された場合における、ステップS5及びS7〜S10の各処理内容を説明する。この説明の中で、推定モデルの生成に関する詳細説明も行う。
まず、第1実施例を説明する。第1実施例では、図5のステップS4において現フレーム画像に対する探索結果が前回のフレーム画像に対する探索結果と同じと判断された場合における、ステップS5及びS7〜S10の各処理内容を説明する。この説明の中で、推定モデルの生成に関する詳細説明も行う。
図7を参照する。図7には、現フレーム画像及び推定モデルから生成された対比用背景画像の例として、現フレーム画像200及び対比用背景画像201が示されている。現フレーム画像200及び対比用背景画像201に基づいてステップS7〜S10を実行する場合の説明を行う。
前回のステップS9の更新処理を行う時点において、現フレーム画像200を取得するフレームから見た直近過去の所定数フレーム(例えば30フレーム)分のフレーム画像を用いて、それと同枚数のストック背景画像(これを、ストック背景画像群と総称する)が生成されている。推定モデル生成部14は、そのストック背景画像群を形成する全ストック背景画像を平均化することにより、最新の推定モデルにおける背景モデル画像を生成する。対比用背景画像201は、前回のステップS9の更新処理によって得られた、その最新の推定モデルにおける背景モデル画像とされる。
現フレーム画像200と対比用背景画像201との差分処理の説明の前に、前回のステップS9の更新処理における推定モデルの生成方法を説明する。今、説明の簡略化のため、ストック背景画像群が3枚のストック背景画像、即ち、図8の第1〜第3のストック背景画像から形成されるものと考えて、推定モデルの生成方法を詳説する。また、ストック背景画像を含む各画像がカラー画像であり、画像を形成する各画素の画素値は、R信号値、G信号値及びB信号値から形成されるものとする(但し、これは、差分結果画像に代表される二値化画像には当てはまらない)。着目した画素に関し、R、G及びB信号値は、夫々、その着目した画素の赤成分、緑成分及び青成分の強度を表す。
第1〜第3のストック背景画像に基づく背景モデル画像は、第1〜第3のストック背景画像の各画素のR、G及びB信号値を個別に平均化することにより生成される。即ち、図8に示す如く、第1のストック背景画像内の或る着目した座標位置における画素のR、G及びB信号値を、夫々、R1、G1及びB1で表し、且つ、それと同一の座標位置における第2のストック背景画像内の画素のR、G及びB信号値を、夫々、R2、G2及びB2で表し、且つ、それと同一の座標位置における第3のストック背景画像内の画素のR、G及びB信号値を、夫々、R3、G3及びB3で表した場合、それと同一の座標位置における背景モデル画像内の画素のR、G及びB信号値は、夫々、(R1+R2+R3)/3、(G1+G2+G3)/3及び(B1+B2+B3)/3、とされる。
推定モデル生成部14は、背景モデル画像の生成に合わせて、第1〜第3のストック背景画像の画素値の標準偏差を、画素ごとに且つR、G及びB信号値の夫々に対して算出する。例えば、上述の着目した座標位置の画素に対しては、下記式(1a)、(1b)及び(1c)に従って、R、G及びB信号値についての標準偏差σR、σG及びσBが算出される。
標準偏差σR、σG及びσBを全画素に対して(換言すれば、全座標位置に対して)算出してリスト化したものを、偏差リストと呼ぶ。第1〜第3のストック背景画像に基づく背景モデル画像と偏差リストを併せたものが推定モデルとして生成される(図3参照)。
このようにして生成された最新の推定モデルの背景モデル画像が、上述の如く、図7の対比用背景画像201とされる。そして、ステップS7において、現フレーム画像200と対比用背景画像201を、画素ごとに且つR、G及びB信号値ごとに比較する。そして、比較された両画像間で画素値の相違が比較的大きい画素と相違が比較的小さい画素とを画素ごとに判別する。相違が比較的大きい画素を、以下「相違画素」と呼び、相違が比較的小さい画素を、以下「非相違画素」と呼ぶ(後述する他の実施例においても共通)。尚、相違が比較的小さいとは、相違が全くないことをも含む概念である。そして、相違画素の画素値を1とし且つ非相違画素の画素値を0とした、二値化画像としての差分結果画像202を生成する。
具体的には、現フレーム画像200内の或る着目した座標位置における画素のR、G及びB信号値を、夫々、RCF、GCF及びBCFで表し、それと同一の座標位置における対比用背景画像201内の画素のR、G及びB信号値を、夫々、REM、GEM及びBEMで表した場合、下記の3つの不等式(2a)、(2b)及び(2c)が成立するか否かを判断する。そして、その3つの不等式が全て満たされる場合は、その着目した座標位置における画素は非相違画素であると判断する一方、3つの不等式の何れか1つでも満たされない場合は、その着目した座標位置における画素は相違画素であると判断する。この際、不等式(2a)、(2b)及び(2c)におけるσR、σG及びσBは、推定モデルの偏差リストに基づく、着目した座標座標についてのR、G及びB信号値の標準偏差とする。また、α1は、所定の正の係数である。
ステップS7にて差分結果画像202が生成されると、画像上における対象物領域及び背景領域の各位置が特定される。即ち、差分結果画像202内において画素値が1となる画素群から形成される領域そのもの、又は、その領域をとり囲む領域(例えば矩形領域)の位置が対象物領域の位置として特定される一方で、その対象物領域以外の領域の位置が背景領域の位置として特定される。特定された対象物領域及び背景領域の位置から、現フレーム画像200内における対象物領域及び背景領域を抽出することが可能である(ステップS10及びS8)。
この後、推定モデル生成部14は、推定モデルを更新すべく、現フレーム画像200から対象物領域を抜き取った時の残りの画像と対比用背景画像201中の対象物領域内の画像とを合成することにより、擬似的に欠損のない現時点の背景画像としてのストック背景画像205を生成する。具体的には、現フレーム画像200から対象物領域(差分結果画像202に基づいて特定された対象物領域)に位置する一部画像を除去し、除去後の残りの画像を対象物除去画像203として生成する。図7において、対象物除去画像203内の破線で囲まれた領域内が除去された領域を表している。一方で、対比用背景画像201から対象物領域(差分結果画像202に基づいて特定された対象物領域)に位置する一部画像を抽出し、この抽出画像を対象物位置背景画像204とする。そして、対象物位置背景画像204を対象物除去画像203に嵌め込むことによって両画像を合成し、その合成画像をストック背景画像205とする。
ストック背景画像205は、ストック背景画像群の構成要素として、ストック背景画像メモリ(不図示)に新たに記憶される。ストック背景画像メモリは、ストック背景画像群を形成する各ストック背景画像の画像データを記憶しておくためのメモリであり、検出処理部2内(特に例えば、推定モデル生成部14内)に設けられる。ストック背景画像メモリが記憶するストック背景画像の上限枚数は決まっており、既に上限枚数分のストック背景画像が記憶されている場合は、最も古くに記憶されたストック背景画像をストック背景画像メモリから消去して新たにストック背景画像205をストック背景画像メモリに記憶させる。これにより、ストック背景画像群が更新され、その更新されたストック背景画像群に基づいて新たに推定モデルを作成し直す。そして、新たに作成された推定モデル(即ち、今回のステップS9にて更新された推定モデル)は、図1の推定モデル保持メモリ15に記憶され、次回のフレーム画像に対する推定モデルとして利用される。
このように、順次取得されるフレーム画像に基づいて推定モデルを更新していくことにより、比較的緩やかな照度変化に適応した対象物検出が可能となる。
<<第2実施例>>
次に、第2実施例について説明する。第2実施例では、図5の各ステップの実行に先立って生成されるN個の統計モデルの生成方法を説明する。上述したように、事前に多数のサンプル背景画像がカメラ1によって取得される。図1の統計モデル生成部16は、クラスタリングを行って、この多数のサンプル背景画像をクラス分けしてゆく。クラスタリングの方法として、例えば、階層的クラスタリングを採用することができる。つまり、類似したサンプル背景画像をまとめてクラスタを形成し、更に、総クラスタ数がN個となるまで類似するクラスタを併合する処理を繰り返していく。これにより、各サンプル背景画像がN個のクラスタの何れかに分類される。尚、統計モデルの生成元となるサンプル背景画像の集まりを、総称して、サンプル背景画像群ともよぶ。
次に、第2実施例について説明する。第2実施例では、図5の各ステップの実行に先立って生成されるN個の統計モデルの生成方法を説明する。上述したように、事前に多数のサンプル背景画像がカメラ1によって取得される。図1の統計モデル生成部16は、クラスタリングを行って、この多数のサンプル背景画像をクラス分けしてゆく。クラスタリングの方法として、例えば、階層的クラスタリングを採用することができる。つまり、類似したサンプル背景画像をまとめてクラスタを形成し、更に、総クラスタ数がN個となるまで類似するクラスタを併合する処理を繰り返していく。これにより、各サンプル背景画像がN個のクラスタの何れかに分類される。尚、統計モデルの生成元となるサンプル背景画像の集まりを、総称して、サンプル背景画像群ともよぶ。
クラスタリングの手法として公知の任意の手法を用いることできるが、以下に、一手法を例示する。図9に、サンプル背景画像の総枚数が10枚であって且つN=4である場合のクラスタリングの様子を示す。まず、10枚のサンプル背景画像の夫々を1つの要素から成るクラスタと考えて、異なるクラスタ間の類似度を評価する。画像特徴によってベクトル値が定まる多次元ベクトル空間におけるクラスタ間の距離を類似度の指標として取り扱い、クラスタ間の距離が最も短いクラスタ同士(即ち、類似度の最も高いクラスタ同士)を順次併合していくことによって、クラスタリングを進める。類似度を、第3実施例にて後述する特徴ベクトルに基づいて評価することも可能であるし、公知の任意の、画像間の類似度評価方法を採用して評価することも可能である。
例えば、ウォード法を用いてクラスタリングを行う。ウォード法は、クラスタ同士の類似度の評価の際、着目したクラスタが要素として内包しているクラスタの要素数に重みをつける方法である。例えば、クラスタA及びクラスタBを要素として内包するクラスタCとクラスタXとの類似度dxcは、下記式(3)に従って算出される。ここで、dxa、dxb及びdabは、夫々、クラスタXとクラスタAの類似度、クラスタXとクラスタBの類似度及びクラスタAとクラスタBの類似度を表し、nx、na、nb及びncは、夫々、クラスタXが要素として内包しているクラスタの要素数、クラスタAが要素として内包しているクラスタの要素数、クラスタBが要素として内包しているクラスタの要素数及びクラスタCが要素として内包しているクラスタの要素数(今の例において、2)を表す。
総クラスタ数がN個になるまでクラスタリングが進んだ時点でクラスタリングを終了して、N個の統計モデルを作成する。例えば、N=4であって、最終的に第1〜第4のクラスタが生成された場合、第iのクラスタに内包される全サンプル背景画像に基づいて第iの統計モデルを生成する(ここで、iは1以上4以下の整数)。各統計モデルは、図4を示して説明したように、1枚の背景モデル画像と偏差リストを有している。
或る1つの統計モデルに着目し、統計モデルを形成する背景モデル画像と偏差リストの生成方法について説明する。説明の具体化のため、着目した統計モデルに対応するクラスタに内包される全サンプル背景画像が第1〜第3のサンプル背景画像から成るものとする。着目した統計モデルの背景モデル画像は、第1〜第3のサンプル背景画像を平均化した画像とされる。第1〜第3のサンプル背景画像を平均化して背景モデル画像を生成する方法は、第1実施例で述べた第1〜第3のストック背景画像から推定モデルの背景モデル画像を生成する方法と同じである。即ち、第1〜第3のサンプル背景画像に基づく背景モデル画像は、第1〜第3のサンプル背景画像の各画素のR、G及びB信号値を個別に平均化することにより生成される。
統計モデル生成部16は、背景モデル画像の生成に合わせて、第1〜第3のサンプル背景画像の画素値の標準偏差を、画素ごとに且つR、G及びB信号値の夫々に対して算出する。この標準偏差の算出方法も、第1実施例で述べた標準偏差の算出方法と同じであるが、第1実施例で述べた標準偏差と区別すべく、ここで算出される第1〜第3のサンプル背景画像の画素値の標準偏差の内、R、G及びB信号値に関する標準偏差を、夫々、σR2、σG2及びσB2で表す。標準偏差σR2、σG2及びσB2を全画素に対して(換言すれば、全座標位置に対して)算出してリスト化したものを、着目した統計モデルの偏差リストとして生成する。
<<第3実施例>>
次に、第3実施例について説明する。第3実施例では、図5のステップS2及びS3の処理内容を詳説する。ステップS2及びS3にて行われる比較及び探索処理の方法として、以下に第1及び第2比較方法を例示する。モデル選択処理部18は、第1又は第2比較方法を用いて、ステップS2及びS3の処理を実現する。
次に、第3実施例について説明する。第3実施例では、図5のステップS2及びS3の処理内容を詳説する。ステップS2及びS3にて行われる比較及び探索処理の方法として、以下に第1及び第2比較方法を例示する。モデル選択処理部18は、第1又は第2比較方法を用いて、ステップS2及びS3の処理を実現する。
[第1比較方法]
第1比較方法について説明する。ステップS2では、統計モデル保持メモリ17に記憶されたN個の統計モデルの夫々と現フレーム画像とが比較されるが、今、1つの統計モデルに着目し、その着目した統計モデルと現フレーム画像との比較方法について説明する。
第1比較方法について説明する。ステップS2では、統計モデル保持メモリ17に記憶されたN個の統計モデルの夫々と現フレーム画像とが比較されるが、今、1つの統計モデルに着目し、その着目した統計モデルと現フレーム画像との比較方法について説明する。
まず、現フレーム画像と着目した統計モデルの背景モデル画像を、画素ごとに且つR、G及びB信号値ごとに比較する。そして、比較された両画像間で画素値の相違が比較的大きい画素(即ち、相違画素)と相違が比較的小さい画素(即ち、非相違画素)とを画素ごとに判別する。
具体的には、現フレーム画像内の或る着目した座標位置における画素のR、G及びB信号値を、夫々、RCF、GCF及びBCFで表し、それと同一の座標位置における統計モデルの背景モデル画像内の画素のR、G及びB信号値を、夫々、RSM、GSM及びBSMで表した場合、下記の3つの不等式(4a)、(4b)及び(4c)が成立するか否かを判断する。そして、その3つの不等式が全て満たされる場合は、その着目した座標位置における画素は非相違画素であると判断し、3つの不等式の何れか1つでも満たされない場合は、その着目した座標位置における画素は相違画素であると判断する。この際、不等式(4a)、(4b)及び(4c)におけるσR2、σG2及びσB2は、着目した統計モデルの偏差リストに基づく、着目した座標座標についてのR、G及びB信号値の標準偏差とする。また、α2は、所定の正の係数である。上述のようにして、全ての画素を相違画素と非相違画素のどちらかに分類した後、相違画素の個数を計数する。
この相違画素の個数の計数を、現フレーム画像と統計モデル保持メモリ17に記憶されたN個の統計モデルの夫々との間で行い、その個数が最も小さくなる統計モデルを、現フレーム画像に対して最も類似する背景モデル画像を含む統計モデルであると判断する。
[第2比較方法]
第2比較方法について説明する。尚、第2比較方法を採用する場合は、ステップS2及びS3において、統計モデル内の偏差リストは利用されない。
第2比較方法について説明する。尚、第2比較方法を採用する場合は、ステップS2及びS3において、統計モデル内の偏差リストは利用されない。
第2比較方法では、現フレーム画像及び統計モデルの背景モデル画像の夫々を被演算画像として取り扱い、被演算画像の特徴量及び特徴ベクトルを以下のように算出する。図10を参照する。
まず、被演算画像の全体領域を水平方向及び垂直方向に複数に分割することにより、被演算画像内に複数の小ブロックを設定する。今、説明の具体化のため、図10に示す如く、被演算画像の水平方向及び垂直方向の画素数が夫々320及び240であって、被演算画像を水平方向に40分割且つ垂直方向に30分割することにより、合計1200個の小ブロックを設定する場合を考える。この場合、各小ブロックは8×8の画素から形成されることになる。尚、図示の煩雑化防止のため、図10では、被演算画像の水平方向及び垂直方向の分割数が40及び30となっていない。また、被演算画像内の小ブロックの水平位置及び垂直位置を表す記号としてx及びyを導入する(xは1≦x≦40を満たす整数値、且つ、yは1≦y≦30を満たす整数値)。xが大きくなるほど、その水平位置は右方向に向かい、yが大きくなるほど、その垂直位置は下方向に向かうものとする。そして、水平位置xと垂直位置yを併せてブロック位置(x,y)と表記することにする。また更に、各画素のR、G及びB信号値の夫々が、0〜255の範囲内の整数値で表されるものとする。
各小ブロックを設定した後、小ブロックごとに、小ブロック内のR信号値のヒストグラム、G信号値のヒストグラム及びB信号値のヒストグラムを求める。256段階のヒストグラムにおける各度数を特徴量を定義することも可能であるが、微小な信号値差異を無視し且つ演算量の低減を図るため、ヒストグラムにおける解像度を低下させて64段階のヒストグラム(即ち、0〜255の信号値を64段階に分類したヒストグラム)を求めるようにする。尚、図10及び後述の図11の各ヒストグラムにおいて、横軸はヒストグラムにおける分類段階番号を表し縦軸は度数を表している。このようにして小ブロックごとに且つR、G及びB信号値ごとに求められた64段階のヒストグラムの各度数を被演算画像の特徴量として定義し、全ての特徴量を要素とするベクトルを、被演算画像の特徴ベクトルとして求める。今の例の場合、特徴ベクトルは、1200×64×3=230400より、230400次元のベクトルとなる。
上述のようにして、現フレーム画像及び統計モデルの背景モデル画像の夫々の特徴ベクトルを算出した後、現フレーム画像と各統計モデルの背景モデル画像との類似度を特徴ベクトルに基づいて評価する。現フレーム画像と1つの着目した統計モデルの背景モデル画像との類似度の評価方法を説明する。
まず、現フレーム画像内のブロック位置(x,y)における小ブロックについての64段階のヒストグラムと、着目した統計モデルの背景モデル画像内の、ブロック位置(x,y)における小ブロックについての64段階のヒストグラムを対比する。前者の小ブロックについての、R、G及びB信号値のヒストグラムをそれぞれ符号251R、251G及び251Bによって参照し、後者の小ブロックについての、R、G及びB信号値のヒストグラムをそれぞれ符号252R、252G及び252Bによって参照する。図11には、それらのヒストグラムが示されている。
そして、同色の信号値に関するヒストグラムを重ね合わせた時に重複した面積が大きいほど、対比される小ブロック内の画像の類似度が高いと判断する。具体的には、ヒストグラム251R及び252Rの第i段階の度数を夫々XRi及びYRiで表し、ヒストグラム251G及び252Gの第i段階の度数を夫々XGi及びYGiで表し、ヒストグラム251B及び252Bの第i段階の度数を夫々XBi及びYBiで表した場合、ブロック位置(x,y)についてのブロック評価値dxy 2を、下記式(5)によって算出する。ブロック評価値dxy 2は、ブロック位置(x,y)における小ブロックの類似度を表し、対比される小ブロック内の画像の類似度が高いほど、ブロック評価値dxy 2は小さくなる。
このブロック評価値の算出を全ての小ブロックに対して行い、現フレーム画像と着目した統計モデルの背景モデル画像との間における画像全体の類似度を表す類似性評価値Sjを、式(6)に従って求める。画像全体の類似度が高いほど、類似性評価値Sjは小さくなる。ここで、jは、着目した統計モデルの番号を示す数値であり、統計モデル保持メモリ17に記憶される統計モデルの総数がN個であることから、jは1以上N以下の整数値をとる。
現フレーム画像と各統計モデルの背景モデル画像を比較していくことにより、類似性評価値S1〜SNを求める。そして、類似性評価値S1〜SNの内、最小の類似性評価値に対応する統計モデルを、現フレーム画像に対して最も類似する背景モデル画像を含む統計モデルであると判断する。
<<第4実施例>>
次に、第4実施例について説明する。第4実施例では、図5のステップS4において現フレーム画像に対する探索結果が前回のフレーム画像に対する探索結果と異なると判断された場合における、ステップS6〜S10の各処理内容を説明する。
次に、第4実施例について説明する。第4実施例では、図5のステップS4において現フレーム画像に対する探索結果が前回のフレーム画像に対する探索結果と異なると判断された場合における、ステップS6〜S10の各処理内容を説明する。
まず、図5のステップS6における対比用背景画像の生成方法を説明する。例えば、ステップS3で探索された統計モデルの背景モデル画像そのものを、ステップS6にて生成されるべき対比用背景画像とすることが可能である。ステップS3で探索された統計モデルの背景モデル画像は、N個の統計モデルの背景モデル画像の内、現フレーム画像に対して最も類似する画像であるから、このように対比用背景画像を設定しても良好な対象物の検出が可能である。
或いは、複数の統計モデルの背景モデル画像をモザイク的に合成することで対比用背景画像を生成するようにしてもよい。この生成方法を、便宜上、モザイク合成方法と呼ぶ。
モザイク合成方法について説明する。図12は、モザイク合成方法によって、複数の統計モデルの背景モデル画像から対比用背景画像が生成される様子を示している。モザイク合成方法を用いる場合、現フレーム画像と統計モデルの背景モデル画像を比較し、第3実施例で述べたブロック評価値dxy 2を小ブロックごとに導出する。この導出は、N個の統計モデルの全てに対して行われる。そうすると、ブロック位置(1,1)の小ブロックに対して、N個の統計モデルについてのN個のブロック評価値d11 2が求められる。このN個のブロック評価値d11 2の内の最小値に対応する統計モデルを特定し、特定された統計モデルの背景モデル画像におけるブロック位置(1,1)の小ブロック内画像を抽出して、その抽出画像を、ステップS6にて生成されるべき対比用背景画像におけるブロック位置(1,1)の小ブロック内画像とする。ブロック位置(1,1)以外の他のブロック位置(x,y)に対して同様に処理することで、対比用背景画像の全体を形成する。最終的に形成される対比用背景画像は、複数の背景モデル画像の各一部を張り合わせ合成した画像となる。モザイク合成方法を用いれば、理想的な背景画像により近い対比用背景画像を生成することができ、対象物の検出精度の向上が見込める。
上述の如くしてステップS6にて対比用背景画像が生成された後、ステップS7では、その対比用背景画像と現フレーム画像との差分処理が行われる。図13を参照して、現フレーム画像300とステップS6にて生成された対比用背景画像301とに基づく、図5のステップS7〜S10の処理を説明する。
まず、現フレーム画像300と対比用背景画像301を、画素ごとに且つR、G及びB信号値ごとに比較する。そして、比較された両画像間で画素値の相違が比較的大きい画素(即ち、相違画素)と相違が比較的小さい画素(即ち、非相違画素)とを画素ごとに判別し、相違画素の画素値を1とし且つ非相違画素の画素値を0とした、二値化画像としての差分結果画像302を生成する。
具体的には、現フレーム画像300内の或る着目した座標位置における画素のR、G及びB信号値を、夫々、RCF、GCF及びBCFで表し、それと同一の座標位置における対比用背景画像301内の画素のR、G及びB信号値を、夫々、RSM、GSM及びBSMで表した場合、上記の3つの不等式(4a)、(4b)及び(4c)が成立するか否かを判断する。そして、その3つの不等式が全て満たされる場合は、その着目した座標位置における画素は非相違画素であると判断する一方、3つの不等式の何れか1つでも満たされない場合は、その着目した座標位置における画素は相違画素であると判断する。この際、不等式(4a)、(4b)及び(4c)におけるσR2、σG2及びσB2は、対比用背景画像301の生成元の統計モデルの偏差リストに基づく、着目した座標座標についてのR、G及びB信号値の標準偏差とする。
尚、モザイク合成方法を利用して対比用背景画像301を生成した場合は、複数の統計モデルの偏差リストが参照されうる。例えば、対比用背景画像301内のブロック位置(1,1)及び(1,2)における小ブロックが、それぞれ、第1及び第2の統計モデルの背景モデル画像から生成されている場合、ブロック位置(1,1)の小ブロックに属する画素についてのσR2、σG2及びσB2は第1の統計モデルの偏差リストにて規定され、ブロック位置(1,2)の小ブロックに属する画素についてのσR2、σG2及びσB2は第2の統計モデルの偏差リストにて規定される。
ステップS7にて差分結果画像302が生成されると、画像上における対象物領域及び背景領域の各位置が特定される。即ち、差分結果画像302内において画素値が1となる画素群から形成される領域そのもの、又は、その領域をとり囲む領域(例えば矩形領域)の位置が対象物領域の位置として特定される一方で、その対象物領域以外の領域の位置が背景領域の位置として特定される。特定された対象物領域及び背景領域の位置から、現フレーム画像300内における対象物領域及び背景領域を抽出することが可能である(ステップS10及びS8)。
図5のステップS4にて現フレーム画像に対する探索結果が前回のフレーム画像に対する探索結果と異なると判断されてステップS6に移行した場合、照明条件が急激に変化したと推定されるため、今まで保持していた推定モデルは対象物の検出処理に向かない。そこで、この場合、ステップS9において、図1の推定モデル生成部14は、推定モデルの生成元のストック背景画像群(図7参照)をストック背景画像メモリ(不図示)から一旦全て消去する。また、同時に、その時点で推定モデル保持メモリ15に保持されている推定モデルも破棄する。
その後、推定モデル生成部14は、現フレーム画像300、対比用背景画像301及び差分結果画像302に基づいて、対象物除去画像303及び対象物位置背景画像304の生成を介して、擬似的に欠損のない現時点の背景画像としてのストック背景画像305を生成する。現フレーム画像、対比用背景画像及び差分結果画像から対象物除去画像、対象物位置背景画像及びストック背景画像を生成する方法は、第1実施例で述べたそれと同じであるため、重複する説明を省略する。そして、新たに生成したストック背景画像305をストック背景画像群の構成要素としてストック背景画像メモリに記憶する。
現フレーム画像に対する探索結果が前回のフレーム画像に対する探索結果と同じであるという判断条件が、図5のステップS4にて一旦不成立となると、次回以降のフレーム画像に対して該判断条件が満たされていたとしても、例外的処理を行うようにする。例外的処理とは、ステップS4からステップS5に移行することなく強制的にステップS6に移行し、統計モデルに基づく対比用背景画像を用いて、差分処理、対象物領域及び背景領域の抽出処理並びにストック背景画像305のようなストック背景画像の生成処理を行うことを意味する。例外的処理の実行によって、ストック背景画像メモリに記憶されるストック背景画像の枚数が増加していく。但し、この例外的処理は、ストック背景画像メモリに記憶されたストック背景画像の枚数が規定枚数に到達した時点で行われなくなるものとする。逆に言えば、ストック背景画像メモリに記憶されたストック背景画像の枚数が規定枚数に到達していない時には、上記判断条件の充足/不充足に拘らず例外的処理が行われる(従って、対象物検出システムの起動直後は例外的処理が行われる)。ストック背景画像の枚数が規定枚数に到達すると、ステップS9において、図1の推定モデル生成部14は、その規定枚数分のストック背景画像を用いて推定モデルを生成し、その推定モデルを推定モデル保持メモリ15に記憶させる。その後は、上記の判断条件が成立するならば原則どおりステップ4からステップS5に移行して、その推定モデルを用いた対比用背景画像の生成処理及び差分処理等が行われる。
例えば、規定回数が30回である場合において、上記の判断条件が一旦不成立となった後、次回以降のフレーム画像に対して継続して該判断条件が満たされた場合を考える。この場合、次回以降の30フレーム分のフレーム画像に対して例外的処理が行われて該30フレーム分のフレーム画像を用いて30枚のストック背景画像が生成され、その30枚のストック背景画像を用いて推定モデルが生成される。その後は、上記の判断条件が成立するならば原則どおりステップ4からステップS5に移行して、その推定モデルを用いた対比用背景画像の生成処理及び差分処理等が行われる。新たに生成された推定モデルは、その時点の照明条件に適合した背景モデルとなる。
<<第5実施例>>
次に、第5実施例について説明する。第5実施例では、図5のステップS12〜S14の処理内容を詳説する。上述してきた対象物の検出処理は常に正しく行われるとは限らない。検出の正確性を高めるべく、統計モデルをより望ましいものへと更新していった方が良い。これに鑑み、ステップS12〜S14では、統計モデルの更新を行う。
次に、第5実施例について説明する。第5実施例では、図5のステップS12〜S14の処理内容を詳説する。上述してきた対象物の検出処理は常に正しく行われるとは限らない。検出の正確性を高めるべく、統計モデルをより望ましいものへと更新していった方が良い。これに鑑み、ステップS12〜S14では、統計モデルの更新を行う。
ステップS12〜S14の処理内容を概略的に説明する。ステップS11において対象物領域の抽出結果が表示部3の表示画面上に表示されることとなるが、ステップS12では、必要に応じて、監視者が該抽出結果に対する手動操作を操作部4(図1参照)に対して行う。この操作が行われるとステップS13に移行し、その操作内容に基づいて、新たにサンプル背景画像群に追加されるべき画像(以下、追加用画像という)を生成する。続くステップS14では、その追加用画像を用いて統計モデルの更新を行う。
例えば、検出処理部2によって着目したフレーム画像内に対象物が存在すると正しく判断された場合は、図6の表示用画像210のような画像が表示されることとなるが、対象物の誤検出が発生することもある。対象物の誤検出には、着目したフレーム画像内に実際には対象物が含まれているのにも拘らず対象物が存在しないと検出処理部2が誤って判断する誤検出(以下、第1の誤検出という)と、着目したフレーム画像内に実際には対象物が含まれていないにも拘らず対象物が存在していると検出処理部2が誤って判断する誤検出(以下、第2の誤検出という)とがある。このような誤検出が発生した場合、必要に応じて、監視者は、これらの誤検出の内容を検出処理部2に教示するための操作を操作部4に対して行う(ステップS12)。
まず、第1の誤検出が発生した場合におけるステップS12以降の処理内容を具体的に説明する。図14の符号350は、着目したフレーム画像を表しており、そのフレーム画像350がステップS11において表示部3に表示される。この場合、ステップS12において、監視者は、GUIを介して表示部3に表示されているフレーム画像350内の、実際の対象物領域を囲む枠を指定する操作を行う。枠の位置及び大きさを表す情報を含む操作内容は検出処理部2に伝達される。図14の画像351は、この指定操作後に表示部3で表示される画像を表している。画像351は、フレーム画像350に、指定された枠360を重畳した画像に相当する。
ステップS13において、統計モデル生成部16は、フレーム画像350から枠360内の画像を抜き取ることで、フレーム画像350中の背景領域を抽出する。図14の画像352は、抜き取られた後の残りの画像を表している。
そして仮に、フレーム画像350に対するステップS7の差分処理が、推定モデルに基づく対比用背景画像を用いて行われていた場合は、最新のフレーム画像に最も類似する統計モデル内の背景モデル画像370を用いて枠360内の画像を補填することにより合成画像354を追加用画像として生成する。背景モデル画像370は、最新のフレーム画像に対してステップS3にて探索された統計モデル内の背景モデル画像と合致し、最新のフレーム画像とは、合成画像354の生成直前に得ることのできる最も新しいフレーム画像を意味する。具体的には、背景モデル画像370にも枠360と同じ枠を設定し、その枠内の画像353を背景モデル画像370から抽出する。背景モデル画像370上に設定される枠の位置及び大きさは、フレーム画像350上の枠360のそれらを同じである。そして、画像352に画像353を嵌め込むことによって画像352及び353を合成し、合成画像354を追加用画像として生成する。
一方、フレーム画像350に対するステップS7の差分処理が、統計モデルに基づく対比用背景画像を用いて行われていた場合は、部分的に画像情報が欠損した画像352そのものを追加用画像として取り扱うようにする。画像352における枠360内の領域は、画像情報を有さないブランク領域である。尚、フレーム画像350に対するステップS7の差分処理が推定モデルに基づく対比用背景画像を用いて行われていた場合は合成画像354を追加用画像として生成すると述べたが、その場合においても、画像352そのものを追加用画像として取り扱うようにしても構わない。
第2の誤検出が発生した場合は、ステップS12において、第2の誤検出が発生している旨を検出処理部2に伝達するための操作を監視者が操作部4に対して行う。この操作がなされると、統計モデル生成部16は、第2の誤検出が生じたフレーム画像そのものを、追加用画像として取り扱う。
上述のようにしてステップS13にて追加用画像(今の例において、合成画像354、画像352又はフレーム画像そのもの)が生成されると、ステップS14に移行する。ステップS14では、ステップS13にて生成された追加用画像を、新たに得られたサンプル背景画像として取り扱って統計モデルの生成元となるサンプル背景画像群に含め、この新たに得られたサンプル背景画像を含むサンプル背景画像群を用いて、N個の統計モデルを作成し直す(つまり、更新する)。統計モデルの作成の仕方は、第2実施例で述べた通りである。尚、追加用画像が画像352の如くブランク領域を含む場合は、統計モデル作成時において、そのブランク領域は無視される。つまり、ブランク領域以外の領域の画像情報に基づいて、類似度の評価を介したクラスタリング処理及び統計モデルの生成処理を行えばよい。また、新たに得られたサンプル背景画像をサンプル背景画像群に含める際、それをサンプル背景画像群に単純に追加するようにしてもよいし、既にサンプル背景画像群に含まれていた何れかのサンプル背景画像をサンプル背景画像群から取り除いた上で新たに得られたサンプル背景画像をサンプル背景画像群に追加するようにしてもよい(即ち、置き換えを行っても良い)。
ステップS14にて統計モデルの更新が行われると、その更新後の統計モデルが統計モデル保持メモリ17に記憶され、統計モデルを参照する以後の各処理は、その更新後の統計モデルを用いて行われるようになる。
このように、監視者による手動操作に基づいて統計モデルを更新していくことにより照明条件の変化に対する対応能力が向上してゆき、結果、対象物の検出精度が向上してゆく。
<<第6実施例>>
次に、第6実施例について説明する。第6実施例では、図1の対象物検出システムを、実際のシステムに適用する際のシステム構成の例示などを行う。図15は、第6実施例に係る対象物検出システムの全体ブロック図を表している。図15の対象物検出システムは、撮像モジュール50と及び監視装置60を少なくとも有し、これらに端末機器70及びインターネット網などのネットワーク80が接続されている。端末機器70は、通信機能を備えた端末機器であり、パーソナルコンピュータ、携帯電話機、携帯情報端末などである。端末機器70及びネットワーク80を、対象物検出システムの構成要素として捉えることも可能である。
次に、第6実施例について説明する。第6実施例では、図1の対象物検出システムを、実際のシステムに適用する際のシステム構成の例示などを行う。図15は、第6実施例に係る対象物検出システムの全体ブロック図を表している。図15の対象物検出システムは、撮像モジュール50と及び監視装置60を少なくとも有し、これらに端末機器70及びインターネット網などのネットワーク80が接続されている。端末機器70は、通信機能を備えた端末機器であり、パーソナルコンピュータ、携帯電話機、携帯情報端末などである。端末機器70及びネットワーク80を、対象物検出システムの構成要素として捉えることも可能である。
撮像モジュール50は、符号51〜53にて参照される各部位を備え、対象物が存在しうる屋内等に設置される。監視装置60は、符号61〜65にて参照される各部位を備え、監視者の居室に設置される。端末機器70は、符号71〜73にて参照される各部位を備える。端末機器70の使用者を、監視者の一人と捉えることもできる。
図15のカメラ51、表示部63及び操作部64は、夫々、図1のカメラ1、表示部3及び操作部4と同じものであってカメラ1、表示部3及び操作部4として機能する。通信部53は、撮像モジュール50をネットワーク80に接続するための部位であり、通信部61は、監視装置60をネットワーク80に接続するための部位であり、通信部71は、端末機器70をネットワーク80に接続するための部位である。通信部53、61及び71は、ネットワーク80を介して、通信部53に接続されたモジュール側処理部52と通信部61に接続された監視側処理部62と通信部71に接続された端末側処理部72との間のデータのやり取りを実現する。
モジュール側処理部52及び監視側処理部62が協働して、図1の検出処理部2が形成される。即ち、検出処理部2にて行うべき処理の一部がモジュール側処理部52にて実行され、検出処理部2にて行うべき残りの処理が監視側処理部62にて実行される。
例えば、図1の符号11、12、14、15、17及び18にて参照される各部位をモジュール側処理部52に設け、図1の表示制御部13及び統計モデル生成部16を監視側処理部62に設ける。この場合、図5のステップS1〜S10の各処理はモジュール側処理部52にて実行され、ステップS11〜S14の各処理は、表示部63及び操作部64と共に監視側処理部62にて実行される。そして、統計モデルを生成するためのサンプル背景画像群の画像データを記憶部65に記憶しておくようにし、記憶部65の記憶内容に基づいて監視側処理部62が各統計モデルを生成する。勿論、これは、検出処理部2にて行うべき処理の、モジュール側処理部52と監視側処理部62への割り振り方の一例であり、その割り振り方を任意に変形することが可能である。
また、カメラ51にて得られるフレーム画像の画像データ及び図5のステップS10による対象物領域の抽出結果を、撮像モジュール50の通信部53又は監視装置60の通信部61からネットワーク80及び通信部71を介して端末側処理部72に伝達することにより、抽出結果を反映した、表示部63にて表示される画像と同等の画像(例えば、図6の表示用画像210)を表示部73で表示させることも可能である。勿論、撮像モジュール50側又は監視装置60側で図6の表示用画像210のような表示用画像を生成し、その表示用画像の画像データを端末機器70に送ることで、その表示用画像を表示部73上で表示させても良い。端末側処理部72は、表示部73の表示内容を制御する表示制御部としても機能し、その表示制御部を図1の表示制御部13と等価なものとすることもできる。
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。この他、上述の実施形態の変形例または注釈事項を以下に列記する。
上述の対象物検出システムは、カメラ(1又は51)の撮影領域内に対象物としての人物がいるか否かを検出するためのシステムとして利用可能である。特に例えば、カメラ(1又は51)をステレオ画像を生成可能なように形成しておく。そして、ステレオ画像内における対象物領域を検出して、検出した対象物領域の画像を時系列で並べて解析すると対象物としての人物の姿勢をも検出することが可能となる。その姿勢の検出結果から人物が倒れていないか等を判断することも可能である。この他、対象物としての人物を不審者と捉えることにより、上述の対象物検出システムを防犯上の監視システムとすることもできる。また、対象物としての人物の数を計数することにより、カメラ(1又は51)の撮影領域内の人物の数を計数するシステムを形成することもできる。
また、対象物が人物である場合を想定して本発明の実施形態を説明したが、対象物は人物以外の任意の物体となりうる(尚、人物も物体に含まれる)。人物を含む物体は、移動物体と解釈することもできるし、カメラ(1又は51)の撮影領域内への進入物体と解釈することもできる。
また、上述の実施形態では対象物の検出結果を表示部を用いて対象物検出システムの外部に位置する監視者に報知するようにしているが、その検出結果を音声によって報知するようにしてもよい。この場合、例えば、対象物が検出されるべきフレーム画像から対象物が検出されたか否かを、図示されない音声出力部を用いて音声出力すればよい。
また、カメラ1の撮影によって得られるフレーム画像の画像特徴(明るさや色合い)は、様々な要因によって変化する。この変化は、主として、カメラ1の照明条件(即ち、カメラ1の撮影領域を照らす光源の状態)の変化によってもたらされる。しかし、例えば、カメラ1の撮影領域内又は撮影領域周辺に位置する物体(部屋の壁など)の色や光沢が異なったり、その物体の配置位置が異なったりすると、光源自体に変化がなかったとしても、得られるフレーム画像の画像特徴は変化しうる。つまり、照明条件は、得られるフレーム画像の画像特徴に影響を与えるカメラ1の周辺環境条件の一種といえ、上記の物体の色や光沢、配置位置も該周辺環境条件の一種といえる。従って、上述の実施形態で述べた照明条件をカメラ1の周辺環境条件と読み替えることもできる。つまり、上述の対象物検出システムは、照明条件を含むカメラ1の周辺環境条件の変化を推定し、その推定結果に応じて第1の背景モデルと第2の背景モデルを使い分けるシステムであると考えることもできる。
また、図1の検出処理部2は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。ソフトウェアを用いて検出処理部2を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。検出処理部2にて行う必要のある演算処理の全部又は一部を、プログラムとして記述し、該プログラムをプログラム実行装置上で実行することによって、その演算処理の全部または一部を実現するようにしてもよい。
同様に、図15のモジュール側処理部52及び監視側処理部62の夫々は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。ソフトウェアを用いてそれらを構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。モジュール側処理部52及び監視側処理部62にて行う必要のある演算処理の全部又は一部を、プログラムとして記述し、該プログラムをプログラム実行装置上で実行することによって、その演算処理の全部または一部を実現するようにしてもよい。
例えば、以下のように考えることができる。複数の背景モデルを保持する保持手段は、図1の推定モデル保持メモリ15及び統計モデル保持メモリ17によって形成され、複数の背景モデルの何れかを選択する選択手段は、図1のモデル選択処理部18によって形成される。そして例えば、その保持手段及び選択手段と図1の差分処理部12とを含んで形成される部分が、対象物検出装置(又は物体検出装置)を形成する。この対象物検出装置(又は物体検出装置)に、図1の画像取得部11、表示制御部13、推定モデル生成部14及び統計モデル生成部16の全部或いはそれらの内の何れかが更に含まれていると考えることも可能である。
上記の対象物検出装置が実現する機能をプログラムとして記述し、そのプログラムを読み込ませたコンピュータ(不図示)に該機能を実現させる場合は、図1の差分処理部12、推定モデル生成部14、統計モデル生成部16及びモデル選択処理部18の処理内容をプログラムとして記述すれば良い。そして、コンピュータが備えるメモリ(不図示)を、図1の推定モデル保持メモリ15及び統計モデル保持メモリ17として機能させればよい。
1 カメラ
2 検出処理部
3 表示部
4 操作部
11 画像取得部
12 差分処理部
13 表示制御部
14 推定モデル生成部
15 推定モデル保持メモリ
16 統計モデル生成部
17 統計モデル保持メモリ
18 モデル選択処理部
2 検出処理部
3 表示部
4 操作部
11 画像取得部
12 差分処理部
13 表示制御部
14 推定モデル生成部
15 推定モデル保持メモリ
16 統計モデル生成部
17 統計モデル保持メモリ
18 モデル選択処理部
Claims (9)
- カメラの撮影に基づく被検出画像を順次取得し、前記被検出画像と対比用背景画像との差分結果に基づいて前記カメラの撮影領域内における対象物を検出する対象物検出装置において、
互いに異なる複数の背景モデル画像を保持する保持手段と、
前記被検出画像の画像特徴に影響を与える前記カメラの周辺環境条件の変化に応じて前記複数の背景モデル画像の内の何れかを選択し、選択した背景モデル画像に基づいて前記対比用背景画像を生成する選択手段と、を備えた
ことを特徴とする対象物検出装置。 - 前記複数の背景モデル画像は、今回の被検出画像の撮影時を基準とする直近過去の所定数枚分の被検出画像を用いて作成される第1の背景モデル画像と、前記撮影領域内に前記対象物が含まれない状態で予め撮影された画像を用いて作成される第2の背景モデル画像と、を含み、
前記選択手段は、前記周辺環境条件の変化に応じて第1又は第2の背景モデル画像を選択する
ことを特徴とする請求項1に記載の対象物検出装置。 - 前記第2の背景モデル画像は、各々が背景モデル画像として機能する複数の統計モデル画像から形成され、
前記複数の統計モデル画像は、前記撮影領域内に前記対象物が含まれない状態で予め撮影された複数の画像に基づいて生成され、
各統計モデル画像の生成元の画像の撮影時における前記周辺環境条件は異なる統計モデル画像間で異なり、
前記選択手段は、前記被検出画像と各統計モデル画像との比較に基づいて、前記複数の統計モデル画像の内、前記被検出画像に最も類似する統計モデル画像を探索する探索手段を備えて、順次取得される各被検出画像に対して前記探索を行い、前回の被検出画像に対する探索結果と今回の被検出画像に対する探索結果が同じであるか否かに基づいて前回と今回の撮影間において前記周辺環境条件が変化したか否かを推定し、両探索結果が同じである場合は変化なしと推定して今回の被検出画像に対して前記第1の背景モデル画像を選択する一方、両探索結果が異なる場合は変化ありと推定して今回の被検出画像に対して前記第2の背景モデル画像を選択する
ことを特徴とする請求項2に記載の対象物検出装置。 - 前記選択手段は、
今回の被検出画像に対して前記第1の背景モデル画像を選択した際、前記第1の背景モデル画像を今回の被検出画像に対する前記対比用背景画像として取り扱い、
今回の被検出画像に対して前記第2の背景モデル画像を選択した際、今回の被検出画像に対して探索された統計モデル画像を今回の被検出画像に対する前記対比用背景画像として取り扱う
ことを特徴とする請求項3に記載の対象物検出装置。 - 前記選択手段は、
今回の被検出画像に対して前記第1の背景モデル画像を選択した際、前記第1の背景モデル画像を今回の被検出画像に対する前記対比用背景画像として取り扱い、
今回の被検出画像に対して前記第2の背景モデル画像を選択した際、前記複数の統計モデル画像から今回の被検出画像に対する前記対比用背景画像を生成する
ことを特徴とする請求項3に記載の対象物検出装置。 - 前記被検出画像内において前記対象物が描画されている領域を指定する情報、又は、前記被検出画像内に前記対象物が含まれていないことを表す情報を受け、受けた情報に基づいて前記第2の背景モデル画像の更新を行う更新手段を更に備えた
ことを特徴とする請求項2〜請求項5の何れかに記載の対象物検出装置。 - 撮影によって被検出画像を得るカメラと、
請求項1〜請求項6の何れかに記載の対象物検出装置と、
前記被検出画像に基づく画像を表示する表示装置と、を備え、
前記対象物検出装置による対象物の検出結果を外部に報知する
ことを特徴とする対象物検出システム。 - 撮影によって被検出画像を得るカメラ及び前記被検出画像に基づく画像を表示する表示装置を備えるシステムに用いられ、且つ、前記カメラから前記被検出画像を順次取得し、前記被検出画像と対比用背景画像との差分結果に基づいて前記カメラの撮影領域内における対象物を検出して該検出結果を外部に報知する対象物検出方法において、
互いに異なる複数の背景モデル画像を用意し、
前記被検出画像の画像特徴に影響を与える前記カメラの周辺環境条件の変化に応じて前記複数の背景モデル画像の内の何れかを選択し、選択した背景モデル画像に基づいて前記対比用背景画像を生成する
ことを特徴とする対象物検出方法。 - カメラの撮影によって順次得られる被検出画像と対比用背景画像との差分結果に基づいて前記カメラの撮影領域内における対象物を検出する機能をコンピュータに実現させるためのプログラムであって、
前記コンピュータが備えるメモリ内に互いに異なる複数の背景モデル画像を保持する機能、及び、
前記被検出画像の画像特徴に影響を与える前記カメラの周辺環境条件の変化に応じて前記複数の背景モデル画像の内の何れかを選択し、選択した背景モデル画像に基づいて前記対比用背景画像を生成する機能、を前記コンピュータに実現させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007299201A JP2009123150A (ja) | 2007-11-19 | 2007-11-19 | 対象物検出装置及び方法、対象物検出システム、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007299201A JP2009123150A (ja) | 2007-11-19 | 2007-11-19 | 対象物検出装置及び方法、対象物検出システム、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009123150A true JP2009123150A (ja) | 2009-06-04 |
Family
ID=40815198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007299201A Pending JP2009123150A (ja) | 2007-11-19 | 2007-11-19 | 対象物検出装置及び方法、対象物検出システム、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009123150A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012069068A (ja) * | 2010-09-27 | 2012-04-05 | Aiphone Co Ltd | 画像処理装置、及び画像処理方法 |
KR101327320B1 (ko) * | 2010-09-08 | 2013-11-11 | 한국전자통신연구원 | 영상의 전경 배경 분리 장치 및 방법 |
JP2014096138A (ja) * | 2012-11-09 | 2014-05-22 | Ge Aviation Systems Llc | 背景を除外することによるスペクトルシーンの簡易化 |
JP2016015015A (ja) * | 2014-07-02 | 2016-01-28 | 株式会社メガチップス | 検出装置、検出方法及び制御プログラム |
JP2016194778A (ja) * | 2015-03-31 | 2016-11-17 | セコム株式会社 | 物体検出装置 |
JP2018185635A (ja) * | 2017-04-25 | 2018-11-22 | キヤノン株式会社 | 動体検出装置およびその制御方法 |
-
2007
- 2007-11-19 JP JP2007299201A patent/JP2009123150A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101327320B1 (ko) * | 2010-09-08 | 2013-11-11 | 한국전자통신연구원 | 영상의 전경 배경 분리 장치 및 방법 |
JP2012069068A (ja) * | 2010-09-27 | 2012-04-05 | Aiphone Co Ltd | 画像処理装置、及び画像処理方法 |
JP2014096138A (ja) * | 2012-11-09 | 2014-05-22 | Ge Aviation Systems Llc | 背景を除外することによるスペクトルシーンの簡易化 |
JP2016015015A (ja) * | 2014-07-02 | 2016-01-28 | 株式会社メガチップス | 検出装置、検出方法及び制御プログラム |
JP2016194778A (ja) * | 2015-03-31 | 2016-11-17 | セコム株式会社 | 物体検出装置 |
JP2018185635A (ja) * | 2017-04-25 | 2018-11-22 | キヤノン株式会社 | 動体検出装置およびその制御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009265827A (ja) | 対象物検出装置及び方法、対象物検出システム、プログラム | |
US10198823B1 (en) | Segmentation of object image data from background image data | |
CN108876791B (zh) | 图像处理方法、装置和系统及存储介质 | |
CN109815843B (zh) | 图像处理方法及相关产品 | |
CN104106260B (zh) | 基于地理图的控制 | |
TWI543610B (zh) | 電子裝置及其影像選擇方法 | |
US9141184B2 (en) | Person detection system | |
JP5263694B2 (ja) | 物体位置推定用情報作成装置、物体位置推定用情報作成方法およびプログラム | |
CN109299703B (zh) | 对鼠情进行统计的方法、装置以及图像采集设备 | |
JP5279654B2 (ja) | 画像追尾装置、画像追尾方法、及びコンピュータプログラム | |
CN101930611B (zh) | 多视图面部追踪 | |
JP2014178957A (ja) | 学習データ生成装置、学習データ作成システム、方法およびプログラム | |
US8922674B2 (en) | Method and system for facilitating color balance synchronization between a plurality of video cameras and for obtaining object tracking between two or more video cameras | |
WO2023093217A1 (zh) | 数据标注方法、装置、计算机设备、存储介质和程序 | |
JP3970877B2 (ja) | 追跡装置および追跡方法 | |
CN110572636B (zh) | 摄像头脏污检测方法、装置、存储介质及电子设备 | |
JP7085812B2 (ja) | 画像処理装置およびその制御方法 | |
JP2009123150A (ja) | 対象物検出装置及び方法、対象物検出システム、プログラム | |
JP7092615B2 (ja) | 影検出装置、影検出方法、影検出プログラム、学習装置、学習方法、及び学習プログラム | |
CN113688820A (zh) | 频闪条带信息识别方法、装置和电子设备 | |
CN109146923B (zh) | 一种目标跟踪丢断帧的处理方法及系统 | |
KR101509593B1 (ko) | 프리셋 투어 카메라를 위한 영상 분류 방법 및 그 장치 | |
JP2021007055A (ja) | 識別器学習装置、識別器学習方法およびコンピュータプログラム | |
CN111898622B (zh) | 信息处理、信息显示与模型训练方法、系统及设备 | |
CN115690496A (zh) | 基于YOLOv5的实时区域入侵检测方法 |