JP2007334631A - 画像監視システムおよび物体領域追跡方法 - Google Patents
画像監視システムおよび物体領域追跡方法 Download PDFInfo
- Publication number
- JP2007334631A JP2007334631A JP2006165617A JP2006165617A JP2007334631A JP 2007334631 A JP2007334631 A JP 2007334631A JP 2006165617 A JP2006165617 A JP 2006165617A JP 2006165617 A JP2006165617 A JP 2006165617A JP 2007334631 A JP2007334631 A JP 2007334631A
- Authority
- JP
- Japan
- Prior art keywords
- object region
- information
- object area
- predetermined
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Abstract
【課題】重なりや隠れによって物体領域が一時的に消滅した場合であっても識別番号の継続を可能とし、物体追跡の性能向上を図る。
【解決手段】時刻t−1における識別番号「2」の物体領域は、時刻tでは他の物体領域と重なった状態となるため、この時刻tにおいてどの物体領域とも対応付けがなされず、消滅した状態となる。この場合、消滅した物体領域の情報を複製し、識別番号を負の値である「−2」に変更しておく。時刻t+1では、時刻tで複製された識別番号「−2」の物体領域の情報から得られた時刻t+1における物体領域の予測情報(サイズ、位置、移動速度など)を用い、この識別番号「−2」の物体領域と対応付け可能な、再出現した物体領域があるか判定する。時刻t+1に対応付けできる物体領域がある場合、対応付けし、その物体領域に識別番号「2」を付与する。
【選択図】図3
【解決手段】時刻t−1における識別番号「2」の物体領域は、時刻tでは他の物体領域と重なった状態となるため、この時刻tにおいてどの物体領域とも対応付けがなされず、消滅した状態となる。この場合、消滅した物体領域の情報を複製し、識別番号を負の値である「−2」に変更しておく。時刻t+1では、時刻tで複製された識別番号「−2」の物体領域の情報から得られた時刻t+1における物体領域の予測情報(サイズ、位置、移動速度など)を用い、この識別番号「−2」の物体領域と対応付け可能な、再出現した物体領域があるか判定する。時刻t+1に対応付けできる物体領域がある場合、対応付けし、その物体領域に識別番号「2」を付与する。
【選択図】図3
Description
この発明は、例えばITVカメラを用いた監視システムに適用して好適な画像監視システムおよび物体領域追跡方法に関する。詳しくは、この発明は、現在の物体領域と過去の物体領域とを固有の識別情報を用いて対応付けして追跡処理を行うものにあって、消滅した所定の物体領域に付与されていた識別情報を継続して保持し、この所定の物体領域が再び出現したとき、当該所定の物体領域に、保持していた識別情報を付与することによって、重なりや隠れによって物体領域が一時的に消滅した場合であっても識別情報の継続が可能となり、物体追跡の性能向上を図るようにした画像監視システム等に係るものである。
ITV(Industrial TV)カメラなどによって撮影された画像中の人や車などの物体を検知する技術は、画像監視システムを構築する上で非常に重要である。例えば、ITVカメラを用いた監視システムへ適用する場合、カメラによって立ち入り禁止区域などの監視したい場所を撮影し、画像内の物体の有無を検知し、物体が進入してきた場合にはアラームを発生するシステムの構築が考えられる。また、デパートや駅などの人が多く出入りする場所において、移動している人間の追跡によって人の流れを調査することで、人の流れの整理やマーケット調査などにも適用できる。
画像中の移動物体を検知するためには、図7に示すような2つの処理が必要となる。まず、入力画像信号に基づいて物体領域の検出処理を行い、この入力画像信号による画像から物体領域(現在の物体領域)の情報を検出する。次に、物体領域の追跡処理で、現在の物体領域と過去の物体領域との対応付けを行い、物体領域の情報(サイズ、位置、移動速度、識別番号など)を出力する。識別番号は、固有の識別情報を構成している。これらの処理を行うことで、画像中に存在する移動物体の検知を行うことができる。
物体領域の検出処理には、例えば特許文献1等に記載されているように、入力画像(現在画像)と過去の画像とを比較することで、変化領域を物体領域として検出する方法がある。この類の手法は一般的にフレーム間差分処理と呼ばれている。
また、物体領域の検出処理には、例えば、C.Stuffer、 W.E.L Grimson、”Adaptive background mixture models for real-time tracking”がある。これは、物体領域が写っていない背景画像を作成し、背景画像と入力画像とを比較することで、物体領域を検出する手法である。この類の手法は一般的に背景差分処理と呼ばれている。
また、物体領域の検出処理には、上述したフレーム間差分処理および背景差分処理を融合した処理手法も提案されている。例えば、特許文献2等に記載されている。このような処理を用いることで、入力画像中の物体領域を検知することができる。この処理で、まず、物体領域の情報のうち、サイズ、位置などが決定される。
また、物体領域の追跡処理では、入力画像信号による画像から検出された現在の物体領域と過去の物体領域の対応付けを行うことで物体領域の追跡を行い、追跡している物体領域には固有の識別番号を与える。対応付けには次のような手法がある。例えば、特許文献3に記載される物体領域の追跡処理では、現在画像で検出された物体領域と過去画像で検出された物体領域との対応関係をサイズや位置などを用いて評価し、最も評価値が高いものを対応付けしている。
特開平6−1100552号公報
特開2004‐282368号公報
特開2001−325672号公報
特許文献3等に記載される従来手法の追跡処理では、物体が重なったり隠れたりした場合に追跡に失敗してしまうことがある。図8は、2つの物体が一時的に重なる例、つまりある時刻t−1で2つある物体が、時刻tで重なり、時刻t+1で再び分離する例を示している。この例の場合、従来手法を用いて追跡処理を行うと、図9に示すように識別番号が付与されていく。
すなわち、ある時刻t−1において識別番号1と識別番号2の物体領域があった場合に、時刻tにおいて1つだけ存在する物体領域との対応付けを行うと、その物体領域は識別番号1の物体領域と対応付けが行われる。その結果、時刻tには識別番号1の物体領域だけが存在し、識別番号2の物体領域の情報は消失してしまう。そのため、時刻t+1において物体領域が再び分離した場合に、分離した物体領域には新たな識別番号3が付与される。識別番号2と識別番号3の物体領域は同じ物体に係るものでありながら異なった識別番号が与えられてしまう。この場合、物体領域の移動履歴を正しく求めることができなくなる。
また、図10は、物体が隠れる例、つまり時刻t−1のある物体が、時刻tで別の物体によって物体領域が隠され、時刻t+1で再び出現する例を示している。この例の場合、従来手法を用いて追跡処理を行うと、図11に示すように識別番号が付与されていく。すなわち、ある時刻t−1において識別番号1の物体領域があった場合に、時刻tにおいて1つだけ存在する物体領域との対応付けを行うと、その物体領域は識別番号1の物体領域と対応付けが行われる。
しかし、この時刻tで識別番号1が付与された物体領域は、時刻t−1で識別番号1が付与されていた物体領域に対して、そのサイズが大きく変化したものとなっている。つまり、この時刻tで、識別番号1が付与された物体領域は実質的に消滅した状態となる。そのため、時刻t+1でその物体領域が隠れを脱して再出現した場合、その物体領域に新たに識別番号2が付与される。識別番号1と識別番号2の物体領域は同じ物体に係るものでありながら異なった識別番号が与えられてしまう。この場合、物体領域の移動履歴を正しく求めることができなくなる。
この発明の目的は、重なりや隠れによって物体領域が一時的に消滅した場合であっても識別情報の継続が可能となり、物体追跡の性能向上を図ることにある。
この発明の概念は、
入力画像信号に基づき、該入力画像信号による画像から物体領域の情報を検出する物体領域検出処理部と、
上記物体領域検出処理部で検出された物体領域の情報に基づき、現在の物体領域と過去の物体領域との対応付けによって物体領域の追跡処理を行う物体領域追跡処理部とを備え、
上記物体領域追跡処理部は、
上記現在の物体領域と上記過去の物体領域との対応付けを固有の識別情報を用いて行い、
消滅した所定の物体領域に付与されていた識別情報を継続して保持し、該所定の物体領域が再び出現したとき該所定の物体領域に上記保持していた識別情報を付与する
ことを特徴とする画像監視システムにある。
入力画像信号に基づき、該入力画像信号による画像から物体領域の情報を検出する物体領域検出処理部と、
上記物体領域検出処理部で検出された物体領域の情報に基づき、現在の物体領域と過去の物体領域との対応付けによって物体領域の追跡処理を行う物体領域追跡処理部とを備え、
上記物体領域追跡処理部は、
上記現在の物体領域と上記過去の物体領域との対応付けを固有の識別情報を用いて行い、
消滅した所定の物体領域に付与されていた識別情報を継続して保持し、該所定の物体領域が再び出現したとき該所定の物体領域に上記保持していた識別情報を付与する
ことを特徴とする画像監視システムにある。
この発明においては、入力画像信号に基づいて、この入力画像信号による画像から物体領域の情報が検出される。そして、この検出された物体領域の情報に基づき、現在の物体領域と過去の物体領域との対応付けが行われて物体領域の追跡が行われる。この場合、現在の物体領域と過去の物体領域との対応付けは、固有の識別情報、例えば固有の識別番号を用いて行われる。
物体領域の追跡処理では、所定の物体領域が消滅した場合、当該所定の物体領域に付与されていた識別情報が継続して保持される。この識別情報の保持は、例えば当該所定の物体領域の情報を複製することで行われる。そして、所定の物体領域が再び出現したとき、当該所定の物体領域に、保持されていた識別情報が付与される。
例えば、この所定の物体領域の消滅は当該所定の物体領域が他の物体領域と重なることで発生するが、当該所定の物体領域の情報が検出されなくなるとき、当該所定の物体領域が消滅したものとされる。
また例えば、この所定の物体領域の消滅は当該所定の物体領域の一部が隠れることで発生するが、この場合当該所定の物体領域の情報は検出されるものの、その情報が当該所定の物体領域に係る過去の物体領域の情報と大きく変化したとき、当該所定の物体領域が消滅したものとされる。
このように、消滅した所定の物体領域に付与されていた識別情報を継続して保持し、この所定の物体領域が再び出現したとき、当該所定の物体領域に、保持していた識別情報を付与するものであり、重なりや隠れによって物体領域が一時的に消滅した場合であっても識別情報の継続が可能となり、物体追跡の性能向上を図ることができる。
なお、上述したように所定の物体領域が消滅した場合、当該所定の物体領域に係る過去の物体領域の情報に基づき、当該所定の物体領域が再び出現したときの物体領域の情報、例えばサイズ、位置などが予測され、その予測された物体領域の情報が参照されて当該所定の物体領域が再び出現したか否かが判定される。これにより所定の物体領域の再出現を精度よく判定でき、識別情報の継続精度を向上させることができる。
また、消滅した所定の物体領域に係る識別情報は一定の条件でその保持が停止される。例えば、フレーム毎に、所定の物体領域に係る過去の物体領域の情報に基づき当該所定の物体領域が再び出現する位置が予測されるが、この予測された位置が画像の外にはみ出るときは、その識別情報の保持が停止される。また例えば、フレーム毎に、所定の物体領域に係る過去の物体領域の情報に基づき当該所定の物体領域が再び出現する位置が予測されるが、所定フレーム数以内にこの予測された位置に所定の物体領域が再び出現しないときは、その識別情報の保持が停止される。
このように、一定の条件でその保持が停止されるようにすることで、その保持により発生する所定の物体領域の再出現位置の予測などの処理を行うことが必要なくなり、処理負荷を軽減できる。
この発明によれば、現在の物体領域と過去の物体領域とを共通の識別情報を用いて対応付けして追跡処理を行うものにあって、消滅した所定の物体領域に付与されていた識別情報を継続して保持し、この所定の物体領域が再び出現したとき、当該所定の物体領域に、保持していた識別情報を付与するものであり、重なりや隠れによって物体領域が一時的に消滅した場合であっても識別情報の継続が可能となり、物体追跡の性能向上を図ることができる。
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としての画像監視システム100の構成を示している。この画像監視システム100は、カメラ101と、記録装置102と、ディスプレイ103と、アラーム発生部1045と、ユーザ操作部106、CPU(Central Processing Unit)107と、ROM(Read OnlyMemory)108と、RAM(Random Access Memory)109とが、それぞれバス105に接続されて構成されている。
カメラ101は例えばITVカメラである。また、記録装置102はカメラ101で撮影して得られた画像信号、後述する画像処理部における物体領域の追跡処理で得られる物体領域の情報等を蓄積する。この記録装置102は、例えばHDD(Hard Disk Drive)、半導体メモリ等で構成されている。
ディスプレイ103は、カメラ101で撮像して得られた画像信号による画像、記録装置102から再生された画像信号による画像、さらには記録装置102に記録された物体領域の情報に基づいて加工された物体追跡画像等を表示する。このディスプレイ103は、例えばLCD、CRT等で構成されている。
アラーム発生部104は、例えば、後述する画像処理部における物体領域の追跡処理で得られる物体領域の情報等に基づいてアラームが必要となるとき、当該画像処理部の制御のもと、アラームを発生する。例えば、所定の物体が進入禁止領域に入ったとき等である。
ユーザ操作部106は、ユーザが当該画像監視システム100に対して種々の操作を行うためのユーザインターフェースを構成しており、例えばキーボード、マウス等から構成されている。
CPU107は、画像監視システム100の全体の動作を制御するものである。ROM108は、CPU107の動作を制御するための制御プログラム等を格納している。RAM109は、CPU107のワーキングエリア等として機能する。CPU107は、ROM108に格納されている制御プログラムを必要に応じて読み出し、読み出した制御プログラムをRAM109に転送して展開する。そして、このCPU107は、RAM109に展開された制御プログラムを読み出して実行することで、画像監視システム100の各部を制御する。
CPU107、ROM108およびRAM109は、画像中の移動物体を検出するための物体領域の検出処理および物体領域の追跡処理を行う画像処理部を構成している。図2は、この画像処理部を構成する機能ブロックを示している。この画像処理部は、物体領域の検出部111と、物体領域の情報記憶部112と、過去の物体領域の情報記憶部113と、物体領域の対応付け部114と、物体領域の判定部115と、消滅物体領域の複製部116と、物体領域の情報統合部117とを有している。
物体領域の検出部111は、カメラ101で撮像して得られる画像信号(入力画像信号)に基づき、その画像信号による画像から物体領域(現在の物体領域)の情報を検出する。この検出処理は、上述したフレーム間差分処理あるいは背景差分処理等を用いて行われる。ここで、物体領域の情報は、例えば物体領域のサイズ、位置、移動速度、色等である。例えば、移動速度は、水平、垂直の成分からなっており、左右、上下の別は正負の符号で与えられる。
物体領域の情報記憶部112は、物体領域の検出部111で検出された現在の物体領域の情報を記憶する。物体領域の検出部111では、画像信号の各フレームに対応して、物体領域の情報を検出している。過去の物体領域の情報記憶部113は、過去の物体領域の情報を記憶する。
ここで、過去の物体領域の情報としては、物体領域の検出部111において現在フレームより1つ前のフレームで検出された物体領域の情報と共に、現在フレームより1つ前のフレームで複製された物体領域の情報が含まれる。なお、この情報記憶部113に記憶される物体領域の情報の内容は、上述した情報記憶部112に記憶される物体領域の情報の内容に、さらに識別情報としての識別番号も付加されている。
物体領域の対応付け部114は、情報記憶部112に記憶されている現在の物体領域の情報と、情報記憶部113に記憶されている過去の物体領域の情報とに基づいて、現在の物体領域と過去の物体領域との対応付けを行う。この対応付けは、現在の物体領域の情報(サイズ、位置、移動速度など)と、過去の物体領域の情報(サイズ、位置、移動速度など)に基づく現在の物体領域の予測情報とを用いて行う。
ここで、過去の物体領域の情報を構成するサイズ、移動速度等はそのまま現在の物体領域のサイズ、移動速度等の予測値となる。また、過去の物体領域の情報を構成する位置は、移動速度などを用いて、現在の物体領域の位置の予測値に変換される。
この物体領域の対応付け部114では、過去の物体領域のそれぞれが、その情報に基づいて得られた現在の物体領域の予測情報と最も近い情報を持つ現在の物体領域と対応付けられる。
ここで、物体領域の検出部111で検出される現在の物体領域の個数によっては、過去の物体領域の全てを現在の物体領域と対応付けできない場合がある。その場合、対応付けできない過去の物体領域は消滅したことになる。
また、物体領域の検出部111で検出される現在の物体領域の個数によっては、過去の物体領域の全てを現在の物体領域と対応付けした後に、現在の物体領域がさらに残っている場合がある。その場合、残っている現在の物体領域は新たに出現したことになる。
消滅物体領域の複製部116は、上述したように物体領域の対応付け部114で対応付けできなかった過去の物体領域の情報を複製して出力する。この場合、複製される物体領域の情報としては、基本的には上述した予測情報が用いられるが、識別番号に関しては、正の値のものは負の値にしておく。なお、識別番号が既に負の値であるものは、前のフレームで複製されたものである。
なおこの場合、消滅した所定の物体領域の情報を複製しておくことで、当該所定の物体領域に付与されていた識別番号が継続して保持される。本実施の形態では、この識別番号の保持が、一定の条件で停止される。
例えば、上述したように物体領域の対応付け部114では上述したように過去の物体領域の情報に基づいた現在の物体領域の予測情報が用いられるが、予測された位置が画像の外にはみ出ている場合には、複製部116で複製の対象であっても、物体領域の情報の複製を行わないこととする。
また例えば、複製部116で複製の対象であっても、識別番号が既に負の値であるものに関しては、その複製の回数が所定フレーム数を越える場合、物体領域の情報の複製を行わないこととする。この場合、所定フレーム数以内に、予測された位置に、消滅した所定の物体領域が再び出現しなかったことになる。ここで、所定フレーム数は固定値に設定してもよく、あるいは当該所定の物体領域が消滅するまでの生存フレーム数に応じて設定してもよい。
このように、消滅物体領域の複製部116における複製、従って識別番号の保持を一定の条件で停止することで、その識別番号に対応した所定の物体領域の再出現位置の予測などの処理を行うことが必要なくなり、処理負荷を軽減できる。
物体領域の判定部115は、上述したように物体領域の対応付け部114で対応付けされた現在の物体領域の情報に、対応付けされた過去の物体領域の情報に含まれる識別番号を付加して出力する。この場合、その識別番号が負の値であるときは、正の値にしておく。これは、一旦消滅した物体領域が再出現したことを意味する。
また、この物体領域の判定部115は、上述したように物体領域の対応付け部114で過去の物体領域と対応付けされずに残った現在の物体領域の情報に、新規な識別番号を付加して出力する。これは過去にはなかった新たな物体領域が出現したことを意味する。
また、この物体領域判定部115は、過去の物体領域に対応付けされた現在の物体領域が当該過去の物体領域に対してサイズ等の情報が大きく変化したか否かを判定し、大きく変化したときは、対応付けされた過去の物体領域の情報を複製して出力する。この場合、複製される物体領域の情報としては、基本的には上述した予測情報が用いられるが、識別番号に関しては正の値を負の値にしておく。
このように、過去の物体領域に対応付けされた現在の物体領域が当該過去の物体領域に対してサイズ等の情報が大きく変化する場合、この現在の物体領域が過去の物体領域となる次のフレームでは、当該次のフレームで検出される現在の物体領域と対応付けが良好に行われないことが予想される。つまりこの場合、過去の物体領域が現在の物体領域に一応対応付けされるが、本実施の形態では、実質的にその物体領域が消滅したとも考えて、上述した消滅物体領域の複製部116と同様の処理をする。
物体領域の情報統合部117は、消滅物体領域の複製部116および物体領域の判定部115から出力される物体領域の情報を統合し、正の識別番号を持つ物体領域の情報のみを現在のフレームの結果として出力する。また、物体領域の情報統合部117は、正負の識別番号を持つ物体領域の情報を、次のフレームで使用する過去の物体領域の情報として、情報記憶部113に送る。
図2に示す画像処理部の動作を説明する。カメラ101で撮像して得られる画像信号(入力画像信号)は物体領域の検出部111に供給される。この検出部111では、フレーム間差分処理あるいは背景差分処理等を用いて、入力画像信号に基づき、それによる画像から物体領域(現在の物体領域)の情報(サイズ、位置、移動速度など)を検出する。このように検出部111で検出される現在の物体領域の情報は、物体領域の情報記憶部112に供給されて記憶される。
この情報記憶部112に記憶された現在の物体領域の情報は、物体領域の対応付け部114に供給される。また、この対応付け114には、過去の物体領域の情報記憶部113に記憶されている過去の物体領域の情報(サイズ、位置、移動速度、識別番号など)が供給される。
この対応付け部114では、現在の物体領域の情報と過去の物体領域の情報とに基づいて、現在の物体領域と過去の物体領域との対応付けが行われる。この対応付けは、現在の物体領域の情報(サイズ、位置、移動速度など)と、過去の物体領域の情報(サイズ、位置、移動速度など)に基づく現在の物体領域の予測情報とを用いて行われる。
この場合、過去の物体領域のそれぞれが、その情報に基づいて得られた現在の物体領域の予測情報と最も近い情報を持つ現在の物体領域に対応付けられる。ただし、物体領域の検出部111で検出される現在の物体領域の個数によっては、(1)過去の物体領域の全てを現在の物体領域と対応付けできない場合、あるいは(2)過去の物体領域と対応付けされずに現在の物体領域が残っている場合がある。(1)の場合は消滅した物体領域があることを意味し、(2)の場合は新たに出現した物体領域があることを意味している。
消滅物体領域の複製部116では、対応付け部114による対応付け結果が参照され、対応付けできなかった過去の物体領域の情報が複製されて出力される。この場合、複製される物体領域の情報としては、基本的には上述した予測情報が用いられるが、識別番号に関しては、正の値のものは負の値とされ、また既に負の値のものはそのままとされ、その物体領域の情報が複製に係るものであることが分かるようにされる。
このように複製部116で消滅した所定の物体領域の情報を複製しておくことで、当該所定の物体領域に付与されていた識別情報が継続して保持される。ただし、この識別番号の保持は、上述したように一定の条件(予測された位置が画像の外にはみ出ている、複製の回数が所定フレーム数を越えた、など)で停止され、処理負荷の軽減が図られる。
物体領域の判定部115では、対応付け部114による対応付け結果が参照され、過去の物体領域に対応付けされた現在の物体領域の情報に、当該過去の物体領域の情報に含まれる識別番号が付加されて出力される。この場合、その識別番号が負の値であるときは、正の値とされる。これは、一旦消滅した物体領域が再出現したことを意味する。
また、物体領域の判定部115では、対応付け部114による対応付け結果が参照され、過去の物体領域に対応付けされずに残った現在の物体領域の情報に、新規な識別番号が付加されて出力される。これは新たな物体領域が出現したことを意味する。
さらには、物体領域判定部115では、過去の物体領域に対応づけされた現在の物体領域が当該過去の物体領域に対してサイズ等の情報が大きく変化したか否かが判定され、大きく変化したときは、対応付けされた過去の物体領域の情報が複製されて出力される。この場合、複製される物体領域の情報としては、基本的には上述した予測情報が用いられるが、識別番号に関しては正の値が負の値とされ、複製であることが分かるようにされる。
複製部116および判定部115から出力される物体領域の情報は、物体領域の情報統合部117に供給されて統合される。すなわち、この情報統合部117からは、正の識別番号を持つ物体領域の情報のみが現在のフレームの結果として出力される。この正の識別番号を持つ物体領域の情報は、上述したように記録装置102に供給されて蓄積される。また、この情報統合部117から、正負の識別番号を持つ物体領域の情報が、次のフレームで使用する過去の物体領域の情報として、情報記憶部113に送られて記憶される。
次に、図2に示す画像処理部における、識別番号の継続保持と復活の例を説明する。まず、上述した図8に示すように、ある時刻t−1で2つある物体が、時刻tで重なり、時刻t+1で再び分離する場合について考える。これは、実際の画像監視システムにおいても人が重なったりすることで生じる現象である。
図3および図4を参照して説明する。時刻tにおいては、物体領域は1つしか存在しない。この物体領域について時刻t−1の物体領域と対応付けをとると、時刻t−1における識別番号「1」の物体領域との対応付けが行われる。時刻t−1における識別番号「2」の物体領域は時刻tにおいてどの物体領域とも対応付けがなされず、消滅した状態となる。この場合、消滅した物体領域の情報が複製され、識別番号は正の値である「2」から負の値である「−2」に変更される。これにより、消滅した物体領域の識別番号が継続して保持される。
時刻t+1では、時刻tで複製された識別番号「−2」の物体領域の情報から得られた時刻t+1における物体領域の予測情報(サイズ、位置、移動速度など)を用い、この識別番号「−2」の物体領域と対応付け可能な物体領域があるか判定される。時刻t+1に対応付けできる物体領域がある場合は、対応付けし、その物体領域の情報に識別番号「2」が付加される。これにより、物体の重なりによって一時的に消滅した物体領域が再出現した際に、その物体領域に消滅前と同じ識別番号が付与されることとなり、同一の物体領域に対して同一の識別番号を継続させることができる。
なお、上述ではある物体領域が他の物体領域と重なって一時的に消滅する場合を述べたが、ある物体が障害物に完全に隠れて一時的に消滅する場合も、同様の動作となる。
次に、上述した図10に示すように、時刻t−1のある物体が、時刻tで別の物体によって物体領域が隠され、時刻t+1で再び出現する場合について考える。これは、実際の画像監視システムにおいても、人が障害物(例えば、電柱など)などに隠れることで生じる現象である。
図5および図6を参照して説明する。時刻tにおいては、物体領域は1つしか存在しない。この物体領域については、時刻t−1における識別番号「1」の物体領域との対応付けが行われる。しかしこの場合、時刻tの物体領域は障害物に隠れることで、時刻t−1の物体領域に比べてそのサイズが大きく変化している。そのため、時刻tでは、さらに、時刻t−1における識別番号「1」の物体領域の情報が複製される。その場合、識別番号は正の値である「1」から負の値である「−1」に変更される。
この場合、時刻tにおける識別番号「1」の物体領域は、サイズが本来のサイズから大きく変化しているので、次の時刻t+1における物体領域との対応付けが良好に行われないことが予想される。つまり、上述したように複製を行うのは、時刻t−1における識別番号「1」の物体領域は、時刻tでは実質的に消滅したと考えることによる。
時刻t+1では、時刻tにおける物体領域の情報から得られた時刻t+1における物体領域の予測情報(サイズ、位置、移動速度など)を用い、時刻tにおける物体領域(識別番号「1」と識別番号「−1」)と対応付け可能な物体領域があるか判定される。この場合、サイズの関係から、時刻t+1で隠れを脱して再出現した物体領域は、時刻tにおける識別番号「−1」の物体領域と対応付けされ、その物体領域の情報に識別番号「1」が付加される。これにより、物体の隠れによって一時的に消滅した物体領域が再出現した際に、その物体領域に消滅前と同じ識別番号が付与されることとなり、同一の物体領域に対して同一の識別番号を継続させることができる。
上述したように、図1に示す画像監視システム100によれば、物体領域の追跡処理において、消滅した所定の物体領域に付与されていた識別番号が継続して保持され、この所定の物体領域が再び出現したとき、当該所定の物体領域に、保持されていた識別番号が付与されるものであり、重なりや隠れによって物体領域が一時的に消滅した場合であっても識別番号の継続が可能となり、物体追跡の性能向上を図ることができる。
また、図1に示す画像監視システム100によれば、物体領域の追跡処理において、所定の物体領域が消滅した場合、当該所定の物体領域に係る過去の物体領域の情報に基づき、当該所定の物体領域が再び出現したときの物体領域の情報、例えばサイズ、位置などが予測され、その予測された物体領域の情報が参照されて当該所定の物体領域が再び出現したか否かが判定されるものであり、所定の物体領域の再出現を精度よく判定でき、識別信号の継続精度を向上させることができる。
なお、上述実施の形態においては、画像処理部の処理で、消滅した物体領域の情報を複製した場合、その情報に含まれる識別番号を正の値から負の値に変更しているが、これに限定されるものではなく、複製であることが分かり、かつ元の識別番号の復活が可能であれば、いかなる形態に変更してもよい。
また、上述実施の形態においては、固有の識別情報として識別番号を使用したものを示したが、その他の情報を使用してもよい。
この発明は、重なりや隠れによって物体領域が一時的に消滅した場合であっても識別情報の継続が可能となり、物体追跡の性能向上を図ることができるものであり、例えばITVカメラを用いた監視システム等に適用できる。
100・・・画像監視システム、101・・・カメラ、102・・・記録装置、103・・・ディスプレイ、104・・・アラーム発生部、106・・・ユーザ操作部、107・・・CPU、108・・・ROM、109・・・RAM
Claims (8)
- 入力画像信号に基づき、該入力画像信号による画像から物体領域の情報を検出する物体領域検出処理部と、
上記物体領域検出処理部で検出された物体領域の情報に基づき、現在の物体領域と過去の物体領域との対応付けによって物体領域の追跡処理を行う物体領域追跡処理部とを備え、
上記物体領域追跡処理部は、
上記現在の物体領域と上記過去の物体領域との対応付けを固有の識別情報を用いて行い、
消滅した所定の物体領域に付与されていた識別情報を継続して保持し、該所定の物体領域が再び出現したとき該所定の物体領域に上記保持していた識別情報を付与する
ことを特徴とする画像監視システム。 - 上記物体領域追跡処理部は。
上記消滅した所定の物体領域に付与されていた識別情報を継続して保持するため、該消滅した所定の物体領域の情報を複製しておく
ことを特徴とする請求項1に記載の画像監視システム。 - 上記物体領域追跡処理部は、
上記消滅した所定の物体領域に係る過去の物体領域の情報に基づき、該所定の物体領域が再び出現したときの物体領域の情報を予測し、該予測した物体領域の情報を参照して上記所定の物体領域が再び出現したか否かを判定する
ことを特徴とする請求項1に記載の画像監視システム。 - 上記物体領域追跡処理部は、上記物体領域検出処理部で上記所定の物体領域の情報が検出されていないとき、該所定の物体領域が消滅したものとする
ことを特徴とする請求項1に記載の画像監視システム。 - 上記物体領域追跡処理部は、上記物体領域検出処理部で上記所定の物体領域の情報が検出されているが、該検出された所定の物体領域の情報が該所定の物体領域に係る過去の物体領域の情報に対して大きく変化したとき、該所定の物体領域が消滅したものとする
ことを特徴とする請求項1に記載の画像監視システム。 - 上記物体領域追跡処理部は、フレーム毎に、上記所定の物体領域に係る過去の物体領域の情報に基づき該所定の物体領域が再び出現する位置を予測し、該予測した位置が画像の外にはみ出るときは、上記所定の物体領域に付与されていた識別情報の保持を停止する
ことを特徴とする請求項1に記載の画像監視システム。 - 上記物体領域追跡処理部は、フレーム毎に、上記所定の物体領域に係る過去の物体領域の情報に基づき該所定の物体領域が再び出現する位置を予測し、所定フレーム数以内に該予測した位置に上記所定の物体領域が再び出現しないときは、上記所定の物体領域に付与されていた識別情報の保持を停止する
ことを特徴とする請求項1に記載の画像監視システム。 - 入力画像信号に基づき、該入力画像信号による画像から物体領域の情報を検出し、該検出された物体領域の情報に基づき、現在の物体領域と過去の物体領域との対応付けによって物体領域の追跡処理を行う物体領域追跡方法であって、
上記現在の物体領域と上記過去の物体領域との対応付けを固有の識別情報を用いて行い、
消滅した所定の物体領域に付与されていた識別情報を継続して保持し、該所定の物体領域が再び出現したとき該所定の物体領域に上記保持していた識別情報を付与する
ことを特徴とする物体領域追跡方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006165617A JP2007334631A (ja) | 2006-06-15 | 2006-06-15 | 画像監視システムおよび物体領域追跡方法 |
US11/818,051 US8045757B2 (en) | 2006-06-15 | 2007-06-12 | Image monitoring system and object area tracking method |
CN200710110365XA CN101090485B (zh) | 2006-06-15 | 2007-06-15 | 图像监视系统和对象区域跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006165617A JP2007334631A (ja) | 2006-06-15 | 2006-06-15 | 画像監視システムおよび物体領域追跡方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007334631A true JP2007334631A (ja) | 2007-12-27 |
Family
ID=38876692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006165617A Pending JP2007334631A (ja) | 2006-06-15 | 2006-06-15 | 画像監視システムおよび物体領域追跡方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8045757B2 (ja) |
JP (1) | JP2007334631A (ja) |
CN (1) | CN101090485B (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009268005A (ja) * | 2008-04-30 | 2009-11-12 | Meidensha Corp | 侵入物検知追跡装置 |
WO2010084902A1 (ja) * | 2009-01-22 | 2010-07-29 | 株式会社日立国際電気 | 侵入警報ビデオ処理装置 |
JP2011053933A (ja) * | 2009-09-02 | 2011-03-17 | Mitsubishi Electric Corp | 映像特徴量抽出方法、映像状態判別方法、映像符号化方法、オブジェクト検索方法、映像特徴量抽出装置、映像状態判別装置、映像符号化装置およびオブジェクト検索装置 |
US20110135158A1 (en) * | 2009-12-08 | 2011-06-09 | Nishino Katsuaki | Image processing device, image processing method and program |
JP2012080222A (ja) * | 2010-09-30 | 2012-04-19 | Jvc Kenwood Corp | 目標追跡装置、目標追跡方法 |
JP2012080221A (ja) * | 2010-09-30 | 2012-04-19 | Jvc Kenwood Corp | 目標追跡装置、目標追跡方法 |
JP2014182627A (ja) * | 2013-03-19 | 2014-09-29 | Nec Corp | 情報処理システム、情報処理方法及びプログラム |
WO2014192483A1 (ja) * | 2013-05-30 | 2014-12-04 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
WO2017216856A1 (ja) * | 2016-06-14 | 2017-12-21 | 日産自動車株式会社 | 車間距離推定方法及び車間距離推定装置 |
WO2018003056A1 (ja) | 2016-06-30 | 2018-01-04 | 日産自動車株式会社 | 物体追跡方法及び物体追跡装置 |
US10368035B2 (en) | 2015-03-20 | 2019-07-30 | Nec Corporation | Monitoring system, monitoring method, and monitoring program |
KR20210114805A (ko) * | 2020-03-11 | 2021-09-24 | 성균관대학교산학협력단 | 머신러닝 모델을 이용한 객체 인식 방법 및 시스템 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010009134A (ja) * | 2008-06-24 | 2010-01-14 | Sony Corp | 画像処理システム及び画像処理方法、並びに、プログラム |
JP5709367B2 (ja) * | 2009-10-23 | 2015-04-30 | キヤノン株式会社 | 画像処理装置、および画像処理方法 |
TWI416068B (zh) | 2009-12-10 | 2013-11-21 | Ind Tech Res Inst | 跨感測器間之物體追蹤方法與系統 |
JP5091976B2 (ja) * | 2010-04-09 | 2012-12-05 | 株式会社東芝 | 映像表示装置、映像表示方法及び映像表示プログラム |
US8630462B2 (en) | 2010-08-31 | 2014-01-14 | Activate Systems, Inc. | Methods and apparatus for improved motion capture |
JP6471528B2 (ja) * | 2014-02-24 | 2019-02-20 | 株式会社リコー | 物体認識装置、物体認識方法 |
JP6612056B2 (ja) * | 2014-05-16 | 2019-11-27 | 株式会社半導体エネルギー研究所 | 撮像装置、及び監視装置 |
KR20160032586A (ko) * | 2014-09-16 | 2016-03-24 | 삼성전자주식회사 | 관심영역 크기 전이 모델 기반의 컴퓨터 보조 진단 장치 및 방법 |
US10042031B2 (en) * | 2015-02-11 | 2018-08-07 | Xerox Corporation | Method and system for detecting that an object of interest has re-entered a field of view of an imaging device |
US10306168B2 (en) | 2015-05-04 | 2019-05-28 | Semiconductor Energy Laboratory Co., Ltd. | Semiconductor device, imaging system, and electronic device |
CN105141911B (zh) * | 2015-08-17 | 2019-02-26 | 北京交通大学 | 一种铁路视频监控系统互联装置及方法 |
CN105956513B (zh) * | 2016-04-19 | 2020-04-14 | 北京小米移动软件有限公司 | 执行反应动作的方法及装置 |
CN108881663B (zh) * | 2018-06-20 | 2019-12-24 | 暨南大学 | 一种支持隐私保护功能的图像区域复制检测方法 |
CN109831622B (zh) * | 2019-01-03 | 2021-06-22 | 华为技术有限公司 | 一种拍摄方法及电子设备 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0628449B2 (ja) | 1985-12-10 | 1994-04-13 | 松下電工株式会社 | 侵入監視装置 |
JPH06110552A (ja) | 1992-09-25 | 1994-04-22 | Toshiba Corp | 移動体追跡装置 |
US5912980A (en) * | 1995-07-13 | 1999-06-15 | Hunke; H. Martin | Target acquisition and tracking |
BR9805971A (pt) * | 1997-02-06 | 1999-08-31 | Koninkl Philips Electronics Nv | Processo e sistema para segmentação e rastreamento de objetos |
CA2232997C (en) * | 1997-03-26 | 2001-07-10 | Dalhousie University | Dynamic target addressing system |
US6724915B1 (en) * | 1998-03-13 | 2004-04-20 | Siemens Corporate Research, Inc. | Method for tracking a video object in a time-ordered sequence of image frames |
JP2000105835A (ja) | 1998-07-28 | 2000-04-11 | Hitachi Denshi Ltd | 物体認識方法及び物体追跡監視装置 |
JP4789223B2 (ja) | 2000-05-16 | 2011-10-12 | 株式会社メガチップス | 侵入者監視システム |
JP3692500B2 (ja) * | 2000-09-12 | 2005-09-07 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 画像処理方法、画像処理システムおよび記録媒体 |
JP2002157599A (ja) | 2000-11-17 | 2002-05-31 | Nippon Telegr & Teleph Corp <Ntt> | 物体検出認識方法,物体検出認識プログラムを記録した記録媒体および物体監視追跡装置 |
JP2004110542A (ja) | 2002-09-19 | 2004-04-08 | Toshiba Corp | 目標検出装置および目標検出方法 |
US7336803B2 (en) * | 2002-10-17 | 2008-02-26 | Siemens Corporate Research, Inc. | Method for scene modeling and change detection |
JP4292371B2 (ja) | 2003-03-14 | 2009-07-08 | オムロン株式会社 | 移動体監視装置 |
JP4555987B2 (ja) | 2004-07-09 | 2010-10-06 | 財団法人生産技術研究奨励会 | 画像における移動物体追跡方法及び装置 |
-
2006
- 2006-06-15 JP JP2006165617A patent/JP2007334631A/ja active Pending
-
2007
- 2007-06-12 US US11/818,051 patent/US8045757B2/en not_active Expired - Fee Related
- 2007-06-15 CN CN200710110365XA patent/CN101090485B/zh not_active Expired - Fee Related
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009268005A (ja) * | 2008-04-30 | 2009-11-12 | Meidensha Corp | 侵入物検知追跡装置 |
WO2010084902A1 (ja) * | 2009-01-22 | 2010-07-29 | 株式会社日立国際電気 | 侵入警報ビデオ処理装置 |
JP5325899B2 (ja) * | 2009-01-22 | 2013-10-23 | 株式会社日立国際電気 | 侵入警報ビデオ処理装置 |
JP2011053933A (ja) * | 2009-09-02 | 2011-03-17 | Mitsubishi Electric Corp | 映像特徴量抽出方法、映像状態判別方法、映像符号化方法、オブジェクト検索方法、映像特徴量抽出装置、映像状態判別装置、映像符号化装置およびオブジェクト検索装置 |
US20110135158A1 (en) * | 2009-12-08 | 2011-06-09 | Nishino Katsuaki | Image processing device, image processing method and program |
US8630453B2 (en) * | 2009-12-08 | 2014-01-14 | Sony Corporation | Image processing device, image processing method and program |
JP2012080222A (ja) * | 2010-09-30 | 2012-04-19 | Jvc Kenwood Corp | 目標追跡装置、目標追跡方法 |
JP2012080221A (ja) * | 2010-09-30 | 2012-04-19 | Jvc Kenwood Corp | 目標追跡装置、目標追跡方法 |
JP2014182627A (ja) * | 2013-03-19 | 2014-09-29 | Nec Corp | 情報処理システム、情報処理方法及びプログラム |
WO2014192483A1 (ja) * | 2013-05-30 | 2014-12-04 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
JPWO2014192483A1 (ja) * | 2013-05-30 | 2017-02-23 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
US10368035B2 (en) | 2015-03-20 | 2019-07-30 | Nec Corporation | Monitoring system, monitoring method, and monitoring program |
US10419724B2 (en) | 2015-03-20 | 2019-09-17 | Nec Corporation | Monitoring system, monitoring method, and monitoring program |
US11877094B2 (en) | 2015-03-20 | 2024-01-16 | Nec Corporation | Monitoring system, monitoring method, and monitoring program |
US10750127B2 (en) | 2015-03-20 | 2020-08-18 | Nec Corporation | Monitoring system, monitoring method, and monitoring program |
US10516855B2 (en) | 2015-03-20 | 2019-12-24 | Nec Corporation | Monitoring system, monitoring method, and monitoring program |
WO2017216856A1 (ja) * | 2016-06-14 | 2017-12-21 | 日産自動車株式会社 | 車間距離推定方法及び車間距離推定装置 |
RU2693015C1 (ru) * | 2016-06-14 | 2019-07-01 | Ниссан Мотор Ко., Лтд. | Способ оценки расстояния между транспортными средствами и устройство оценки расстояния между транспортными средствами |
JPWO2017216856A1 (ja) * | 2016-06-14 | 2019-06-13 | 日産自動車株式会社 | 車間距離推定方法及び車間距離推定装置 |
US10501077B2 (en) | 2016-06-14 | 2019-12-10 | Nissan Motor Co., Ltd. | Inter-vehicle distance estimation method and inter-vehicle distance estimation device |
KR101980509B1 (ko) | 2016-06-14 | 2019-05-20 | 닛산 지도우샤 가부시키가이샤 | 차간 거리 추정 방법 및 차간 거리 추정 장치 |
KR20190005189A (ko) * | 2016-06-14 | 2019-01-15 | 닛산 지도우샤 가부시키가이샤 | 차간 거리 추정 방법 및 차간 거리 추정 장치 |
WO2018003056A1 (ja) | 2016-06-30 | 2018-01-04 | 日産自動車株式会社 | 物体追跡方法及び物体追跡装置 |
US10482612B2 (en) | 2016-06-30 | 2019-11-19 | Nissan Motor Co., Ltd. | Object tracking method and object tracking apparatus |
KR20190021430A (ko) | 2016-06-30 | 2019-03-05 | 닛산 지도우샤 가부시키가이샤 | 물체 추적 방법 및 물체 추적 장치 |
KR20210114805A (ko) * | 2020-03-11 | 2021-09-24 | 성균관대학교산학협력단 | 머신러닝 모델을 이용한 객체 인식 방법 및 시스템 |
KR102426591B1 (ko) | 2020-03-11 | 2022-07-28 | 성균관대학교산학협력단 | 머신러닝 모델을 이용한 객체 인식 방법 및 시스템 |
Also Published As
Publication number | Publication date |
---|---|
US8045757B2 (en) | 2011-10-25 |
US20080002857A1 (en) | 2008-01-03 |
CN101090485B (zh) | 2013-01-02 |
CN101090485A (zh) | 2007-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007334631A (ja) | 画像監視システムおよび物体領域追跡方法 | |
US8121968B2 (en) | Long-term memory in a video analysis system | |
KR100883065B1 (ko) | 모션 검출에 의한 녹화 제어장치 및 방법 | |
JP2009110152A (ja) | 混雑推定装置 | |
KR102495547B1 (ko) | 화상 처리 장치, 화상 처리 장치의 제어 방법, 및 비일시적 컴퓨터 판독가능 저장 매체 | |
JP2016085487A (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
EP4329302A2 (en) | Systems and methods for hybrid video encoding | |
Senior et al. | Interactive motion analysis for video surveillance and long term scene monitoring | |
JP2014229210A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6405606B2 (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
WO2015025705A1 (ja) | 映像処理装置、映像処理方法および映像処理プログラム | |
US7738009B2 (en) | Method for following at least one object in a scene | |
JPWO2020095644A1 (ja) | 変状検出装置、変状検出方法、及びプログラム | |
CN103402079A (zh) | 一种基于vw的异常事件智能追踪存储显示方法 | |
JP6766009B2 (ja) | 監視装置、監視方法、コンピュータプログラム、及び記憶媒体 | |
US11645763B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP2007156606A (ja) | 画像表示装置及びプログラム | |
JP2023527367A (ja) | ハードウェアベースのセンサ分析 | |
JP6369328B2 (ja) | 解析システム | |
WO2013150786A1 (ja) | 解析システム | |
JP7435298B2 (ja) | 物体検出装置および物体検出方法 | |
JP2014074957A (ja) | 画像処理装置及び画像処理方法 | |
US11574461B2 (en) | Time-series based analytics using video streams | |
JP6308612B2 (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
JP2023082590A (ja) | 画像処理装置、画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080409 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080415 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080805 |