JP2005027085A - Image pick-up system - Google Patents

Image pick-up system Download PDF

Info

Publication number
JP2005027085A
JP2005027085A JP2003191076A JP2003191076A JP2005027085A JP 2005027085 A JP2005027085 A JP 2005027085A JP 2003191076 A JP2003191076 A JP 2003191076A JP 2003191076 A JP2003191076 A JP 2003191076A JP 2005027085 A JP2005027085 A JP 2005027085A
Authority
JP
Japan
Prior art keywords
camera
area
counting
region
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003191076A
Other languages
Japanese (ja)
Inventor
Daisaku Horie
大作 保理江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2003191076A priority Critical patent/JP2005027085A/en
Publication of JP2005027085A publication Critical patent/JP2005027085A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To lead out the number of persons passing in a digitizing region when one image pick-up device cannot photograph the digitizing region. <P>SOLUTION: An image pick-up system 10 has a plurality of cameras 3. The cameras 3 have digitizing modes in which only the digitizing regions allocated to the camera, are photographed by the camera, and monitor modes in which regions other than the digitizing regions are also photographed, as operating modes respectively. A digitizer 42 for a server device 2 leads out the number of the persons passing in the digitizing regions on the basis of images gained in the cameras 3. When one camera 3 transfers to the monitor mode, the camera 3 cannot photograph the digitizing region borne by the camera. Consequently, a camera control unit 41 makes the concerned digitizing region photograph to other cameras 3. Accordingly, the digitizing section 42 can lead out the number of the persons passing in the digitizing region. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、被計数体の通過数を計数する技術に関する。
【0002】
【従来の技術】
従来より、通路などの所定の計数対象領域を撮影して得られた画像に基づいて、その計数対象領域を通過する人物などの被計数体の数を計数する撮像システムが提案されている。
【0003】
例えば、監視対象となる領域を所定の時間周期で撮像装置により撮影し、背景差分により撮影画像中から人物像を抽出し、抽出した人物像に基づいて人物の通過数を計数する撮像システムが知られている(例えば、特許文献1参照。)。
【0004】
【特許文献1】
特開2002−74371号公報
【0005】
【発明が解決しようとする課題】
近年では、スーパーマーケットやコンビニエンスストアのような店舗に、人物の通過数を計数する撮像システムを導入し、マーケティングリサーチの一環として店舗内における顧客の移動経路や移動数を得ることが提案されている。その一方で、通常そのような店舗においては、店舗内を巡回して撮影して観察用の画像を取得する撮像装置(監視カメラ)を備えた撮像システムが、防犯を目的として配置される。このように計数用と観察用との2種類の撮像システムを導入した場合、設置スペースの狭小化や導入コストの増大といった問題が生じる。
【0006】
これを解決するため、撮像装置が計数用と観察用との双方の画像を切り替えて取得できるようにし、一の撮像システムを計数用および観察用の双方の用途に兼用することが考えられる。しかしながら、撮像装置が計数用の画像を取得する場合は、計数を行なう所定の計数対象領域のみを固定的に撮影することが必要とされるが、撮像装置が観察用の画像を取得する場合は、撮影対象を変更することが必要とされる。したがって、撮像装置が観察用の画像を取得する場合には、その撮像装置は計数対象領域を固定的に撮影することはできなくなり、その計数対象領域に関しての人物の通過数の計数は不可能となる。このことから、一の撮像システムを計数用および観察用の双方の用途に適切に使用することができなかった。
【0007】
本発明は、上記課題に鑑みてなされたものであり、一の撮像装置が計数対象領域の撮影が不能となったときでも、その計数対象領域における被計数体の通過数を導出できる撮像システムを提供することを目的とする。
【0008】
【課題を解決するための手段】
上記課題を解決するため、請求項1の発明は、撮像システムであって、複数の計数対象領域を分担して撮影する複数の撮像装置と、前記複数の撮像装置によって得られた画像に基づいて、前記複数の計数対象領域それぞれにおける被計数体の通過数を導出する導出手段と、を備え、前記複数の撮像装置のうちの一の撮像装置が、該一の撮像装置が撮影を担当する前記計数対象領域である第1領域を撮影できなくなったとき、前記導出手段は、前記一の撮像装置とは別の撮像装置により取得された画像に基づいて、前記第1領域における前記被計数体の通過数を導出する。
【0009】
また、請求項2の発明は、請求項1に記載の撮像システムにおいて、前記複数の撮像装置として3以上の撮像装置を備えるとともに、前記複数の撮像装置の動作を制御する制御手段、をさらに備え、前記一の撮像装置が前記第1領域を撮影できなくなったとき、前記制御手段は、前記複数の撮像装置のうち前記一の撮像装置以外の撮像装置から前記第1領域を撮影可能な撮像装置を選択し、選択した撮像装置に前記第1領域を撮影させる。
【0010】
また、請求項3の発明は、請求項1に記載の撮像システムにおいて、前記一の撮像装置が前記第1領域を撮影できなくなったとき、前記導出手段は、前記第1領域との間に通路分岐点が存在しない第2領域を撮影して得られた画像に基づいて、該第2領域における前記被計数体の通過数を導出し、前記第2領域における前記被計数体の通過数に基づいて、前記第1領域における前記被計数体の通過数を導出する。
【0011】
また、請求項4の発明は、請求項1に記載の撮像システムにおいて、前記第1領域は、一の通路分岐点に係る一の入退路領域であり、前記一の撮像装置が前記第1領域を撮影できなくなったとき、前記導出手段は、前記一の通路分岐点に係る前記第1領域を除く入退路領域としての複数の第2領域をそれぞれ撮影して得られた画像に基づいて、前記複数の第2領域それぞれにおける前記被計数体の通過数を導出し、前記複数の第2領域それぞれにおける前記被計数体の通過数に基づいて、前記第1領域における前記被計数体の通過数を導出する。
【0012】
【発明の実施の形態】
以下、図面を参照しつつ本発明の実施の形態について説明する。なお、以下においては、スーパーマーケットやコンビニエンスストアのような店舗に配置される撮像システムを一例として説明する。
【0013】
<1.第1の実施の形態>
<1−1.構成>
図1は、本発明の第1の実施の形態の撮像システム10の概略構成を示す図である。図に示すように、撮像システム10は、撮影して画像を取得する撮像装置である複数のカメラ3と、これら複数のカメラ3を制御するサーバ装置2とを備えている。複数のカメラ3は、商品を載置し顧客に商品を販売するための販売エリア100の天井に配置され、サーバ装置2は店舗の管理室などに配置される。カメラ3の数は複数であれば特に限定されない。
【0014】
複数のカメラ3およびサーバ装置2はそれぞれ、LANケーブルなどの伝送ケーブル4に接続されており、これにより装置相互間でデータ通信を行なうことが可能とされている。なお、データ通信方式は、有線方式に限定されず無線方式であってもよい。
【0015】
また、販売エリア100の所定位置にはセンサ5が配置される。センサ5は、店舗内の未決済の各商品に付されるタグを検知することにより、万引き(未決済の商品の所定の範囲外への持ち出し)を検出する。センサ5はタグを検出すると信号を発生し、発生した信号を伝送ケーブル51を介してサーバ装置2に入力する。なお、図1においては、一つのセンサ5のみを図示しているが、複数のセンサ5があってもよい。
【0016】
販売エリア100の通路には、人物の通過数を計数するための領域となる複数の計数対象領域が予め設定されている。撮像システム10の通常時においては、複数のカメラ3が複数の計数対象領域を分担して撮影し、この撮影によって得られた計数用の画像に基づいて計数対象領域における人物の通過数が計数される。
また、センサ5によって万引きが検出された場合は、万引きが検出された領域を撮影可能な一のカメラ3が選択され、選択されたカメラ3により当該領域が撮影され観察用の画像が取得される。このため、複数のカメラ3のそれぞれは、その動作モードとして、計数用の画像を取得する計数モードと、観察用の画像を取得する監視モードとを備えている。
【0017】
複数のカメラ3は同一構成となっている。図2は、カメラ3の概略構成を示す図である。図2に示すようにカメラ3は主として、入射光を結像する撮影レンズ34、結像された光像を信号電荷に光電変換するCCD35、CCD35の出力信号を処理する信号処理回路36、画像を一時的に格納する画像メモリ37、サーバ装置2と通信を行なうための通信部38、撮影レンズ34の部材を駆動するレンズ駆動部39、および、装置全体を制御する制御部30を備えている。
【0018】
撮影レンズ34は、撮影倍率の変更(ズーム)や光軸位置の変更(パン、チルト)が可能とされている。レンズ駆動部39は、制御部30からの信号に基づいて撮影レンズ34の部材を駆動し、その撮影倍率や光軸位置を変更する。
【0019】
信号処理回路36はA/D変換器を有している。CCD35から出力されたアナログの信号電荷は、信号処理回路36によりデジタルの画像とされた後、画像メモリ37に格納される。画像メモリ37に格納された画像は、制御部30の制御に基づいて、通信部38によりサーバ装置2に送信される。
【0020】
制御部30は、マイクロコンピュータを備えて構成される。具体的には、各種演算を行なうCPU31と、演算の作業領域となるRAM32と、制御用プログラムを記録するROM33とを備えている。制御部30の各種の制御機能は、ROM33に記録された制御用プログラムに従ってCPU31が演算処理を行なうことにより実現される。
【0021】
このような制御部30の制御機能には、動作モードに応じた動作をするように各部を制御する機能も含まれる。例えば、監視モードにおいて制御部30は、特定の被写体を追尾した撮影や店舗内の巡回撮影ができるように、撮影レンズ34の撮影倍率や光軸位置を変更する制御を行なう。一方、計数モードにおいて制御部30は、所定の計数対象領域の撮影ができるように、撮影レンズ34の撮影倍率や光軸位置を固定する制御を行なう。また、制御部30は、サーバ装置2からの信号に応じた動作をするように各部を制御する機能も有している。
【0022】
図3は、サーバ装置2の基本的な構成を示す図である。サーバ装置2のハードウェアとしての構成は、ほぼ一般的なコンピュータの構成となっている。すなわち、サーバ装置2は、各種演算処理を行うCPU21と、基本プログラムを記憶するROM22と、演算処理の作業領域となるRAM23と、プログラムや各種のデータファイルなどを記憶するハードディスク24と、各種表示を行うディスプレイ25と、キーボードおよびマウスを含む入力部26とを備えている。またサーバ装置2は、カメラ3との間で通信を行なうための通信部27と、センサ5からの信号を入力するためのセンサ入力部28とをさらに備えている。
【0023】
サーバ装置2のハードディスク24には、専用のプログラムが予め記憶されており、このプログラムに従ってCPU21が演算処理を行うことにより、サーバ装置2としての各種機能が実現される。
【0024】
図4は、プログラムに従ってCPU21が演算処理を行うことにより実現されるサーバ装置2の機能を含めた、撮像システム10の機能構成を示す図である。
図4に示す構成のうち、カメラ制御部41および計数部42が、プログラムに従ってCPU21が演算処理を行うことにより実現される。
【0025】
カメラ制御部41は、複数のカメラ3のそれぞれの動作を制御するものである。カメラ制御部41は、通信部27を介してカメラ3に対して所定の信号を送信することで、動作モードの変更や撮影レンズ34の光軸位置の変更など、各種の制御を行なうことができる。また、計数部42は、複数のカメラ3によって得られた画像に基づいて、複数の計数対象領域のそれぞれにおける人物の通過数を計数するものである。
【0026】
次に、販売エリア100に設定された複数の計数対象領域の具体例について説明する。図5は、販売エリア100の一部であるエリア101の上部からの様子を示す図である。以下、方向および向きを示す際に図5に示すXY平面座標系を使用する。
【0027】
図5に示すように、エリア101においては、商品を載置するための複数の商品棚Shが配置されており、複数の商品棚Sh相互間の空間が人物が移動する通路Pとなっている。そして、このような通路Pの地表面上に計数対象領域60が設定されている。エリア101においては、5つの計数対象領域60(A〜E)が設定されている。
【0028】
計数対象領域Aと計数対象領域Bとは、互いの間に通路の分岐点(以下、「通路分岐点」という。)が存在しない同一通路P1上に設定されている。より具体的には、計数対象領域Aは通路P1のX軸−端、計数対象領域Bは通路P1のX軸+端にそれぞれ設定されている。
【0029】
また、計数対象領域BのX軸+側は通路Pの通路分岐点Cpとなっており、計数対象領域Bは、通路分岐点Cpに係る一の入退路領域(通路分岐点に繋がる通路上の該通路分岐点に近接した領域)ともなっている。また、計数対象領域D〜Eも、通路分岐点Cpに係る入退路領域となっている。具体的には、計数対象領域Cは通路分岐点CpのX軸+側の通路P2上、計数対象領域Dは通路分岐点CpのY軸+側の通路P3上、計数対象領域Eは通路分岐点CpのY軸−側の通路P4上にそれぞれ設定されている。
【0030】
また、エリア101においては、5つのカメラ3が配置されている。図中の範囲50a〜50eは、これら5つのカメラ3a〜3eが計数モードの場合に撮影する範囲をそれぞれ示している。すなわち、カメラ3aは計数対象領域Aの撮影を担当し、カメラ3bは計数対象領域Bの撮影を担当し、カメラ3cは計数対象領域Cの撮影を担当し、カメラ3dは計数対象領域Dの撮影を担当し、カメラ3eは計数対象領域Eの撮影を担当するようになっている。このように、本実施の形態では、一のカメラ3が、一の計数対象領域60の撮影を担当するようになっている。
【0031】
<1−2.処理内容>
次に、図4等を参照しつつ、撮像システム10の処理内容について説明する。
撮像システム10は、動作開始時においては、全てのカメラ3の動作モードが計数モードに設定される。そして、それぞれのカメラ3において担当する計数対象領域60の撮影が所定の時間周期(例えば、1/30秒周期)で行なわれ、その所定の時間周期で取得された画像がサーバ装置2に送信される。
【0032】
これにより、サーバ装置2では、店舗内の複数の計数対象領域60のそれぞれの状態を示す複数の画像が所定の時間周期で通信部27により受信される。受信された画像は、RAM22に記憶される。計数部42は、このようにしてRAM22に記憶された画像に基づいて、複数の計数対象領域60のそれぞれにおける人物の通過数を求める。
【0033】
図6は、一のカメラ3によって得られた画像70の例を示している。図に示すように、画像70中には、商品棚Shを示す像74、通路Pを示す像75および人物を示す像(以下、「人物像」という。)79などが含まれている。また、計数対象領域60に対応する領域(以下、「画像内対象領域」という。)73も、画像70に含まれている。
【0034】
計数部42は、このような画像70から背景差分により人物像のみを抽出し、抽出した人物像に基づいて人物の通過数を計数する。すなわち、まず、画像70と、人物以外の背景(商品棚の像75、通路の像75)のみを示す背景画像71(図7参照。)との差分がとられ、差分画像72(図8参照。)が生成される。
背景画像71は、予めハードディスク24に記憶されている。図8に示すように、差分画像72においては人物像79のみが抽出される。
【0035】
続いて、差分画像72中における人物像79と画像内対象領域73との位置関係に基づいて、計数対象領域60に人物が存在するか否かが判定される。そして、計数対象領域60に人物が存在した場合は、当該計数対象領域60に係る通過数が1だけ増加される。差分画像72(画像70)中のいずれの領域が、画像内対象領域73であるかを示すデータは、予めハードディスク24に記憶されている。このようにして計数対象領域60における人物の通過数が計数される。
【0036】
また、この人物を計数する処理においては、人物の進行方向も判定される。具体的には、直近に得られた差分画像72における人物像79と過去に得られた差分画像72中における人物像79とが比較され、人物像79の画像中の移動方向が判断される。そして、その人物像79の画像中の移動方向に基づいて、実際の通路P上における人物の進行方向が判定される。差分画像72中の向きと、実際の通路P上における向きとの対応関係は、予めハードディスク24に記憶されている。このようにして、計数部42は、人物の進行方向を判定し、進行方向ごとに人物の通過数を計数する。
【0037】
このような演算が、カメラ3から得られた全ての画像に対して行なわれ、これにより、店舗内の各計数対象領域60における人物の通過数が進行方向ごとに求められる。そして、このようにして進行方向ごとに得られた人物の通過数は、所定の時間間隔(例えば、5秒間)ごとに集計され、図9のようなテーブル形式の結果テーブルTに集約される。以下、集計される時間を、「集計時間」という。
【0038】
図9に示すように、結果テーブルTにおいては、各フィールド(列)Fが一の計数対象領域60(A,B,C,D,…)の一の進行方向(X+,X−,Y+,Y−)にそれぞれ対応している。そして、各レコード(行)は、集計時間(Te1,Te2,…)にそれぞれ対応している。つまり、一のレコードは、一の集計時間が完了するごとに生成される。このように、人物の通過数(Nap1,…,Nem7)は、計数対象領域60の進行方向、および、集計時間ごとに集計されるわけである。
【0039】
以上が撮像システム10の通常時の処理内容であるが、このような処理がなされているときにセンサ5において万引きが検知された場合(商品に付されたタグが検知された場合)は、一のカメラ3の動作モードが計数モードから監視モードに移行される。つまり、動作モードを移行するための所定の基準条件が満足されるイベント(本実施の形態では、センサ5によるタグの検知)が発生したときに、一のカメラ3の動作モードが計数モードから監視モードに移行されることとなる。
【0040】
より具体的には、センサ5においてタグが検出されると、センサ5からサーバ装置2に所定の信号が入力される。これに応答してセンサ入力部28により、その旨およびそのセンサ5の位置がカメラ制御部41に伝達される。続いて、カメラ制御部41により、センサ5の位置に基づいて、センサ5の位置に最も近く、かつ、センサ5の位置を撮影可能な一のカメラ3が選択される。次に、選択されたカメラ3に対して、カメラ制御部41により、動作モードを計数モードから監視モードに移行する信号、および、撮影すべき位置(万引きが発生したセンサ5の位置)を示す信号が送信される。
【0041】
これらの信号が送信されたカメラ3は、動作モードを計数モードから監視モードに移行する。そして、撮影すべき位置を適切に撮影可能なように、撮影レンズ34の光軸位置および撮影倍率を変更した後、所定の時間周期でその位置を撮影する処理を開始する。また、当該カメラ3は、撮影した画像中に人物が存在した場合は、時間差分や背景差分などの周知の技術によりその人物の位置を導出し、その人物を追尾するように光軸位置を移動させる。このようにして取得された画像はサーバ装置2に送信され、観察用の画像としてディスプレイ25に表示されるとともに、ハードディスク24に記録される。これにより、万引きを行なった人物を示す画像が取得されることとなる。
【0042】
このようにして一のカメラ3が監視モードに移行すると、当該カメラ(以下、「移行カメラ」という。)は、自装置が撮影を担当する計数対象領域(以下、「第1注目領域」という。)60の撮影ができなくなり、その結果、計数部42は第1注目領域における人物の通過数の計数ができなくなる。
【0043】
このため、本実施の形態では、一のカメラ3が監視モードに移行すると、カメラ制御部41により、第1注目領域を撮影可能な、移行カメラとは別の一のカメラ3が選択される。各計数対象領域60をいずれのカメラ3が撮影可能であるかは、予めデータとしてハードディスク24に記憶されている。第1注目領域を撮影可能な一のカメラ(以下、「支援カメラ」という。)3は、このようなデータが参照されることにより選択される。
【0044】
すなわち、カメラ3の総数が2台の場合には、監視モードに入った移行カメラ以外のカメラとしては1台のカメラが残っているだけであるので、そのカメラを移行カメラの計数機能の代替用の支援カメラとして使用することになるが、カメラ3の総数が3台以上の場合には移行カメラ以外のカメラが2台以上存在するため、そのうちのいずれを支援カメラとして使用するかという任意性がある。その一方で、移行カメラがいずれであるかによって、他のどのカメラが支援カメラとして適当であるかが異なるため、カメラごとに、そのカメラが移行カメラとなったときに他のどのカメラを支援カメラとして使用するかを予め指定して、データ(たとえばテーブル形式のデータ)として登録しておくわけである。
【0045】
第1注目領域を撮影可能な一のカメラ3が選択されると、当該カメラ3に対して、カメラ制御部41により、第1注目領域の撮影を指示する信号が送信される。これにより、第1注目領域が支援カメラにより撮影される。取得された画像は、サーバ装置2に送信される。計数部42は、このようにして支援カメラによって撮影された画像に基づいて、第1注目領域における人物の通過数を導出することとなる。
【0046】
以下、この処理を図5に示すエリア101を例に具体的に説明する。ここでは、計数対象領域Bの撮影を担当するカメラ3bの動作モードが監視モードに移行され、カメラ3bが計数対象領域Bを撮影できなくなった場合を想定する。計数対象領域Bについては、カメラ3aが撮影することが可能である。このため、カメラ制御部41により、カメラ3aが支援カメラとして選択される。そして、カメラ3aに対して、計数対象領域Bの撮影を指示する信号が送信され、カメラ3aの撮影レンズ34の光軸位置および撮影倍率が変更される。これにより、図10に示すように、カメラ3aが撮影を担当する計数対象領域Aとともに計数対象領域Bが、カメラ3aの撮影する範囲50aに含まれるようになる。
【0047】
図11は、このようにしてカメラ3aによって取得された画像の例を示す図である。図に示すように、画像70中には、商品棚Shを示す像74、通路Pを示す像75および人物像79が含まれているとともに、計数対象領域Aに対応する画像内対象領域73a、および、計数対象領域Bに対応する画像内対象領域73bが含まれている。計数部42は、このような画像に基づいて、計数対象領域Aおよび計数対象領域Bの双方における人物の通過数を導出することとなる。このようにして、カメラ3bが計数対象領域Bの撮影ができなくなった場合であっても、カメラ3aで取得された画像に基づいて、計数対象領域Bにおける人物の通過数を計数することができることとなる。
【0048】
一般には、自己の計数対象領域だけでなく、移行カメラの計数対象領域をも撮像可能に設置されているような他のカメラが支援カメラとして選択されるが、そのようなカメラが複数あるときには、移行カメラの計数対象領域に最も近いカメラを支援カメラとして指定しておくことが撮像精度(ひいては計数精度)の点で好ましい。また、移行カメラの計数対象領域が1の支援カメラの画角でカバーできないときなどには、移行カメラの代替として複数の支援カメラを協働させることも可能である。
【0049】
以上説明したように、本実施の形態の撮像システム10では、一のカメラ3が監視モードに移行して、撮影を担当する計数対象領域を撮影できなくなった場合であっても、その計数対象領域を撮影可能な別のカメラ3が支援カメラとして選択され、支援カメラによりその計数対象領域が撮影される。つまり、複数のカメラについて、それらの撮像可能範囲を完全には孤立させず、少なくとも一部で撮像可能範囲に代替可能性(冗長性)を持たせることによって、監視モード移行の際のバックアップを可能としていることになる。これにより、監視モードに移行したカメラ3が担当する計数対象領域における人物の通過数を導出することができる。したがって、本実施の形態の撮像システム10は、計数用および観察用の双方の用途に適切に使用することができる。
【0050】
<2.第2の実施の形態>
次に、本発明の第2の実施の形態について説明する。本実施の形態の撮像システム10の構成は、第1の実施の形態と同様である。第1の実施の形態においては、一のカメラ3が第1注目領域の撮影が不能となったとき、他のカメラ3で第1注目領域を撮影して得られた画像に基づいて第1注目領域における通過数が導出されたが、本実施の形態では、第1注目領域とは別の計数対象領域60における人物の通過数から、第1注目領域における通過数が導出されるようになっている。
【0051】
ここで、第1の実施の形態と同様に、図5に示すエリア101において、カメラ3bが監視モードに移行し、カメラ3bが計数対象領域Bを撮影できなくなった場合を想定する。図12は、この場合におけるエリア101の様子を示す図である。図12に示すように、ある集計時間における計数対象領域BのX軸+向きの通過数をNbp、X軸−向きの通過数をNbmとする。また、ある集計時間における計数対象領域BのX軸+向きの通過数をNap、X軸−向きの通過数をNamとする。
【0052】
図に示すように、計数対象領域Aと計数対象領域Bとは同一通路P1上の領域であり、これらの領域の間には通路分岐点が存在しない。また、一般に、計数対象領域Aと計数対象領域Bとの間を人物が移動する時間(以下、記号Δtを用いる。)はほぼ一定であると考えることができる。したがって、計数対象領域AをX軸+向きに通過した人物は、時間Δt後には必ず計数対象領域Bを通過し、また逆に、計数対象領域BをX軸−向きに通過した人物は、時間Δt後には必ず計数対象領域Aを通過すると考えられる。
【0053】
このため、ある集計時間Texにおける計数対象領域BのX軸+向きの通過数Nbpは、集計時間TexよりもΔtだけ前の集計時間における計数対象領域AのX軸+向きの通過数Napと一致するとみなすことができる。一方、ある集計時間Texにおける計数対象領域BのX軸−向きの通過数Nbmは、集計時間TexよりもΔtだけ先の集計時間における計数対象領域AのX軸−向きの通過数Namと一致するとみなすことができる。つまり、計数対象領域Bにおける通過数は、該計数対象領域Bとの間に通路分岐点が存在しない計数対象領域Aの通過数に基づいて導出できるわけである。
【0054】
本実施の形態の計数部42はこのような原理を利用し、一のカメラ3が監視モードに移行して第1注目領域の撮影が不能となったときは、第1注目領域との間に通路分岐点が存在しない同一通路上の計数対象領域60の人物の通過数から、第1注目領域における通過数を導出するようになっている。
【0055】
具体的には、一のカメラ3の動作モードが監視モードに移行すると、まず、当該カメラ3以外のカメラ3から計数用の画像が取得され、それら計数用の画像に基づいて、第1注目領域以外の計数対象領域60それぞれの人物の通過数が導出される。
【0056】
そして、第1注目領域との間に通路分岐点が存在しない同一通路上の一の計数対象領域が「第2注目領域」として選択される。各計数対象領域60がいずれの通路P上に存在するかは、予めデータとしてハードディスク24に記憶されている。第2注目領域は、このようなデータが参照されて選択される。この第2注目領域における人物の通過数は、上記演算において導出済である。
【0057】
続いて、第1注目領域と第2注目領域との人物の移動時間Δtが取得される。
この移動時間Δtも予めハードディスクに記憶されている。そして、ある集計時間Tesにおける第2注目領域から第1注目領域に向かう方向の第1注目領域の通過数には、集計時間Tesよりも移動時間Δtだけ前に相当する集計時間における第2注目領域の同一方向の通過数が使用される。一方、ある集計時間Tesにおける第1注目領域から第2注目領域に向かう方向の第1注目領域の通過数には、集計時間Tesよりも移動時間Δtだけ後に相当する集計時間における第2注目領域の同一方向の通過数が使用されることとなる。
【0058】
このように、本実施の形態においては、第1注目領域との間に通路分岐点が存在しない第2注目領域の通過数が導出され、その第2注目領域の通過数に基づいて第1注目領域における通過数が導出される。したがって、本実施の形態においても、一のカメラ3が監視モードに移行して、当該カメラ3が撮影を担当する計数対象領域(第1注目領域)を撮影できなくなった場合であっても、第1注目領域における人物の通過数を導出することができる。
【0059】
また、本実施の形態においては、監視モードに移行したカメラ3とは別のカメラ3が、その光軸方向や撮影倍率(撮像位置)を変更する必要がない。したがって、本実施の形態の手法は、光軸方向や撮影倍率を変更する機能を有していないカメラを備えた撮像システムにも適用することが可能である。
【0060】
なお、第1注目領域との間に通路分岐点が存在しない計数対象領域がない場合は、第1注目領域との間に通路分岐点が存在しない領域を演算用領域として設定し、その演算用領域を他のカメラ3に撮影させ、そのカメラ3によって得られた画像から演算用領域における通過数を導出し、さらに、演算用領域における通過数に基づいて第1注目領域の通過数を導出するようにしてもよい。
【0061】
例えば、図13に示すように、図5と略同様のエリア101の通路P1に、計数対象領域Aが存在しなかったとする。そして、このエリア101には、通路分岐点CppのX軸−側に計数対象領域Fが存在し、通常時においてこの計数対象領域Fを含む範囲50fを撮影するカメラ3fが存在したとする。
【0062】
このようなエリア101において、カメラ3bが監視モードに移行し、カメラ3bが計数対象領域Bを撮影できなくなった場合を想定する。この場合は、計数対象領域Bとの間に通路分岐点が存在しない計数対象領域がない。このため、図14に示すように、計数対象領域Bとの間に通路分岐点が存在しない領域となる演算用領域Gを設定する。そして、カメラ3fの光軸方向および撮影倍率を変更して、カメラ3fによりこの演算用領域Gを撮影させ、カメラ3fで取得された画像に基づいて演算用領域Gにおける通過数を導出する。これにより、計数対象領域Bにおける通過数を、演算用領域Gにおける通過数に基づいて上記と同様の手法により導出することができることとなる。
【0063】
<3.第3の実施の形態>
次に、本発明の第3の実施の形態について説明する。本実施の形態の撮像システム10の構成は、第1の実施の形態と同様である。本実施の形態においても、第2の実施の形態と同様に、第1注目領域とは別の計数対象領域60における人物の通過数から、第1注目領域における通過数が導出される。
【0064】
ここで、上記実施の形態と同様にエリア101において、図12に示すように、カメラ3bが監視モードに移行し、カメラ3bが計数対象領域Bを撮影できなくなった場合を想定する。図12に示すように、ある集計時間における計数対象領域BのX軸+向きの通過数をNbp、X軸−向きの通過数をNbmとする。また、ある集計時間における、計数対象領域CのX軸+向きの通過数をNcp、X軸−向きの通過数をNcmとし、計数対象領域DのY軸+向きの通過数をNdp、Y軸−向きの通過数をNdmとし、計数対象領域EのY軸+向きの通過数をNep、Y軸−向きの通過数をNemとする。
【0065】
計数対象領域BをX軸+向きに通過して通路分岐点Cpに入った人物は、通常、計数対象領域C,D,Eのいずれかを通過して通路分岐点Cpから出ると考えられる。また、一般に、人物が通路分岐点Cpに入ってから出るまでの時間(以下、記号ΔTを用いる。)は、ほぼ一定であると考えることができる。したがって、ある集計時間Texにおいて計数対象領域Bを通過して通路分岐点に入る人数Nbpは、集計時間TexよりもΔTだけ後の集計時間における計数対象領域C,D,Eのそれぞれを通過して通路分岐点Cpから出る数Ncp,Ndp,Nemの加算値に含まれることとなる。また、このNcp,Ndp,Nemの加算値には、集計時間Texにおいて計数対象領域C,D,Eのそれぞれを通過して通路分岐点Cpから入る数Ncm,Ndm,Nepも含まれている。このため、集計時間TexよりもΔTだけ後の集計時間におけるNcp,Ndp,Nemの加算値から、集計時間TexにおけるNcm,Ndm,Nepを減算した値が、計数対象領域Bを通過して通路分岐点に入る人数Nbpであるとみなすことができる。またこれとは逆に、集計時間TexよりもΔTだけ前の集計時間におけるNcm,Ndm,Nepの加算値から、集計時間TexにおけるNcp,Ndp,Nemを減算した値が、ある集計時間Texにおいて計数対象領域Bを通過して通路分岐点から出る人数Nbmであるとみなすことができる。
【0066】
本実施の形態の計数部42はこのような原理を利用し、一のカメラ3が監視モードに移行して第1注目領域の撮影が不能となったときは、第1注目領域を除く通路分岐点に係る入退路領域における通過数に基づいて、第1注目領域の通過数を導出するようになっている。
【0067】
具体的には、一のカメラ3の動作モードが監視モードに移行すると、まず、当該カメラ3以外のカメラ3から計数用の画像が取得され、それら計数用の画像に基づいて、第1注目領域以外の計数対象領域60それぞれの人物の通過数が導出される。
【0068】
そして、第1注目領域が近接する通路分岐点が注目され、該通路分岐点に係る複数の入退路領域のうち、第1注目領域を除くものが「第2注目領域」として選択される。各計数対象領域60がいずれの通路分岐点に近接するかは、予めデータとしてハードディスク24に記憶されている。第2注目領域は、このようなデータが参照されて選択される。これら複数の第2注目領域における人物の通過数は、上記演算において導出済である。
【0069】
続いて、第1注目領域が近接する通路分岐点を通過する人物の移動時間ΔTが取得される。この移動時間ΔTも予めハードディスクに記憶されている。そして、ある集計時間Tesにおける通路分岐点に入る方向の第1注目領域の通過数は、集計時間Tesよりも移動時間ΔTだけ後に相当する集計時間における複数の第2注目領域の通路分岐点から出る方向の通過数の加算値から、集計時間Tesにおける複数の第2注目領域の通路分岐点へ入る方向の通過数の加算値を減算した値が使用される。一方、ある集計時間Tesにおける通路分岐点から出る方向の第1注目領域の通過数は、集計時間Tesよりも移動時間ΔTだけ前に相当する集計時間における複数の第2注目領域の通路分岐点へ入る方向の通過数の加算値から、集計時間Tesにおける複数の第2注目領域の通路分岐点から出る方向の通過数の加算値を減算した値が使用される。
【0070】
このように、本実施の形態においては、第1注目領域が近接する通路分岐点に係る入退路領域となる複数の第2注目領域の通過数が導出される。そして、その第2注目領域の通過数に基づいて第1注目領域における通過数が導出される。したがって、本実施の形態においても、一のカメラ3が監視モードに移行して、当該カメラ3が撮影を担当する計数対象領域(第1注目領域)を撮影できなくなった場合であっても、第1注目領域における人物の通過数を導出することができる。
【0071】
また、本実施の形態においても、監視モードに移行したカメラ3とは別のカメラ3が、その光軸方向や撮影倍率(撮像位置)を変更する必要がない。したがって、本実施の形態の手法は、光軸方向や撮影倍率を変更する機能を有していないカメラを備えた撮像システムにも適用することが可能である。
【0072】
なお、本実施の形態においては、演算において人物の服の色、サイズ、速度等の付加情報を求めて、これらの情報を通過数の導出時に参照するようにしてもよい。
【0073】
以上のように、第2および第3の実施形態では、一般に、特定の空間範囲(第2の実施の形態では通路空間、第3の実施の形態では通路分岐点)に複数の出入口があり、それら複数の出入口のすべてがいずれかのカメラで撮像可能であるような場合において、一の出入口に対応して設けられている一のカメラが移行カメラとなったときに、他のカメラを総合的に利用することによって、その移行カメラが計数したであろう通過数を推定する機能を持っていることになる。これは一般に、被計数体の数が保存するような場合(つまり被計数体が途中で生成もせず消滅もしない場合)であり、かつその空間範囲を被計数体が通りぬけるための所要時間の上限が想定できる場合について特に適したシステム構成である。
【0074】
<4.第4の実施の形態>
上記実施の形態では、通常時において一のカメラ3が一の計数対象領域60の撮影を担当するようになっていたが、もちろん、一のカメラ3が複数の計数対象領域60の撮影を担当するようになっていてもよい。
【0075】
ただし、この場合において、一のカメラ3の動作モードが監視モードに移行したときは、当該カメラ3が撮影を担当する複数の計数対象領域60のそれぞれにおける通過数を導出する必要がある。このとき、上記第1ないし第3の実施の形態の手法を組合わせて、これらの複数の計数対象領域60のそれぞれの通過数を導出してもよい。以下、その具体例を説明する。
【0076】
図15は、ある店舗の販売エリア100に設定された複数の計数対象領域の例を示す図である。図に示すように、販売エリア100には、複数の商品棚Shが載置されるとともに、13の計数対象領域(H〜T)が設定されている。
【0077】
また、販売エリア100には、4つのカメラ3h,3j,3n,3rが配置されている。図中の範囲50h,50j,50n,50rは、これら4つのカメラ3h,3j,3n,3rが計数モードの場合に撮影する範囲をそれぞれ示している。すなわち、カメラ3hは店舗の出入口En付近の計数対象領域Hの撮影を担当し、カメラ3jは4つの計数対象領域I〜Lの撮影を担当し、カメラ3nは4つの計数対象領域M〜Pの撮影を担当し、カメラ3rは4つの計数対象領域Q〜Tの撮影を担当するようになっている。
【0078】
図16は、このような販売エリア100において、カメラ3jが監視モードに移行し、カメラ3jが計数対象領域I,J,K,Lを撮影できなくなった場合における、他のカメラ3h,3n,3rそれぞれの撮影の範囲50h,50n,50rの例を示している。
【0079】
図に示すように、計数対象領域I,Jはカメラ3hにより直接的に撮影される。したがって、計数対象領域I,Jにおける通過数は、第1の実施の形態と同様の手法により、カメラ3hにて取得される画像に基づいて導出することができる。
【0080】
また、計数対象領域Lとの間に通路分岐点が存在しない領域となる演算用領域Uが設定され、この演算用領域Uがカメラ3nにより撮影される。したがって、計数対象領域Lの通過数は、第2の実施の形態と同様の手法により、演算用領域Uの通過数に基づいて導出することができる。
【0081】
また、計数対象領域Kは、通路分岐点Cpxの一の入退路領域となっている。そして、通路分岐点Cpxの計数対象領域K以外の入退路領域となる複数の計数対象領域J,N,O,R,Sの通過数はそれぞれ、カメラ3h,3n,3rのいずれかで取得された画像に基づいて直接的に求めることができる。したがって、計数対象領域Kの通過数は、第3の実施の形態と同様の手法により、計数対象領域J,N,O,R,Sの通過数に基づいて導出することができる。
【0082】
このように、カメラ3jが撮影を担当する計数対象領域I,J,K,Lは、上記第1ないし第3の実施の形態の手法を組合わせて、それぞれの通過数を導出することができることとなる。
【0083】
<5.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
【0084】
例えば、上記実施の形態では、カメラ3の動作モードが計数モードから監視モードに移行する際に応答する信号を発生するセンサ5は、万引きを検出するものであったが、火災や地震などの災害を検出するものや、温度や湿度などの空気状態(より一般的には、室内状態)を検出するものなどであってもよい。
【0085】
また、カメラ3の動作モードを移行するための基準条件は、センサ5の信号の発生に限定されず、他の条件が満足されたときになされてもよい。例えば、カメラ3で取得された画像中に異常な物体や人物を発見したときに、当該カメラ3の動作モードを移行するようにしてもよい。
【0086】
また、上記実施の形態において被計数体は人物であったが、荷物などの物体、自動車などの乗り物、動物など、所定の計数対象領域を移動する移動体であれば、どのようなものであってもよい。
【0087】
【発明の効果】
以上、説明したように、請求項1ないし4の発明によれば、一の撮像装置が、その装置が撮影を担当する計数対象領域を撮影できなくなったときであっても、別の撮像装置により取得された画像に基づいて、一の撮像装置が担当する計数対象領域における被計数体の通過数を導出できる。
【0088】
また特に、請求項2の発明によれば、第1領域を撮影可能な撮像装置が第1領域を直接的に撮影するため、第1領域における被計数体の通過数を正確に導出することができる。
【0089】
また特に、請求項3および4の発明によれば、撮像装置の撮像位置を変更することなく、第1領域における被計数体の通過数を導出することができる。
【図面の簡単な説明】
【図1】撮像システムの概略構成を示す図である。
【図2】カメラの概略構成を示す図である。
【図3】サーバ装置の基本的な構成を示す図である。
【図4】撮像システムの機能構成を示す図である。
【図5】販売エリアの一部のエリアの様子を示す図である。
【図6】カメラによって得られた画像の例を示す図である。
【図7】背景画像の例を示す図である。
【図8】差分画像の例を示す図である。
【図9】結果テーブルを示す図である。
【図10】販売エリアの一部のエリアの様子を示す図である。
【図11】カメラによって得られた画像の例を示す図である。
【図12】販売エリアの一部のエリアの様子を示す図である。
【図13】販売エリアの一部のエリアの様子を示す図である。
【図14】販売エリアの一部のエリアの様子を示す図である。
【図15】販売エリアの様子を示す図である。
【図16】販売エリアの様子を示す図である。
【符号の説明】
2 サーバ装置
3 カメラ
5 センサ
10 撮像システム
41 カメラ制御部
42 計数部
60 計数対象領域
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for counting the number of passing objects.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been proposed an imaging system that counts the number of counted objects such as a person passing through a counting target area based on an image obtained by shooting a predetermined counting target area such as a passage.
[0003]
For example, an imaging system that captures a region to be monitored by an imaging device at a predetermined time period, extracts a human image from a captured image based on a background difference, and counts the number of passing people based on the extracted human image is known. (For example, refer to Patent Document 1).
[0004]
[Patent Document 1]
JP 2002-74371 A
[0005]
[Problems to be solved by the invention]
In recent years, it has been proposed to introduce an imaging system that counts the number of people passing through a store such as a supermarket or a convenience store, and obtain a customer's movement route and number of movements in the store as part of marketing research. On the other hand, usually in such stores, an imaging system including an imaging device (surveillance camera) that acquires images for observation by traveling around the store is arranged for the purpose of crime prevention. When two types of imaging systems for counting and observation are introduced in this way, problems such as a reduction in installation space and an increase in introduction cost arise.
[0006]
In order to solve this, it is conceivable that the imaging device can switch and acquire both images for counting and observation, and one imaging system can be used for both counting and observation. However, when the imaging device acquires an image for counting, it is necessary to fixedly shoot only a predetermined counting target area for counting, but when the imaging device acquires an image for observation. It is necessary to change the shooting target. Accordingly, when the imaging device acquires an image for observation, the imaging device cannot capture the counting target area in a fixed manner, and it is impossible to count the number of passages of persons with respect to the counting target area. Become. For this reason, one imaging system could not be used appropriately for both counting and observation purposes.
[0007]
The present invention has been made in view of the above problems, and an imaging system capable of deriving the number of passages of the counting object in the counting target area even when the imaging apparatus cannot capture the counting target area. The purpose is to provide.
[0008]
[Means for Solving the Problems]
In order to solve the above-mentioned problems, the invention of claim 1 is an imaging system based on a plurality of imaging devices that divide and shoot a plurality of count target areas and images obtained by the plurality of imaging devices. Derivation means for deriving the number of passages of the counting object in each of the plurality of counting target areas, and one imaging device of the plurality of imaging devices is in charge of photographing by the one imaging device When it is no longer possible to capture the first area, which is the counting target area, the derivation unit determines whether the counting target in the first area is based on an image acquired by an imaging apparatus different from the one imaging apparatus. Deriving the number of passes.
[0009]
The invention according to claim 2 is the imaging system according to claim 1, further comprising three or more imaging devices as the plurality of imaging devices, and control means for controlling operations of the plurality of imaging devices. When the one imaging device cannot photograph the first region, the control unit can photograph the first region from an imaging device other than the one imaging device among the plurality of imaging devices. And the selected imaging device is caused to photograph the first area.
[0010]
The invention according to claim 3 is the imaging system according to claim 1, wherein when the one imaging device cannot photograph the first area, the derivation means passes between the first area and the first area. Based on the image obtained by photographing the second area where there is no branch point, the number of passages of the counted object in the second area is derived, and based on the number of passages of the counted object in the second area. Thus, the number of passing objects to be counted in the first region is derived.
[0011]
According to a fourth aspect of the present invention, in the imaging system according to the first aspect, the first region is a single entrance / exit region related to a single passage branch point, and the single imaging device is the first region. When it becomes impossible to shoot the image, the derivation means, based on the images obtained by shooting the plurality of second areas as the entrance / exit areas excluding the first area related to the one passage branch point, Deriving the number of passages of the counting object in each of the plurality of second regions, and determining the number of passages of the counting object in the first region based on the number of passages of the counting object in each of the plurality of second regions. To derive.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following, an imaging system arranged in a store such as a supermarket or a convenience store will be described as an example.
[0013]
<1. First Embodiment>
<1-1. Configuration>
FIG. 1 is a diagram showing a schematic configuration of an imaging system 10 according to the first embodiment of the present invention. As shown in FIG. 1, the imaging system 10 includes a plurality of cameras 3 that are imaging devices that capture images and acquire images, and a server device 2 that controls the plurality of cameras 3. The plurality of cameras 3 are arranged on the ceiling of the sales area 100 for placing products and selling the products to customers, and the server device 2 is arranged in a store management room or the like. The number of cameras 3 is not particularly limited as long as it is plural.
[0014]
Each of the plurality of cameras 3 and the server device 2 is connected to a transmission cable 4 such as a LAN cable so that data communication can be performed between the devices. The data communication method is not limited to the wired method, and may be a wireless method.
[0015]
A sensor 5 is disposed at a predetermined position in the sales area 100. The sensor 5 detects shoplifting (carrying out an unsettled product out of a predetermined range) by detecting a tag attached to each unsettled product in the store. When the sensor 5 detects the tag, it generates a signal, and inputs the generated signal to the server device 2 via the transmission cable 51. In FIG. 1, only one sensor 5 is shown, but a plurality of sensors 5 may be provided.
[0016]
In the passage of the sales area 100, a plurality of count target areas serving as areas for counting the number of passing persons are set in advance. When the imaging system 10 is in a normal state, a plurality of cameras 3 shoot while sharing a plurality of counting target areas, and the number of persons passing through the counting target area is counted based on a counting image obtained by the shooting. The
When shoplifting is detected by the sensor 5, one camera 3 capable of shooting the area where shoplifting is detected is selected, and the selected camera 3 captures the area and obtains an image for observation. . For this reason, each of the plurality of cameras 3 includes a counting mode for acquiring a counting image and a monitoring mode for acquiring an observation image as its operation mode.
[0017]
The plurality of cameras 3 have the same configuration. FIG. 2 is a diagram illustrating a schematic configuration of the camera 3. As shown in FIG. 2, the camera 3 mainly includes a photographing lens 34 that forms an incident light, a CCD 35 that photoelectrically converts the formed light image into a signal charge, a signal processing circuit 36 that processes an output signal of the CCD 35, and an image. An image memory 37 temporarily stored, a communication unit 38 for communicating with the server device 2, a lens driving unit 39 for driving members of the photographing lens 34, and a control unit 30 for controlling the entire apparatus are provided.
[0018]
The photographing lens 34 can change the photographing magnification (zoom) and the optical axis position (pan, tilt). The lens driving unit 39 drives a member of the photographing lens 34 based on a signal from the control unit 30 and changes the photographing magnification and the optical axis position.
[0019]
The signal processing circuit 36 has an A / D converter. The analog signal charge output from the CCD 35 is converted into a digital image by the signal processing circuit 36 and then stored in the image memory 37. The image stored in the image memory 37 is transmitted to the server device 2 by the communication unit 38 based on the control of the control unit 30.
[0020]
The control unit 30 includes a microcomputer. Specifically, it includes a CPU 31 that performs various calculations, a RAM 32 that is a work area for the calculations, and a ROM 33 that records a control program. Various control functions of the control unit 30 are realized by the CPU 31 performing arithmetic processing in accordance with a control program recorded in the ROM 33.
[0021]
Such a control function of the control unit 30 includes a function of controlling each unit so as to operate in accordance with the operation mode. For example, in the monitoring mode, the control unit 30 performs control to change the shooting magnification and the optical axis position of the shooting lens 34 so that shooting with tracking a specific subject or traveling shooting in a store can be performed. On the other hand, in the counting mode, the control unit 30 performs control to fix the photographing magnification and the optical axis position of the photographing lens 34 so that a predetermined counting target region can be photographed. The control unit 30 also has a function of controlling each unit so as to perform an operation according to a signal from the server device 2.
[0022]
FIG. 3 is a diagram illustrating a basic configuration of the server device 2. The hardware configuration of the server device 2 is almost a general computer configuration. That is, the server device 2 includes a CPU 21 that performs various arithmetic processes, a ROM 22 that stores basic programs, a RAM 23 that serves as a work area for arithmetic processes, a hard disk 24 that stores programs and various data files, and various displays. A display 25 for performing and an input unit 26 including a keyboard and a mouse are provided. The server device 2 further includes a communication unit 27 for communicating with the camera 3 and a sensor input unit 28 for inputting a signal from the sensor 5.
[0023]
A dedicated program is stored in advance in the hard disk 24 of the server device 2, and various functions as the server device 2 are realized by the CPU 21 performing arithmetic processing according to the program.
[0024]
FIG. 4 is a diagram illustrating a functional configuration of the imaging system 10 including functions of the server device 2 realized by the CPU 21 performing arithmetic processing according to a program.
4, the camera control unit 41 and the counting unit 42 are realized by the CPU 21 performing arithmetic processing according to a program.
[0025]
The camera control unit 41 controls each operation of the plurality of cameras 3. The camera control unit 41 can perform various controls such as changing the operation mode and changing the optical axis position of the photographing lens 34 by transmitting a predetermined signal to the camera 3 via the communication unit 27. . The counting unit 42 counts the number of passing persons in each of the plurality of counting target areas based on the images obtained by the plurality of cameras 3.
[0026]
Next, a specific example of a plurality of count target areas set in the sales area 100 will be described. FIG. 5 is a diagram showing a state from the upper part of the area 101 which is a part of the sales area 100. Hereinafter, the XY plane coordinate system shown in FIG. 5 is used when indicating the direction and orientation.
[0027]
As shown in FIG. 5, in the area 101, a plurality of product shelves Sh for placing products are arranged, and a space between the plurality of product shelves Sh is a passage P through which a person moves. . And the count object area | region 60 is set on the ground surface of such a channel | path P. As shown in FIG. In the area 101, five count target areas 60 (A to E) are set.
[0028]
The count target area A and the count target area B are set on the same path P1 where there is no path branch point (hereinafter referred to as “path branch point”). More specifically, the counting target area A is set to the X axis minus end of the passage P1, and the counting target area B is set to the X axis plus end of the passage P1.
[0029]
Further, the X axis + side of the counting target region B is a passage branch point Cp of the passage P, and the counting target region B is one entry / exit region related to the passage branching point Cp (on the passage leading to the passage branching point). It is also a region close to the passage branch point). The count target areas D to E are also entrance / exit areas related to the passage branch point Cp. Specifically, the count target area C is on the path P2 on the X axis + side of the path branch point Cp, the count target area D is on the path P3 on the Y axis + side of the path branch point Cp, and the count target area E is a path branch. They are set on the passage P4 on the Y axis minus side of the point Cp.
[0030]
In the area 101, five cameras 3 are arranged. Ranges 50a to 50e in the figure respectively indicate ranges to be imaged when these five cameras 3a to 3e are in the counting mode. That is, the camera 3a is responsible for photographing the counting target area A, the camera 3b is responsible for photographing the counting target area B, the camera 3c is responsible for photographing the counting target area C, and the camera 3d is photographing the counting target area D. The camera 3e is in charge of photographing the counting target area E. As described above, in the present embodiment, one camera 3 is in charge of photographing one counting target region 60.
[0031]
<1-2. Processing details>
Next, processing contents of the imaging system 10 will be described with reference to FIG.
In the imaging system 10, when the operation starts, the operation mode of all the cameras 3 is set to the count mode. Then, the counting target region 60 in charge of each camera 3 is photographed at a predetermined time period (for example, 1/30 second period), and an image acquired at the predetermined time period is transmitted to the server device 2. The
[0032]
Thereby, in the server apparatus 2, the some image which shows each state of the some count object area | region 60 in a shop is received by the communication part 27 by a predetermined | prescribed time period. The received image is stored in the RAM 22. The counting unit 42 obtains the number of passing persons in each of the plurality of counting target areas 60 based on the image stored in the RAM 22 in this way.
[0033]
FIG. 6 shows an example of an image 70 obtained by one camera 3. As shown in the figure, the image 70 includes an image 74 showing the product shelf Sh, an image 75 showing the passage P, an image showing a person (hereinafter referred to as “person image”) 79, and the like. An area (hereinafter referred to as “in-image target area”) 73 corresponding to the count target area 60 is also included in the image 70.
[0034]
The counting unit 42 extracts only a person image from such an image 70 based on the background difference, and counts the number of passing persons based on the extracted person image. That is, first, a difference between the image 70 and a background image 71 (see FIG. 7) showing only a background (product shelf image 75, passage image 75) other than a person is taken, and a difference image 72 (see FIG. 8) is taken. .) Is generated.
The background image 71 is stored in the hard disk 24 in advance. As shown in FIG. 8, only the person image 79 is extracted from the difference image 72.
[0035]
Subsequently, based on the positional relationship between the person image 79 and the in-image target area 73 in the difference image 72, it is determined whether or not a person exists in the counting target area 60. When a person is present in the counting target area 60, the number of passages related to the counting target area 60 is increased by one. Data indicating which area in the difference image 72 (image 70) is the in-image target area 73 is stored in the hard disk 24 in advance. In this way, the number of passing persons in the counting target area 60 is counted.
[0036]
Further, in the process of counting the persons, the traveling direction of the person is also determined. Specifically, the person image 79 in the difference image 72 obtained most recently is compared with the person image 79 in the difference image 72 obtained in the past, and the moving direction of the person image 79 in the image is determined. Then, based on the moving direction in the image of the person image 79, the traveling direction of the person on the actual passage P is determined. The correspondence between the orientation in the difference image 72 and the orientation on the actual passage P is stored in the hard disk 24 in advance. In this way, the counting unit 42 determines the traveling direction of the person and counts the number of passing persons for each traveling direction.
[0037]
Such a calculation is performed for all images obtained from the camera 3, whereby the number of passing persons in each counting target area 60 in the store is obtained for each traveling direction. Then, the number of passages of the person obtained for each traveling direction in this way is totaled every predetermined time interval (for example, 5 seconds), and is collected in a result table T having a table format as shown in FIG. Hereinafter, the total time is referred to as “total time”.
[0038]
As shown in FIG. 9, in the result table T, each field (column) F is one counting direction region 60 (A, B, C, D,...) In one traveling direction (X +, X−, Y +, Y-) respectively. Each record (row) corresponds to the total time (Te1, Te2,...). That is, one record is generated every time one total time is completed. In this way, the number of passing persons (Nap1,..., Nem7) is counted for each traveling direction of the counting target area 60 and for each counting time.
[0039]
The above is the processing contents at the normal time of the imaging system 10, but when shoplifting is detected by the sensor 5 when such processing is performed (when a tag attached to a product is detected), The operation mode of the camera 3 is shifted from the counting mode to the monitoring mode. That is, the operation mode of one camera 3 is monitored from the counting mode when an event that satisfies a predetermined reference condition for shifting the operation mode (in this embodiment, detection of a tag by the sensor 5) occurs. It will be transferred to the mode.
[0040]
More specifically, when a tag is detected by the sensor 5, a predetermined signal is input from the sensor 5 to the server device 2. In response to this, the sensor input unit 28 transmits the fact and the position of the sensor 5 to the camera control unit 41. Subsequently, the camera control unit 41 selects one camera 3 that is closest to the position of the sensor 5 and capable of photographing the position of the sensor 5 based on the position of the sensor 5. Next, for the selected camera 3, the camera control unit 41 causes the operation mode to shift from the counting mode to the monitoring mode, and a signal indicating the position to be photographed (the position of the sensor 5 where shoplifting has occurred). Is sent.
[0041]
The camera 3 to which these signals are transmitted shifts the operation mode from the count mode to the monitoring mode. Then, after changing the optical axis position and the photographing magnification of the photographing lens 34 so that the position to be photographed can be photographed appropriately, processing for photographing the position at a predetermined time period is started. In addition, when a person is present in the captured image, the camera 3 derives the position of the person by a known technique such as time difference or background difference, and moves the optical axis position so as to track the person. Let The image acquired in this way is transmitted to the server device 2 and displayed on the display 25 as an image for observation and recorded on the hard disk 24. As a result, an image showing the person who has shoplifted is acquired.
[0042]
When one camera 3 shifts to the monitoring mode in this way, the camera (hereinafter referred to as “transition camera”) is referred to as a count target area (hereinafter referred to as “first attention area”) for which the device itself is responsible for shooting. ) 60 cannot be captured, and as a result, the counting unit 42 cannot count the number of passing persons in the first region of interest.
[0043]
Therefore, in the present embodiment, when one camera 3 shifts to the monitoring mode, the camera control unit 41 selects one camera 3 different from the transition camera that can capture the first attention area. Which camera 3 can shoot each counting target area 60 is stored in advance in the hard disk 24 as data. One camera (hereinafter referred to as “support camera”) 3 capable of photographing the first region of interest is selected by referring to such data.
[0044]
That is, when the total number of cameras 3 is two, only one camera remains as a camera other than the transition camera that has entered the monitoring mode, so that the camera is used as a substitute for the counting function of the transition camera. However, if the total number of cameras 3 is three or more, there are two or more cameras other than the transition camera. is there. On the other hand, depending on which transition camera is used, which other camera is suitable as a support camera differs, so for each camera, which other camera is the support camera when that camera becomes the transition camera. It is specified in advance as to whether it is to be used as data (for example, data in a table format).
[0045]
When one camera 3 capable of photographing the first region of interest is selected, the camera control unit 41 transmits a signal instructing photographing of the first region of interest to the camera 3. Thereby, the first attention area is photographed by the support camera. The acquired image is transmitted to the server device 2. The counting unit 42 derives the number of passages of the person in the first region of interest based on the image thus captured by the support camera.
[0046]
Hereinafter, this process will be specifically described by taking the area 101 shown in FIG. 5 as an example. Here, it is assumed that the operation mode of the camera 3b in charge of photographing the counting target area B is shifted to the monitoring mode, and the camera 3b can no longer photograph the counting target area B. The counting area B can be taken by the camera 3a. Therefore, the camera control unit 41 selects the camera 3a as a support camera. Then, a signal for instructing photographing of the counting target region B is transmitted to the camera 3a, and the optical axis position and photographing magnification of the photographing lens 34 of the camera 3a are changed. As a result, as shown in FIG. 10, the counting target area A together with the counting target area A for which the camera 3a is in charge of shooting is included in the range 50a captured by the camera 3a.
[0047]
FIG. 11 is a diagram showing an example of an image acquired by the camera 3a in this way. As shown in the figure, the image 70 includes an image 74 indicating the product shelf Sh, an image 75 indicating the passage P, and a person image 79, and an in-image target area 73a corresponding to the counting target area A, In addition, an in-image target area 73b corresponding to the counting target area B is included. The counting unit 42 derives the number of passing persons in both the counting target area A and the counting target area B based on such an image. In this way, even when the camera 3b is unable to shoot the counting target area B, the number of persons passing through the counting target area B can be counted based on the image acquired by the camera 3a. It becomes.
[0048]
In general, other cameras that are installed so as to be able to image not only their own counting target area but also the counting target area of the transition camera are selected as support cameras, but when there are a plurality of such cameras, It is preferable in terms of imaging accuracy (and thus counting accuracy) that the camera closest to the counting target area of the transfer camera is designated as the support camera. In addition, when the counting target area of the transfer camera cannot be covered by the angle of view of one support camera, a plurality of support cameras can be cooperated as an alternative to the transfer camera.
[0049]
As described above, in the imaging system 10 of the present embodiment, even when one camera 3 shifts to the monitoring mode and the count target area in charge of shooting cannot be shot, the count target area Another camera 3 capable of capturing the image is selected as a support camera, and the count target area is captured by the support camera. In other words, it is possible to back up the surveillance mode when switching to multiple cameras by providing a possibility of replacement (redundancy) in at least a part of the imageable range without completely isolating the imageable range. Will be. Thereby, it is possible to derive the number of passing persons in the counting target area handled by the camera 3 that has shifted to the monitoring mode. Therefore, the imaging system 10 of the present embodiment can be appropriately used for both counting and observation applications.
[0050]
<2. Second Embodiment>
Next, a second embodiment of the present invention will be described. The configuration of the imaging system 10 of the present embodiment is the same as that of the first embodiment. In the first embodiment, when one camera 3 cannot photograph the first region of interest, the first attention is based on an image obtained by photographing the first region of interest with the other camera 3. In the present embodiment, the number of passages in the first region of interest is derived from the number of passages of persons in the counting target region 60 different from the first region of interest. Yes.
[0051]
Here, as in the first embodiment, it is assumed that the camera 3b shifts to the monitoring mode in the area 101 shown in FIG. FIG. 12 is a diagram showing a state of the area 101 in this case. As shown in FIG. 12, the number of passages in the X axis + direction of the counting target region B in a certain counting time is Nbp, and the number of passages in the X axis-direction is Nbm. Further, the number of passages in the X axis + direction of the counting target region B in a certain counting time is Nap, and the number of passages in the X axis-direction is Nam.
[0052]
As shown in the figure, the count target area A and the count target area B are areas on the same path P1, and there is no path branch point between these areas. In general, it can be considered that the time during which a person moves between the counting target area A and the counting target area B (hereinafter, the symbol Δt is used) is substantially constant. Therefore, a person who has passed through the counting target area A in the X axis + direction must pass through the counting target area B after time Δt, and conversely, a person who has passed through the counting target area B in the X axis−direction It is considered that it always passes through the counting target area A after Δt.
[0053]
Therefore, the passage number Nbp in the X axis + direction of the counting target region B at a certain counting time Tex matches the passing number Nap in the X axis + direction of the counting target region A in the counting time that is Δt before the counting time Tex. Then it can be considered. On the other hand, when the counting target area B at a certain counting time Tex is in the X-axis-direction passing number Nbm coincides with the counting number area Am of the counting target area A at the counting time At ahead of the counting time Tex. Can be considered. That is, the number of passages in the count target region B can be derived based on the number of passes of the count target region A in which no passage branch point exists between the count target region B.
[0054]
The counting unit 42 of the present embodiment uses such a principle, and when one camera 3 shifts to the monitoring mode and imaging of the first attention area becomes impossible, the counting section 42 is between the first attention area. The number of passages in the first region of interest is derived from the number of passages of persons in the counting target region 60 on the same passage where there is no passage branch point.
[0055]
Specifically, when the operation mode of one camera 3 shifts to the monitoring mode, first, an image for counting is acquired from a camera 3 other than the camera 3, and the first region of interest is based on the counting image. The number of passing persons in each counting target region 60 other than is derived.
[0056]
Then, one counting target region on the same passage where no passage branch point exists between the first attention region and the first attention region is selected as the “second attention region”. The path P on which each count target area 60 exists is stored in advance in the hard disk 24 as data. The second region of interest is selected with reference to such data. The number of passing persons in the second region of interest has been derived in the above calculation.
[0057]
Subsequently, the movement time Δt of the person between the first attention area and the second attention area is acquired.
This movement time Δt is also stored in the hard disk in advance. The number of passages of the first attention area in the direction from the second attention area toward the first attention area at a certain aggregation time Tes is the second attention area at the aggregation time corresponding to the movement time Δt before the aggregation time Tes. The same number of passes in the same direction is used. On the other hand, the number of passages of the first attention area in the direction from the first attention area to the second attention area at a certain aggregation time Tes is the second attention area at the aggregation time corresponding to the movement time Δt after the aggregation time Tes. The number of passages in the same direction will be used.
[0058]
As described above, in the present embodiment, the number of passages of the second region of interest in which there is no passage branch point between the first region of interest and the first region of interest is derived based on the number of passages of the second region of interest. The number of passes in the region is derived. Therefore, even in the present embodiment, even when one camera 3 shifts to the monitoring mode and the camera 3 cannot capture the counting target area (first attention area) for which imaging is performed, The number of passages of a person in one attention area can be derived.
[0059]
Further, in the present embodiment, it is not necessary for the camera 3 different from the camera 3 that has shifted to the monitoring mode to change the optical axis direction or the imaging magnification (imaging position). Therefore, the technique of the present embodiment can be applied to an imaging system including a camera that does not have a function of changing the optical axis direction or the imaging magnification.
[0060]
If there is no counting target area where there is no passage branch point between the first attention area, an area where no passage branch point exists between the first attention area is set as the calculation area, The area is photographed by another camera 3, the number of passes in the calculation area is derived from the image obtained by the camera 3, and the number of passes of the first attention area is derived based on the number of passes in the calculation area. You may do it.
[0061]
For example, as shown in FIG. 13, it is assumed that the count target area A does not exist in the passage P1 of the area 101 that is substantially the same as that in FIG. In this area 101, it is assumed that the counting target area F exists on the X-axis-side of the passage branch point Cpp, and the camera 3f that captures the range 50f including the counting target area F in the normal state.
[0062]
In such an area 101, it is assumed that the camera 3b shifts to the monitoring mode and the camera 3b can no longer capture the count target area B. In this case, there is no counting target area where there is no passage branch point with the counting target area B. For this reason, as shown in FIG. 14, a calculation area G that is an area where no passage branch point exists with respect to the count target area B is set. Then, the direction of the optical axis and the shooting magnification of the camera 3f are changed, and the calculation area G is shot by the camera 3f, and the number of passes in the calculation area G is derived based on the image acquired by the camera 3f. Thereby, the number of passages in the counting target region B can be derived by the same method as described above based on the number of passages in the calculation region G.
[0063]
<3. Third Embodiment>
Next, a third embodiment of the present invention will be described. The configuration of the imaging system 10 of the present embodiment is the same as that of the first embodiment. Also in the present embodiment, as in the second embodiment, the number of passages in the first region of interest is derived from the number of passages of people in the counting target region 60 different from the first region of interest.
[0064]
Here, as in the above embodiment, in the area 101, as shown in FIG. 12, it is assumed that the camera 3b shifts to the monitoring mode and the camera 3b can no longer capture the count target area B. As shown in FIG. 12, the number of passages in the X axis + direction of the counting target region B in a certain counting time is Nbp, and the number of passages in the X axis-direction is Nbm. In addition, the number of passages in the X axis + direction of the counting target region C at a certain counting time is Ncp, the number of passages in the X axis − direction is Ncm, and the number of passages in the Y axis + direction of the counting target region D is Ndp, Y axis. The number of passages in the − direction is Ndm, the number of passages in the Y axis + direction of the count target region E is Nep, and the number of passages in the Y axis − direction is Nem.
[0065]
A person who passes through the counting target region B in the X axis + direction and enters the passage branch point Cp is considered to normally pass through any of the counting target regions C, D, E and exit from the passage branch point Cp. In general, it can be considered that the time from when the person enters the passage branch point Cp until he leaves (hereinafter, the symbol ΔT is used) is substantially constant. Accordingly, the number Nbp of people passing through the counting target area B and entering the passage branch point at a certain counting time Tex passes through each of the counting target areas C, D, E at the counting time after ΔT from the counting time Tex. It will be included in the added value of the numbers Ncp, Ndp, and Nem from the passage branch point Cp. Further, the added value of Ncp, Ndp, and Nem includes the numbers Ncm, Ndm, and Nep that pass through each of the count target areas C, D, and E and enter from the passage branch point Cp at the total time Tex. For this reason, a value obtained by subtracting Ncm, Ndm, and Nep at the total time Tex from the addition value of Ncp, Ndp, and Nem at the total time after ΔT from the total time Tex passes through the count target region B and branches off the passage. It can be considered that the number of people entering the point is Nbp. On the contrary, a value obtained by subtracting Ncp, Ndp, and Nem at the total time Tex from the addition value of Ncm, Ndm, and Nep at the total time ΔT before the total time Tex is counted at a certain total time Tex. It can be considered that the number of people Nbm passes through the target area B and exits from the passage branch point.
[0066]
The counting unit 42 of the present embodiment uses such a principle, and when one camera 3 shifts to the monitoring mode and imaging of the first attention area becomes impossible, the path branch except for the first attention area Based on the number of passes in the entry / exit area related to the point, the number of passes of the first region of interest is derived.
[0067]
Specifically, when the operation mode of one camera 3 shifts to the monitoring mode, first, an image for counting is acquired from a camera 3 other than the camera 3, and the first region of interest is based on the counting image. The number of passing persons in each counting target region 60 other than is derived.
[0068]
Then, a path branch point close to the first attention area is noticed, and a plurality of entry / exit areas related to the path branch point excluding the first attention area are selected as “second attention areas”. Which path branching point each counting target area 60 is close to is stored in advance in the hard disk 24 as data. The second region of interest is selected with reference to such data. The number of passing persons in the plurality of second attention areas has been derived in the above calculation.
[0069]
Subsequently, the movement time ΔT of the person passing through the path branch point where the first region of interest is close is acquired. This movement time ΔT is also stored in the hard disk in advance. Then, the number of passages of the first region of interest in the direction of entering the passage branch point at a certain total time Tes comes out from the passage branch points of the plurality of second target regions at the total time corresponding to the movement time ΔT after the total time Tes. A value obtained by subtracting the addition value of the number of passages in the direction entering the passage branch point of the plurality of second attention areas at the total time Tes from the addition value of the number of passages in the direction is used. On the other hand, the number of passages of the first region of interest in the direction exiting from the passage branch point at a certain aggregation time Tes is to the passage branch points of a plurality of second attention regions at the aggregation time corresponding to the movement time ΔT before the aggregation time Tes. A value obtained by subtracting the addition value of the number of passages in the direction exiting from the passage branch point of the plurality of second attention areas at the total time Tes from the addition value of the number of passages in the entering direction is used.
[0070]
As described above, in the present embodiment, the number of passages of a plurality of second attention areas which are entry / exit areas related to a passage branch point where the first attention area is close is derived. Then, the number of passes in the first region of interest is derived based on the number of passes of the second region of interest. Therefore, even in the present embodiment, even when one camera 3 shifts to the monitoring mode and the camera 3 cannot capture the counting target area (first attention area) for which imaging is performed, The number of passages of a person in one attention area can be derived.
[0071]
Also in the present embodiment, it is not necessary for the camera 3 different from the camera 3 that has shifted to the monitoring mode to change the optical axis direction or imaging magnification (imaging position). Therefore, the technique of the present embodiment can be applied to an imaging system including a camera that does not have a function of changing the optical axis direction or the imaging magnification.
[0072]
In the present embodiment, additional information such as the color, size, speed, etc. of the person's clothes may be obtained in the calculation, and these information may be referred to when the number of passages is derived.
[0073]
As described above, in the second and third embodiments, generally, there are a plurality of entrances / exits in a specific space range (passage space in the second embodiment, passage branch point in the third embodiment), In the case where all of these multiple entrances can be imaged by any camera, when one camera provided corresponding to one entrance becomes a transition camera, the other cameras By using this function, it is possible to estimate the number of passages that the transition camera would have counted. This is generally the case where the number of counted objects is preserved (that is, when the counted objects are neither generated nor disappeared in the middle) and the time required for the counted objects to pass through the spatial range. The system configuration is particularly suitable for cases where an upper limit can be assumed.
[0074]
<4. Fourth Embodiment>
In the above-described embodiment, one camera 3 is in charge of photographing one counting target region 60 in normal times. Of course, one camera 3 is responsible for photographing a plurality of counting target regions 60. It may be like this.
[0075]
However, in this case, when the operation mode of one camera 3 shifts to the monitoring mode, it is necessary to derive the number of passages in each of the plurality of count target areas 60 that the camera 3 is responsible for shooting. At this time, the number of passages of each of the plurality of count target regions 60 may be derived by combining the methods of the first to third embodiments. Specific examples will be described below.
[0076]
FIG. 15 is a diagram illustrating an example of a plurality of count target areas set in the sales area 100 of a certain store. As shown in the figure, in the sales area 100, a plurality of product shelves Sh are placed, and 13 count target areas (H to T) are set.
[0077]
In the sales area 100, four cameras 3h, 3j, 3n, 3r are arranged. Ranges 50h, 50j, 50n, and 50r in the figure indicate ranges that are imaged when the four cameras 3h, 3j, 3n, and 3r are in the counting mode, respectively. That is, the camera 3h is in charge of shooting the counting target area H near the store entrance / exit En, the camera 3j is in charge of shooting the four counting target areas IL, and the camera 3n is in the four counting target areas MP. The camera 3r is in charge of shooting, and the camera 3r is in charge of shooting of the four counting target areas Q to T.
[0078]
FIG. 16 shows another camera 3h, 3n, 3r when the camera 3j shifts to the monitoring mode in the sales area 100 and the camera 3j cannot photograph the count target areas I, J, K, L. The example of each imaging | photography range 50h, 50n, 50r is shown.
[0079]
As shown in the figure, the count target areas I and J are directly photographed by the camera 3h. Therefore, the number of passages in the count target areas I and J can be derived based on the image acquired by the camera 3h by the same method as in the first embodiment.
[0080]
In addition, a calculation area U that is an area where no passage branch point exists between the calculation target area L and the calculation area U is photographed by the camera 3n. Therefore, the number of passages of the count target region L can be derived based on the number of passages of the calculation region U by a method similar to that of the second embodiment.
[0081]
The count target area K is one entry / exit area of the passage branch point Cpx. Then, the number of passages of the plurality of count target areas J, N, O, R, and S that are entrance / exit areas other than the count target area K of the passage branch point Cpx is acquired by any of the cameras 3h, 3n, and 3r, respectively. It can be obtained directly based on the obtained image. Therefore, the number of passages of the count target region K can be derived based on the number of passes of the count target regions J, N, O, R, and S by the same method as in the third embodiment.
[0082]
As described above, the counting target areas I, J, K, and L that the camera 3j takes charge of can be derived by combining the techniques of the first to third embodiments. It becomes.
[0083]
<5. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible.
[0084]
For example, in the above-described embodiment, the sensor 5 that generates a signal that responds when the operation mode of the camera 3 shifts from the counting mode to the monitoring mode detects shoplifting, but a disaster such as a fire or an earthquake. Or a device that detects an air condition (more generally, a room condition) such as temperature or humidity.
[0085]
In addition, the reference condition for shifting the operation mode of the camera 3 is not limited to the generation of the signal of the sensor 5, and may be made when other conditions are satisfied. For example, when an abnormal object or person is found in the image acquired by the camera 3, the operation mode of the camera 3 may be shifted.
[0086]
In the above embodiment, the object to be counted is a person. However, any object that moves in a predetermined area to be counted, such as an object such as luggage, a vehicle such as an automobile, or an animal, may be used. May be.
[0087]
【The invention's effect】
As described above, according to the first to fourth aspects of the present invention, even when one imaging apparatus is unable to capture the counting target area for which the apparatus is in charge of imaging, Based on the acquired image, it is possible to derive the number of passing objects to be counted in the counting target area in charge of one imaging apparatus.
[0088]
In particular, according to the invention of claim 2, since the imaging device capable of photographing the first area directly photographs the first area, the number of passing objects to be counted in the first area can be accurately derived. it can.
[0089]
In particular, according to the third and fourth aspects of the present invention, it is possible to derive the number of passing objects to be counted in the first region without changing the imaging position of the imaging device.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a schematic configuration of an imaging system.
FIG. 2 is a diagram illustrating a schematic configuration of a camera.
FIG. 3 is a diagram illustrating a basic configuration of a server device.
FIG. 4 is a diagram illustrating a functional configuration of the imaging system.
FIG. 5 is a diagram illustrating a state of a partial area of a sales area.
FIG. 6 is a diagram illustrating an example of an image obtained by a camera.
FIG. 7 is a diagram illustrating an example of a background image.
FIG. 8 is a diagram illustrating an example of a difference image.
FIG. 9 shows a result table.
FIG. 10 is a diagram illustrating a state of a partial area of a sales area.
FIG. 11 is a diagram illustrating an example of an image obtained by a camera.
FIG. 12 is a diagram illustrating a state of a partial area of a sales area.
FIG. 13 is a diagram illustrating a state of a partial area of a sales area.
FIG. 14 is a diagram showing a state of a partial area of a sales area.
FIG. 15 is a diagram showing a state of a sales area.
FIG. 16 is a diagram showing a state of a sales area.
[Explanation of symbols]
2 Server device
3 Camera
5 Sensor
10 Imaging system
41 Camera control unit
42 counter
60 Target area

Claims (4)

撮像システムであって、
複数の計数対象領域を分担して撮影する複数の撮像装置と、
前記複数の撮像装置によって得られた画像に基づいて、前記複数の計数対象領域それぞれにおける被計数体の通過数を導出する導出手段と、を備え、
前記複数の撮像装置のうちの一の撮像装置が、該一の撮像装置が撮影を担当する前記計数対象領域である第1領域を撮影できなくなったとき、
前記導出手段は、前記一の撮像装置とは別の撮像装置により取得された画像に基づいて、前記第1領域における前記被計数体の通過数を導出することを特徴とする撮像システム。
An imaging system,
A plurality of imaging devices that divide and shoot a plurality of counting target areas;
Derivation means for deriving the number of passing objects to be counted in each of the plurality of counting target regions based on images obtained by the plurality of imaging devices,
When one imaging device out of the plurality of imaging devices cannot photograph the first area that is the counting target area for which the one imaging apparatus is in charge of photographing,
The derivation means derives the number of passages of the counted object in the first region based on an image acquired by an imaging device different from the one imaging device.
請求項1に記載の撮像システムにおいて、
前記複数の撮像装置として3以上の撮像装置を備えるとともに、
前記複数の撮像装置の動作を制御する制御手段、をさらに備え、
前記一の撮像装置が前記第1領域を撮影できなくなったとき、
前記制御手段は、前記複数の撮像装置のうち前記一の撮像装置以外の撮像装置から前記第1領域を撮影可能な撮像装置を選択し、選択した撮像装置に前記第1領域を撮影させることを特徴とする撮像システム。
The imaging system according to claim 1,
While comprising three or more imaging devices as the plurality of imaging devices,
Control means for controlling operations of the plurality of imaging devices,
When the one imaging device cannot capture the first area,
The control means selects an imaging device capable of photographing the first region from imaging devices other than the one imaging device among the plurality of imaging devices, and causes the selected imaging device to photograph the first region. A characteristic imaging system.
請求項1に記載の撮像システムにおいて、
前記一の撮像装置が前記第1領域を撮影できなくなったとき、前記導出手段は、
前記第1領域との間に通路分岐点が存在しない第2領域を撮影して得られた画像に基づいて、該第2領域における前記被計数体の通過数を導出し、
前記第2領域における前記被計数体の通過数に基づいて、前記第1領域における前記被計数体の通過数を導出することを特徴とする撮像システム。
The imaging system according to claim 1,
When the one imaging device cannot photograph the first region, the derivation means includes:
Based on the image obtained by photographing the second area where there is no passage branch point between the first area and the first area, the number of passages of the counted object in the second area is derived,
An imaging system, wherein the number of passing objects to be counted in the first area is derived based on the number of passing objects to be counted in the second area.
請求項1に記載の撮像システムにおいて、
前記第1領域は、一の通路分岐点に係る一の入退路領域であり、
前記一の撮像装置が前記第1領域を撮影できなくなったとき、前記導出手段は、
前記一の通路分岐点に係る前記第1領域を除く入退路領域としての複数の第2領域をそれぞれ撮影して得られた画像に基づいて、前記複数の第2領域それぞれにおける前記被計数体の通過数を導出し、
前記複数の第2領域それぞれにおける前記被計数体の通過数に基づいて、前記第1領域における前記被計数体の通過数を導出することを特徴とする撮像システム。
The imaging system according to claim 1,
The first region is one entrance / exit region related to one passage branch point,
When the one imaging device cannot photograph the first region, the derivation means includes:
Based on images obtained by photographing a plurality of second areas as entrance / exit areas excluding the first area related to the one passage branch point, the counting object in each of the plurality of second areas Deriving the number of passes,
An imaging system, wherein the number of passages of the counting object in the first region is derived based on the number of passages of the counting object in each of the plurality of second regions.
JP2003191076A 2003-07-03 2003-07-03 Image pick-up system Pending JP2005027085A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003191076A JP2005027085A (en) 2003-07-03 2003-07-03 Image pick-up system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003191076A JP2005027085A (en) 2003-07-03 2003-07-03 Image pick-up system

Publications (1)

Publication Number Publication Date
JP2005027085A true JP2005027085A (en) 2005-01-27

Family

ID=34188792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003191076A Pending JP2005027085A (en) 2003-07-03 2003-07-03 Image pick-up system

Country Status (1)

Country Link
JP (1) JP2005027085A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117853A (en) * 2008-11-12 2010-05-27 Sankyo Co Ltd System for store
JP2012226583A (en) * 2011-04-20 2012-11-15 Canon Inc Image processor, image processing system and image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117853A (en) * 2008-11-12 2010-05-27 Sankyo Co Ltd System for store
JP2012226583A (en) * 2011-04-20 2012-11-15 Canon Inc Image processor, image processing system and image processing method

Similar Documents

Publication Publication Date Title
EP2058777A1 (en) Suspicious behavior detection system and method
EP1872345B1 (en) Intelligent camera selection and object tracking
JP4673849B2 (en) Computerized method and apparatus for determining a visual field relationship between a plurality of image sensors
EP3016382A1 (en) Monitoring methods and devices
CN103688292B (en) Image display device and method for displaying image
US20060077262A1 (en) Imaging system and imaging method
EP0878965A3 (en) Method for tracking entering object and apparatus for tracking and monitoring entering object
US20040061781A1 (en) Method of digital video surveillance utilizing threshold detection and coordinate tracking
JP2009124618A (en) Camera apparatus, and image processing device
KR101187908B1 (en) Integrated surveillance system diplaying a plural of event images and method using the same
JP2008112401A (en) Advertisement effect measurement apparatus
JP5909147B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
KR20010043423A (en) Camera signal processing device and camera signal processing method
JPH05334572A (en) Room monitoring device
JP5712401B2 (en) Behavior monitoring system, behavior monitoring program, and behavior monitoring method
JP2005027085A (en) Image pick-up system
JP2005143016A (en) Monitoring system and monitoring method
JP2005277726A (en) Image monitoring device
JP2005167604A (en) Image monitoring system
JP4706573B2 (en) Motion detection device and motion detection method
JP7176429B2 (en) Gas leak localization system and gas leak localization program
JP7329967B2 (en) IMAGE PROCESSING APPARATUS, SYSTEM, IMAGE PROCESSING APPARATUS CONTROL METHOD, AND PROGRAM
JP2006230024A (en) Image monitoring system
JP2006165729A (en) Photographing program, photographing method and photographing system
WO2023162016A1 (en) Monitoring system, monitoring device, monitoring method, and recording medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613