JP2015019248A - 追跡支援装置、追跡支援システムおよび追跡支援方法 - Google Patents

追跡支援装置、追跡支援システムおよび追跡支援方法 Download PDF

Info

Publication number
JP2015019248A
JP2015019248A JP2013145286A JP2013145286A JP2015019248A JP 2015019248 A JP2015019248 A JP 2015019248A JP 2013145286 A JP2013145286 A JP 2013145286A JP 2013145286 A JP2013145286 A JP 2013145286A JP 2015019248 A JP2015019248 A JP 2015019248A
Authority
JP
Japan
Prior art keywords
tracking
display
person
tracked
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013145286A
Other languages
English (en)
Other versions
JP5506989B1 (ja
Inventor
藤松 健
Takeshi Fujimatsu
健 藤松
園子 平澤
Sonoko Hirasawa
園子 平澤
山本 裕之
Hiroyuki Yamamoto
裕之 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2013145286A priority Critical patent/JP5506989B1/ja
Application granted granted Critical
Publication of JP5506989B1 publication Critical patent/JP5506989B1/ja
Priority to RU2014127468/07A priority patent/RU2551128C1/ru
Priority to US14/326,510 priority patent/US9191633B2/en
Priority to GB1412255.0A priority patent/GB2516173B/en
Priority to CN201410332105.7A priority patent/CN104284146B/zh
Priority to DE102014213553.2A priority patent/DE102014213553B4/de
Publication of JP2015019248A publication Critical patent/JP2015019248A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over

Abstract

【課題】監視者の負担を軽減する支援処理を適切に行って、監視中の人物を見失うことなく追跡を継続することができるようにする。
【解決手段】監視エリアを示す地図画像上に、複数のカメラ1a〜1dごとの撮影画像をリアルタイムに表示する複数の表示ビューが、カメラの実際の配置状況に対応して配置された監視画面をモニタ7に表示させて、監視者の追跡作業を支援する追跡支援装置において、監視画面内の表示ビューにおいて追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定する追跡対象設定部23と、カメラ内追尾処理装置4およびカメラ間追尾処理部5から取得した追尾情報に基づいて、追跡対象に設定された移動体が次に写る表示ビューを予測する予測部24と、この予測部で予測された次の表示ビューを監視画面上に提示する表示ビュー提示部32と、を備えたものとする。
【選択図】図3

Description

本発明は、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示部が配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置、追跡支援システムおよび追跡支援方法に関するものである。
監視エリア内に複数のカメラを設置し、この複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示部が配置された監視画面をモニタに表示して、監視者に監視させる監視システムが広く普及している。このような監視システムで、監視者が監視画面で不審者を発見すると、その人物が今後どのような行動を行うかを監視するため、監視画面内の複数の表示部を見ながら人物を追跡することになる。
このように、監視者が監視画面内の複数の表示部を見ながら人物を追跡する場合、監視中の人物の進行方向から、その人物が次に写る表示部を探し出せばよいが、この次の表示部を探し出す作業に手間取ると、監視中の人物を見失うことになるため、監視者の負担を軽減して、人物の追跡を円滑に行うことができる構成が望まれる。
このような要望に関して、従来、監視中の人物の移動方向などに基づいて、監視中の人物を次に写すカメラを予測して、そのカメラの撮影画像を表示する表示部を、監視中の人物が現在写っている表示部の隣に表示する技術が知られている(特許文献1参照)。また、監視エリアを示す地図画像上に、カメラを示す画像(カメラマーク)と、そのカメラによる撮影画像を表示する表示部とを配置した監視画面を表示させる技術が知られている(特許文献2参照)。
また、特許文献1に開示された技術のように、監視中の人物を次に写すカメラを予測する場合、監視中の人物の移動方向の検出などに不具合が発生すると、間違ったカメラを予測するため、監視中の人物を見失うことになる。このため、移動方向の検出などに不具合が発生すると、監視者の補正指示で適宜に修正する構成が望まれる。
このような要望に関して、追尾装置において、移動体上に注目点を設定して追尾処理を行い、その注目点による追尾処理が困難になると、監視者からの補正指示に応じて、注目点を変更して追尾処理を継続する技術が知られている(特許文献3参照)。
特開2005−012415号公報 特開2010−268186号公報 特開2007−272732号公報
しかしながら、特許文献1に開示された技術では、監視中の人物を次に写すカメラを予測してそのカメラの撮影画像を表示するため、監視者の負担を軽減することができるが、監視中の人物を現在写しているカメラの撮影画像内に、監視中の人物とは別の人物が存在する場合、その別の人物の移動方向に基づいてカメラの予測が行われる場合があり、この場合、カメラの予測が正しく行われないため、監視中の人物を見失うことになる。
一方、特許文献2に開示された技術では、地図画像上のカメラ同士の位置関係により、監視中の人物が次に写る表示部を監視者がある程度予測することができるため、監視者の負担を多少は軽減することができるが、カメラの設置台数に応じて表示部が多数配置されている場合に、その多数の表示部の中から次の表示部を即座にかつ正確に判断することは難しく、依然として監視者の負担が大きく、監視中の人物を見失う可能性が高い。
また、特許文献3に開示された技術では、追尾装置での追尾処理が難しい状況でも、監視者の手を借ることで、追尾処理を中断させることなく追尾処理を継続することができるが、この従来技術は、1つのカメラの撮影画像を対象にしたカメラ内追尾処理に関するものである。一方、カメラ内追尾処理により取得した追尾情報を対応付けるカメラ間追尾処理でも誤りが発生し、このカメラ間追尾処理で誤りが発生すると、人物の入れ替わりが生じ、このようなカメラ間追尾処理で発生する誤りについては、この従来技術ではなんら有効な対応ができない。
本発明は、このような従来技術の問題点を解消するべく案出されたものであり、その主な目的は、監視画面に表示された複数のカメラごとの撮影画像を見ながら監視中の人物を追跡する際に、監視者の負担を軽減する支援処理を適切に行って、監視中の人物を見失うことなく追跡を継続することができるように構成された追跡支援装置、追跡支援システムおよび追跡支援方法を提供することにある。さらに、本発明は、追尾装置の追尾処理に中断や誤りが発生した場合でも、監視中の人物を見失うことなく追跡を継続することができることを目的とする。
本発明の追跡支援装置は、監視エリアを示す地図画像上に、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示部が、前記カメラの実際の配置状況に対応して配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置であって、前記監視画面内の前記表示部において追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定する追跡対象設定手段と、撮影画像を処理して取得した追尾情報に基づいて、前記追跡対象に設定された移動体が次に写る前記表示部を予測する予測手段と、この予測手段で予測された次の前記表示部を前記監視画面上に提示する表示部提示手段と、を備えた構成とする。
また、本発明の追跡支援システムは、監視エリアを示す地図画像上に、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示部が、前記カメラの実際の配置状況に対応して配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援システムであって、前記監視エリアを撮像する前記カメラと、前記監視画面を表示する前記表示装置と、複数の情報処理装置と、を有し、前記複数の情報処理装置のいずれかが、前記撮影画像から検出された移動体を追尾して、移動体ごとの追尾情報を生成する追尾処理手段と、前記監視画面内の前記表示部において追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定する追跡対象設定手段と、前記追尾処理手段から取得した追尾情報に基づいて、前記追跡対象に設定された移動体が次に写る前記表示部を予測する予測手段と、この予測手段で予測された次の前記表示部を前記監視画面上に提示する表示部提示手段と、を備えた構成とする。
また、本発明の追跡支援方法は、監視エリアを示す地図画像上に、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示部が、前記カメラの実際の配置状況に対応して配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業の支援を情報処理装置により行う追跡支援方法であって、前記監視画面内の前記表示部において追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定するステップと、撮影画像を処理して取得した追尾情報に基づいて、前記追跡対象に設定された移動体が次に写る前記表示部を予測するステップと、ここで予測された次の前記表示部を前記監視画面上に提示するステップと、を有する構成とする。
本発明によれば、監視画面に表示された複数のカメラごとの撮影画像を見ながら監視中の移動体を追跡する際に、複数の表示部の中から次の表示部を探し出す手間を省くことができるため、追跡作業を行う監視者の負担を大幅に軽減し、追跡対象とした移動体を見失うことなく追跡を継続することができる。そして、表示部に複数の移動体が写っている場合に、追跡対象となる移動体が1つに特定されるため、次の表示部が誤って提示されることを避けることができる。
本実施形態に係る追跡支援システムの全体構成図 店舗におけるカメラ1a〜1dの設置状況を示す斜視図 PC3の概略構成を示す機能ブロック図 追跡対象となる人物が未設定の状態での監視画面を示す説明図 追跡対象となる人物が設定済みの状態での監視画面を示す説明図 追跡対象とした人物が移動して次の表示ビューに写ったときの監視画面を示す説明図 追跡対象となる人物を修正する際の監視画面を示す説明図 追跡対象とした人物が移動して次の表示ビューに写ったときの監視画面を示す説明図 PC3の各部で行われる処理および監視画面で行われる監視者の操作の手順を示すフロー図 監視画面の表示ビュー43a〜43dに表示される枠画像45,46の時間的な推移状況を説明する説明図 監視画面の表示ビュー43a〜43dの推移状況を説明する説明図 監視画面の表示ビュー43a〜43dの推移状況を説明する説明図
前記課題を解決するためになされた第1の発明は、監視エリアを示す地図画像上に、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示部が、前記カメラの実際の配置状況に対応して配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置であって、前記監視画面内の前記表示部において追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定する追跡対象設定手段と、撮影画像を処理して取得した追尾情報に基づいて、前記追跡対象に設定された移動体が次に写る前記表示部を予測する予測手段と、この予測手段で予測された次の前記表示部を前記監視画面上に提示する表示部提示手段と、を備えた構成とする。
これによると、監視画面に表示された複数のカメラごとの撮影画像を見ながら監視中の移動体を追跡する際に、複数の表示部の中から次の表示部を探し出す手間を省くことができるため、追跡作業を行う監視者の負担を大幅に軽減し、追跡対象とした移動体を見失うことなく追跡を継続することができる。そして、表示部に複数の移動体が写っている場合に、追跡対象となる移動体が1つに特定されるため、次の表示部が誤って提示されることを避けることができる。
この場合、移動体の移動方向、および移動体とカメラの撮影領域との位置関係から、追跡対象とした移動体を次に写すカメラ、すなわち追跡対象とした移動体が次に写る表示部を予測すればよい。
また、第2の発明は、前記追尾情報に基づいて、前記追跡対象に設定された移動体が写る前記表示部の各々において、前記追跡対象に設定された移動体を提示する追跡対象提示手段と、前記追跡対象となる移動体が未設定の状態で行われる監視者の入力操作に応じて、追跡対象となる移動体を新規に設定する処理を前記追跡対象設定手段に実行させるとともに、追跡対象となる移動体が設定済みの状態で、前記追跡対象提示手段で提示された追跡対象に誤りがあることを確認した監視者の入力操作に応じて、追跡対象となる移動体を変更する処理を前記追跡対象設定手段に実行させる制御手段と、をさらに備えた構成とする。
これによると、追跡対象に設定された移動体が監視画面上に提示されるため、追跡対象となる移動体の誤りを発見することができ、ここで、追跡対象として正しい移動体を指定する操作を監視者に行わせて、追跡対象となる移動体を変更することで、以後の監視画面では、予測された次の表示部に追跡対象とした移動体が確実に写り、追跡対象とした移動体を見失うことなく、追跡を継続することができる。また、予測された次の表示部に追跡対象となる移動体が写ったところで素早くその移動体を確認することができるため、追跡対象の誤りに早期に気付くことができ、追跡対象を確実に修正することができる。
この場合、追跡対象設定手段において追跡対象となる移動体を変更する処理が行われると、追跡対象の変更を追尾情報に反映させる、すなわち追尾情報を修正する処理が行われる。
また、第3の発明は、前記表示部提示手段は、前記予測手段で予測された次の前記表示部に、他の前記表示部と識別する強調表示を施す構成とする。
これによると、次の表示部を監視者が簡単に識別することができるため、追跡作業を行う監視者の負担を軽減することができる。
また、第4の発明は、前記表示部提示手段は、前記追跡対象設定手段により追跡対象となる移動体が新規に設定されると、その追跡対象となる移動体が現在写っている前記表示部に、他の前記表示部と識別する強調表示を施す構成とする。
これによると、追跡対象とした移動体が現在写っている表示部を監視者が簡単に識別することができるため、追跡作業を行う監視者の負担を軽減することができる。
また、第5の発明は、監視エリアを示す地図画像上に、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示部が、前記カメラの実際の配置状況に対応して配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援システムであって、前記監視エリアを撮像する前記カメラと、前記監視画面を表示する前記表示装置と、複数の情報処理装置と、を有し、前記複数の情報処理装置のいずれかが、前記撮影画像から検出された移動体を追尾して、移動体ごとの追尾情報を生成する追尾処理手段と、前記監視画面内の前記表示部において追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定する追跡対象設定手段と、前記追尾処理手段から取得した追尾情報に基づいて、前記追跡対象に設定された移動体が次に写る前記表示部を予測する予測手段と、この予測手段で予測された次の前記表示部を前記監視画面上に提示する表示部提示手段と、を備えた構成とする。
これによると、前記の第1の発明と同様に、監視画面に表示された複数のカメラごとの撮影画像を見ながら監視中の移動体を追跡する際に、監視者の負担を軽減する支援処理を適切に行って、監視中の移動体を見失うことなく追跡を継続することができる。
また、第6の発明は、監視エリアを示す地図画像上に、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示部が、前記カメラの実際の配置状況に対応して配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業の支援を情報処理装置により行う追跡支援方法であって、前記監視画面内の前記表示部において追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定するステップと、撮影画像を処理して取得した追尾情報に基づいて、前記追跡対象に設定された移動体が次に写る前記表示部を予測するステップと、ここで予測された次の前記表示部を前記監視画面上に提示するステップと、を有する構成とする。
これによると、前記の第1の発明と同様に、監視画面に表示された複数のカメラごとの撮影画像を見ながら監視中の移動体を追跡する際に、監視者の負担を軽減する支援処理を適切に行って、監視中の移動体を見失うことなく追跡を継続することができる。
以下、本発明の実施の形態を、図面を参照しながら説明する。なお、文章中において「追跡」と「追尾」の同様の意味を持った記載が併存するが、単に、説明の便宜上で、両者を使い分けているに過ぎない。追跡は、主として監視者の関わりの強い部分での構成、追尾は、主として装置との関わりの強い部分での構成、を説明する場合に用いている。
図1は、本実施形態に係る追跡支援システムの全体構成図である。この追跡支援システムは、スーパーマーケットなどの小売店舗などを対象にして構築されるものであり、カメラ1a〜1dと、レコーダ(画像記録装置)2と、PC(追跡支援装置)3と、カメラ内追尾処理装置4と、を備えている。
カメラ1a〜1dは店舗内の適所に設置され、カメラ1a〜1dにより店舗内の監視エリアが撮像され、これにより得られた画像情報がレコーダ2に録画される。
PC3には、監視者が種々の入力操作を行うマウスなどの入力デバイス6と、監視画面を表示するモニタ(表示装置)7とが接続されている。なお、タッチパネルディスプレイで、入力デバイス6およびモニタ7を構成してもよい。
このPC3は、店舗の警備室などに設置され、監視者(警備員)が、モニタ7に表示される監視画面で、カメラ1a〜1dで撮像された店舗内の画像をリアルタイムで閲覧することができ、また、レコーダ2に録画された過去の店舗内の画像を閲覧することができる。
なお、本部に設けられたPC11にも図示しないモニタが接続され、カメラ1a〜1dで撮像された店舗内の画像をリアルタイムで閲覧し、また、レコーダ2に録画された過去の店舗内の画像を閲覧して、本部で店舗内の状況を確認することができる。
カメラ内追尾処理装置4では、カメラ1a〜1dの撮影画像から検出された人物(移動体)を追尾して、人物ごとの追尾情報(カメラ内追尾情報)を生成する処理が行われる。このカメラ内追尾処理は、公知の画像認識技術(人物検出技術および人物追跡技術など)を利用すればよい。
また、PC3は、カメラ間追尾処理部5を備えている。このカメラ間追尾処理部5では、カメラ内追尾処理装置4からカメラ内追尾情報を取得して、各カメラ1a〜1dの撮影画像からカメラ内追尾処理で検出された人物を対応付ける処理が行われる。これにより、複数のカメラ1a〜1dの撮影画像で人物を継続して追尾することができる。
なお、本実施形態では、カメラ内追尾処理装置4が、PC3とは独立して、カメラ内追尾処理を常時行うようにしているが、PC3からの指示に応じて追尾処理を実行するものとしてもよい。また、カメラ内追尾処理装置4では、撮影画像から検出された全ての人物を対象にして追尾処理を行うことが望ましいが、追跡対象に指定された人物およびこれと関連度の高い人物に絞って追尾処理を行うようにしてもよい。
図2は、店舗におけるカメラ1a〜1dの設置状況を示す斜視図である。店舗内の監視エリアには、商品陳列スペースの間に通路が設けられており、この通路を主に撮像するように第1〜第4のカメラ1a〜1dが設置されている。
通路を人物が移動すると、第1〜第4のカメラ1a〜1dのいずれか1つあるいは複数で人物が撮像され、人物が移動するのに応じて人物を撮像するカメラが切り替わる。本実施形態では、人物が、第1カメラ1a、第2カメラ1b、第3カメラ1cの順で第1〜第3カメラ1a〜1cに写るように移動する例について説明するが、人物の移動経路はこの例に限定されるものではない。
次に、図1に示したPC3で行われる追跡支援処理について説明する。図3は、PC3の概略構成を示す機能ブロック図である。図4〜図8は、モニタ7に表示される監視画面を示す説明図である。ここで、まず、図4〜図8に示す監視画面の概略を説明する。
図4〜図8に示す監視画面には、監視エリアを示す地図画像41上に、複数のカメラ1a〜1dごとのカメラマーク(カメラを示す画像)42が、カメラ1a〜1dの実際の配置状況に対応した位置に配置されている。また、カメラマーク42の近傍には、カメラ1a〜1dごとの撮影画像をそれぞれリアルタイムに表示する複数の表示ビュー(表示部)43a〜43dが配置されている。
カメラマーク42は、カメラ1a〜1dの撮影方向を表すように傾斜して表示されており、これにより、カメラ1a〜1dの撮像領域を監視者が大まかに把握することができる。表示ビュー43a〜43dは、カメラ1a〜1dの撮像領域に概ね対応する位置に配置されており、地図画像で表される監視エリア内のどの位置が表示ビュー43a〜43dに表示されているかを監視者が大まかに把握することができる。
また、この監視画面では、追跡対象とした人物が現在写っている表示ビュー43a〜43d、および追跡対象とした人物が次に写る表示ビュー43a〜43dを他の表示ビュー43a〜43dと識別する強調表示が施される。特に、本実施形態では、強調表示として、所定の着色が施された枠画像45,46を表示ビュー43a〜43dの外周部に表示する。さらに、追跡対象とした人物が現在写っている表示ビュー43a〜43dと、追跡対象とした人物が次に写る表示ビュー43a〜43dとを識別するために、枠画像45,46には異なる着色が施され、例えば、追跡対象となる人物が現在写っている表示ビュー43a〜43dには、青色の枠画像45が表示され、追跡対象となる人物が次に写る表示ビュー43a〜43dには、赤色の枠画像46が表示される。
さらに、この監視画面では、表示ビュー43a〜43dに表示された撮影画像から検出された人物に人物枠47が表示される。また、追跡対象とした人物には、追跡対象であることを示す人物枠48が表示される。この人物枠48は、他の人物に表示された人物枠47と識別可能な着色(例えば緑色)による強調表示が施される。
このように監視画面の表示ビュー43a〜43dには、カメラ1a〜1dごとの撮影画像がリアルタイムに表示され、監視者は表示ビュー43a〜43dを見ながら追跡対象となる人物を追跡する作業を行い、この追跡作業を行う監視者を支援する処理がPC3で行われる。
次に、図3に示したPC3の各部について説明する。PC3は、カメラ間追尾処理部5の他に、追尾情報処理部21と、追尾情報蓄積部22と、追跡対象設定部(追跡対象設定手段)23と、予測部(予測手段)24と、制御部(制御手段)25と、画面生成部26と、を備えている。
追尾情報処理部21では、カメラ内追尾処理装置4およびカメラ間追尾処理部5から追尾情報を取得して追尾情報蓄積部22に蓄積する処理が行われる。また、追尾情報処理部21では、追跡対象設定部23で追跡対象となる人物を変更する処理が行われると、その人物に関する追尾情報を修正する処理が行われる。ここで修正された追尾情報は追尾情報蓄積部22に蓄積される。
追跡対象設定部23では、監視画面内の表示ビュー43a〜43dにおいて追跡対象となる人物を指定する監視者の入力操作に応じて、指定された人物を追跡対象に設定する処理が行われる。この監視者の入力操作はマウスなどの入力デバイス6を用いて行われる。
予測部24では、追尾情報処理部21を介してカメラ内追尾処理装置4およびカメラ間追尾処理部5から、追跡対象に設定された人物に関する追尾情報を取得して、その追尾情報に基づいて、追跡対象に設定された人物が次に写る表示ビュー43a〜43d、換言すると、追跡対象に設定された人物を次に写すカメラ1a〜1dを予測する処理が行われる。この予測処理では、追尾情報から、追跡対象となる人物の移動方向、および追跡対象とした人物とカメラ1a〜1dの撮像領域との位置関係を取得し、これに基づいて、追跡対象とした人物を次に写すカメラ1a〜1dを予測する。
制御部25では、追跡対象となる人物が未設定の状態で行われる監視者の入力操作に応じて、追跡対象となる人物を新規に設定する処理を追跡対象設定部23に実行させるとともに、追跡対象となる人物が設定済みの状態で、画面生成部26の追跡対象提示部33で提示された追跡対象に誤りがあることを確認した監視者の入力操作に応じて、追跡対象となる人物を変更する処理を追跡対象設定部23に実行させる制御が行われる。
すなわち、追跡対象となる人物が未設定の状態で、監視画面内の表示ビュー43a〜43dにおいて追跡対象となる人物を指定する監視者の入力操作が行われると、追跡対象設定部23にて、指定された人物を追跡対象に新規に設定する処理が行われる。また、追跡対象となる人物が設定済みの状態で、監視画面内の表示ビュー43a〜43dにおいて追跡対象となる人物を指定する監視者の入力操作が行われると、追跡対象設定部23にて、指定された人物を追跡対象に変更する処理が行われる。
画面生成部26は、モニタ7に表示させる監視画面(図4〜図8参照)を生成するものであり、基本画面生成部31と、表示ビュー提示部(表示部提示手段)32、追跡対象提示部(追跡対象提示手段)33と、撮影画像処理部34と、を備えている。
基本画面生成部31では、監視エリアを示す地図画像上に、複数のカメラ1a〜1dごとのカメラマーク42と、複数のカメラ1a〜1dごとの撮影画像をそれぞれ表示させる複数の表示ビュー43a〜43dの空枠(撮影画像がないもの)とが配置された基本画面(背景画面)を生成する処理が行われる。
表示ビュー提示部32では、予測部24で予測された、追跡対象とした人物が次に写る表示ビュー43a〜43dを監視画面上に提示する処理が行われる。特に、本実施形態では、追跡対象とした人物が次に写る表示ビュー43a〜43dに、他の表示ビュー43a〜43dと識別する強調表示を施す処理が行われる。さらに、表示ビュー提示部32では、追跡対象設定部23により追跡対象となる人物が新規に設定されると、追跡対象とした人物が現在写っている表示ビュー43a〜43dに、他の表示ビュー43a〜43dと識別する強調表示を施す処理が行われる。
具体的には、強調表示として、所定の着色が施された枠画像45,46を表示ビュー43a〜43dの外周部に表示する。さらに、追跡対象となる人物が現在写っている表示ビュー43a〜43dと、追跡対象となる人物が次に写る表示ビュー43a〜43dとを監視者が簡単に識別することができるように、枠画像45,46には異なる着色が施され、例えば、追跡対象となる人物が現在写っている表示ビュー43a〜43dには青色の枠画像45が表示され、追跡対象となる人物が次に写る表示ビュー43a〜43dには赤色の枠画像46が表示される。
追跡対象提示部33では、カメラ内追尾処理装置4およびカメラ間追尾処理部5から追尾情報を取得して、その追尾情報に基づいて、追跡対象に設定された人物が写る表示ビュー43a〜43dの各々において、追跡対象に設定された人物を提示する処理が行われる。特に、本実施形態では、表示ビュー43a〜43dに写った追跡対象とした人物の像に、他の人物と識別する強調表示を施す処理が行われる。具体的には、強調表示として、追跡対象とした人物に、追跡対象であることを示す人物枠48が表示され、この人物枠48は、撮影画像から検出された人物に表示される人物枠47と識別可能な着色(例えば緑色)による強調表示が施される。
撮影画像処理部34では、基本画面生成部31で生成された基本画面の表示ビュー43a〜43dに、カメラ1a〜1dから取得した撮影画像を埋め込む処理が行われる。
なお、図3に示したPC3の各部は、PC3のCPUで追跡支援用のプログラムを実行させることで実現される。これらのプログラムは、情報処理装置としてのPC3に予め導入して専用の装置として構成する他、汎用OS上で動作するアプリケーションプログラムとして適宜なプログラム記録媒体に記録してユーザに提供されることも可能である。
次に、図4〜図8に示した監視画面およびその監視画面で行われる監視者の操作の手順について詳しく説明する。図9は、図3に示したPC3の各部で行われる処理および監視画面で行われる監視者の操作の手順を示すフロー図である。
まず、リアルタイム監視を開始する操作を行うと(図9のST101)、リアルタイム監視処理が開始され、図4に示すように、追跡対象となる人物が未設定の状態での監視画面が表示され、この監視画面において、追跡対象となる人物を指定する操作を監視者が行う(図9のST102)。具体的には、マウスなどの入力デバイス6を用いて、表示ビュー43a〜43d(図4では第1表示ビュー43a)に表示された撮影画像に写った追跡したい人物の像にポインタ51を合わせて選択する操作(マウスであればクリック)を行う。
このようにして、監視画面上で監視者が追跡対象となる人物を指定する操作を行うと、追跡対象設定部23において、指定された人物を追跡対象に新規に設定する処理が行われる。そして、予測部24において、追跡対象に設定された人物が次に写る表示ビュー43a〜43dを予測する処理が行われる(図9のST103)。
ついで、画面生成部26において、図5に示すように、追跡対象となる人物が設定済みの状態での監視画面を生成する処理が行われる。このとき、表示ビュー提示部32において、追跡対象とした人物が次に写る表示ビュー43a〜43d(図5では第2表示ビュー43b)に強調表示として枠画像46を表示する処理が行われる(図9のST104)。また、表示ビュー提示部32において、追跡対象とした人物が現在写っている表示ビュー43a〜43d(図5では第1表示ビュー43a)に強調表示として枠画像45を表示する処理が行われる。
そして、監視画面上で監視者が追跡対象を修正する操作が行われたか否かの判定が制御部25で行われる。この追跡対象修正操作がないまま(図9のST105でNO)、追跡対象とした人物を現在写すカメラ1a〜1dの撮像領域から追跡対象とした人物が退出して、追跡対象とした人物に関するカメラ内追尾処理が終了すると(図9のST107)、カメラ間追尾処理部5において、予測部24で予測された次の表示ビュー43a〜43dに対応するカメラ1a〜1dのカメラ内追尾処理装置4からカメラ内追尾情報を取得して、そのカメラ内追尾情報に基づいて、次のカメラ1a〜1dの撮影画像から検出された人物の中から追跡対象に指定した人物を検索する処理が行われる(図9のST108)。
ここで、次のカメラの撮影画像から検出された人物の中に追跡対象に指定した人物が見つかると(図9のST109でYES)、予測部24で追跡対象とした人物が次に写る表示ビュー43a〜43dを予測する処理(図9のST103)に進み、前記の処理および操作が繰り返される。
このように追跡対象とした人物が移動すると、図6に示すように、追跡対象とした人物が次の表示ビュー43a〜43d(図6では第2表示ビュー43b)に写った監視画面が表示される。この監視画面では、追跡対象とした人物に誤りがないか監視者が確認する。
ここで、追跡対象とした人物に誤りがある、すなわち追跡対象であることを示す人物枠48が表示された人物が、図5に示した監視画面で追跡対象として指定した人物と異なっていると、図7に示すように、監視者は追跡対象となる人物を修正する操作を行う。この追跡対象修正操作では、図4に示した追跡対象指定操作と同様に、マウスなどの入力デバイス6で追跡対象として正しい人物の像にポインタを合わせて選択する操作(マウスであればクリック)を行う。
このようにして、監視画面上で監視者が追跡対象を修正する操作を行うと(図9のST105でYES)、修正操作を反映する処理が行われる。すなわち、追跡対象設定部23にて、追跡対象修正操作で指定された人物を追跡対象に変更する処理が行われる(図9のST106)。ついで、追跡対象提示部33において、追跡対象に変更された人物に、追跡対象であることを示す人物枠48を表示する処理が行われる。また、追尾情報処理部21において、追跡対象に変更された人物およびその人物と誤って認識された人物に関する追尾情報を修正する処理が行われる。
このような修正操作を反映する処理が終了すると、予測部24にて、追跡対象とした人物が次に写る表示ビュー43a〜43dを予測する処理(図9のST103)に進み、前記の処理および操作が繰り返される。
そして、追跡対象とした人物が移動すると、図8に示すように、追跡対象とした人物が次の表示ビュー43a〜43d(図8では第3表示ビュー43c)に写った監視画面が表示される。この監視画面でも、追跡対象とした人物に誤りがないか監視者が確認するが、図8の監視画面では、図7の監視画面で追跡対象に修正された人物に、追跡対象であることを示す人物枠48が表示されており、追跡対象が正しい人物に修正されていることを確認することができる。
以上のように本実施形態では、次の表示ビュー43a〜43dが予測部24で予測されて、その表示ビュー43a〜43dが表示ビュー提示部32により監視者に提示されるため、複数の表示ビュー43a〜43dの中から、次の表示ビュー43a〜43dを探し出す手間を省くことができ、これにより監視者の負担を大幅に軽減することができる。また、次の表示ビュー43a〜43dを探し出すのに時間がかかることで追跡対象とした人物を見失うことを避けることができる。また、表示ビュー43a〜43dに複数の人物が写っている場合に、追跡対象となる人物が1人に特定されるため、追跡対象とした人物とは異なる人物が次に写る表示ビュー43a〜43dが誤って提示されることを避けることができる。
また、本実施形態では、監視画面において、次の表示ビュー43a〜43dに、他の表示ビュー43a〜43dと識別する強調表示として枠画像46が表示されるため、次の表示ビュー43a〜43dを監視者が簡単に識別することができ、これにより追跡作業を行う監視者の負担を軽減することができる。
また、本実施形態では、追跡対象となる人物が新規に設定されると、その追跡対象となる人物が現在写っている表示ビュー43a〜43dに、他の表示ビュー43a〜43dと識別可能な強調表示として枠画像が表示されるため、追跡対象となる人物が現在写っている表示ビュー43a〜43dを監視者が簡単に識別することができ、これにより追跡作業を行う監視者の負担を軽減することができる。
なお、本実施形態では、第1表示ビュー43aで追跡対象とする人物を指定するようにしたが、この追跡対象の指定は、複数の表示ビュー43a〜43dのいずれで行うこともでき、追跡対象とする人物を指定した表示ビュー43a〜43dから、監視者による追跡対象となる人物の追跡が開始される。
また、追跡対象とした人物に誤りが発生する原因は、カメラ内追尾処理装置4で行われるカメラ内追尾処理およびカメラ間追尾処理部5で行われるカメラ間追尾処理で発生する追尾処理の誤りであるが、この追尾処理の誤りは、カメラ内追尾処理に比較して、カメラ間追尾処理、すなわちカメラ内追尾処理で検出された人物を対応付ける過程で発生しやすいため、図6に示したように、追跡対象となる人物を写す表示ビュー43a〜43dが切り替わったところで、追跡対象とした人物を修正する修正操作が特に必要となる。
次に、監視画面の表示ビュー43a〜43dに表示される枠画像45,46の時間的な推移状況について説明する。図10は、監視画面の表示ビュー43a〜43dに表示される枠画像45,46の時間的な推移状況を説明する説明図である。
カメラ間追尾処理部5で撮影画像から人物を検出して追尾処理が開始されると、監視画面の表示ビュー43a〜43dに人物枠47が表示され、ここで、監視者により追跡対象となる人物を指定する操作が行われると、追跡対象となる人物が現在写っている表示ビューに、強調表示として青色の枠画像が表示される。
そして、追跡対象とした人物が次に写る表示ビュー43a〜43dを予測する処理が行われると、その表示ビューに強調表示として赤色の枠画像が表示される。
そして、追跡対象とした人物が移動して、次のカメラ1a〜1dのカメラ間追尾処理部5で撮影画像から人物を検出すると、2つのカメラ1a〜1dの各カメラ間追尾処理部5でそれぞれ検出され人物を対応付ける処理がカメラ間追尾処理部5で行われ、この対応付けが成功する、すなわち追跡対象とした人物が次のカメラ1a〜1dのカメラ間追尾処理部5で検出されると、次の表示ビュー43a〜43dの強調表示が赤色の枠画像から青色の枠画像に変更される。
また、先に追跡対象とした人物を写すカメラ1a〜1dのカメラ間追尾処理部5で追尾処理が終了すると、先に追跡対象とした人物が写る表示ビュー43a〜43dでは、強調表示としての青色の枠画像が消滅する。したがって、先のカメラ1a〜1dのカメラ間追尾処理部5で追尾処理が終了するタイミングが、次のカメラ1a〜1dのカメラ間追尾処理部5で追跡対象とした人物が検出されるタイミングより早いと、次の表示ビュー43a〜43dのみに強調表示として赤色の枠画像が表示される。
次に、追跡対象とした人物に誤りが発生した際に、追跡対象とした人物を修正することの効果について説明する。図11および図12は、監視画面の表示ビュー43a〜43dの推移状況を説明する説明図であり、図11は、追跡対象の修正が行われない場合を、図12は、追跡対象の修正が行われる場合をそれぞれ示している。
まず、図11にしたがって追跡対象の修正が行われない場合について説明する。図11(A)に示すように、追跡対象とした人物Aと別の人物Bとが同じ第1表示ビュー43aに写っている場合に、人物A,Bが同じ方向に移動する。このとき、追尾処理で人物A,Bが入れ替わる誤りが発生して、追跡対象が人物Bに設定された場合でも、図11(B)に示すように、次の第2表示ビュー43bでは追跡対象とした人物Aが写っているため、追跡対象とした人物Aを見失わない。
ところが、ここで、人物A,Bが矢印で示すように別の方向に移動すると、追跡対象となる人物が次に写る表示ビューを示す赤色の枠画像46は第1表示ビュー43aに表示され、この第1表示ビュー43aには、図11(C)に示すように、追跡対象でない人物Bのみが写り、追跡対象とした人物Aを見失う。
このように、表示ビュー43a〜43dに複数の人物が同時に写っている場合に、予測された次の表示ビュー43a〜43dに追跡対象とした人物が写っていても、追尾情報の誤りが修正されることなく放置されると、それらの人物が別方向に移動したところで、予測された次の表示ビュー43a〜43dに追跡対象とした人物が写っていない状態となり、追跡対象とした人物を見失うことになる。
次に、図12にしたがって追跡対象の修正が行われる本実施形態の場合について説明する。図12(A)および図12(B)は、図11に示す例と同様である。図12(B)に示すように、第2表示ビュー43bでは、追跡対象を示す人物枠48が追跡対象でない人物Bに表示されており、これにより追跡対象となる人物に誤りがある、すなわち追跡対象とした人物Aと異なる人物Bに追跡対象が設定されていることに監視者が気付く。
そこで、監視者は、図12(C)に示すように、第2表示ビュー43bにおいて追跡対象を修正する、すなわち追尾処理の誤りにより人物Bに設定されている追跡対象を人物Aに変更する操作を行う。これにより、人物A,Bが矢印で示すように別の方向に移動しても、追跡対象となる人物が次に写る表示ビューを示す赤色の枠画像46は第3表示ビュー43cに表示され、この第3表示ビュー43cには、図12(D)に示すように、追跡対象とした人物Aは写っているため、追跡対象とした人物Aを見失うことはない。
このように本実施形態では、追跡対象に設定された人物が表示ビュー43a〜43d上に人物枠48で提示されるため、追尾情報の誤りにより追跡対象となる人物に誤りがある、すなわち追跡対象とした人物と異なる人物が追跡対象に設定されていることに監視者が気付くことができる。そして、追跡対象の誤りを発見したところで追跡対象を随時修正することで、以後の監視画面では、予測された次の表示ビュー43a〜43dに追跡対象とした人物が確実に写り、追跡対象とした人物を見失うことなく、追跡を継続することができる。また、予測された次の表示ビュー43a〜43dに追跡対象となる人物が写ったところで素早くその人物を確認することができるため、追跡対象の誤りに早期に気付くことができ、追跡対象を確実に修正することができる。
なお、図6、図11および図12に示した例では、人物が入れ替わる誤りが発生した場合を示したが、追跡対象に設定された人物の追尾処理が中断して、追跡対象となる人物がみかけ上消滅する、すなわち表示ビュー43a〜43dに写った追跡対象となる人物に追跡対象であることを示す人物枠48が表示されない場合もある。この場合、図4に示した追跡対象指定操作と同様に、表示ビュー43a〜43dに写った追跡対象となる人物を指定する操作を監視者が行えばよい。これにより、以後の追跡を継続することができる。
以上、本発明を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本発明はこれらの実施形態によって限定されるものではない。また、上記実施形態に示した本発明に係る追跡支援装置、追跡支援システムおよび追跡支援方法の各構成要素は、必ずしも全てが必須ではなく、少なくとも本発明の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。
例えば、本実施形態では、スーパーマーケットなどの小売店舗の例について説明したが、ファミリーレストランなどの飲食店など、小売店舗以外の業務形態の店舗に適用することも可能であり、さらに、事業所などの店舗以外の施設にも適用することができる。
また、本実施形態では、移動体とした人物を追跡する例について説明したが、人物以外の移動体、例えば自動車や自転車などの車両を追跡する構成も可能である。
また、本実施形態では、カメラ1a〜1dを4台設置して、その撮影画像を表示する表示ビュー43a〜43dを監視画面に4つ配置した例について説明したが、カメラ1a〜1dおよび表示ビュー43a〜43dの数はこれに限定されるものではなく、特に表示ビュー43a〜43dの数が多くなる場合に本実施形態の構成が有効となる。
また、本実施形態では、監視画面内の表示ビュー43a〜43dを強調表示するために、所定の着色が施された枠画像45,46を表示ビュー43a〜43dの外周部に表示する構成としたが、強調表示はこれに限定されるものではなく、表示ビュー43a〜43dの内部またはその近傍に、マークなどの所要の画像を表示させたり、2つの表示ビュー43a〜43dを結ぶ矢印の画像を表示させたりしてもよい。
また、本実施形態では、図3に示したように、カメラ内追尾処理をカメラ内追尾処理装置4に行わせ、カメラ間追尾処理および追跡支援処理をPC3に行わせる例について説明したが、カメラ内追尾処理もPC3に行わせる構成としてもよい。また、カメラ内追尾処理部をカメラ1a〜1dに設ける構成も可能である。また、カメラ間追尾処理部5をPC3とは別の追尾処理装置で構成することも可能である。また、カメラ1a〜1dとして、視野角の限定される箱型カメラが図示されているが、これに限らず、広範囲の撮影が可能な全方位カメラを用いることもできる。
また、本実施形態では、カメラ内追尾処理、カメラ間追尾処理および追跡支援処理を、店舗に設けられた装置に行わせるようにしたが、これらの必要な処理を、図1に示したように、本部に設けられたPC11や、クラウドコンピューティングシステムを構成するクラウドコンピュータ12に行わせるようにしてもよい。また、必要な処理を複数の情報処理装置で分担し、IPネットワークやLANなどの通信媒体を介して、複数の情報処理装置の間で情報を受け渡すようにしてもよい。この場合、必要な処理を分担する複数の情報処理装置で追跡支援システムが構成される。
このような構成では、店舗に設けられた装置に、少なくともカメラ内追尾処理やカメラ間追尾処理を行わせるようにするとよい。このように構成すると、カメラ内追尾処理やカメラ間追尾処理で取得した情報はデータ量が少なくて済むため、残りの処理を店舗とは異なる場所に設置された情報処理装置、例えば本部に設置されたPC11に行わせるようにしても、通信負荷を軽減することができるため、広域ネットワーク接続形態によるシステムの運用が容易になる。
また、クラウドコンピュータ12に、少なくともカメラ内追尾処理やカメラ間追尾処理を行わせるようにしてもよい。このように構成すると、カメラ内追尾処理やカメラ間追尾処理は演算量が大きくなるため、これをクラウドコンピューティングシステムを構成する情報処理装置に行わせることで、店舗などのユーザ側に高速な情報処理装置が不要となり、また、残りの処理は演算量が小さくて済むため、店舗に設置された販売情報管理装置を構成する情報処理装置に拡張機能として兼用させることも可能になり、これにより監視者が負担するコストを軽減することができる。
また、クラウドコンピュータ12に、必要な処理の全部を行わせるようにしてもよく、このように構成すると、店舗や本部に設けられたPC3,11の他に、スマートフォン13などの携帯型端末でも追跡状況を閲覧することができるようになり、これにより店舗や本部の他に外出先などの任意の場所で追跡状況を閲覧することができる。
本発明にかかる追跡支援装置、追跡支援システムおよび追跡支援方法は、監視画面に表示された複数のカメラごとの撮影画像を見ながら監視中の人物を追跡する際に、監視者の負担を軽減する支援処理を適切に行って、監視中の人物を見失うことなく追跡を継続することができる効果を有し、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示部が配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者を支援する追跡支援装置、追跡支援システムおよび追跡支援方法などとして有用である。
1a〜1d カメラ
2 レコーダ
4 カメラ内追尾処理装置(追尾処理手段)
5 カメラ間追尾処理部(追尾処理手段)
6 入力デバイス
7 モニタ
12 クラウドコンピュータ
13 スマートフォン
23 追跡対象設定部(追跡対象設定手段)
24 予測部(予測手段)
25 制御部(制御手段)
26 画面生成部
31 基本画面生成部
32 表示ビュー提示部(表示部提示手段)
33 追跡対象提示部(追跡対象提示手段)
34 撮影画像処理部
41 地図画像
42 カメラマーク
43a〜43d 表示ビュー(表示部)
45,46 枠画像
48 人物枠
本発明の追跡支援装置は、監視エリアを示す地図画像上に、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示ビューが、前記カメラの実際の配置状況に対応して配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置であって、前記リアルタイムに表示する複数の前記表示ビューにおいて追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定する追跡対象設定部と、前記追尾情報に基づいて、前記追跡対象に設定された移動体が次に写る前記表示ビューを予測する予測部と、この予測部で予測された次の前記表示ビューを前記監視画面上に提示する表示ビュー提示部と、を備え、前記追跡対象提示部により前記追跡対象に設定された移動体に対応した移動体枠を強調する第1の強調表示を施すと共に、前記表示ビュー提示部により前記予測部で予測された次の前記表示ビューに対応した表示枠を強調する第2の強調表示を施す構成とする。
また、本発明の追跡支援システムは、監視エリアを示す地図画像上に、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示ビューが、前記カメラの実際の配置状況に対応して配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援システムであって、前記監視エリアを撮像する前記カメラと、前記監視画面を表示する前記表示装置と、複数の情報処理装置と、を有し、前記複数の情報処理装置のいずれかが、前記撮影画像から検出された移動体を追尾して、移動体ごとの追尾情報を生成する追尾処理と、前記リアルタイムに表示する複数の前記表示ビューにおいて追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定する追跡対象設定部と、前記追尾処理部から取得した追尾情報に基づいて、前記追跡対象に設定された移動体が写る前記表示ビューの各々において、前記追跡対象に設定された移動体を提示する追跡対象提示部と、前記追尾情報に基づいて、前記追跡対象に設定された移動体が次に写る前記表示ビューを予測する予測部と、この予測部で予測された次の前記表示ビューを前記監視画面上に提示する表示ビュー提示部と、を備え、前記追跡対象提示部により前記追跡対象に設定された移動体に対応した移動体枠を強調する第1の強調表示を施すと共に、前記表示ビュー提示部により前記予測部で予測された次の前記表示ビューに対応した表示枠を強調する第2の強調表示を施す構成とする。
また、本発明の追跡支援方法は、監視エリアを示す地図画像上に、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示ビューが、前記カメラの実際の配置状況に対応して配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援方法であって、前記リアルタイムに表示する複数の前記表示ビューにおいて追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定するステップと、撮影画像を処理して取得した追尾情報に基づいて、前記追跡対象に設定された移動体が写る前記表示ビューの各々において、前記追跡対象に設定された移動体を提示するステップと、前記追尾情報に基づいて、前記追跡対象に設定された移動体が次に写る前記表示ビューを予測するステップと、ここで予測された次の前記表示ビューを前記監視画面上に提示するステップと、を備え、前記追跡対象に設定された移動体を提示するステップにより前記追跡対象に設定された移動体に対応した移動体枠を強調する第1の強調表示を施すと共に、前記表示ビューを前記監視画面上に提示するステップにより前記予測された次の前記表示ビューに対応した表示枠を強調する第2の強調表示を施すステップと、を有する構成とする。
本発明によれば、監視画面に表示された複数のカメラごとの撮影画像を見ながらリアルタイムで監視中の移動体を追跡する際に、複数の表示ビューの中から次の表示ビューを探し出す手間を省くことができるため、追跡作業を行う監視者の負担を大幅に軽減し、追跡対象とした移動体を見失うことなく追跡を継続することができる。また、表示ビューに複数の移動体が写っている場合に、追跡対象となる移動体が1つに特定されるため、次の表示ビューが誤って提示されることを避けることができる。
前記課題を解決するためになされた第1の発明は、監視エリアを示す地図画像上に、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示ビューが、前記カメラの実際の配置状況に対応して配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置であって、前記リアルタイムに表示する複数の前記表示ビューにおいて追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定する追跡対象設定部と、前記追尾情報に基づいて、前記追跡対象に設定された移動体が次に写る前記表示ビューを予測する予測部と、この予測部で予測された次の前記表示ビューを前記監視画面上に提示する表示ビュー提示部と、を備え、前記追跡対象提示部により前記追跡対象に設定された移動体に対応した移動体枠を強調する第1の強調表示を施すと共に、前記表示ビュー提示部により前記予測部で予測された次の前記表示ビューに対応した表示枠を強調する第2の強調表示を施す構成とする。
これによると、監視画面に表示された複数のカメラごとの撮影画像を見ながらリアルタイムで監視中の移動体を追跡する際に、複数の表示ビューの中から次の表示ビューを探し出す手間を省くことができるため、追跡作業を行う監視者の負担を大幅に軽減し、追跡対象とした移動体を見失うことなく追跡を継続することができる。また、表示ビューに複数の移動体が写っている場合に、追跡対象となる移動体が1つに特定されるため、次の表示ビューが誤って提示されることを避けることができる。また、表示ビューに複数の移動体が写っている場合に、追跡対象となる移動体が1つに特定されるため、次の表示ビューが誤って提示されることを避けることができる。
また、第2の発明は、前記追跡対象となる移動体が設定済みの状態で、前記追跡対象提示部で提示された追跡対象に誤りがあることを確認した監視者の入力操作に応じて、追跡対象となる移動体を変更する処理を前記追跡対象設定部に実行させる制御部と、をさらに備えた構成とする。
また、第3の発明は、前記表示ビュー提示部は、前記追跡対象設定部により追跡対象となる移動体が新規に設定されると、その追跡対象となる移動体が現在写っている前記表示ビューに、他の前記表示ビューと識別する第3の強調表示を施す構成とする。
また、第4の発明は、監視エリアを示す地図画像上に、監視エリアを示す地図画像上に、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示ビューが、前記カメラの実際の配置状況に対応して配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援システムであって、前記監視エリアを撮像する前記カメラと、前記監視画面を表示する前記表示装置と、複数の情報処理装置と、を有し、前記複数の情報処理装置のいずれかが、前記撮影画像から検出された移動体を追尾して、移動体ごとの追尾情報を生成する追尾処理と、前記リアルタイムに表示する複数の前記表示ビューにおいて追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定する追跡対象設定部と、前記追尾処理部から取得した追尾情報に基づいて、前記追跡対象に設定された移動体が写る前記表示ビューの各々において、前記追跡対象に設定された移動体を提示する追跡対象提示部と、前記追尾情報に基づいて、前記追跡対象に設定された移動体が次に写る前記表示ビューを予測する予測部と、この予測部で予測された次の前記表示ビューを前記監視画面上に提示する表示ビュー提示部と、を備え、前記追跡対象提示部により前記追跡対象に設定された移動体に対応した移動体枠を強調する第1の強調表示を施すと共に、前記表示ビュー提示部により前記予測部で予測された次の前記表示ビューに対応した表示枠を強調する第2の強調表示を施す構成とする。
これによると、前記の第1の発明と同様に、監視画面に表示された複数のカメラごとの撮影画像を見ながらリアルタイムで監視中の移動体を追跡する際に、追跡作業を行う監視者の負担を大幅に軽減し、監視中の移動体を見失うことなく追跡を継続することができる。
また、第5の発明は、監視エリアを示す地図画像上に、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示ビューが、前記カメラの実際の配置状況に対応して配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援方法であって、前記リアルタイムに表示する複数の前記表示ビューにおいて追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定するステップと、撮影画像を処理して取得した追尾情報に基づいて、前記追跡対象に設定された移動体が写る前記表示ビューの各々において、前記追跡対象に設定された移動体を提示するステップと、前記追尾情報に基づいて、前記追跡対象に設定された移動体が次に写る前記表示ビューを予測するステップと、ここで予測された次の前記表示ビューを前記監視画面上に提示するステップと、を備え、前記追跡対象に設定された移動体を提示するステップにより前記追跡対象に設定された移動体に対応した移動体枠を強調する第1の強調表示を施すと共に、前記表示ビューを前記監視画面上に提示するステップにより前記予測された次の前記表示ビューに対応した表示枠を強調する第2の強調表示を施す構成とする。
これによると、前記の第1の発明と同様に、監視画面に表示された複数のカメラごとの撮影画像を見ながらリアルタイムで監視中の移動体を追跡する際に、追跡作業を行う監視者の負担を大幅に軽減し、監視中の移動体を見失うことなく追跡を継続することができる。

Claims (6)

  1. 監視エリアを示す地図画像上に、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示部が、前記カメラの実際の配置状況に対応して配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置であって、
    前記監視画面内の前記表示部において追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定する追跡対象設定手段と、
    撮影画像を処理して取得した追尾情報に基づいて、前記追跡対象に設定された移動体が次に写る前記表示部を予測する予測手段と、
    この予測手段で予測された次の前記表示部を前記監視画面上に提示する表示部提示手段と、
    を備えたことを特徴とする追跡支援装置。
  2. 前記追尾情報に基づいて、前記追跡対象に設定された移動体が写る前記表示部の各々において、前記追跡対象に設定された移動体を提示する追跡対象提示手段と、
    前記追跡対象となる移動体が未設定の状態で行われる監視者の入力操作に応じて、追跡対象となる移動体を新規に設定する処理を前記追跡対象設定手段に実行させるとともに、追跡対象となる移動体が設定済みの状態で、前記追跡対象提示手段で提示された追跡対象に誤りがあることを確認した監視者の入力操作に応じて、追跡対象となる移動体を変更する処理を前記追跡対象設定手段に実行させる制御手段と、
    をさらに備えたことを特徴とする請求項1に記載の追跡支援装置。
  3. 前記表示部提示手段は、前記予測手段で予測された次の前記表示部に、他の前記表示部と識別する強調表示を施すことを特徴とする請求項1または請求項2に記載の追跡支援装置。
  4. 前記表示部提示手段は、前記追跡対象設定手段により追跡対象となる移動体が新規に設定されると、その追跡対象となる移動体が現在写っている前記表示部に、他の前記表示部と識別する強調表示を施すことを特徴とする請求項1から請求項3のいずれかに記載の追跡支援装置。
  5. 監視エリアを示す地図画像上に、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示部が、前記カメラの実際の配置状況に対応して配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援システムであって、
    前記監視エリアを撮像する前記カメラと、
    前記監視画面を表示する前記表示装置と、
    複数の情報処理装置と、
    を有し、
    前記複数の情報処理装置のいずれかが、
    前記撮影画像から検出された移動体を追尾して、移動体ごとの追尾情報を生成する追尾処理手段と、
    前記監視画面内の前記表示部において追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定する追跡対象設定手段と、
    前記追尾処理手段から取得した追尾情報に基づいて、前記追跡対象に設定された移動体が次に写る前記表示部を予測する予測手段と、
    この予測手段で予測された次の前記表示部を前記監視画面上に提示する表示部提示手段と、
    を備えたことを特徴とする追跡支援システム。
  6. 監視エリアを示す地図画像上に、複数のカメラごとの撮影画像をそれぞれリアルタイムに表示する複数の表示部が、前記カメラの実際の配置状況に対応して配置された監視画面を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業の支援を情報処理装置により行う追跡支援方法であって、
    前記監視画面内の前記表示部において追跡対象となる移動体を指定する監視者の入力操作に応じて、指定された移動体を追跡対象に設定するステップと、
    撮影画像を処理して取得した追尾情報に基づいて、前記追跡対象に設定された移動体が次に写る前記表示部を予測するステップと、
    ここで予測された次の前記表示部を前記監視画面上に提示するステップと、
    を有することを特徴とする追跡支援方法。
JP2013145286A 2013-07-11 2013-07-11 追跡支援装置、追跡支援システムおよび追跡支援方法 Active JP5506989B1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2013145286A JP5506989B1 (ja) 2013-07-11 2013-07-11 追跡支援装置、追跡支援システムおよび追跡支援方法
RU2014127468/07A RU2551128C1 (ru) 2013-07-11 2014-07-04 Устройство содействия в отслеживании, система содействия в отслеживании и способ содействия в отслеживании
US14/326,510 US9191633B2 (en) 2013-07-11 2014-07-09 Tracking assistance device, tracking assistance system and tracking assistance method
GB1412255.0A GB2516173B (en) 2013-07-11 2014-07-10 Tracking assistance device, tracking assistance system and tracking assistance method
CN201410332105.7A CN104284146B (zh) 2013-07-11 2014-07-11 跟踪辅助装置、跟踪辅助系统和跟踪辅助方法
DE102014213553.2A DE102014213553B4 (de) 2013-07-11 2014-07-11 Tracking-Unterstützungsvorrichtung, Tracking-Unterstützungssystem und Tracking-Unterstützungsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013145286A JP5506989B1 (ja) 2013-07-11 2013-07-11 追跡支援装置、追跡支援システムおよび追跡支援方法

Publications (2)

Publication Number Publication Date
JP5506989B1 JP5506989B1 (ja) 2014-05-28
JP2015019248A true JP2015019248A (ja) 2015-01-29

Family

ID=50941902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013145286A Active JP5506989B1 (ja) 2013-07-11 2013-07-11 追跡支援装置、追跡支援システムおよび追跡支援方法

Country Status (6)

Country Link
US (1) US9191633B2 (ja)
JP (1) JP5506989B1 (ja)
CN (1) CN104284146B (ja)
DE (1) DE102014213553B4 (ja)
GB (1) GB2516173B (ja)
RU (1) RU2551128C1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016189782A1 (ja) * 2015-05-26 2016-12-01 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JPWO2016125420A1 (ja) * 2015-02-05 2017-08-31 株式会社リコー 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP6206857B1 (ja) * 2016-08-24 2017-10-04 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
DE102017122554A1 (de) 2016-09-30 2018-04-05 Canon Kabushiki Kaisha Informationenverarbeitungsvorrichtung, informationenverarbeitungsverfahren und speichermedium
CN108564027A (zh) * 2018-04-11 2018-09-21 北京学之途网络科技有限公司 一种确定观看菜单顾客的进店状态的方法和装置
US11049374B2 (en) 2016-12-22 2021-06-29 Nec Corporation Tracking support apparatus, terminal, tracking support system, tracking support method and program

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012222661A1 (de) * 2012-12-10 2014-06-12 Robert Bosch Gmbh Überwachungsanlage für einen Überwachungsbereich, Verfahren sowie Computerprogramm
JP6273685B2 (ja) 2013-03-27 2018-02-07 パナソニックIpマネジメント株式会社 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
JP5683663B1 (ja) * 2013-09-27 2015-03-11 パナソニックIpマネジメント株式会社 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法
JP5834249B2 (ja) 2013-11-20 2015-12-16 パナソニックIpマネジメント株式会社 人物移動分析装置、人物移動分析システムおよび人物移動分析方法
JP6270433B2 (ja) * 2013-11-26 2018-01-31 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム
US9693023B2 (en) 2014-02-05 2017-06-27 Panasonic Intellectual Property Management Co., Ltd. Monitoring apparatus, monitoring system, and monitoring method
CN107577247B (zh) * 2014-07-30 2021-06-25 深圳市大疆创新科技有限公司 目标追踪系统及方法
JP6465600B2 (ja) * 2014-09-19 2019-02-06 キヤノン株式会社 映像処理装置および映像処理方法
EP3051810B1 (en) 2015-01-30 2021-06-30 Nokia Technologies Oy Surveillance
JP5999394B2 (ja) 2015-02-20 2016-09-28 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6646815B2 (ja) 2015-03-04 2020-02-14 パナソニックIpマネジメント株式会社 人物追跡方法および人物追跡装置
JP6062125B1 (ja) * 2015-03-06 2017-01-18 オリンパス株式会社 動作切替機構、内視鏡
CN104994350B (zh) 2015-07-07 2019-01-04 小米科技有限责任公司 信息查询方法及装置
CN105120099A (zh) * 2015-08-31 2015-12-02 小米科技有限责任公司 拍摄控制方法和装置
JP6815104B2 (ja) * 2015-12-28 2021-01-20 大和ハウス工業株式会社 映像表示装置及び映像表示方法
JP6284086B2 (ja) * 2016-02-05 2018-02-28 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
EP3244344A1 (en) * 2016-05-13 2017-11-15 DOS Group S.A. Ground object tracking system
US10223591B1 (en) * 2017-03-30 2019-03-05 Amazon Technologies, Inc. Multi-video annotation
JP6639437B2 (ja) * 2017-04-20 2020-02-05 株式会社Subaru 情報提示装置
JP6833617B2 (ja) * 2017-05-29 2021-02-24 株式会社東芝 移動体追跡装置、移動体追跡方法およびプログラム
CN107452018B (zh) * 2017-08-02 2020-04-07 北京翰博尔信息技术股份有限公司 主讲人跟踪方法及系统
RU2670429C1 (ru) 2017-11-24 2018-10-23 ООО "Ай Ти Ви групп" Системы и способы отслеживания движущихся объектов на видеоизображении
JP2019139570A (ja) * 2018-02-13 2019-08-22 株式会社東芝 判別装置、判別方法およびプログラム
JP6828708B2 (ja) * 2018-03-29 2021-02-10 京セラドキュメントソリューションズ株式会社 制御装置、監視システム、及び監視カメラ制御方法
CN110557603B (zh) * 2018-06-01 2021-09-03 杭州海康威视系统技术有限公司 移动目标的监控方法、装置和可读存储介质
CN109800727A (zh) * 2019-01-28 2019-05-24 云谷(固安)科技有限公司 一种监控方法和装置
CN110062207A (zh) * 2019-04-22 2019-07-26 浙江铭盛科技有限公司 楼宇智能综合可视管理系统
US11288819B2 (en) * 2019-06-28 2022-03-29 Cognex Corporation Systems and methods for detecting motion during 3D data reconstruction
CN112653832A (zh) * 2019-10-10 2021-04-13 华为技术有限公司 一种监控方法、装置和设备
CN112752067A (zh) * 2019-10-30 2021-05-04 杭州海康威视系统技术有限公司 目标追踪方法、装置、电子设备及存储介质
CN112581598B (zh) * 2020-12-04 2022-08-30 深圳市慧鲤科技有限公司 三维模型构建方法、装置、设备及存储介质
CN113438450B (zh) * 2021-06-11 2022-05-17 深圳市大工创新技术有限公司 动态目标跟踪监控方法
US20240062395A1 (en) * 2022-08-18 2024-02-22 Fusus, Inc. Crime center system providing video-based object tracking using an active camera and a 360-degree next-up camera set

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009142A (ja) * 2001-06-21 2003-01-10 Hitachi Ltd 監視システムおよび制御装置
JP2005012415A (ja) * 2003-06-18 2005-01-13 Matsushita Electric Ind Co Ltd 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
JP2009098774A (ja) * 2007-10-15 2009-05-07 Mitsubishi Electric Corp 人物追跡システム及び人物追跡方法及び人物追跡プログラム
JP2010268186A (ja) * 2009-05-14 2010-11-25 Panasonic Corp 監視画像表示装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7023469B1 (en) * 1998-04-30 2006-04-04 Texas Instruments Incorporated Automatic video monitoring system which selectively saves information
JP2000069346A (ja) * 1998-06-12 2000-03-03 Canon Inc カメラ制御装置、方法、カメラ、追尾カメラシステム及びコンピュ―タ読み取り可能な記憶媒体
US6359647B1 (en) * 1998-08-07 2002-03-19 Philips Electronics North America Corporation Automated camera handoff system for figure tracking in a multiple camera system
US7242423B2 (en) * 2003-06-16 2007-07-10 Active Eye, Inc. Linking zones for object tracking and camera handoff
WO2005071965A1 (ja) 2004-01-22 2005-08-04 Hitachi Kokusai Electric Inc. 映像配信装置
EP2200313A1 (en) * 2004-11-12 2010-06-23 Saab Ab Image-based movement tracking
JP4759988B2 (ja) 2004-11-17 2011-08-31 株式会社日立製作所 複数カメラを用いた監視システム
JP4797753B2 (ja) 2006-03-31 2011-10-19 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4881766B2 (ja) * 2007-03-06 2012-02-22 パナソニック株式会社 カメラ間連結関係情報生成装置
US7965865B2 (en) * 2007-05-31 2011-06-21 International Business Machines Corporation Method, system, and program product for presenting electronic surveillance data
DE102007054819A1 (de) 2007-11-16 2009-05-20 Robert Bosch Gmbh Überwachungssystem mit Zustandserfassungsmodul, Verfahren zur Selbstüberwachung eines Beobachters sowie Computerprogramm
TWI391801B (zh) * 2008-12-01 2013-04-01 Inst Information Industry 接手視訊監控方法與系統以及電腦裝置
TWI405457B (zh) * 2008-12-18 2013-08-11 Ind Tech Res Inst 應用攝影機換手技術之多目標追蹤系統及其方法,與其智慧節點
RU2484531C2 (ru) * 2009-01-22 2013-06-10 Государственное научное учреждение центральный научно-исследовательский и опытно-конструкторский институт робототехники и технической кибернетики (ЦНИИ РТК) Устройство обработки видеоинформации системы охранной сигнализации
CN101739551B (zh) * 2009-02-11 2012-04-18 北京智安邦科技有限公司 运动目标识别方法及系统
JP5753966B2 (ja) 2010-08-05 2015-07-22 パナソニックIpマネジメント株式会社 顔画像登録装置および方法
WO2012132437A1 (ja) 2011-03-31 2012-10-04 パナソニック株式会社 人数計測装置
CN102496001B (zh) 2011-11-15 2015-02-25 无锡港湾网络科技有限公司 一种视频监控目标自动检测的方法和系统
US8781293B2 (en) * 2012-08-20 2014-07-15 Gorilla Technology Inc. Correction method for object linking across video sequences in a multiple camera video surveillance system
JP5356615B1 (ja) 2013-02-01 2013-12-04 パナソニック株式会社 顧客行動分析装置、顧客行動分析システムおよび顧客行動分析方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009142A (ja) * 2001-06-21 2003-01-10 Hitachi Ltd 監視システムおよび制御装置
JP2005012415A (ja) * 2003-06-18 2005-01-13 Matsushita Electric Ind Co Ltd 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
JP2009098774A (ja) * 2007-10-15 2009-05-07 Mitsubishi Electric Corp 人物追跡システム及び人物追跡方法及び人物追跡プログラム
JP2010268186A (ja) * 2009-05-14 2010-11-25 Panasonic Corp 監視画像表示装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016125420A1 (ja) * 2015-02-05 2017-08-31 株式会社リコー 画像処理装置、画像処理システム、画像処理方法およびプログラム
GB2553991A (en) * 2015-05-26 2018-03-21 Panasonic Ip Man Co Ltd Tracking support apparatus, tracking support system, and tracking support method
JP2016220173A (ja) * 2015-05-26 2016-12-22 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
WO2016189782A1 (ja) * 2015-05-26 2016-12-01 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
GB2553991B (en) * 2015-05-26 2021-07-21 Panasonic Ip Man Co Ltd Tracking support apparatus, tracking support system, and tracking support method
JP6206857B1 (ja) * 2016-08-24 2017-10-04 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2018032994A (ja) * 2016-08-24 2018-03-01 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
GB2566912A (en) * 2016-08-24 2019-03-27 Panasonic Ip Man Co Ltd Tracking assistance device, tracking assistance system and tracking assitance method
WO2018037631A1 (ja) * 2016-08-24 2018-03-01 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
DE102017122554A1 (de) 2016-09-30 2018-04-05 Canon Kabushiki Kaisha Informationenverarbeitungsvorrichtung, informationenverarbeitungsverfahren und speichermedium
US11049374B2 (en) 2016-12-22 2021-06-29 Nec Corporation Tracking support apparatus, terminal, tracking support system, tracking support method and program
US11727775B2 (en) 2016-12-22 2023-08-15 Nec Corporation Tracking support apparatus, terminal, tracking support system, tracking support method and program
CN108564027A (zh) * 2018-04-11 2018-09-21 北京学之途网络科技有限公司 一种确定观看菜单顾客的进店状态的方法和装置

Also Published As

Publication number Publication date
US20150015718A1 (en) 2015-01-15
JP5506989B1 (ja) 2014-05-28
GB2516173A (en) 2015-01-14
GB2516173B (en) 2016-05-11
RU2551128C1 (ru) 2015-05-20
CN104284146B (zh) 2018-03-30
US9191633B2 (en) 2015-11-17
DE102014213553B4 (de) 2019-07-18
GB201412255D0 (en) 2014-08-27
DE102014213553A1 (de) 2015-01-15
CN104284146A (zh) 2015-01-14

Similar Documents

Publication Publication Date Title
JP5506989B1 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP5506990B1 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP5438861B1 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6399356B2 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
US10181197B2 (en) Tracking assistance device, tracking assistance system, and tracking assistance method
US10334965B2 (en) Monitoring device, monitoring system, and monitoring method
US9298987B2 (en) Information processing apparatus, information processing method, program, and information processing system
JP6347211B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6210234B2 (ja) 画像処理システム、画像処理方法及びプログラム
US9477891B2 (en) Surveillance system and method based on accumulated feature of object
US20210012632A1 (en) Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not
US10043079B2 (en) Method and apparatus for providing multi-video summary
WO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP2008085874A (ja) 人物監視システムおよび人物監視方法
US10489921B2 (en) Behavior analysis apparatus and behavior analysis method
US20230386218A1 (en) Information processing apparatus, control method of information processing apparatus, and program recording medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140318

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250