JP2021197044A - 人物追跡支援装置および人物追跡支援システム - Google Patents

人物追跡支援装置および人物追跡支援システム Download PDF

Info

Publication number
JP2021197044A
JP2021197044A JP2020104980A JP2020104980A JP2021197044A JP 2021197044 A JP2021197044 A JP 2021197044A JP 2020104980 A JP2020104980 A JP 2020104980A JP 2020104980 A JP2020104980 A JP 2020104980A JP 2021197044 A JP2021197044 A JP 2021197044A
Authority
JP
Japan
Prior art keywords
person
camera
time
tracked
support device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020104980A
Other languages
English (en)
Other versions
JP6935545B1 (ja
Inventor
尚宏 木皿
Naohiro Kisara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Building Solutions Corp
Original Assignee
Mitsubishi Electric Building Techno Service Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Building Techno Service Co Ltd filed Critical Mitsubishi Electric Building Techno Service Co Ltd
Priority to JP2020104980A priority Critical patent/JP6935545B1/ja
Priority to CN202110642950.4A priority patent/CN113823072A/zh
Priority to US17/343,844 priority patent/US11574410B2/en
Application granted granted Critical
Publication of JP6935545B1 publication Critical patent/JP6935545B1/ja
Publication of JP2021197044A publication Critical patent/JP2021197044A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B27/00Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations
    • G08B27/001Signalling to an emergency team, e.g. firemen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B5/00Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied
    • G08B5/22Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】2つのカメラのそれぞれで特定された追跡対象者の情報を用いて、追跡対象者の追跡を支援できるようにする。【解決手段】人物追跡支援装置は、第1カメラ14−1に映った人物の顔画像から特定された追跡対象者Tの識別情報と、追跡対象者Tが第1カメラ14−1に映った第1時刻とを取得すると共に、追跡対象者Tが第1カメラ14−1から離れて位置する第2カメラ14−2に映った第2時刻を取得し、第1時刻から第2時刻までの経過時間と、第1カメラ14−1から第2カメラ14−1までの距離とに基づいて、特定領域70A、70Bに追跡対象者Tが到達する時刻を予測し、複数の監視者Pのそれぞれが所持する携帯端末装置に、追跡対象者Tの識別情報、特定領域70A、70B、および予測した上記時刻を通知する。【選択図】図4

Description

本発明は、公共施設、商業施設等における人物の追跡を支援する人物追跡支援装置および人物追跡支援システムに関する。
近年、コンピュータを用いた顔認識技術の認識能力は大きく進歩しており、顔認識技術により、例えば空港の監視カメラに映った人物の顔から指名手配被疑者(以下、指名手配犯と言う)等を検知することが可能である。また、警察官の事件現場への派遣を支援する技術や、施設の不法侵入者の追跡を支援する技術も提案されている。
特許文献1には、警察官が所持する現場端末が事件現場(対象地点)への直行依頼を受け付け、現場端末に、当該端末の現在位置から対象地点までの経路情報を含む地図情報を表示させる、誘導システムが開示されている。
特許文献2には、敷地内へ侵入した侵入者の位置情報と、敷地内の施設情報に基づいて侵入者の目的地を推定し、推定された目的地と敷地内の道情報に基づいて侵入者の目的地までの侵入経路を計算し、侵入経路と警備員の位置情報に基づいて包囲経路を導出し、警備員の携帯端末に、敷地内地図と包囲経路を表示する、侵入者追跡装置が開示されている。
特許文献3には、指名手配犯などの特定人物の顔写真のリストを記憶しておき、監視カメラが取得した画像から特定人物の顔写真を検出すると、所定の端末装置に、当該顔写真の情報を含む警告を通知する、顔認証装置が開示されている。
特開2018−60481号公報 特開2019−53483号公報 特開2019−9529号公報
ところで、施設内の各所に配置されたカメラのそれぞれに映った人物の顔画像から、指名手配犯等の追跡対象者を特定することはできる。しかし、従来、複数のカメラのそれぞれで特定された追跡対象者の情報を連携することで、追跡対象者の追跡を支援する技術については、十分な検討がなされていない。
本発明の目的は、複数のカメラのそれぞれで特定された追跡対象者の情報を用いて、追跡対象者の追跡を支援できるようにすることにある。
本発明の人物追跡支援装置は、第1カメラに映った人物の顔画像から特定された追跡対象者の識別情報と、前記追跡対象者が前記第1カメラに映った第1時刻とを取得すると共に、前記追跡対象者が前記第1カメラから離れて位置する第2カメラに映った第2時刻を取得する取得部と、前記第1時刻から前記第2時刻までの経過時間と、前記第1カメラから前記第2カメラまでの距離とに基づいて、前記第1カメラに対して前記第2カメラの側に位置する経路上の特定領域に前記追跡対象者が到達する時刻を予測する予測部と、複数の監視者のそれぞれが所持する携帯端末装置に、前記追跡対象者の識別情報、前記特定領域、および前記予測部が予測した前記時刻を通知する通知部と、を備える、ことを特徴とする。
この構成によれば、監視者は、携帯端末装置に通知された情報により、特定領域に、追跡対象者の到達時刻よりも前に先回りする動作が可能となり、追跡対象者を見失うことを抑制することができる。
本発明の人物追跡支援装置において、前記取得部は、前記追跡対象者が前記第2カメラから前記特定領域の間に位置する第3カメラに映った第3時刻をさらに取得し、前記予測部は、前記第2時刻から前記第3時刻までの経過時間と、前記第2カメラから前記第3カメラまでの距離とに基づいて、予測した前記時刻を更新し、前記通知部は、前記携帯端末装置に、前記予測部が更新した前記時刻を通知する、としてもよい。
この構成によれば、追跡対象者の移動速度が変化する場合でも、追跡対象者が特定領域に到達する予測時刻の精度を高めることができる。例えば、第1カメラと第2カメラの間の区間で追跡対象者が立ち止まったり、寄り道をしたりすることで、予測した時刻が過剰に遅くなっている場合、または、第1カメラと第2カメラの間の区間で追跡対象者が水平型あるいは階段型のエスカレーター等に乗ることで予測した時刻が過剰に早まっている場合などに、予測した時刻が更新されるので、その精度を高めることができる。
本発明の人物追跡支援装置において、前記特定領域は、2以上あり、複数の前記特定領域のそれぞれに前記追跡対象者が進む予測割合を、現在または過去の前記各特定領域への人の流れの情報に基づいて特定する特定部と、前記予測割合に基づいて、前記監視者の中から前記特定領域のそれぞれに配備する追跡者を設定する設定部と、をさらに備え、前記通知部は、前記各追跡者の携帯端末装置に、前記各追跡者に設定された前記特定領域への配備指令を通知する、としてもよい。
この構成によれば、追跡対象者が進む可能性がある複数の特定領域のそれぞれに、適切な追跡者を配備することができ、各追跡者は、追跡対象者の到達時刻よりも前に各特定領域に先回りする動作が可能となり、追跡対象者を見失うことを抑制することができる。
本発明の人物追跡支援装置において、前記設定部は、前記予測割合がある予測割合である特定領域に比べて、前記ある予測割合よりも高い予測割合を有する別の特定領域に配備する追跡者の数を多くする、としてもよい。
この構成によれば、追跡対象者が進んでくる可能性が高い特定領域の配備を手厚くすることができ、追跡対象者を見失う可能性を低減することができる。
本発明の人物追跡支援装置において、前記設定部は、前記追跡対象者の容疑の種類を取得し、前記容疑の種類から前記追跡対象者が強力犯であると特定される場合には、前記容疑の種類から前記追跡対象者が知能犯であると特定される場合に比べて、前記ある特定領域と前記別の特定領域の少なくとも一方に配備する追跡者の数を多くする、としてもよい。
この構成によれば、追跡対象者の追跡者に対する抵抗力を予測して、追跡者の過小または過剰な配備を抑制することができる。
本発明の人物追跡支援装置において、前記追跡対象者の特徴情報を取得し、前記特徴情報に基づいて、前記監視者の中から前記特定領域に配備する追跡者を設定する設定部をさらに備え、前記通知部は、前記追跡者の携帯端末装置に、前記特定領域への配備指令を通知する、としてもよい。
この構成によれば、追跡対象者に対して適切な追跡者を特定領域に配備することができる。
本発明の人物追跡支援装置において、前記特徴情報は、前記追跡対象者の容疑の種類を含み、前記設定部は、前記容疑の種類から前記追跡対象者が強力犯であると特定される場合には、前記容疑の種類から前記追跡対象者が知能犯であると特定される場合に比べて、前記特定領域に配備する追跡者の数を多くする、としてもよい。
この構成によれば、追跡対象者の追跡者に対する抵抗力を予測して、追跡者の過小または過剰な配備を抑制することができる。
本発明の人物追跡支援装置において、前記特徴情報は、前記追跡対象者の容疑の種類を含み、前記設定部は、前記容疑の種類から前記追跡対象者が強力犯であると特定される場合には、前記容疑の種類から前記追跡対象者が知能犯であると特定される場合に比べて、特定キャリアを有する前記監視者がより多く配備されるように追跡者を設定する、としてもよい。
この構成によれば、追跡対象者が強力犯である場合に、その追跡者対象者の取り逃しを抑制することができる。
本発明の人物追跡支援システムは、第1カメラに映った人物の顔画像から追跡対象者を特定して、前記追跡対象者が前記第1カメラに映った第1時刻を取得すると共に、前記第1カメラから離れて位置する第2カメラに映った人物の顔画像から前記追跡対象者を特定して、前記追跡対象者が前記第2カメラに映った第2時刻を取得する認証装置と、前記認証装置から、前記追跡対象者の識別情報、前記第1時刻、および前記第2時刻を取得する人物追跡支援装置と、前記人物追跡支援装置と通信可能に接続され、複数の監視者のそれぞれが所持する携帯端末装置と、を含み、前記人物追跡支援装置は、前記第1時刻から前記第2時刻までの経過時間と、前記第1カメラから前記第2カメラまでの距離とに基づいて、前記第1カメラに対して前記第2カメラの側に位置する経路上の特定領域に前記追跡対象者が到達する時刻を予測し、前記各携帯端末装置に、前記追跡対象者の識別情報、前記特定領域、および予測した前記時刻とを通知する、ことを特徴とする。
この構成によれば、監視者は、携帯端末装置に通知された情報により、特定領域に、追跡対象者の到達時刻よりも前に先回りする動作が可能となり、追跡対象者を見失うことを抑制することができる。
本発明によれば、複数のカメラのそれぞれで特定された追跡対象者の情報を連携させることで、追跡対象者の追跡を支援することができる。
人物追跡支援システムの全体構成を模式的に示す図である。 人物追跡支援装置のハードウェア構成の一例を示す図である。 人物追跡支援装置の機能ブロック図である。 人物追跡支援装置による人物追跡の支援を説明するための図である。 追跡対象者の特徴に応じた追跡者の設定について説明するための図である。 携帯端末装置の表示画面の一例を示す図である。 携帯端末装置の表示画面の別の一例を示す図である。
以下、本発明に係る実施形態について添付図面を参照しながら詳細に説明する。以下で述べる構成は、説明のための例示であって、システム、装置の仕様等に合わせて適宜変更が可能である。また、以下において複数の実施形態や変形例などが含まれる場合、それらの特徴部分を適宜に組み合わせて用いることは当初から想定されている。全ての図面において同一の要素には同一の符号を付し、重複する説明を省略する。
図1は、本実施形態に係る人物追跡支援システム10の全体構成を模式的に示す図である。人物追跡支援システム10は、公共施設、商業施設等に現れる指名手配犯等の追跡対象者の追跡を支援するシステムである。公共施設としては、例えば空港、駅、バスターミナル、客船ターミナル等が挙げられ、商業施設としては、例えばショッピングモール、ホームセンター、遊園地等が挙げられるが、これらに限定されるものではない。以下では、人物追跡支援システム10を空港に適用した例について説明する。追跡対象者は、国内外の指名手配犯に限らず、追跡して取り押さえる必要がある人物であればよい。
人物追跡支援システム10は、施設内に設置された複数のカメラ14−1〜14−n(nは正の整数)と、認証装置16と、人物追跡支援装置12と、施設内の監視者のそれぞれが所持する携帯端末装置18−1〜18−m(mは正の整数)と、を備え、それらは、LAN(Local Area Network)等のネットワーク22を介して通信可能に接続されている。複数の携帯端末装置18−1〜18−mは、アクセスポイント20に無線接続することで、ネットワーク22に接続されている。なお、監視者とは、監視員、警備員、警察官等であり、追跡対象者を追跡する追跡者になり得る者である。以下、カメラ14−1〜14−nのそれぞれを識別する必要がない場合はカメラ14と言い、携帯端末装置18−1〜18−mのそれぞれを識別する必要がない場合は携帯端末装置18と言う。
カメラ14は、撮影機能と通信機能を有する監視カメラ等の撮像装置であり、施設の壁、天井などに設置されて、予め定められた領域を撮像する。カメラ14は、撮像画像をネットワーク22を介して認証装置16に送信する。
認証装置16は、顔認証を行うコンピュータである。認証装置16は、各カメラ14から撮像画像を受信して、各撮像画像に現れる人の顔画像を、追跡対象者のリストの顔画像と照合することで、追跡対象者を特定する。なお、追跡対象者のリストには、追跡対象者ごとに、顔画像、氏名等の識別情報と、性別、国籍、犯罪容疑、武器所持歴等の特徴情報とが対応づけて記録されている。認証装置16は、カメラ14の撮像画像から特定した追跡対象者の識別情報および特徴情報と、特定した追跡対象者が各カメラ14に映った時刻を、ネットワーク22を介して人物追跡支援装置12に送信する。
人物追跡支援装置12は、追跡対象者を追跡して取り押さえるための情報を、各監視者の携帯端末装置18に提供するコンピュータである。人物追跡支援装置12は、認証装置16から、同装置が特定した追跡対象者の識別情報と特徴情報を受信して、ネットワーク22を介して各携帯端末装置18に転送する。また、人物追跡支援装置12は、認証装置16から、同装置が特定した追跡対象者が各カメラ14に映った時刻を受信して、それらから追跡対象者が施設内の特定領域に到達する時刻を予測し、予測した時刻をネットワーク22を介して各携帯端末装置18に送信する。
携帯端末装置18は、スマートフォン、タブレット端末等である。携帯端末装置18は、人物追跡支援装置12から、追跡対象者の識別情報および特徴情報を受信すると共に、同装置が予測した、追跡対象者が施設内の特定領域に到達する時刻を受信し、それらを自装置のタッチパネルやディスプレイ(以下、タッチパネル等と言う)に表示する。図6には、携帯端末装置18の表示画面の一例が示されている。
また、携帯端末装置18には、人物追跡支援システム10が適用される施設(本実施形態では空港)のマップがインストールされている。携帯端末装置18は、屋内測位技術を用いて自装置の位置情報を取得し、自装置の位置を施設のマップに重畳させた画面(以下、マップ画面と言う)を、自装置のタッチパネル等に表示する。図7には、マップ画面92の一例が示されており、星印が自装置の位置Mを示している。なお、屋内測位技術としては、例えば、ビーコン(Beacon)やWi−Fi(登録商標)アクセスポイントからの電波を携帯端末装置18が受信し、その受信強度から自装置の位置情報を得る公知技術を用いることができるが、他の測位技術を用いてもよい。
次に、人物追跡支援装置12について詳細に説明する。図2は、人物追跡支援装置12のハードウェア構成の一例を示す図である。人物追跡支援装置12は、例えば、プロセッサ30、ROM36、RAM38、ハードディスクドライブ(HDD)40、ネットワークカード等の通信部42、マウスやキーボード等の入力部32、およびディスプレイ等の表示部34を含み、これらがバス46に接続されて構成されている。なお、プロセッサ30は、1つまたは複数のCPUから構成されてもよく、複数のCPUのそれぞれは物理的に互いに離れて位置してもよい。
人物追跡支援装置12は、HDD40等に記憶されたプログラムをプロセッサ30が実行することにより、図3に示すように、取得部50、予測部52、通知部54、特定部56、および設定部58として機能する。なお、プロセッサ30が実行するプログラムは、通信手段により提供することはもちろん、光ディスクやUSBメモリ等のコンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
次に、人物追跡支援システム10の詳細な動作について説明する。図4には、人物追跡支援システム10を用いて空港に現れた追跡対象者Tを追跡する例が示されている。同図には、追跡対象者Tが航空機を降りた後、空港内の通路を通って到着ロビーに向かう様子が示されており、到着ロビーには、出口Aまたは出口Bを通ることで到達できる。また、同図において、頭部分が白抜きの人マークは監視者Pを表しており、頭部分にハッチングが付された人マークは監視者Pのうち後述する配備指令を受けた監視者(追跡者PA)を表している。空港には、複数のカメラ14−1〜14−7が間隔をあけて設置されている。
人がゲート側から出口Aまたは出口Bに向かう時、まず、第1カメラ14−1に人の顔が映る。認証装置16は、第1カメラ14−1の撮像画像に現れる人の顔画像から追跡対象者Tを特定し、特定した追跡対象者Tの識別情報と特徴情報を人物追跡支援装置12に送信する。この時、認証装置16は、追跡対象者Tが第1カメラ14−1に映った時刻である第1時刻を取得し、それも人物追跡支援装置12に送信する。
人物追跡支援装置12の取得部50は、認証装置16からの追跡対象者Tの識別情報、特徴情報、および第1時刻を取得する。そして、人物追跡支援装置12の通知部52は、追跡対象者Tの識別情報と特徴情報を、各監視者Pの携帯端末装置18に転送する。また、人物追跡支援装置12の予測部52は、第1時刻に基づいて、追跡対象者Tが施設の特定領域(図4では70A、70B)に到達する時刻(以下、到達予測時刻と言う)を予測し、同装置12の通知部54は、特定領域を示す情報と共に、到達予測時刻を各監視者Pの携帯端末装置18に送信する。
なお、特定領域は、追跡対象者Tが通過する可能性がある、施設内の予め定められた領域であり、1カ所以上、設けられる。この実施形態では、特定領域は2カ所あり、特定領域70A、70Bのそれぞれは、出口A、Bのそれぞれの手前に設けられている。また、この実施形態では、特定領域70A、70Bは、追跡者PAが追跡対象者Tを取り押さえるために配備される領域でもある。以下、特定領域70A、70Bのそれぞれを識別する必要がない場合は特定領域70と言う。
ここで、第1カメラ14−1から特定領域70Aまでの距離は、予め把握することができる。予測部52は、第1カメラ14−1から特定領域70Aまでの距離を、人の一般的な歩く速度の代表値(例えば平均値)で割り算することで、第1カメラ14−1から特定領域70Aまでの所要時間を予測し、それを第1時刻に加算することで、追跡対象者Tが特定領域70Aに到達する時刻(到達予測時刻)を予測する。特定領域70Bについても同様に、到達予測時刻を予測する。
各監視者Pの携帯端末装置18は、人物追跡支援装置12からの追跡対象者Tの識別情報、特徴情報、特定領域を示す情報、および到達予測時刻を受信する。そして、各監視者Pの携帯端末装置18は、図6に示すように、自装置のタッチパネル等に、追跡対象者Tの識別情報80(図6では氏名および顔画像81)、特徴情報(図6では性別、国籍、および犯罪容疑)、特定領域を示す情報84、および到達予測時刻86を表示する。
また、この時、携帯端末装置18は、アラームやバイブレーションにより、監視者Pに、追跡対象者Tが現れたことを知覚させる。なお、図6に示す配備指令メッセージ88は、監視者P全員の携帯端末装置18に現れるのではなく、以下で説明するように、監視者Pの中から追跡者PAとして設定された者が所持する携帯端末装置18のみに現れるものである。
第1カメラ14−1の撮像画像から追跡対象者Tが特定された際には、人物追跡支援装置12は、さらに、追跡対象者Tを追跡する追跡者PAを設定して、追跡者PAの携帯端末装置18に、特定領域70に配備する指令を出す。具体的には、これは次のように行う。
人物追跡支援装置12は、図5に示すような、追跡対象者の特徴と、配備する追跡者の人数および特徴を対応づけたテーブル96を、HDD40等に予め記憶している。人物追跡支援装置12の設定部58は、認証装置16からの追跡対象者Tの特徴情報を、テーブル96と照合することで、追跡対象者Tの特徴に対応した追跡者PAを設定する。ここで、図5のテーブル96を用いて設定される追跡者PAには次の特徴がある。
追跡対象者Tの容疑の種類が、強力犯である場合には、知能犯である場合に比べて、特定領域70に配備する追跡者PAの人数を多くする。また、追跡対象者Tが強力犯であれば、容疑の種類が殺人または強盗の場合には、その他の容疑の種類の場合に比べて、特定領域70に配備する追跡者PAの人数を多くする。また、追跡対象者Tが武器所持歴を有する場合には、追跡対象者Tが武器所持歴を有しない場合に比べて、特定領域70に配備する追跡者PAの人数を多くする。このようにすれば、追跡対象者Tの追跡者PAに対する抵抗力を予測して、追跡者PAの過小または過剰な配備を抑制することができる。
また、追跡対象者Tの容疑の種類が、強力犯である場合には、知能犯である場合に比べて、特定キャリアを有する監視者Pがより多く追跡者PAとして設定されるようにする。特定キャリアを有する監視者Pとは、例えば警備員または警察官としての経験年数が予め定められた年数以上(図5では5年以上)ある監視者である。また、特定キャリアを有する監視者Pは、例えば、容疑者を取り押さえた経験が過去に予め定められた回数以上ある者や、柔道、空手等の武術のレベルが予め定められたレベル以上である者であってもよい。このようにすれば、追跡対象者Tが強力犯である場合に、それに相応しい追跡者PAを配備することができ、追跡対象者Tの取り逃しを抑制することができる。
また、追跡対象者Tが女性である場合には、女性の監視者Pが少なくとも1人、追跡者PAとして設定されるようにする。このようにすれば、女性の追跡対象者Tを円滑に取り押さえることができる。以上が、図5のテーブル96に基づいて設定される追跡者PAの特徴である。
次に、人物追跡支援装置12の取得部50は、各携帯端末装置18から、監視者Pの位置情報として、携帯端末装置18の位置情報を取得する。また、人物追跡支援装置12の取得部50は、各携帯端末装置18から、携帯端末装置18に予め記憶された、それを所持する監視者Pの特徴情報(性別、特定キャリアの有無等)を取得する。
そして、人物追跡支援装置12の設定部58は、テーブル96で得られた追跡者PAの人数だけ、特定領域70の近くにいる監視者Pから順に追跡者PAを割り当てる。この際、女性、または、特定キャリアを有する者を追跡者PAとして設定する必要がある場合には、特定領域70のより近くにいる女性、または、特定キャリアを有する者を、まず、追跡者PAとして割り当てた後、残りの人数だけ、特定領域70の近くにいる監視者Pを追跡者PAとして割り当てる。
ここで、図4に示すように、施設の通路が分岐されていることで、追跡対象者Tが進んでくる可能性がある領域が2カ所以上あり、それに対応させて特定領域70が2カ所以上設けられている場合(図4では特定領域70A、70Bの2カ所)には、人物追跡支援装置12の設定部58は、特定領域70A、70Bごとに追跡者PAを設定する。これは、具体的には次のように行う。
まず、人物追跡支援装置12の特定部56は、各特定領域70A、70Bに追跡対象者Tが進む予測割合を、現在または過去の各特定領域70A、70Bへの人の流れの情報に基づいて特定する。例えば、特定部56は、特定領域70A、70Bのそれぞれに向かう通路の途中に設けられたカメラ14の現在または過去の撮像画像から、特定領域70A、70Bのそれぞれに向かう人の量の相対的な割合を検出し、それを、特定領域70A、70Bの予測割合とする(例えば、特定領域70Aに向かう人の量:特定領域70Bに向かう人の量=8:2であれば、特定領域70Aの予測割合=80%、特定領域70Bの予測割合=20%とする)。また、例えば、特定部56は、特定領域70A、70Bのそれぞれに向かう通路の途中に設けられたカメラ14の現在の撮像画像から、どちらかの通路が清掃や工事などにより塞がっている、または、通り難くなっていることを検出した際には、その通路の先にある特定領域の予測割合を0%、または、それに近くしてもよい。また、例えば、特定部56は、時期(各月、繁忙期、閑散期など)や1日の中の時間帯によって、特定領域70A、70Bのそれぞれに向かう人の相対的な割合が変化するような場合には、時期や1日の中の時間帯に対する各特定領域70A、70Bの人の量の蓄積情報(過去の統計情報)から、現在の特定領域70A、70Bのそれぞれに向かう人の量の相対的な割合を予測し、その割合を、特定領域70A、70Bの予測割合としてもよい。
次に、人物追跡支援装置12の設定部58は、図5のテーブル96で得られた追跡者PAの人数を、特定された予測割合に応じて分配する。例えば、図5のテーブル96から追跡者PAの数が10人と得られて、特定領域70Aの予測割合が80%、特定領域70Bの予測割合が20%の場合には、特定領域70Aに8人の追跡者PAを設定し、特定領域70Bに2人の追跡者PAを設定する。また、この際、上記と同様に、各特定領域70A、70Bの近くにいる監視者Pから順に追跡者PAを割り当てる。このようにすれば、追跡対象者Tが進む可能性がある複数の特定領域70のそれぞれに、適切な人数の追跡者PAを配備することができる。また、追跡対象者Tが進んでくる可能性が高い特定領域の配備を手厚くすることができ、追跡対象者Tを見失う可能性を低減することができる。
そして、人物追跡支援装置12の通知部54は、追跡者PAとして設定された監視者Pの携帯端末装置18に、配備先の特定領域を示す情報と、当該特定領域への配備指令を通知する。これにより、追跡者PAの携帯端末装置18には、図6の配備指令メッセージ88に示すように、配備先の特定領域(図6では「出口Aの手前」)を含む配備指令が表示される。なお、人物追跡支援装置12の通知部54は、各特定領域70A、70Bの上記した予測割合を、監視者Pの携帯端末装置18に通知し、監視者Pの携帯端末装置18は、それをタッチパネル等に表示するとしてもよい(図6の「可能性80%」、「可能性20%」の表示)。
追跡者PAは、配備指令メッセージ88に従って、指令を受けた特定領域に急行する。なお、監視者Pの携帯端末装置18は、図7に示すように、施設のマップに自装置の位置Mを重畳させたマップ画面92を表示可能である。携帯端末装置18は、人物追跡支援装置12から、他の携帯端末装置18の位置情報を得ることで、マップ画面92上に他の監視者Pの位置も表示することができる。また、携帯端末装置18は、他の携帯端末装置18の所持者が追跡者PAなのか、追跡者PAではない監視者Pなのかを示す情報も得ることで、追跡者PAと、追跡者PAではない監視者Pを区別できるように、監視者Pの位置を表示することができる。図7のマップ画面92では、追跡者PAと、追跡者PAではない監視者Pの違いによって、他の監視者Pの位置を示すマークの形状とハッチングを変えている。なお、携帯端末装置18の所持者自身が、追跡者PAなのか、追跡者PAではない監視者Pなのかに応じて、マップ画面92上の自身の位置Mを示すマークの形状、色、ハッチング等が変わってもよい。また、図7のマップ画面92には、携帯端末装置18の所持者自身が追跡者PAである場合に、配備指令を受けた特定領域の位置(図7では破線の四角)も表示することができる。追跡者PAは、このようなマップ画面92を確認することで、他の追跡者PAの位置を確認しながら、正確に特定領域に向かうことができる。
図4に戻り、説明を続ける。追跡対象者Tが、第1カメラ14−1から第2カメラ14−2に向かって進むと、第2カメラ14−2に追跡対象者Tが映ることになる。認証装置16は、第2カメラ14−2の撮像画像の顔画像から追跡対象者Tを特定し、特定した追跡対象者Tの識別情報を人物追跡支援装置12に送信する。この時、認証装置16は、追跡対象者Tが第2カメラ14−2に映った時刻である第2時刻を取得し、それも人物追跡支援装置12に送信する。
人物追跡支援装置12の取得部50は、認証装置16からの追跡対象者Tの識別情報および第2時刻を取得する。そして、人物追跡支援装置12は、取得した追跡対象者Tの識別情報が、前回取得した追跡対象者Tの識別情報と同じであることを確認すると、同装置12の予測部52は、第1時刻から第2時刻までの経過時間と、第1カメラ14−1から第2カメラ14−2までの距離L1から、追跡対象者Tの移動速度を算出する。
そして、予測部52は、第2カメラ14−2から特定領域70Aまでの距離を、算出した移動速度で割り算することで、第2カメラ14−2から特定領域70Aまでの所要時間を予測し、それを第2時刻に加算することで、追跡対象者Tが特定領域70Aに到達する時刻(到達予測時刻)を再び予測する。特定領域70Bについても同様である。そして、人物追跡支援装置12の通知部54は、特定領域70A、70Bのそれぞれを示す情報と共に、特定領域70A、70Bのそれぞれの到達予測時刻を各監視者Pの携帯端末装置18に送信する。
各監視者Pの携帯端末装置18は、人物追跡支援装置12から特定領域70A、70Bの到達予測時刻を受信して、自装置のタッチパネル等に表示した特定領域70A、70Bの到達予測時刻86を、受信した到達予測時刻に更新する。このようすれば、監視者Pは、追跡対象者Tの実際の移動速度に基づいた、より正確な追跡対象者Tの特定領域70A、70Bへの到達予測時刻を把握することができる。よって、追跡者PAは、特定領域70Aまたは70Bに、追跡対象者Tの到達時刻よりも前に先回りする動作が可能となり、追跡対象者を見失うことを抑制することができる。
次に、追跡対象者Tが、第2カメラ14−2から第3カメラ14−3に向かって進むと、第3カメラ14−3に追跡対象者Tが映ることになる。認証装置16は、第3カメラ14−3の撮像画像の顔画像から追跡対象者Tを特定し、特定した追跡対象者Tの識別情報を人物追跡支援装置12に送信する。この時、認証装置16は、追跡対象者Tが第3カメラ14−3に映った時刻である第3時刻を取得し、それも人物追跡支援装置12に送信する。
人物追跡支援装置12の取得部50は、認証装置16からの追跡対象者Tの識別情報および第3時刻を取得する。そして、人物追跡支援装置12は、取得した追跡対象者Tの識別情報が、前回取得した追跡対象者Tの識別情報と同じであることを確認すると、同装置12の予測部52は、第2時刻から第3時刻までの経過時間と、第2カメラ14−2から第3カメラ14−3までの距離L2から、追跡対象者Tの移動速度を算出する。
そして、予測部52は、第3カメラ14−3から特定領域70Aまでの距離を、算出した移動速度で割り算することで、第3カメラ14−3から特定領域70Aまでの所要時間を予測し、それを第3時刻に加算することで、追跡対象者Tが特定領域70Aに到達する時刻(到達予測時刻)を再び予測する。特定領域70Bについても同様である。そして、人物追跡支援装置12の通知部54は、特定領域70A、70Bのそれぞれを示す情報と共に、特定領域70A、70Bのそれぞれの到達予測時刻を各監視者Pの携帯端末装置18に送信する。
各監視者Pの携帯端末装置18は、人物追跡支援装置12から特定領域70A、70Bの到達予測時刻を受信して、自装置のタッチパネル等に表示した特定領域70A、70Bの到達予測時刻86を、受信した到達予測時刻に更新する。
このように、追跡対象者Tがカメラ14に映るたびに、追跡対象者Tの特定領域70A、70Bの到達予測時刻を更新する。このようにすれば、追跡対象者Tの移動速度が変化する場合でも、到達予測時刻の精度を高めることができる。例えば、追跡対象者Tが第1カメラ14−1と第2カメラ14−2の間で立ち止まったり、化粧室や売店等に寄り道をしたりすると、第1時刻と第2時刻の間の経過時間が長くなり、それから得られた到達予測時刻は過剰に遅くなり得る。一方、追跡対象者Tが第1カメラ14−1と第2カメラ14−2の間で、水平型または階段型のエスカレーター等に乗ると、第1時刻と第2時刻の間の経過時間が短くなり、それから得られた到達予測時刻は過剰に早くなり得る。しかし、上記のように、追跡対象者Tが出口A、Bに向かう途中にある各カメラ14に映るたびに、追跡対象者Tの移動速度を更新すれば、追跡対象者Tの特定領域70A、70Bの到達予測時刻がより正確なものとなる。
なお、人物追跡支援装置12は、追跡対象者Tがカメラ14に映るたびに得られる追跡対象者Tの移動速度を用いて、それらの平均値(以下、平均移動速度と言う)を算出し、平均移動速度で、追跡対象者Tが直近で映ったカメラ14から特定領域70までの距離を割り算することで、追跡対象者Tが直近で映ったカメラ14から特定領域70に到達するまでの所要時間を予測し、特定領域70の到達予測時刻を更新してもよい。また、この際、過大または過小な移動速度を閾値により排除した上で、平均移動速度を算出してもよい。
なお、以上説明した、追跡対象者Tが各カメラ14に映った時刻(第1時刻、第2時刻・・)の情報は、第1、第2・・という各カメラ14の識別子の情報も含んでいるため、人物追跡支援装置12は、認証装置16から、追跡対象者Tがカメラ14に映った時刻を得ることで、追跡対象者Tが現在、どのカメラ14の位置を通過したかを示す情報を得ることができる。そして、人物追跡支援装置12がその情報を各監視者Pの携帯端末装置18に送信することで、携帯端末装置18は、図7のマップ画面92に、追跡対象者Tの位置を重畳して表示することができる。この際、人物追跡支援装置12は、追跡対象者Tが現在、どのカメラ14の位置を通過したかを示す情報と、追跡対象者Tの上記した移動速度または平均移動速度とから追跡対象者Tの現在の位置を予測し、予測した位置情報を、各監視者Pの携帯端末装置18に送信してもよい。このようにすれば、携帯端末装置18は、図7のマップ画面92に、追跡対象者Tのより正確な位置を表示することができる。
追跡者PAは、携帯端末装置18から提供される情報により、追跡対象者Tが特定領域70Aまたは70Bに到達する前に、そこに先回りする動作が可能となり、追跡対象者Tを見失うことが抑制され、追跡対象者Tを取り押さえやすくなる。
なお、以上説明した実施形態では、人物追跡支援装置12が監視者Pの中から追跡者PAを設定し、追跡者PAに配備指令を出した。しかし、人物追跡支援装置12は、追跡者PAを設定せず、配備指令を出さない形態でもよい。この場合でも、監視者Pは、携帯端末装置18から提供される情報に基づいて、特定領域70に、適宜、向かうことができる。
10 人物追跡支援システム、12 人物追跡支援装置、14−1 第1カメラ(カメラ)、14−2 第2カメラ(カメラ)、14−3 第3カメラ(カメラ)、14,14−4〜14−n カメラ、16 認証装置、18,18−1〜18−m 携帯端末装置、20 アクセスポイント、22 ネットワーク、30 プロセッサ、32 入力部、34 表示部、36 ROM、38 RAM、40 ハードディスクドライブ(HDD)、42 通信部、46 バス、50 取得部、52 予測部、54 通知部、56 特定部、58 設定部、70,70A,70B 特定領域、80 識別情報、81 顔画像、82 特徴情報、84 特定領域を示す情報、86 到達予測時刻、88 配備指令メッセージ、92 マップ画面、96 テーブル、M 自身の位置、P 監視者、PA 追跡者、T 追跡対象者。

Claims (9)

  1. 第1カメラに映った人物の顔画像から特定された追跡対象者の識別情報と、前記追跡対象者が前記第1カメラに映った第1時刻とを取得すると共に、前記追跡対象者が前記第1カメラから離れて位置する第2カメラに映った第2時刻を取得する取得部と、
    前記第1時刻から前記第2時刻までの経過時間と、前記第1カメラから前記第2カメラまでの距離とに基づいて、前記第1カメラに対して前記第2カメラの側に位置する経路上の特定領域に前記追跡対象者が到達する時刻を予測する予測部と、
    複数の監視者のそれぞれが所持する携帯端末装置に、前記追跡対象者の識別情報、前記特定領域、および前記予測部が予測した前記時刻を通知する通知部と、を備える、
    ことを特徴とする人物追跡支援装置。
  2. 請求項1に記載の人物追跡支援装置であって、
    前記取得部は、前記追跡対象者が前記第2カメラから前記特定領域の間に位置する第3カメラに映った第3時刻をさらに取得し、
    前記予測部は、前記第2時刻から前記第3時刻までの経過時間と、前記第2カメラから前記第3カメラまでの距離とに基づいて、予測した前記時刻を更新し、
    前記通知部は、前記携帯端末装置に、前記予測部が更新した前記時刻を通知する、
    ことを特徴とする人物追跡支援装置。
  3. 請求項1または2に記載の人物追跡支援装置であって、
    前記特定領域は、2以上あり、
    複数の前記特定領域のそれぞれに前記追跡対象者が進む予測割合を、現在または過去の前記各特定領域への人の流れの情報に基づいて特定する特定部と、
    前記予測割合に基づいて、前記監視者の中から前記特定領域のそれぞれに配備する追跡者を設定する設定部と、をさらに備え、
    前記通知部は、前記各追跡者の携帯端末装置に、前記各追跡者に設定された前記特定領域への配備指令を通知する、
    ことを特徴とする人物追跡支援装置。
  4. 請求項3に記載の人物追跡支援装置であって、
    前記設定部は、前記予測割合がある予測割合である特定領域に比べて、前記ある予測割合よりも高い予測割合を有する別の特定領域に配備する追跡者の数を多くする、
    ことを特徴とする人物追跡支援装置。
  5. 請求項4に記載の人物追跡支援装置であって、
    前記設定部は、前記追跡対象者の容疑の種類を取得し、前記容疑の種類から前記追跡対象者が強力犯であると特定される場合には、前記容疑の種類から前記追跡対象者が知能犯であると特定される場合に比べて、前記ある特定領域と前記別の特定領域の少なくとも一方に配備する追跡者の数を多くする、
    ことを特徴とする人物追跡支援装置。
  6. 請求項1または2に記載の人物追跡支援装置であって、
    前記追跡対象者の特徴情報を取得し、前記特徴情報に基づいて、前記監視者の中から前記特定領域に配備する追跡者を設定する設定部をさらに備え、
    前記通知部は、前記追跡者の携帯端末装置に、前記特定領域への配備指令を通知する、
    ことを特徴とする人物追跡支援装置。
  7. 請求項6に記載の人物追跡支援装置であって、
    前記特徴情報は、前記追跡対象者の容疑の種類を含み、
    前記設定部は、前記容疑の種類から前記追跡対象者が強力犯であると特定される場合には、前記容疑の種類から前記追跡対象者が知能犯であると特定される場合に比べて、前記特定領域に配備する追跡者の数を多くする、
    ことを特徴とする人物追跡支援装置。
  8. 請求項6に記載の人物追跡支援装置であって、
    前記特徴情報は、前記追跡対象者の容疑の種類を含み、
    前記設定部は、前記容疑の種類から前記追跡対象者が強力犯であると特定される場合には、前記容疑の種類から前記追跡対象者が知能犯であると特定される場合に比べて、特定キャリアを有する前記監視者がより多く配備されるように追跡者を設定する、
    ことを特徴とする人物追跡支援装置。
  9. 第1カメラに映った人物の顔画像から追跡対象者を特定して、前記追跡対象者が前記第1カメラに映った第1時刻を取得すると共に、前記第1カメラから離れて位置する第2カメラに映った人物の顔画像から前記追跡対象者を特定して、前記追跡対象者が前記第2カメラに映った第2時刻を取得する認証装置と、
    前記認証装置から、前記追跡対象者の識別情報、前記第1時刻、および前記第2時刻を取得する人物追跡支援装置と、
    前記人物追跡支援装置と通信可能に接続され、複数の監視者のそれぞれが所持する携帯端末装置と、を含み、
    前記人物追跡支援装置は、
    前記第1時刻から前記第2時刻までの経過時間と、前記第1カメラから前記第2カメラまでの距離とに基づいて、前記第1カメラに対して前記第2カメラの側に位置する経路上の特定領域に前記追跡対象者が到達する時刻を予測し、
    前記各携帯端末装置に、前記追跡対象者の識別情報、前記特定領域、および予測した前記時刻とを通知する、
    ことを特徴とする人物追跡支援システム。
JP2020104980A 2020-06-18 2020-06-18 人物追跡支援装置および人物追跡支援システム Active JP6935545B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020104980A JP6935545B1 (ja) 2020-06-18 2020-06-18 人物追跡支援装置および人物追跡支援システム
CN202110642950.4A CN113823072A (zh) 2020-06-18 2021-06-09 人物追踪支援装置及人物追踪支援系统
US17/343,844 US11574410B2 (en) 2020-06-18 2021-06-10 Person tracking support device and person tracking support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020104980A JP6935545B1 (ja) 2020-06-18 2020-06-18 人物追跡支援装置および人物追跡支援システム

Publications (2)

Publication Number Publication Date
JP6935545B1 JP6935545B1 (ja) 2021-09-15
JP2021197044A true JP2021197044A (ja) 2021-12-27

Family

ID=77657880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020104980A Active JP6935545B1 (ja) 2020-06-18 2020-06-18 人物追跡支援装置および人物追跡支援システム

Country Status (3)

Country Link
US (1) US11574410B2 (ja)
JP (1) JP6935545B1 (ja)
CN (1) CN113823072A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11915571B2 (en) * 2020-06-02 2024-02-27 Joshua UPDIKE Systems and methods for dynamically monitoring distancing using a spatial monitoring platform

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017416A (ja) * 2007-07-09 2009-01-22 Mitsubishi Electric Corp 監視装置及び監視方法及びプログラム
WO2010116969A1 (ja) * 2009-04-10 2010-10-14 オムロン株式会社 監視システム、および監視端末
JP2016220173A (ja) * 2015-05-26 2016-12-22 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2020065200A (ja) * 2018-10-18 2020-04-23 パナソニックi−PROセンシングソリューションズ株式会社 車両等検知システムおよび車両等検知方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5003731B2 (ja) * 2009-07-07 2012-08-15 日本電気株式会社 巡回警備支援システム、方法及びプログラム
TW201220215A (en) * 2010-11-08 2012-05-16 Hon Hai Prec Ind Co Ltd Suspicious object recognizing and tracking system and method
CN106716447B (zh) * 2015-08-10 2018-05-15 皇家飞利浦有限公司 占用检测
US10509967B2 (en) * 2015-08-10 2019-12-17 Koninklijke Philips N.V. Occupancy detection
CN106605238B (zh) * 2015-08-10 2018-04-27 皇家飞利浦有限公司 占用监测
US11393108B1 (en) * 2016-02-26 2022-07-19 Amazon Technologies, Inc. Neighborhood alert mode for triggering multi-device recording, multi-camera locating, and multi-camera event stitching for audio/video recording and communication devices
CN106060465A (zh) * 2016-06-20 2016-10-26 陈�胜 基于电子地图和视频监控的动态目标追踪系统及追踪方法
JP2018060481A (ja) * 2016-10-07 2018-04-12 パナソニックIpマネジメント株式会社 誘導システム及び誘導方法
JP6977328B2 (ja) * 2017-06-21 2021-12-08 日本電気株式会社 顔認証装置、人物追跡システム、人物追跡方法、および、人物追跡プログラム
US10726723B1 (en) * 2017-08-25 2020-07-28 Objectvideo Labs, Llc Parking lot use monitoring for small businesses
JP2019053483A (ja) * 2017-09-14 2019-04-04 株式会社東芝 侵入者追跡装置及び侵入者追跡方法
US10628962B2 (en) * 2017-11-08 2020-04-21 Worldcam Llc Determining vehicle dwell time within predetermined zones
JP7378431B2 (ja) * 2018-06-18 2023-11-13 マジック リープ, インコーポレイテッド フレーム変調機能性を伴う拡張現実ディスプレイ
US10586208B2 (en) * 2018-07-16 2020-03-10 Accel Robotics Corporation Smart shelf system that integrates images and quantity sensors
US11196968B1 (en) * 2018-08-08 2021-12-07 Alarm.Com Incorporated System for generating drone video feed overlays based on property monitoring system data
WO2020071839A1 (ko) * 2018-10-04 2020-04-09 씨드로닉스㈜ 선박 및 항만 모니터링 장치 및 방법
US11373427B1 (en) * 2019-01-08 2022-06-28 WiseEye Technology LLC Species pattern evaluation
US11961319B2 (en) * 2019-04-10 2024-04-16 Raptor Vision, Llc Monitoring systems
CN110191424B (zh) * 2019-05-16 2021-06-15 武汉数矿科技有限公司 一种特定嫌疑人的轨迹生成方法和装置
US20220269800A1 (en) * 2019-07-30 2022-08-25 Huawei Technologies Co., Ltd. Privacy protection method for electronic device and electronic device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017416A (ja) * 2007-07-09 2009-01-22 Mitsubishi Electric Corp 監視装置及び監視方法及びプログラム
WO2010116969A1 (ja) * 2009-04-10 2010-10-14 オムロン株式会社 監視システム、および監視端末
JP2016220173A (ja) * 2015-05-26 2016-12-22 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2020065200A (ja) * 2018-10-18 2020-04-23 パナソニックi−PROセンシングソリューションズ株式会社 車両等検知システムおよび車両等検知方法

Also Published As

Publication number Publication date
US20210398298A1 (en) 2021-12-23
JP6935545B1 (ja) 2021-09-15
CN113823072A (zh) 2021-12-21
US11574410B2 (en) 2023-02-07

Similar Documents

Publication Publication Date Title
US11645904B2 (en) Drone-augmented emergency response services
US11157778B2 (en) Image analysis system, image analysis method, and storage medium
US20230412925A1 (en) Video surveillance system and video surveillance method
US11210527B2 (en) Target object identifying device, target object identifying method and target object identifying program
US9767663B2 (en) GPS directed intrusion system with data acquisition
US9607501B2 (en) Systems and methods for providing emergency resources
US9230336B2 (en) Video surveillance
US20110285851A1 (en) Intruder situation awareness system
KR100962529B1 (ko) 객체 추적 방법
JP6361256B2 (ja) 混雑度推定サーバ、および混雑度推定システム
EP3869477A1 (en) Video surveillance system and video surveillance method
JP6977328B2 (ja) 顔認証装置、人物追跡システム、人物追跡方法、および、人物追跡プログラム
KR20160074208A (ko) 비콘신호를 이용한 안전 서비스 제공 시스템 및 방법
US11574410B2 (en) Person tracking support device and person tracking support system
US20200387716A1 (en) Automated surveillance system and method therefor
JP6270410B2 (ja) サーバ装置、情報処理方法及びプログラム
CN106611475A (zh) 自适应建筑布局/效能优化的方法和系统
KR101084597B1 (ko) 감시카메라의 실시간 영상 관제 방법
JP4675217B2 (ja) 追尾型監視システム
US20210233381A1 (en) Hierarchical architecture of the security system of controlled areas of the terrain
Ferreira et al. Integrating the university of são paulo security mobile app to the electronic monitoring system
KR102560847B1 (ko) 영상기반 얼굴 인식, 건강 체크 및 위치 추적 시스템
Bonderup et al. Preventing drowning accidents using thermal cameras
WO2021059385A1 (ja) 空間検知システム、および空間検知方法
KR20070032450A (ko) 지역방범 추적시스템 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210727

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210825

R150 Certificate of patent or registration of utility model

Ref document number: 6935545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350