WO2022030558A1 - 人物を検出または追跡する装置、システム、方法及びプログラム - Google Patents
人物を検出または追跡する装置、システム、方法及びプログラム Download PDFInfo
- Publication number
- WO2022030558A1 WO2022030558A1 PCT/JP2021/028994 JP2021028994W WO2022030558A1 WO 2022030558 A1 WO2022030558 A1 WO 2022030558A1 JP 2021028994 W JP2021028994 W JP 2021028994W WO 2022030558 A1 WO2022030558 A1 WO 2022030558A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- tracking
- person
- whole body
- similarity
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 779
- 238000004364 calculation method Methods 0.000 claims description 187
- 230000000875 corresponding Effects 0.000 claims description 136
- 238000000605 extraction Methods 0.000 claims description 131
- 235000021171 collation Nutrition 0.000 claims description 117
- 238000004458 analytical method Methods 0.000 claims description 97
- 206010011224 Cough Diseases 0.000 claims description 90
- 230000036760 body temperature Effects 0.000 claims description 79
- 230000001815 facial Effects 0.000 claims description 49
- 239000000284 extract Substances 0.000 claims description 36
- 238000000034 method Methods 0.000 description 112
- 238000010586 diagram Methods 0.000 description 61
- 238000004891 communication Methods 0.000 description 35
- 238000010191 image analysis Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 6
- 238000009434 installation Methods 0.000 description 6
- 230000012447 hatching Effects 0.000 description 5
- 208000006572 Human Influenza Diseases 0.000 description 4
- 206010022000 Influenza Diseases 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000004397 blinking Effects 0.000 description 3
- 201000009910 diseases by infectious agent Diseases 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000011002 quantification Methods 0.000 description 2
- 206010053983 Corona virus infection Diseases 0.000 description 1
- 206010037660 Pyrexia Diseases 0.000 description 1
- 241001290864 Schoenoplectus Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- UIIMBOGNXHQVGW-UHFFFAOYSA-M buffer Substances [Na+].OC([O-])=O UIIMBOGNXHQVGW-UHFFFAOYSA-M 0.000 description 1
- 200000000015 coronavirus disease 2019 Diseases 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed circuit television systems, i.e. systems in which the signal is not broadcast
Abstract
この発明の一態様による人物追跡装置においては、画像登録機能部3531によって、追跡を行うべき追跡対象者の顔画像及び全身画像を登録したとき、検知/追跡結果判定機能部34は、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれについて、登録された顔画像に類似する顔画像と、登録された全身画像に類似する全身画像と、の少なくとも一方を検知し、検知アラート出力機能部3532は、その検知/追跡結果判定機能部34が検知した顔画像及び全身画像の少なくとも一方を出力する。
Description
この発明の一態様は、人物を検出または追跡する装置、システム、方法及びプログラムに関する。
従来より、監視カメラによって取得した監視画像から人物の顔を抽出し、その顔の特徴量に基づいて、人物を識別する技術が各種提案されている。更に、近年、顔の特徴量と全身の特徴量とを組み合わせて人物の識別を行うことで、人物識別の精度を向上させる技術も提案されている(例えば、特許文献1参照)。
また、近年、画像から抽出した人物の顔や全身の特徴量の類似度に基づいて人物認証を行う技術の発展に伴い、その認証技術の利用法が各種提案されている。例えば、特許文献2は、監視カメラによって取得した監視画像から抽出した人物の顔認証結果を、通信インタフェース部を介して監視装置等の外部の端末へ送信し、その画面表示部に表示する技術を提案している。
特許文献1に開示されている従来の人物識別技術は、建物や店舗等の入口に設置した監視カメラのように、来訪者の顔画像が確実に取得できる場合は、不審者や得意顧客といった監視対象者の来訪検知を行うために非常に有効な技術である。
一方、監視対象者の来訪検知があった場合に、警備目的や販売促進目的により、その監視対象者がどこにいるのかリアルタイムで追跡したいという要望がある。
しかしながら、追跡を行うべき追跡対象者の移動に伴って追跡対象者の顔の向きは様々に変化し、監視カメラが追跡対象者の顔を捕らえられない場合が多発する。このように監視カメラにより顔画像が取得できない場合には、従来の人物識別技術では人物を識別することができず、よって、追跡対象者の追跡を行うことができなかった。
更に近年、インフルエンザやCOVID-19(新型コロナウイルス感染症)等の感染症対策が強く要請されている。従って、そのような感染症が疑われる人物の来訪検知を行うこと、更には、その人物の施設内移動を追跡する技術が望まれている。
また、特許文献2に開示されている技術では、監視画像を取得する監視カメラの種類や性能により、顔認証の出力結果及び全身照合の出力結果は何れも区々である。そのため、監視装置の画面表示部に表示された認証結果から、監視者はその認証結果の確からしさを認識することが困難である。
この発明は上記事情に着目してなされたもので、一側面では、監視カメラにより追跡対象者の顔画像が取得できない場合でも、追跡対象者を追跡できる技術を提供しようとするものである。
この発明は、別の側面では、監視カメラによって取得した監視画像から感染症等に対応する規定の症状に該当する人物を検知し、追跡できる技術を提供しようとするものである。
この発明は、更に別の側面では、認証結果の確からしさを監視者が容易に認識できる技術を提供しようとするものである。
上記目的を達成するためにこの発明に係る人物追跡装置の第1の態様は、追跡を行うべき追跡対象者の顔画像及び全身画像を登録する登録部と、複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれについて、前記登録された顔画像に類似する顔画像と、前記登録された全身画像に類似する全身画像と、の少なくとも一方を検知する検知部と、前記検知した顔画像及び全身画像の少なくとも一方を出力する出力部と、を具備するようにしたものである。
ここで、この発明に係る人物追跡装置の第2の態様は、第1の態様において、前記監視画像のそれぞれから人物の全身画像を抽出し、前記全身画像からその特徴量である全身特徴量及び人物の顔画像を抽出し、前記顔画像からその特徴量である顔特徴量を抽出する抽出部から、前記抽出部が抽出した前記全身画像、前記全身特徴量及び前記顔特徴量を取得し、それら取得した前記全身画像、前記全身特徴量及び前記顔特徴量を前記監視画像と共に蓄積する画像蓄積部を更に具備し、前記登録部は、監視者が操作する監視端末から前記追跡対象者の顔画像の指定を受け付け、その指定された顔画像に対応する前記画像蓄積部に蓄積された前記全身画像、前記全身特徴量及び前記顔特徴量と、前記顔特徴量を抽出した顔画像とを、追跡用全身画像、追跡用全身特徴量、追跡用顔特徴量及び追跡用顔画像として登録し、前記検知部は、前記登録部による登録の時点から前記画像蓄積部に蓄積されていく前記監視画像を照合用画像として、前記照合用画像それぞれについての、前記抽出部が抽出した前記全身特徴量と前記追跡用全身特徴量との類似度である全身画像類似度、及び、前記抽出部が抽出した前記顔特徴量と前記追跡用顔特徴量との類似度である顔画像類似度を算出する類似度算出部から、前記類似度算出部が算出した前記全身画像類似度及び前記顔画像類似度と前記追跡用顔画像及び前記追跡用全身画像とのセットを取得し、前記全身画像類似度及び前記顔画像類似度の少なくとも一方が、対応する閾値よりも大きいか否か判定し、前記閾値よりも大きい場合に、前記抽出部が前記照合用画像から抽出した全身画像である照合用全身画像及び顔画像である照合用顔画像の内の少なくとも一方の類似度に対応する画像と、前記照合用画像としての前記監視画像を取得した前記監視カメラの位置情報とを、前記登録部によって登録された前記追跡用全身画像及び前記追跡用顔画像と共に表示するための表示用結果を作成し、前記出力部は、前記検知部によって作成された前記表示用結果を前記監視端末に送信して、前記監視端末に前記表示用結果を表示させるようにすることができ、この発明に係る人物追跡システムの一態様は、この人物追跡装置の一態様と、前記複数台の監視カメラと、前記監視者が操作する前記監視端末と、前記抽出部及び前記類似度算出部を備える解析部と、を具備するようにしたものである。
また、この発明に係る人物検出装置の一態様は、互いに異なる判断基準を有する二つ以上の類似度算出手法のそれぞれを用いて特定画像に対する対象画像の類似度を二つ以上算出する類似度算出部が算出した前記類似度のそれぞれに基づいて、前記対象画像を複数の段階に分類するための複数の閾値を、前記類似度算出手法毎に記憶した閾値記憶部と、複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれから抽出した前記対象画像である類似度算出対象者の画像の、前記特定画像である特定人物の画像に対する少なくとも一つの類似度を前記類似度算出部から取得し、前記類似度算出部での前記少なくとも一つの類似度の算出に用いた前記類似度算出手法に対応して前記閾値記憶部に記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記特定人物の画像に類似する画像を検出すると共に、その検出した前記類似度算出対象者の画像が複数の注意段階の何れであるのか検出する検出部と、を具備するようにしたものである。
この発明に係る人物追跡装置の第3の態様は、この発明に係る人物検出装置の一態様と、前記人物検出装置によって前記出力画面に前記段階表示と共に提示された前記特定人物の画像に類似する複数の前記類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の顔画像の指定を、監視者が操作する監視端末から受け付け、その指定された画像を追跡用画像として登録し、前記登録された前記追跡を行うべき前記追跡対象者の画像である前記追跡用画像を前記特定画像として、前記類似度算出部に、少なくとも二つ以上の前記類似度算出手法を用いて前記類似度算出対象者の画像の前記類似度を少なくとも二つ抽出させる登録部と、前記検出部が、前記類似度算出部から取得した前記少なくとも二つ以上の類似度から検出した前記追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像それぞれを、前記検出部が検出した前記注意段階を示す段階表示と共に提示する追跡出力画面を生成する追跡出力画面生成部と、を具備するようにしたものである。
或いは、この発明に係る人物追跡装置の第4の態様は、互いに異なる判断基準を有する二つ以上の類似度算出手法のそれぞれを用いて特定画像に対する対象画像の類似度を二つ以上算出する類似度算出部が算出した前記類似度のそれぞれに基づいて、前記対象画像を複数の段階に分類するための複数の閾値を、前記類似度算出手法毎に記憶した閾値記憶部と、監視者が操作する監視端末から指定された追跡を行うべき追跡対象者の画像を、前記特定画像として登録する登録部と、複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれから抽出した前記対象画像である類似度算出対象者の画像の、前記特定画像に対する少なくとも一つの類似度を前記類似度算出部から取得し、前記類似度算出部での前記少なくとも一つの類似度の算出に用いた前記類似度算出手法に対応して前記閾値記憶部に記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記追跡対象者の画像に類似する画像を検出すると共に、その検出した前記類似度算出対象者の画像が複数の注意段階の何れであるのか検出する検出部と、前記検出部が、前記類似度算出部から取得した前記少なくとも二つ以上の類似度から検出した前記追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像を、前記注意段階を示す段階表示と共に提示するための追跡出力画面を生成する追跡出力画面生成部と、を具備するようにしたものである。
また、この発明に係る人物追跡装置の第5の態様は、複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれに含まれる人物の健康状態に係わる複数種類の状態情報を、前記監視画像のそれぞれから検出する情報抽出部から、前記情報抽出部が検出した前記複数種類の状態情報を取得し、前記取得した前記複数種類の状態情報に基づいて、前記監視画像のそれぞれに含まれる前記人物が規定の症状に該当する特定人物であるか否か判別する判別部と、前記判別部の判別結果に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された人物の画像の内、前記規定の症状に該当する前記特定人物の画像を、追跡対象者画像として登録する登録部と、前記複数台の監視カメラそれぞれで定期的に取得した前記監視画像のそれぞれから、前記登録部によって登録された前記追跡対象者画像に類似する人物の画像を検知する検知部と、前記検知部が検知した前記追跡対象者画像に類似する人物の画像を提示するための追跡出力画面を生成する追跡出力画面生成部と、を具備するようにしたものである。
この発明の各態様によれば、監視カメラにより追跡対象者の顔画像が取得できない場合でも、追跡対象者を追跡できるようになる。
また、この発明の各態様によれば、認証結果の確からしさを監視者が容易に認識できるようになる。
また、この発明の各態様によれば、監視カメラによって取得した監視画像から規定の症状に該当する人物を検知し、追跡できるようになる。
以下、図面を参照してこの発明に係わる実施形態を説明する。
[第1実施形態]
(1)構成
(1-1)全体構成
図1は、この発明の第1実施形態に係る人物追跡システム1の全体構成の一例を示す図である。
(1)構成
(1-1)全体構成
図1は、この発明の第1実施形態に係る人物追跡システム1の全体構成の一例を示す図である。
人物追跡システム1は、例えば、オフィスビルや百貨店等の複数フロアを有する建物、複数店舗を含む商業施設、等の広い監視範囲を有する大型施設において、特定の人物を追跡するシステムである。
この人物追跡システム1は、複数台の監視カメラ10と、各監視カメラ10に対応して設けられた映像解析機能部20及びこの発明の第1実施形態に係る人物追跡装置として機能するWebサーバ30を備えるサーバ装置SVと、監視端末40と、を含む。各監視カメラ10と、サーバ装置SVと、監視端末40とは、ネットワークNETを介して接続されている。
ネットワークNETは、構内ネットワークであり、例えば、無線LAN(Local Area Network)または有線LANである。ネットワークNETは、インターネットのような広域ネットワークであっても良い。
複数の監視カメラ10は、互いの撮影範囲が重ならないように或いは一部重なるように、大型施設内に分散配置されたネットワークカメラである。監視カメラ10は、撮影範囲内の動画像を撮影するビデオカメラであって良く、動画像を構成する各フレーム画像を撮影範囲の監視画像として取得することができる。また監視カメラ10は、一定のタイムインターバルで静止画像を撮影することで、定期的に監視画像を取得するスチルカメラであっても良い。
サーバ装置SV内に配置された複数の映像解析機能部20のそれぞれは、対応する監視カメラ10から取得した監視画像に対する様々な解析機能を有している。この映像解析機能部20が提供する解析機能の詳細については、後述する。なお、映像解析機能部20は、このようにサーバ装置SVの内部に配置されるのではなく、専用の演算装置やクラウドなどに独立して配置し、ネットワークNETを介して対応する監視カメラ10とサーバ装置SVとの間でデータを授受することも可能である。また、映像解析機能部20は、監視カメラ10が演算機能を持つのであれば、そのカメラ内部に配置することも可能である。なお、本実施形態では、監視カメラ10と映像解析機能部20とを1対1に対応させて構成しているが、一つの映像解析機能部20が複数台の監視カメラ10に割り当てられていても良い。
サーバ装置SVのWebサーバ30は、サーバコンピュータによって構成され、機能部として、ファイルサーバ31、データベース(以下、DBと略記する。)サーバ32、Webアプリケーション35、検索用人検知結果保存機能部33、及び、検知/追跡結果判定機能部34を含む。これら各機能部の詳細については、後述する。
監視端末40は、パーソナルコンピュータ等のコンピュータによって構成され、Webブラウザ41のプログラムを実行することができる。Webブラウザ41により、監視端末40を操作する警備員等の監視者は、Webサーバ30のWebアプリケーション35が提供する人物追跡結果を閲覧することができる。なお、図1では、監視端末40は、一台のみを示しているが、人物追跡システム1は、監視端末40を複数含んでも良い。
また、サーバ装置SVが監視端末40の機能を備えていても良い。
(1-2)映像解析機能部20
図2は、図1に示した映像解析機能部20の構成の一例を示すブロック図である。映像解析機能部20は、画像取得モジュール21、人検知情報抽出機能部22及び監視/追跡実行機能部23を備える。
図2は、図1に示した映像解析機能部20の構成の一例を示すブロック図である。映像解析機能部20は、画像取得モジュール21、人検知情報抽出機能部22及び監視/追跡実行機能部23を備える。
画像取得モジュール21は、ネットワークNETを介して監視カメラ10からRTSP(Real Time Streaming Protocol)等の所定の通信プロトコルに従って送信されてくるフレーム画像を取得する。画像取得モジュール21は、取得したフレーム画像をサーバ内通信やWebsocket等によりWebサーバ30に送信し、ファイルサーバ31に蓄積させる。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、画像取得モジュール21は、取得したフレーム画像をネットワークNETを介してWebサーバ30に送信する。また、画像取得モジュール21は、取得したフレーム画像を人検知情報抽出機能部22に送る。
人検知情報抽出機能部22は、入力された画像から人物の全身画像を抽出し、この全身画像からその特徴量である全身特徴量及び人物の顔画像を抽出し、さらにこの顔画像からその特徴量である顔特徴量を抽出する抽出部として機能する。具体的には、人検知情報抽出機能部22は、全身検出モジュール221、領域追跡モジュール222、全身特徴量抽出モジュール223、顔検出モジュール224及び顔特徴量抽出モジュール225を備える。
全身検出モジュール221は、入力画像であるフレーム画像に写っている人物それぞれの全身を検出して、全身画像を抽出する全身画像抽出部である。全身検出モジュール221は、例えば、深層学習(Deep Leaning)等の機械学習により事前に学習させた人物の全身画像に基づいて、人物の全身を検出することができる。全身検出モジュール221は、抽出した全身画像を、サーバ内通信やWebsocket等によりWebサーバ30に送信し、ファイルサーバ31に蓄積させる。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、全身検出モジュール221は、抽出した全身画像をネットワークNETを介してWebサーバ30に送信する。また、全身検出モジュール221は、抽出した全身画像を、全身特徴量抽出モジュール223及び顔検出モジュール224にも送る。さらに、全身検出モジュール221は、フレーム画像と抽出した全身画像を領域追跡モジュール222に送る。
領域追跡モジュール222は、全身検出モジュール221から入力されたフレーム画像中の全身画像の領域位置を検出する。
全身特徴量抽出モジュール223は、入力された全身画像から全身特徴量を抽出する全身特徴量抽出部である。全身特徴量は、全身画像に含まれる人物の体の特徴を客観的に数値化したものである。例えば、全身特徴量は、画像から推定される体型、身長、性別、年代、等の人物自体の属性情報を数値化したものとすることができる。全身特徴量抽出モジュール223は、深層学習(例えばDeep-person-reid等)等の事前に学習したモデルを用いて、全身特徴量を抽出することができる。また、全身特徴量抽出モジュール223は、これら全身特徴量を、HOG(Histogram of Oriented Gradients)やSIFT(Scaled Invariance Feature Transform)等の局所画像特徴量として算出することも可能である。全身特徴量抽出モジュール223は、抽出した全身特徴量を、サーバ内通信やWebsocket等によりWebサーバ30に送信し、ファイルサーバ31に蓄積させる。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、全身特徴量抽出モジュール223は、抽出した全身特徴量をネットワークNETを介してWebサーバ30に送信する。さらに、全身特徴量抽出モジュール223は、抽出した全身特徴量を、監視/追跡実行機能部23に送る。
顔検出モジュール224は、入力された全身画像から人物の顔を検出して、顔画像を抽出する顔画像抽出部である。顔検出モジュール224は、例えば、深層学習等の機械学習により事前に学習させた人物の顔画像に基づいて、人物の顔を検出することができる。顔検出モジュール224は、抽出した顔画像を、顔特徴量抽出モジュール225に送る。
顔特徴量抽出モジュール225は、入力された顔画像から顔特徴量を抽出する顔特徴量抽出部である。顔特徴量は、顔画像に含まれる人物の顔の特徴を客観的に数値化したものである。顔特徴量抽出モジュール225は、例えば、全身特徴量を抽出する全身特徴量抽出モジュール223と同様に、深層学習等で事前に学習したモデルを用いて顔特徴量を抽出することができる。また、顔検出モジュール224は、これら顔特徴量を、HOGやSIFT等の局所画像特徴量として算出しても良い。顔検出モジュール224は、抽出した顔特徴量を、サーバ内通信やWebsocket等によりWebサーバ30に送信し、ファイルサーバ31に蓄積させる。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、顔特徴量抽出モジュール225は、抽出した顔特徴量をネットワークNETを介してWebサーバ30に送信する。さらに、顔検出モジュール224は、抽出した顔特徴量を、監視/追跡実行機能部23に送る。
また、監視/追跡実行機能部23は、二つの入力画像の全身特徴量の類似度である全身画像類似度、及び、二つの入力画像の顔特徴量の類似度である顔画像類似度を算出する類似度算出部として機能する。具体的には、監視/追跡実行機能部23は、全身照合モジュール231及び顔照合モジュール232を備える。
全身照合モジュール231は、全身特徴量抽出モジュール223から入力された全身特徴量と、監視端末40から指示された追跡対象の人物の全身特徴量との類似度を算出する。追跡対象の人物の全身特徴量は、例えば、全身特徴量抽出モジュール223によって予め抽出されて、Webサーバ30のファイルサーバ31に登録されている。全身照合モジュール231は、算出した類似度を、サーバ内通信やWebsocket等によりWebサーバ30に送信する。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、全身照合モジュール231は、算出した類似度をネットワークNETを介してWebサーバ30に送信する。
顔照合モジュール232は、顔特徴量抽出モジュール225から入力された顔特徴量と、監視端末40から指示された追跡対象の人物の顔特徴量との類似度を算出する。追跡対象の人物の顔特徴量は、例えば、顔特徴量抽出モジュール225によって予め抽出されて、Webサーバ30のファイルサーバ31に登録されている。顔照合モジュール232は、算出した類似度を、サーバ内通信やWebsocket等によりWebサーバ30に送信する。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、顔照合モジュール232は、算出した類似度をネットワークNETを介してWebサーバ30に送信する。
(1-3)Webサーバ30
図3は、Webサーバ30のソフトウェア構成を示すブロック図である。前述したように、Webサーバ30は、機能部として、ファイルサーバ31、DBサーバ32、検索用人検知結果保存機能部33、検知/追跡結果判定機能部34、及び、Webアプリケーション35を有する。
図3は、Webサーバ30のソフトウェア構成を示すブロック図である。前述したように、Webサーバ30は、機能部として、ファイルサーバ31、DBサーバ32、検索用人検知結果保存機能部33、検知/追跡結果判定機能部34、及び、Webアプリケーション35を有する。
ファイルサーバ31は、各種のデータファイルを蓄積する。ファイルサーバ31は、過去検索用データ記憶部311、検知履歴データ記憶部312及び管理データ記憶部313を含むことができる。
過去検索用データ記憶部311は、複数の映像解析機能部20それぞれで取得したデータである過去検索用データを記憶する。図4は、この過去検索用データ記憶部311に記憶される過去検索用データの一例を示す図である。過去検索用データは、各映像解析機能部20の全身検出モジュール221がフレーム画像から検出した全身画像毎に、過去検索用データ記憶部311に記憶されることができる。過去検索用データは、映像解析機能部20の画像取得モジュール21が取得したフレーム画像3111、全身検出モジュール221が抽出した全身画像3112、全身特徴量抽出モジュール223が抽出した全身特徴量3113、及び、顔特徴量抽出モジュール225が抽出した顔特徴量3114を含むことができる。これらフレーム画像3111、全身画像3112、全身特徴量3113及び顔特徴量3114は、例えば、同一のパスに記憶したり、ファイル名の一部に同一の文字列を付したりすることで、紐付けることができる。
検知履歴データ記憶部312は、不審者、迷子、得意顧客といった特定の監視対象者として検知された人物それぞれに関するデータである検知履歴データを記憶する。図5は、この検知履歴データ記憶部312に記憶される検知された人物の検知履歴データの一例を示す図である。検知履歴データは、検知された人物の顔画像である検知顔画像3121と、その検知顔画像3121に対応する顔特徴量3122と、を含むことができる。これら検知顔画像3121と顔特徴量3122は、例えば、同一のパスに記憶したり、ファイル名の一部に同一の文字列を付したりすることで、紐付けることができる。
なお、特に図示はしていないが、監視対象者に関するデータは、ファイルサーバ31に事前に記憶されている。この監視対象者に関するデータは、例えば、監視端末40からネットワークNETを介してWebサーバ30に、監視対象者の顔画像を入力することで、ファイルサーバ31に記憶させることができる。そして、Webサーバ30が、その顔画像をサーバ内通信やWebsocket等により一つの映像解析機能部20の顔特徴量抽出モジュール225に入力することで、当該顔特徴量抽出モジュール225から顔特徴量を取得して、ファイルサーバ31に記憶させることができる。また、ネットワークNETを介して、過去検索用データ記憶部311に記憶されている複数の人物の全身画像3112を監視端末40のWebブラウザ41にて閲覧し、監視端末40から任意の全身画像3112を指定することで、その人物を監視対象者として指定することも可能である。この場合、Webサーバ30は、その指定された全身画像3112をサーバ内通信やWebsocket等により一つの映像解析機能部20の顔検出モジュール224に入力することで、当該顔検出モジュール224から顔画像を取得して、ファイルサーバ31に監視対象者の顔画像として記憶させることができる。また、Webサーバ30は、過去検索用データ記憶部311に記憶されている、指定された全身画像3112を有する過去検索用データから顔特徴量3114を取得して、それをファイルサーバ31に記憶させることができる。
また、監視対象者に関するデータをファイルサーバ31に記憶する際、当該監視対象者についての情報を記載した監視対象者テーブルもDBサーバ32に記憶される。この監視対象者テーブルには、当該監視対象者を一意に識別する識別情報である不審者ID、監視対象者の名称である不審者名称、どのような理由の監視対象者であるかを示す危険度種別、当該監視対象者についての身体的特徴や行動様式、注意点等の説明文、等を記載しておくことができる。
検知履歴データにおける検知顔画像3121は、Webサーバ30が、例えば、何れかの監視カメラ10の監視画像から、監視対象者に関するデータとの比較によって監視対象者を検知した時に、検知履歴データ記憶部312に記憶させることができる。すなわち、Webサーバ30は、当該監視画像から取得されて過去検索用データ記憶部311に記憶されている全身画像を、サーバ内通信やWebsocket等により一つの映像解析機能部20の顔検出モジュール224に入力することで、当該顔検出モジュール224から顔画像を取得し、それを検知顔画像3121として検知履歴データ記憶部312に記憶させることができる。この一つの映像解析機能部20は、監視対象者が検知された監視画像を取得した監視カメラ10に対応する映像解析機能部20であって良い。映像解析機能部20の顔検出モジュール224が、抽出した顔画像をバッファリングしている場合には、Webサーバ30は、当該顔検出モジュール224にバッファリングしている顔画像を要求することで検知顔画像3121を取得しても良い。
管理データ記憶部313は、追跡対象者それぞれに関するデータである管理データを記憶する。図6は、この管理データ記憶部313に記憶される追跡対象者毎の管理データの一例を示す図である。追跡対象者毎の管理データは、監視端末40からの指定に応じて管理データ記憶部313に記憶されることができる。管理データは、指定された追跡対象者の顔画像である登録顔画像3131と、その登録顔画像3131から抽出された特徴である顔特徴量3132と、追跡対象者の全身画像である登録全身画像3133と、その登録全身画像3133から抽出された特徴である全身特徴量3134と、を含むことができる。これら登録顔画像3131、顔特徴量3132、登録全身画像3133及び全身特徴量3134は、例えば、同一のパスに記憶したり、ファイル名の一部に同一の文字列を付したりすることで、紐付けることができる。
例えば、Webサーバ30は、監視対象者が検知された際に、検知履歴データ記憶部312に記憶したその監視対象に対する検知履歴データにおける検知顔画像3121を監視端末40のWebブラウザ41にて監視者に閲覧させる。そして、監視端末40から当該人物を追跡対象者とする指定が行われると、Webサーバ30は、検知履歴データにおける検知顔画像3121をこの管理データにおける登録顔画像3131として記憶させる。さらに、Webサーバ30は、検知履歴データにおける顔特徴量3122を、この管理データにおける顔特徴量3132として記憶させることができる。また、Webサーバ30は、指定された検知履歴データにおける検知顔画像3121の元となった全身画像を過去検索用データ記憶部311に記憶された過去検索用データから取得すると共に、その全身特徴量も当該過去検索用データから取得し、それらをこの管理データにおける登録全身画像3133及び全身特徴量3134として記憶させる。
或いは、Webサーバ30は、過去検索用データ記憶部311に記憶されている複数の人物の全身画像3112を監視端末40のWebブラウザ41にて閲覧させ、監視端末40から任意の全身画像の指定を受けて、その人物を指定の追跡対象者とするようにしても良い。この場合、Webサーバ30は、その指定された全身画像3112をサーバ内通信やWebsocket等により一つの映像解析機能部20の顔検出モジュール224に入力することで、当該顔検出モジュール224から顔画像を取得して、管理データ記憶部313に登録顔画像3131として記憶させることができる。またこの場合、顔特徴量3132、登録全身画像3133及び全身特徴量3134については、過去検索用データ記憶部311に記憶されているものを取得して記憶させれば良い。或いは、追跡対象者の顔画像及び全身画像についても、監視対象者の顔画像と同様に、監視端末40からネットワークNETを介してWebサーバ30に入力することで、管理データ記憶部313に登録顔画像3131及び登録全身画像3133として記憶させるようにしても構わない。この場合には、Webサーバ30は、その入力された顔画像及び全身画像をサーバ内通信やWebsocket等により映像解析機能部20へ送って、顔特徴量3132及び全身特徴量3134を取得すれば良い。
DBサーバ32は、各種のデータテーブルを蓄積する。DBサーバ32は、カメラ情報テーブル記憶部321、過去検索用データテーブル記憶部322、検知履歴テーブル記憶部323、管理テーブル記憶部324、等を含むことができる。
カメラ情報テーブル記憶部321は、複数の監視カメラ10のそれぞれに対応して設けられ、その対応する監視カメラ10に関する各種情報が記載されたカメラ情報テーブル3211を予め記憶している。図7は、このカメラ情報テーブル記憶部321に記憶される、監視カメラ10毎のカメラ情報テーブル3211の記載内容の一例を示す図である。カメラ情報テーブル3211には、例えば、カメラID、カメラ名称、アスペクト比、カメラ位置X、カメラ位置Y、カメラ角度、顔照合閾値、全身照合閾値、等々が記載されている。
ここで、カメラIDは、対応する監視カメラ10を一意に識別する識別情報である。カメラ名称は、対応する監視カメラ10の名称である。これは、対応する監視カメラ10の大型施設における設置位置と関連付けた名称とすることができる。アスペクト比は対応する監視カメラ10で取得される画像のアスペクト比である。カメラ位置X及びカメラ位置Yは、対応する監視カメラ10の設置位置を示す大型施設内のXY座標である。カメラ角度は、対応する監視カメラ10の設置向きを示している。顔照合閾値及び全身照合閾値は、映像解析機能部20の全身照合モジュール231及び顔照合モジュール232が算出した類似度と比較するための閾値である。類似度がこの閾値よりも大きい場合、Webサーバ30は、対応する監視カメラ10の監視画像から抽出された人物の全身画像又は顔画像が監視対象者或いは追跡対象者の全身画像又は顔画像であると判定することができる。この顔照合閾値及び全身照合閾値は、監視カメラ10自体の特性や設置条件に依存するため、監視カメラ10を設置してから実際の運用が開始されるまでの間に、適切な値に調整される。なお、この顔照合閾値及び全身照合閾値は、監視対象者に対する閾値と追跡対象者に対する閾値とで異なる値として、それぞれ別個にカメラ情報テーブル3211に記載しても良い。
過去検索用データテーブル記憶部322は、過去検索用データ記憶部311に記憶される過去検索用データのそれぞれに対応して、その過去検索用データに関する各種データが記載された過去検索用データテーブル3221を記憶する。Webサーバ30は、過去検索用データ記憶部311に過去検索用データを記憶する際に、この過去検索用データテーブル3221を作成して、過去検索用データテーブル記憶部322に記憶させる。図8は、この過去検索用データテーブル記憶部322に記憶される過去検索用データテーブル3221の記載内容の一例を示す図である。過去検索用データテーブル3221には、例えば、検知ID、検知日時、検知カメラID、トラッキングID、フレームID、検知座標情報X、検知座標情報Y、検知座標情報Width、検知座標情報Height、等々が記載される。
ここで、検知IDは、映像解析機能部20の全身検出モジュール221が検出したフレーム画像3111中の全身画像3112毎に振られる識別情報である。検知日時は、全身検出モジュール221が当該全身画像3112を検出した日時である。検知カメラIDは、フレーム画像3111を取得した監視カメラ10のカメラIDである。トラッキングIDは、複数フレーム画像間で、同一の人物の全身画像3112を紐付けるための識別情報である。フレームIDはフレーム画像3111を一意に識別するための識別情報である。検知座標情報X、検知座標情報Y、検知座標情報Width及び検知座標情報Heightは、領域追跡モジュール222によって検出されたフレーム画像3111中の全身画像3112の領域位置を示す情報であり、全身画像3112の例えば左上隅のフレーム画像中のXY座標と、そこからの画像幅及び画像高さを示す。
なお、Webサーバ30は、過去検索用データテーブル3221のトラッキングIDを、例えば、以下のようにして付与することができる。Webサーバ30は、映像解析機能部20の人検知情報抽出機能部22から与えられる全身画像の領域位置と、過去検索用データテーブル記憶部322に記憶されている当該監視カメラ10の前フレーム画像における過去検索用データテーブル3221それぞれの全身画像の領域位置とを比較して、重複領域等を考慮することで、全身画像の人物の同一性を判別する。同一人物が前フレーム画像に写っていなければ、Webサーバ30は、新たなトラッキングIDを付与する。また、同一人物が前フレーム画像に写っていれば、当該人物の全身画像3112に対応する過去検索用データテーブル3221よりトラッキングIDを引き継ぐ。なお、Webサーバ30は、全身画像の位置ではなくて、全身特徴量を比較することで、人物の同一性を判別し、新規トラッキングID付与の要否を決定するようにしても良い。
検知履歴テーブル記憶部323は、検知履歴データ記憶部312に記憶される検知履歴データのそれぞれに対応して、その検知履歴データに関する各種データが記載された検知履歴テーブル3231を記憶する。Webサーバ30は、検知履歴データ記憶部312に検知履歴データを記憶する際に、この検知履歴テーブル3231を作成して、検知履歴テーブル記憶部323に記憶させる。図9は、この検知履歴テーブル記憶部323に記憶される検知履歴テーブル3231の記載内容の一例を示す図である。検知履歴テーブル3231には、例えば、検知ID、検知日時、検知カメラID、不審者ID、顔認証スコア、顔左右角度、顔上下角度、トラッキングID、等々が記載される。
ここで、検知ID、検知日時、検知カメラID及びトラッキングIDは、過去検索用データテーブル3221について説明した通りである。不審者IDは、図示しない監視対象者テーブルに記載されている、検知された監視対象者の不審者IDである。顔認証スコアは、映像解析機能部20の全身照合モジュール231及び顔照合モジュール232が算出した、その監視対象者の画像との類似度である。顔左右角度及び顔上下角度は、対応する検知履歴データの検知顔画像3121における顔の向きを示す。
管理テーブル記憶部324は、管理データ記憶部313に記憶される管理データのそれぞれに対応して、その管理データに関する各種データが記載された管理テーブル3241を記憶する。Webサーバ30は、管理データ記憶部313に管理データを記憶する際に、この管理テーブル3241を作成して、管理テーブル記憶部324に記憶させる。図10は、この管理テーブル記憶部324に記憶される管理テーブル3241の記載内容の一例を示す図である。管理テーブル3241には、例えば、不審者ID、不審者名称、危険度種別、説明文、クエリ顔画像パス、顔特徴量ファイルパス、監視ステータス、ピン留めフラグ、長期間滞在フラグ、等々が記載される。
ここで、不審者ID、不審者名称、危険度種別及び説明文は、図示しない監視対象者テーブルに記載されている、追跡対象者として指定された監視対象者についての情報が転記される。クエリ顔画像パス及び顔特徴量ファイルパスは、管理データ記憶部313における、管理データの登録顔画像3131及び顔特徴量3132の保存パスを示す。監視ステータスは、危険度種別以外の、追跡対象者に対して監視端末40から任意に設定される属性情報である。ピン留めフラグは、追跡対象者として指定された際に、そのことを示すためにセットされるフラグである。長期間滞在フラグは、追跡対象者として指定されていないが、規定の時間以上、当該施設に滞在している場合にセットされるフラグである。すなわち、Webサーバ30は、監視対象以外ではないが長期間滞在している人物が存在するとき、その人物の顔画像及び顔特徴量も管理データ記憶部313に記憶させ、管理テーブル記憶部324に管理テーブルを記憶させることができる。これにより、新たな不審者や新規顧客の候補を発見できるようになる。
検索用人検知結果保存機能部33及び検知/追跡結果判定機能部34は、Webサーバのバックエンド機能として提供される。検索用人検知結果保存機能部33は、映像解析機能部20の人検知情報抽出機能部22の各機能部の出力を受けて、過去検索用データテーブル記憶部322に記憶する検索用データテーブルを作成する。検知/追跡結果判定機能部34は、映像解析機能部20の監視/追跡実行機能部23の各機能部の出力を受けて、事前に記憶してある監視対象者の顔画像と同一の人物が何れかの監視カメラ10の監視画像内に現れたことを検知し、検知履歴テーブル記憶部323に記憶する検知履歴テーブルを作成すると共に、人検知情報抽出機能部22の各機能部で抽出した、その人物の検知顔画像3121及び顔特徴量3122を検知履歴データ記憶部312へ記憶させる。検知/追跡結果判定機能部34は、また、映像解析機能部20の監視/追跡実行機能部23の各機能部の出力を受けて、複数の監視カメラ10の撮影範囲を跨いで追跡対象者を追跡し、その追跡結果を示す表示用結果を生成する。
Webアプリケーション35は、監視端末40のWebブラウザ41からの要求に応じて各種処理を行い、その処理結果を示す閲覧用のデータを作成するアプリケーションプログラムである。Webアプリケーション35は、Webサーバ30に、ログイン機能部351、監視機能部352、追跡機能部353及び過去検索機能部354としての機能を提供する。
ログイン機能部351は、Webブラウザ41からのログインを受け付けて、認証を行い、正規ユーザに対して当該Webアプリケーション35が提供する機能の利用を許可する。
監視機能部352は、検知/追跡結果判定機能部34が監視対象者の顔画像と同一の人物を検知した際にアラートを発生して、Webブラウザ41に提示する。
追跡機能部353は、検知/追跡結果判定機能部34が検知した監視対象者の顔画像と同一の人物の顔画像及び全身画像で、複数の監視カメラ10を跨いでリアルタイムに該当人物を追跡した追跡結果を、Webブラウザ41に提示する。そのために、追跡機能部353は、画像登録機能部3531と検知アラート出力機能部3532とを含む。画像登録機能部3531は、Webブラウザ41上での監視者から指定操作による、追跡を行うべき追跡対象者の顔画像の指定を受けて、管理データ記憶部313に登録顔画像3131及び顔特徴量3132を記憶させると共に、管理テーブル3241を作成して管理テーブル記憶部324に記憶させる。検知アラート出力機能部3532は、検知/追跡結果判定機能部34が生成した表示用結果をWebブラウザ41に提示する。
過去検索機能部354は、Webブラウザ41からの時間及び場所の指定を受けて、その指定された時間・場所に来訪した人物を一覧表示し、その中から検索する人物の指定を受け付ける。そして、過去検索機能部354は、検知/追跡結果判定機能部34がその指定された人物の顔画像及び全身画像から、過去検索用データ記憶部311に記憶された類似人物を検索した結果をWebブラウザ41に提示する。
図11は、Webサーバ30のハードウェア構成を示すブロック図である。Webサーバ30は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサ301A、プログラムメモリ301B、記憶装置302及び通信インタフェース装置303を備える。プログラムメモリ301B、記憶装置302及び通信インタフェース装置303は、バス304を介してハードウェアプロセッサ301Aに接続されている。
通信インタフェース装置303は、例えば一つ以上の有線または無線の通信インタフェースユニットを含んでおり、ネットワークNETで使用される通信プロトコルに従い、映像解析機能部20及び監視端末40との間で各種情報の送受信を可能にする。
プログラムメモリ301Bは、記憶媒体として、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの随時書込み及び読出しが可能な不揮発性メモリと、ROM(Read Only Memory)等の不揮発性メモリとを組み合わせて使用したもので、CPUなどのハードウェアプロセッサ301Aが実行することで、この発明の第1実施形態に係る各種制御処理を実行するために必要なプログラムを記憶している。すなわち、ハードウェアプロセッサ301Aは、プログラムメモリ301Bに記憶されたプログラムを読み出して実行することで、図3に示すような検索用人検知結果保存機能部33及び検知/追跡結果判定機能部34として機能することができる。なお、これらの処理機能部は、それぞれ別個のハードウェアプロセッサで実現されても良い。すなわち、Webサーバ30は、複数のハードウェアプロセッサを備えていても良い。また、これらの処理機能部の少なくとも一部は、ASIC(Application Specific Integrated Circuit)、FPGA(field-programmable gate array)、GPU(Graphics Processing Unit)などの集積回路を含む、他の多様なハードウェア回路の形式で実現されても良い。また、プログラムメモリ301Bに記憶されるプログラムは、図3に示すようなWebアプリケーションのブログラムを含むことができる。
記憶装置302は、記憶媒体として、例えば、HDDまたはSSDなどの随時書込み及び読出しが可能な不揮発性メモリと、RAM(Random Access Memory)などの揮発性メモリとを組み合わせて使用したもので、人物追跡処理を行う過程で取得及び作成された各種データを記憶するために用いられる。また、記憶装置302には、図3に示すようなファイルサーバ31及びDBサーバ32を構成することができる。
(2)動作
次に、以上のように構成された人物追跡システム1の動作を説明する。
次に、以上のように構成された人物追跡システム1の動作を説明する。
(2-1)監視動作
監視端末40でWebブラウザ41が起動されてWebサーバ30に対するアクセス操作がなされると、Webサーバ30は、Webアプリケーション35が提供するログイン機能部351により、認証動作を実施する。そして、正規ユーザであることが確認されたならば、Webサーバ30は、Webアプリケーション35が提供する監視機能部352により、Webブラウザ41での閲覧用の監視画面を生成して、Webブラウザ41へ送信する。監視画面は、以下のようにして生成されることができる。
監視端末40でWebブラウザ41が起動されてWebサーバ30に対するアクセス操作がなされると、Webサーバ30は、Webアプリケーション35が提供するログイン機能部351により、認証動作を実施する。そして、正規ユーザであることが確認されたならば、Webサーバ30は、Webアプリケーション35が提供する監視機能部352により、Webブラウザ41での閲覧用の監視画面を生成して、Webブラウザ41へ送信する。監視画面は、以下のようにして生成されることができる。
複数台の監視カメラ10はそれぞれ、監視画像を定期的に取得し、取得した監視画像を対応する映像解析機能部20に入力する。映像解析機能部20の画像取得モジュール21は、対応する監視カメラ10からの監視画像であるフレーム画像を取得し、人検知情報抽出機能部22は、そのフレーム画像に写っている人物の全身画像、その全身画像の領域位置、全身特徴量及び顔特徴量を抽出する。そして、映像解析機能部20は、それらフレーム画像、全身画像、全身画像の領域位置、全身特徴量及び顔特徴量をサーバ内通信やWebsocket等によりWebサーバ30に送信する。
Webサーバ30は、複数の映像解析機能部20のそれぞれから送信されてきたフレーム画像、全身画像、全身特徴量及び顔特徴量を、過去検索用データとして、ファイルサーバ31の過去検索用データ記憶部311に蓄積する。またこのとき、Webサーバ30の検索用人検知結果保存機能部33は、複数の映像解析機能部20のそれぞれから送信されてきた全身画像の領域位置を含む過去検索用データテーブルを作成して、DBサーバ32の過去検索用データテーブル記憶部322に記憶させる。こうして、各監視カメラ10での監視画像の取得毎に、過去検索用データ記憶部311に過去検索用データが蓄積されていくと共に、過去検索用データテーブル記憶部322にそれら過去検索用データに紐付いた過去検索用データテーブルが蓄積されていく。
監視機能部352は、こうして過去検索用データ記憶部311に蓄積されていく各監視カメラ10からのフレーム画像を、一つの画面に並べることで、監視画面を生成することができる。監視端末40のWebブラウザ41に表示されたこの監視画面を閲覧することで、警備員等の監視者は、施設内の各部のリアルタイムな状況を把握することが可能となる。
一方、各映像解析機能部20の監視/追跡実行機能部23は、サーバ内通信やWebsocket等によりファイルサーバ31にアクセスし、そこに事前に記憶されている複数の監視対象者それぞれの顔特徴量と、人検知情報抽出機能部22が抽出した顔特徴量と、の類似度を算出する。そして、監視/追跡実行機能部23は、算出した各監視対象者の顔特徴量との類似度をサーバ内通信やWebsocket等によりWebサーバ30に送信する。
Webサーバ30の検知/追跡結果判定機能部34は、複数の映像解析機能部20のそれぞれから送信されてきた類似度を、カメラ情報テーブル記憶部321の対応する監視カメラ10のカメラ情報テーブル3211に記憶された顔照合閾値及び全身照合閾値と比較する。そして、類似度が閾値よりも大きい場合には、検知/追跡結果判定機能部34は、人検知情報抽出機能部22が抽出した顔特徴量を有する人物が監視対象であるとして、検知アラート画面を生成する。さらに、検知/追跡結果判定機能部34は、検知履歴データ記憶部312に検知履歴データとして、検知顔画像3121と顔特徴量3122を記憶させると共に、検知履歴テーブル3231を生成して、それを検知履歴テーブル記憶部323に記憶させる。
監視機能部352は、こうして検知/追跡結果判定機能部34が生成した検知アラート画面を、ネットワークNETを介してWebブラウザ41に送信して、表示させる。Webブラウザ41では、監視画面の一部に設けられたアラート画面表示領域に、或いは、監視画面とは別のウィンドウを開いて、この検知アラート画面を表示する。
図12は、Webブラウザ41に表示される検知アラート画面42の一例を示す図である。検知アラート画面42は、検知された人物毎の検知人物カード421を含む。この検知人物カード421は、その表示内容として、監視対象者顔画像4211、検知顔画像4212、注意喚起メッセージ4213、検知ID4214、類似度4215、検知情報4216、及び、追跡開始ボタン4217を含むことができる。なお、図12においては「監視対象顔画像」及び「検知顔画像」として文字で示しているが、実際には、それらは文字ではなく画像であることに注意されたい。
ここで、監視対象者顔画像4211は、ファイルサーバ31に事前に記憶されていた監視対象者の顔画像であり、検知顔画像4212は、その監視対象者であると検知された人物の、検知履歴データ記憶部312に記憶された検知顔画像3121である。注意喚起メッセージ4213は、監視者の注意を促すためのメッセージであり、点滅表示灯の識別表示を行うようにしても良い。検知ID4214は、過去検索用データテーブル3221または検知履歴テーブル3231から転記される識別情報である。類似度4215は、監視対象者の顔画像と検知された人物の顔画像との類似度である。検知情報4216は、過去検索用データテーブル3221または検知履歴テーブル3231における検知カメラIDに基づく検出カメラ場所情報と、同じく検知日時に基づく検出日時情報と、を含む。追跡開始ボタン4217は、当該人物を追跡する場合に押下されるボタンである。
なお、この検知人物カード421は、監視対象人物として新たに人物が検知される毎に、検知アラート画面42の最上位に表示されるように、古い検知人物カード421が下方にシフトされていく。同一人物については新たな検知人物カード421は追加されない。一つの検知人物カード421を選択することで、検知履歴データ記憶部312及び検知履歴テーブル記憶部323に記憶されている当該人物の履歴が一覧表示される。
(2-2)追跡動作
監視者が検知アラート画面42の追跡開始ボタン4217の押下操作を行うと、Webサーバ30は、Webアプリケーション35が提供する追跡機能部353により、映像解析機能部20及び検知/追跡結果判定機能部34を利用して、当該人物を追跡した追跡結果を、Webブラウザ41に提示させていく。この追跡動作は、追跡機能部353の画像登録機能部3531による画像登録処理と、映像解析機能部20の監視/追跡実行機能部23による監視/追跡処理と、検知/追跡結果判定機能部34による検知/追跡結果判定処理と、追跡機能部353の検知アラート出力機能部3532による検知アラート出力処理と、を含む。
監視者が検知アラート画面42の追跡開始ボタン4217の押下操作を行うと、Webサーバ30は、Webアプリケーション35が提供する追跡機能部353により、映像解析機能部20及び検知/追跡結果判定機能部34を利用して、当該人物を追跡した追跡結果を、Webブラウザ41に提示させていく。この追跡動作は、追跡機能部353の画像登録機能部3531による画像登録処理と、映像解析機能部20の監視/追跡実行機能部23による監視/追跡処理と、検知/追跡結果判定機能部34による検知/追跡結果判定処理と、追跡機能部353の検知アラート出力機能部3532による検知アラート出力処理と、を含む。
図13は、追跡機能部353の画像登録機能部3531による画像登録処理の処理手順を示すフローチャートである。画像登録機能部3531は、定期的に、例えば監視カメラ10の監視画像の取得間隔に同期して、このフローチャートに示す処理を実施する。
画像登録機能部3531は、まず、監視端末40において、監視者によってWebブラウザ41に表示される検知アラート画面42における追跡開始ボタン4217の押下操作が行われたか否か判断する(ステップS11)。追跡開始ボタン4217の押下操作が行われていないと判断した場合には、画像登録機能部3531は、この画像登録処理を終了する。
これに対して、追跡開始ボタン4217の押下操作が行われたと判断した場合には、画像登録機能部3531は、その人物の顔画像を追跡用顔画像として取得する(ステップS12)。すなわち、画像登録機能部3531は、検知アラート画面42の検知IDを有する検知履歴テーブル記憶部323のトラッキングIDに基づいて、検知履歴データ記憶部312から検知顔画像3121を追跡用顔画像として取得する。例えば、画像登録機能部3531は、当該トラッキングIDを有する検知履歴テーブル3231の内、検知日時が特定時期のもの、例えば最新のものに記載された検知IDで特定される検知顔画像3121を取得することができる。特定時期としては、最新に限らず、最古、指定期間の間での最新又は最古、季節(春夏秋冬など)であって良い。或いは、画像登録機能部3531は、当該トラッキングIDを有する検知履歴テーブル3231のそれぞれに記載された検知IDで特定される検知顔画像3121を一覧形式で含む選択画面を生成し、それをWebブラウザ41に表示させて、監視者に追跡用顔画像とする検知顔画像3121を選択させるようにしても良い。そして、画像登録機能部3531は、取得した追跡用顔画像を、管理データ記憶部313に登録顔画像3131として記憶させる。また、画像登録機能部3531は、DBサーバ32に事前に記憶されている図示しない監視対象者テーブルに記載された該当の監視対象者に関する情報に基づいて管理テーブル3241を作成し、それを管理テーブル記憶部324に記憶させる。管理テーブル3241は、管理データ記憶部313における登録顔画像3131の記憶パスを示すクエリ顔特徴パスを含む。
そして、画像登録機能部3531は、追跡用顔画像として検知履歴データ記憶部312から取得された検知顔画像3121に対応する全身画像を追跡用全身画像として取得する(ステップS13)。すなわち、画像登録機能部3531は、その追跡用顔画像として取得された検知顔画像3121について検知履歴テーブル3231に記載された検知IDに基づいて、過去検索用データ記憶部311から全身画像3112を追跡用全身画像として取得する。画像登録機能部3531は、この取得した追跡用全身画像を、管理データ記憶部313に登録全身画像3133として記憶させる。また、画像登録機能部3531は、管理テーブル記憶部324に記憶されている管理テーブル3241に、管理データ記憶部313における登録全身画像3133の記憶パスを示すクエリ全身特徴パスを追記する。
さらに、画像登録機能部3531は、追跡用顔画像特徴量と追跡用全身画像特徴量を取得する(ステップS14)。すなわち、画像登録機能部3531は、上記検知IDに基づいて、検知履歴データ記憶部312から顔特徴量3122を追跡用顔特徴量として取得し、また、過去検索用データ記憶部311から全身特徴量3113を追跡用全身特徴量として取得する。画像登録機能部3531は、これら取得した追跡用顔特徴量及び追跡用全身特徴量を、管理データ記憶部313に顔特徴量3132及び全身特徴量3134として記憶させる。また、画像登録機能部3531は、管理テーブル記憶部324に記憶されている管理テーブル3241に、それら特徴量記憶パスを示す顔特徴量ファイルパス及び全身特徴量ファイルパスを追記する。
そして、画像登録機能部3531は、管理データ記憶部313に記憶された登録顔画像3131及び登録全身画像3133を追跡用画像として、また、顔特徴量3132及び全身特徴量3134を追跡用特徴量として、サーバ内通信やWebsocket等により、複数の映像解析機能部20のそれぞれへ送信する(ステップS15)。その後、画像登録機能部3531は、この画像登録処理を終了する。
図14は、映像解析機能部20の監視/追跡実行機能部23による監視/追跡処理の処理手順を示すフローチャートである。監視/追跡実行機能部23は、定期的に、このフローチャートに示す処理を実施する。このフローチャートに示す処理を実施する時間間隔は、例えば、数秒おきというように、任意の時間間隔とすることができる。或いは、監視/追跡実行機能部23は、監視カメラ10の監視画像の取得間隔の整数倍の時間間隔で、このフローチャートに示す処理を実施するようにしても良い。
監視/追跡実行機能部23は、まず、Webサーバ30の画像登録機能部3531から追跡用画像と特徴量を受信したか否か判断する(ステップS21)。追跡用画像と特徴量を受信していないと判断した場合には、監視/追跡実行機能部23は、この監視/追跡処理を終了する。
これに対して、追跡用画像と特徴量を受信したと判断した場合には、監視/追跡実行機能部23は、人検知情報抽出機能部22から、時刻tの全身画像とその特徴量とを、照合用全身画像と照合用全身特徴量として取得する(ステップS22)。対応する監視カメラ10の監視画像に複数の人物の全身画像が含まれる場合には、監視/追跡実行機能部23は、それぞれの人物について、照合用全身画像と照合用全身特徴量を取得する。
そして、監視/追跡実行機能部23は、全身照合モジュール231により、人検知情報抽出機能部22からの照合用全身特徴量のそれぞれについて、画像登録機能部3531からの追跡用全身特徴量との類似度である全身画像類似度を算出する(ステップS23)。
また、監視/追跡実行機能部23は、人検知情報抽出機能部22から、時刻tの顔画像とその特徴量とを、照合用顔画像と照合用顔特徴量として取得する(ステップS24)。対応する監視カメラ10の監視画像に複数の人物の顔画像が含まれる場合には、監視/追跡実行機能部23は、それぞれの人物について、照合用顔画像と照合用顔特徴量を取得する。なお、人物の向きによって、全身画像は抽出できても顔画像が抽出できない場合も有る。よって、上記ステップS22で取得される照合用全身画像の数とこのステップS24で取得する照合用顔画像の数とは一致するとは限らない。また、一人も顔画像が抽出できず、照合用顔画像(及び照合用顔特徴量)が取得されない場合もあり得る。
そして、監視/追跡実行機能部23は、顔照合モジュール232により、人検知情報抽出機能部22からの照合用顔特徴量のそれぞれについて、画像登録機能部3531からの追跡用顔特徴量との類似度である顔画像類似度を算出する(ステップS25)。
その後、監視/追跡実行機能部23は、それら全身画像及び顔画像についての類似度と照合用画像とのセットを、サーバ内通信やWebsocket等により、Webサーバ30の検知/追跡結果判定機能部34へ送信する(ステップS26)。なお、類似度と照合用画像のセットは、全身画像類似度と照合用全身画像とのセットと顔画像類似度と照合用顔画像とのセットとの両方を含む場合も有れば、顔画像類似度と照合用顔画像とのセットの無い全身画像類似度と照合用全身画像とのセットのみを含む場合もあり得る。
そして、監視/追跡実行機能部23は、監視端末40において、監視者によってWebブラウザ41に表示される検知アラート出力画面における追跡停止ボタンの押下操作が行われたか否か判断する(ステップS27)。追跡停止ボタンを有する検知アラート出力画面の詳細については、後述する。追跡停止ボタンの押下操作が行われたと判断した場合には、監視/追跡実行機能部23は、この監視/追跡処理を終了する。
また、追跡停止ボタンの押下操作が行われていないと判断した場合には、監視/追跡実行機能部23は、時刻tを「+1」して、すなわち、次の処理タイミングとなるのを待った後(ステップS28)、上記ステップS22から上記の処理を繰り返す。
図15は、Webサーバ30の検知/追跡結果判定機能部34による検知/追跡結果判定処理の処理手順を示すフローチャートである。検知/追跡結果判定機能部34は、定期的に、例えば映像解析機能部20の監視/追跡実行機能部23の処理間隔に同期して、このフローチャートに示す処理を実施する。
検知/追跡結果判定機能部34は、まず、監視/追跡実行機能部23から類似度と照合用画像のセットを受信したか否か判断する(ステップS31)。類似度と照合用画像のセットを受信していないと判断した場合には、検知/追跡結果判定機能部34は、この検知/追跡結果判定処理を終了する。
これに対して、類似度と照合用画像のセットを受信したと判断した場合には、検知/追跡結果判定機能部34は、顔照合閾値と全身照合閾値を取得する(ステップS32)。すなわち、検知/追跡結果判定機能部34は、カメラ情報テーブル記憶部321に記憶されている、それら類似度と照合用画像のセットの送信元である映像解析機能部20に対応する監視カメラ10についてのカメラ情報テーブル3211から、顔照合閾値と全身照合閾値を取得する。
そして、検知/追跡結果判定機能部34は、受信した全身画像類似度のそれぞれについて、取得した全身照合閾値と比較し、全身照合閾値よりも大きいか全身画像類似度が有るか否か判断する(ステップS33)。全身照合閾値よりも大きい全身画像類似度が有ると判断した場合には、検知/追跡結果判定機能部34は、その大きいと判断された全身画像類似度を、上記ステップS31で受信した対応する照合用全身画像と共に、記憶装置302の所定の記憶領域に保存しておく(ステップS34)。すなわち、全身照合閾値よりも大きい全身画像類似度を持つ人物は追跡対象者であるとして、その照合用全身画像と全身画像類似度を保存する。
その後、或いは上記ステップS33において全身照合閾値よりも大きい全身画像類似度が無いと判断した場合、検知/追跡結果判定機能部34は、受信した顔画像類似度のそれぞれについて、取得した顔照合閾値と比較し、顔照合閾値よりも大きい顔画像類似度が有るか否か判断する(ステップS35)。顔照合閾値よりも大きい顔画像類似度が有ると判断した場合には、検知/追跡結果判定機能部34は、その大きいと判断された顔画像類似度を、対応する照合用顔画像と共に、記憶装置302に保存しておく(ステップS36)。すなわち、顔照合閾値よりも大きい顔画像類似度を持つ人物は追跡対象者であるとして、その照合用顔画像と顔画像類似度を保存する。
その後、或いは上記ステップS35において顔照合閾値よりも大きい顔画像類似度が無いと判断した場合には、検知/追跡結果判定機能部34は、さらに、照合用画像と類似度を保存済みであるか否か判断する(ステップS37)。照合用画像と類似度を保存済みではないと判断した場合、すなわち追跡対象者が存在しない場合には、検知/追跡結果判定機能部34は、この検知/追跡結果判定処理を終了する。
これに対して、照合用画像と類似度を保存済みであると判断した場合には、検知/追跡結果判定機能部34は記憶装置302の所定の記憶領域に保存されている情報に基づいて、表示用結果を作成する(ステップS38)。そして、検知/追跡結果判定機能部34は、その作成した表示用結果を、検知アラート出力機能部3532へ送信する(ステップS39)。その後、検知/追跡結果判定機能部34は、この検知/追跡結果判定処理を終了する。
追跡機能部353の検知アラート出力機能部3532は、図示しないアラート出力処理により、検知/追跡結果判定機能部34から送られてきた表示用結果に基づいて、検知アラート出力画面を生成する。そして、検知アラート出力機能部3532は、それをネットワークNETを介して監視端末40に送信し、Webブラウザ41に表示させる。Webブラウザ41では、監視画面の一部に設けられたアラート画面表示領域に、或いは、監視画面とは別のウィンドウを開いて、この検知アラート出力画面を表示する。
図16は、Webブラウザ41に表示される検知アラート出力画面43の一例を示す図である。検知アラート出力画面43は、追跡するべき追跡対象者毎に表示される。検知アラート出力画面43は、追跡対象者情報領域431と、経過時間情報領域432と、追跡情報カード433と、を含む。なお、図16においては「顔画像」、「全身画像」、「画像#1」、「画像#2」、「画像#3」、「画像#4」及び「フレーム画像」として文字で示しているが、実際には、それらは文字ではなく画像であることに注意されたい。
追跡対象者情報領域431は、追跡対象に関する情報を表示する領域である。この追跡対象者情報領域431は、注意喚起メッセージ4311、検知ID4312、登録画像4313、検知情報4314、過去検知画像4315、不審者ID4316、危険度種別4317、説明文4318、及び、追跡停止ボタン4319を含む。
ここで、注意喚起メッセージ4311は、監視者の注意を促すためのメッセージであり、例えば、追跡対象者として指定された監視対象者の危険度種別を表示することができる。この危険度種別は、管理テーブル3241から転記されることができる。検知ID4312は、管理テーブル3241から転記される識別情報である。登録画像4313は、追跡対象者の管理データ記憶部313に記憶された登録顔画像3131及び登録全身画像3133である。検知情報4314は、検知履歴テーブル3231における検知カメラIDに基づく検出カメラ場所情報及び検知日時に基づく検出日時情報を含む。この検知情報4314の表示は、新しい監視カメラ10の監視画像から追跡対象者が検知される毎に、その検出カメラ場所情報と検出日時情報とが追加されていく。過去検知画像4315は、過去検索用データ記憶部311または検知履歴データ記憶部312に記憶されている、当該人物の顔画像または全身画像である。当該人物が過去に検知されたことがない場合には、この過去検知画像4315は、ブランクとされる。不審者ID4316、危険度種別4317及び説明文4318は、管理テーブル3241から転記されることができる。追跡停止ボタン4319は、当該人物の追跡を終了する場合に押下されるボタンである。
また、経過時間情報領域432は、検知アラート画面42の追跡開始ボタン4217が押下されてからの経過時間を表示する領域である。
また、追跡情報カード433は、検知/追跡結果判定機能部34の表示用結果を提示するものであり、検知/追跡結果判定機能部34が表示用結果を出力する毎に、検知アラート出力画面43の最上位に追加表示されていく。古い追跡情報カード433は順次下方にシフトされていく。この追跡情報カード433は、その表示内容として、検出日時情報4331、検出カメラ場所情報4332、検出画像4333、画像類似度情報4334、及び、検出背景画像4335を含む。
ここで、検出日時情報4331は、当該追跡対象者が何れかの監視カメラ10の監視画像から検知された日時情報である。検出カメラ場所情報4332は、その検知した監視カメラIDに基づくカメラ場所情報である。検出画像4333は、検知されて保存された追跡対象者の照合用顔画像及び/または照合用全身画像である。画像類似度情報4334は、検知されて保存された顔画像類似度及び/または全身画像類似度である。検出背景画像4335は、照合用顔画像及び/または照合用全身画像を抽出した元の監視画像であるフレーム画像である。このフレーム画像は、過去検索用データ記憶部311に記憶されているフレーム画像3111が用いられる。
図17は、Webブラウザ41に表示される検知アラート出力画面43の別の例を示す図である。図16の検知アラート出力画面43は、追跡対象者の顔と全身が検知された場合の例を示しているが、図17は、そこから当該追跡対象者が移動して、別の監視カメラ10の監視画像により、全身画像から当該追跡対象者が検知された場合を示している。ここでは、顔画像からは追跡対象者が検知されていないので、検出画像4333には全身画像のみが表示され、また、画像類似度情報4334についても全身画像類似度のみが表示されている。このように、監視カメラ10により追跡対象者の顔画像が取得できない場合でも、追跡対象者を追跡することができる。
(2-3)過去検索動作
追跡機能部353による追跡動作は、リアルタイムで追跡対象者を追跡する機能である。一方で、過去に特定の人物が当該施設に来訪していないか調査したい場合が存在する。
追跡機能部353による追跡動作は、リアルタイムで追跡対象者を追跡する機能である。一方で、過去に特定の人物が当該施設に来訪していないか調査したい場合が存在する。
そこで、過去検索機能部354は、Webブラウザ41からの時間及び場所の指定を受けて、過去検索用データテーブル記憶部322に記憶されている過去検索用データテーブル3221に基づいて、過去検索用データ記憶部311からその指定された時間・場所に来訪した人物の全身画像3112を抽出する。そして、その抽出した全身画像3112を一覧表示した選択画面を作成し、Webブラウザ41に表示させる。
Webブラウザ41から検索する人物の選択指定を受けて、過去検索機能部354は、その選択指定された全身画像3112を追跡用全身画像とし、また、リアルタイムの監視カメラ10からの監視画像に代えて指定された時間・場所についての過去検索用データ記憶部311に記憶されたフレーム画像3111を対象として、追跡機能部353と同様の動作を行う。
これにより、過去検索機能部354は、過去検索用データ記憶部311に記憶されている過去の来訪者の中から、選択指定された人物に類似する人物を検索し、その結果を検知アラート出力画面43としてWebブラウザ41に表示させることができる。
(3)効果
以上詳述したように第1実施形態に係る人物追跡装置では、登録部としての画像登録機能部3531によって、追跡を行うべき追跡対象者の顔画像及び全身画像を登録する。そして、検知部としての検知/追跡結果判定機能部34により、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれについて、登録された顔画像に類似する顔画像と、登録された全身画像に類似する全身画像と、の少なくとも一方を検知し、出力部としての検知アラート出力機能部3532によって、その検知した顔画像及び全身画像の少なくとも一方を出力する。よって、監視カメラ10により追跡対象者の顔画像が取得できない場合でも、全身画像を利用して追跡対象者を追跡できるようになる。
以上詳述したように第1実施形態に係る人物追跡装置では、登録部としての画像登録機能部3531によって、追跡を行うべき追跡対象者の顔画像及び全身画像を登録する。そして、検知部としての検知/追跡結果判定機能部34により、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれについて、登録された顔画像に類似する顔画像と、登録された全身画像に類似する全身画像と、の少なくとも一方を検知し、出力部としての検知アラート出力機能部3532によって、その検知した顔画像及び全身画像の少なくとも一方を出力する。よって、監視カメラ10により追跡対象者の顔画像が取得できない場合でも、全身画像を利用して追跡対象者を追跡できるようになる。
なお、画像登録機能部3531は、監視者が操作する監視端末40から追跡対象者の顔画像の指定を受け付け、指定された顔画像とその顔画像に対応する全身画像とを、追跡用顔画像及び追跡用全身画像として登録し、検知/追跡結果判定機能部34は、監視画像のそれぞれについて、登録された追跡用顔画像に類似する顔画像と、登録された追跡用全身画像に類似する全身画像と、の少なくとも一方を検知する。このように、監視端末40から追跡用顔画像及び追跡用全身画像を容易に登録することができる。登録する画像は、監視画像から抽出したものを指定しても良いし、写真や画像ファイル等を監視端末で読み込むようにしても良い。
また、人物追跡装置は、更に、監視画像のそれぞれから人物の全身画像を抽出し、全身画像からその特徴量である全身特徴量及び人物の顔画像を抽出し、顔画像からその特徴量である顔特徴量を抽出する抽出部としての人検知情報抽出機能部22が抽出した、全身画像、全身特徴量及び顔特徴量を、人検知情報抽出機能部22から取得して、それら取得した全身画像、全身特徴量及び顔特徴量を監視画像と共に蓄積する画像蓄積部であるファイルサーバ31を備えることができる。また、画像登録機能部3531は、監視者が操作する監視端末40から追跡対象者の顔画像の指定を受け付け、その指定された顔画像に対応するファイルサーバ31に蓄積された全身画像、全身特徴量及び顔特徴量と、顔特徴量を抽出した顔画像とを、追跡用全身画像、追跡用全身特徴量、追跡用顔特徴量及び追跡用顔画像として登録する。そして、検知/追跡結果判定機能部34は、画像登録機能部3531による登録の時点からファイルサーバ31に蓄積されていく監視画像を照合用画像として、照合用画像それぞれについての、人検知情報抽出機能部22が抽出した全身特徴量と追跡用全身特徴量との類似度である全身画像類似度、及び、人検知情報抽出機能部22が抽出した顔特徴量と追跡用顔特徴量との類似度である顔画像類似度を算出する類似度算出部としての監視/追跡実行機能部23から、当該監視/追跡実行機能部23が算出した全身画像類似度及び顔画像類似度と追跡用顔画像及び追跡用全身画像とのセットを取得し、全身画像類似度及び顔画像類似度の少なくとも一方が、対応する閾値よりも大きいか否か判定し、閾値よりも大きい場合に、人検知情報抽出機能部22が照合用画像から抽出した全身画像である照合用全身画像及び顔画像である照合用顔画像の内の少なくとも一方の類似度に対応する画像と、照合用画像としての監視画像を取得した監視カメラ10の位置情報とを、画像登録機能部3531によって登録された追跡用全身画像及び追跡用顔画像と共に表示するための表示用結果を作成する。検知アラート出力機能部3532は、検知/追跡結果判定機能部34によって作成された表示用結果を監視端末40に送信して、監視端末40に表示用結果を表示させる。よって、特徴量の類似度に基づいて、照合用画像から容易に追跡用画像に類似する顔または全身を持つ人物を検知して追跡することができる。
なお、検知/追跡結果判定機能部34は、表示用結果に、さらに、全身画像類似度及び顔画像類似度の少なくとも一方の表示を含めるようにしても良い。これにより、検知された人物がどの程度類似した人物であるのかを容易に把握できるようになる。
また、検知/追跡結果判定機能部34は、表示用結果に、さらに、照合用画像の表示を含めても良い。これにより、検知された人物の画像を閲覧して、どの程度類似した人物であるのかを容易に把握できるようになる。
なお、画像登録機能部3531は、登録の時点以前にファイルサーバ31に蓄積されていた追跡対象者についての全身画像、全身特徴量及び顔特徴量の中から、特定時期に蓄積された、例えば最新の、全身画像、全身特徴量及び顔特徴量を、追跡用全身画像、追跡用全身特徴量及び追跡用顔特徴量として登録することができる。これにより、最新の画像に基づいて人物を追跡することができる。
或いは、画像登録機能部3531は、登録の時点以前にファイルサーバ31に蓄積されていた追跡対象者についての全身画像、全身特徴量及び顔特徴量の中から、登録する追跡用全身画像、追跡用全身特徴量及び追跡用顔特徴量の選択を、監視端末40から受け付けるようにしても良い。これにより、最も当該人物を把握しやすい画像を指定でき、ご見地の可能性を少なくすることができる。
また、第1実施形態に係る人物追跡システムは、第1実施形態に係る人物追跡装置と、複数台の監視カメラ10と、監視者が操作する監視端末40と、人検知情報抽出機能部22及び監視/追跡実行機能部23を備える解析部としての映像解析機能部20と、を備えることができる。
なお、人検知情報抽出機能部22は、監視画像から全身画像を抽出する全身画像抽出部としての全身検出モジュール221と、全身検出モジュール221によって抽出された全身画像から全身特徴量を抽出する全身特徴量抽出部としての全身特徴量抽出モジュール223と、全身検出モジュール221によって抽出された全身画像から顔画像を抽出する顔画像抽出部としての顔検出モジュール224と、顔検出モジュール224によって抽出された顔画像から顔特徴量を抽出する顔特徴量抽出部としての顔特徴量抽出モジュール225と、を含むことがでる。このように専用のモジュールを有することで、全身画像、全身特徴量、顔画像及び顔特徴量を容易に抽出することができる。
また、監視/追跡実行機能部23は、照合用画像それぞれについての全身特徴量抽出モジュール223によって抽出された全身特徴量と画像登録機能部3531によって登録された全身特徴量との類似度である全身画像類似度を算出する全身類似度算出部としての全身照合モジュール231と、照合用画像のそれぞれについての顔特徴量抽出モジュール225によって抽出された顔特徴量と画像登録機能部3531によって登録された顔特徴量との類似度である顔画像類似度を算出する顔類似度算出部としての顔照合モジュール232と、を含むことができる。このように専用のモジュールを有することで、全身画像類似度と顔画像類似度を容易に算出することができる。
また、第1実施形態に係る人物追跡方法は、複数台の監視カメラ10が取得した監視画像から追跡を行うべき追跡対象者を追跡する人物追跡方法であって、コンピュータであるWebサーバ30が、複数台の監視カメラ10それぞれで定期的に取得した監視画像を記憶装置であるファイルサーバ31に蓄積させ、監視画像のそれぞれから人物の全身画像を抽出し、全身画像からその特徴量である全身特徴量及び人物の顔画像を抽出し、顔画像からその特徴量である顔特徴量を抽出する抽出装置である映像解析機能部20の人検知情報抽出機能部22から、当該人検知情報抽出機能部22が抽出した全身画像、全身特徴量及び顔特徴量を取得し、それら取得した前記全身画像、前記全身特徴量及び前記顔特徴量をファイルサーバ31に蓄積させ、監視者が操作する監視端末40からの追跡を行うべき追跡対象者の顔画像の指定を受け付け、その指定された顔画像に対応するファイルサーバ31に蓄積された全身画像、全身特徴量及び顔特徴量と、顔特徴量を抽出した顔画像とを、追跡用全身画像、追跡用全身特徴量、追跡用顔特徴量及び追跡用顔画像として登録し、登録の時点からファイルサーバ31に蓄積されていく監視画像を照合用画像として、照合用画像それぞれについての、人検知情報抽出機能部22が抽出した全身特徴量と追跡用全身特徴量との類似度である全身画像類似度、及び、人検知情報抽出機能部22が抽出した顔特徴量と追跡用顔特徴量との類似度である顔画像類似度を算出する類似度算出装置である映像解析機能部20の監視/追跡実行機能部23から、当該監視/追跡実行機能部23が算出した全身画像類似度及び顔画像類似度と追跡用顔画像及び追跡用全身画像とのセットを取得し、照合用画像それぞれについての全身画像類似度及び顔画像類似度の少なくとも一方が、対応する閾値よりも大きいか否か判定し、全身画像類似度及び顔画像類似度の少なくとも一方が対応する閾値よりも大きい場合に、照合用画像から抽出した全身画像である照合用全身画像及び顔画像である照合用顔画像の内の少なくとも一方の類似度に対応する画像と、照合用画像としての監視画像を取得した監視カメラ10の位置情報とを、登録された追跡用全身画像及び追跡用顔画像と共に表示するための表示用結果を作成し、作成した表示用結果を監視端末40に送信して、監視端末40に表示用結果を表示させるようにしている。よって、監視カメラ10により追跡対象者の顔画像が取得できない場合でも、全身画像を利用して追跡対象者を追跡できるようになる。
[第2実施形態]
第2実施形態では、第1実施形態と同様の構成については同一の符号を付し、その説明を省略する。第2実施形態では、主として、第1実施形態と異なる部分について説明する。
第2実施形態では、第1実施形態と同様の構成については同一の符号を付し、その説明を省略する。第2実施形態では、主として、第1実施形態と異なる部分について説明する。
(1)構成
(1-1)全体構成
この発明の第2実施形態に係る人物追跡システム1は、図1を用いて説明した第1の実施形態に係るシステム1と同様であっても良く、その説明を省略する。なお、第2実施形態では、Webサーバ30は、この発明の第2実施形態に係る人物検出装置及び人物追跡装置として機能する。
(1-1)全体構成
この発明の第2実施形態に係る人物追跡システム1は、図1を用いて説明した第1の実施形態に係るシステム1と同様であっても良く、その説明を省略する。なお、第2実施形態では、Webサーバ30は、この発明の第2実施形態に係る人物検出装置及び人物追跡装置として機能する。
(1-2)映像解析機能部20
映像解析機能部20についても、図2を用いて説明した第1実施形態における映像解析機能部20と同様であって良く、その説明を省略する。
映像解析機能部20についても、図2を用いて説明した第1実施形態における映像解析機能部20と同様であって良く、その説明を省略する。
(1-3)Webサーバ30
図18は、第2実施形態におけるWebサーバ30のソフトウェア構成を示すブロック図である。第2実施形態では、Webサーバ30は、図3を参照して説明した第1実施形態におけるWebサーバ30と以下の点が異なっている。なお、ハードウェア構成は、図11を参照して第1実施形態で説明した通りである。
図18は、第2実施形態におけるWebサーバ30のソフトウェア構成を示すブロック図である。第2実施形態では、Webサーバ30は、図3を参照して説明した第1実施形態におけるWebサーバ30と以下の点が異なっている。なお、ハードウェア構成は、図11を参照して第1実施形態で説明した通りである。
DBサーバ32は、第1実施形態と同様に、カメラ情報テーブル記憶部321、過去検索用データテーブル記憶部322、検知履歴テーブル記憶部323、管理テーブル記憶部324、等を含むと共に、更に、追跡テーブル記憶部325を含むことができる。
図19は、カメラ情報テーブル記憶部321に記憶される、監視カメラ10毎のカメラ情報テーブル3211の記載内容の一例を示す図である。第2実施形態におけるカメラ情報テーブル3211には、第1実施形態における顔照合閾値及び全身照合閾値に代えて、顔照合閾値1~3及び全身照合閾値1~3が記載されている。
顔照合閾値1~3及び全身照合閾値1~3は、映像解析機能部20の全身照合モジュール231及び顔照合モジュール232が算出した類似度と比較するための閾値である。顔照合閾値1は、対応する監視カメラ10の監視画像から抽出された人物の顔画像が監視対象者或いは追跡対象者の顔画像であるか否か分類するための顔画像類似度に対応する第1の閾値である。顔照合モジュール232が算出した顔画像類似度がこの第1の閾値である顔照合閾値1よりも大きい場合、Webサーバ30は、対応する監視カメラ10の監視画像から抽出された人物の顔画像が監視対象者或いは追跡対象者の顔画像であると判定することができる。顔照合閾値2及び3は、顔照合閾値1よりも大きい顔画像類似度に対応し、抽出された人物の顔画像が監視対象者或いは追跡対象者の顔画像である場合に、その顔画像を複数の段階に分類するための第2の閾値である。すなわち、これら閾値の大きさは、[顔照合閾値1<顔照合閾値2<顔照合閾値3」の関係を有する。同様に、全身照合閾値1は、対応する監視カメラ10の監視画像から抽出された人物の全身画像が監視対象者或いは追跡対象者の全身画像であるか否か分類するための全身画像類似度に対応する第1の閾値である。全身照合モジュール231が算出した全身画像類似度がこの全身照合閾値1よりも大きい場合、Webサーバ30は、対応する監視カメラ10の監視画像から抽出された人物の全身画像が監視対象者或いは追跡対象者の全身画像であると判定することができる。全身照合閾値2及び3は、全身照合閾値1よりも大きい全身画像類似度に対応し、抽出された人物の全身画像が監視対象者或いは追跡対象者の全身画像である場合に、その全身画像を複数の段階に分類するための第2の閾値である。すなわち、これら閾値の大きさは、[全身照合閾値1<全身照合閾値2<全身照合閾値3」の関係を有する。
各閾値の値は、概して、類似度を算出する映像解析機能部20の監視/追跡実行機能部23における顔照合モジュール232が用いる照合モデルと全身照合モジュール231が用いる照合モデルとによって決まる。各閾値は、監視カメラ10自体の種類、性能、設置条件等に依存するため、監視カメラ10を設置してから実際の運用が開始されるまでの間に、適切な値に調整されて、カメラ情報テーブル3211に記載される。なお、この顔照合閾値1~3及び全身照合閾値1~3は、監視対象者に対する閾値と追跡対象者に対する閾値とで異なる値として、それぞれ別個にカメラ情報テーブル3211に記載しても良い。また、それぞれの閾値は3段階に限定するものではないことは勿論である。すなわち、第2の閾値は、少なくとも一つあれば良い。
また、検知履歴テーブル記憶部323が記憶する検知履歴テーブル3231に記載される顔認証スコアは、映像解析機能部20の顔照合モジュール232が算出した、その監視対象者の顔画像との類似度である。この類似度は、顔照合モジュール232が算出した類似度の実数値が記憶されるが、後述するようにWebブラウザ41での検知アラート画面の表示のために、3段階の顔画像類似度ラベルIDに書き換えられることができる。
追跡テーブル記憶部325は、映像解析機能部20の全身照合モジュール231又は顔照合モジュール232が算出した全身画像類似度又は顔画像類似度からWebサーバ30によって追跡対象者の全身画像又は顔画像であると判定された、何れかの監視カメラ10の監視画像から抽出された人物の類似度が記載された追跡テーブルを記憶する。図20は、この追跡テーブル記憶部325に記憶される追跡テーブル3251の記載内容の一例を示す図である。追跡テーブル3251は、追跡対象者の不審者ID毎に、検知ID、全身画像類似度及び顔画像類似度でなるレコードを含み、各レコードはWebサーバ30が追跡対象者の全身画像又は顔画像であると判定する毎に追加されていく。全身画像類似度及び顔画像類似度は、映像解析機能部20の全身照合モジュール231及び顔照合モジュール232が算出した類似度の実数値が記憶されるが、後述するようにWebブラウザ41での追跡アラート画面の表示のために、3段階の全身画像類似度ラベルID及び顔画像類似度ラベルIDに書き換えられることができる。
また、Webサーバのバックエンド機能として提供される検知/追跡結果判定機能部34は、第2実施形態では、映像解析機能部20の監視/追跡実行機能部23の各機能部の出力を受けて、監視者から指定された追跡対象者の全身画像及び/又は顔画像と同一の人物が何れかの監視カメラ10の監視画像内に現れたことを検知する。そして、その検知に応じて、検知/追跡結果判定機能部34は、追跡テーブル記憶部325に記憶している当該追跡対象者の追跡テーブルにレコードを追加していく。
また、監視機能部352は、検知/追跡結果判定機能部34が監視対象者の顔画像と同一の人物を検知した際に、アラートを発生して、Webブラウザ41に提示する。そのために、第2実施形態においては、監視機能部352は、Webブラウザ41に提示するための検知アラート画面を生成する検知アラート出力機能部3521を含む。検知アラート画面は、監視対象者に類似すると検知された人物の画像を、類似度に基づく注意段階を示す段階表示と共に提示するための出力画面である。
また、追跡機能部353は、検知/追跡結果判定機能部34が検知した監視対象者の顔画像と同一の人物の顔画像及び全身画像で、複数の監視カメラ10を跨いでリアルタイムに該当人物を追跡した追跡結果を、Webブラウザ41に提示する。そのために、第2実施形態における追跡機能部353は、画像登録機能部3531を含むと共に、第1実施形態における検知アラート出力機能部3532に代えて、追跡アラート出力機能部3533を含む。画像登録機能部3531は、Webブラウザ41上での監視者から指定操作による、追跡を行うべき追跡対象者の顔画像の指定を受けて、管理データ記憶部313に登録顔画像3131及び顔特徴量3132を記憶させると共に、管理テーブル3241を作成して管理テーブル記憶部324に記憶させる。追跡アラート出力機能部3533は、検知/追跡結果判定機能部34が追跡対象者の全身画像及び/又は顔画像と同一の人物を検知した際に、追跡対象者に類似すると検知された人物の画像を、類似度に基づく注意段階を示す段階表示と共に提示するための出力画面である追跡アラート画面をWebブラウザ41に提示する。
(2)動作
(2-1)監視動作
第2実施形態に係る人物追跡システム1では、第1実施形態で説明したような各部のリアルタイムな状況監視と並行して、監視対象者の来訪検知動作が行われる。この監視対象者来訪検知動作は、各映像解析機能部20の監視/追跡実行機能部23による監視処理と、検知/追跡結果判定機能部34による検知結果判定処理と、監視機能部352の検知アラート出力機能部3521による検知アラート出力処理と、を含む。
(2-1)監視動作
第2実施形態に係る人物追跡システム1では、第1実施形態で説明したような各部のリアルタイムな状況監視と並行して、監視対象者の来訪検知動作が行われる。この監視対象者来訪検知動作は、各映像解析機能部20の監視/追跡実行機能部23による監視処理と、検知/追跡結果判定機能部34による検知結果判定処理と、監視機能部352の検知アラート出力機能部3521による検知アラート出力処理と、を含む。
図21は、監視/追跡実行機能部23による監視処理の処理手順を示すフローチャートである。監視/追跡実行機能部23は、例えば、サーバ内通信やWebsocket等によりWebサーバ30の監視機能部352から監視対象者の更新が報告される毎に、このフローチャートに示す処理を実施する。
監視/追跡実行機能部23は、まず、サーバ内通信やWebsocket等によりWebサーバ30のファイルサーバ31にアクセスして、ファイルサーバ31に事前に記憶されている複数の監視対象者それぞれの顔特徴量である監視用顔特徴量を取得する(ステップS101)。
その後、監視/追跡実行機能部23は、人検知情報抽出機能部22から、時刻tの顔画像とその特徴量とを、照合用顔画像と照合用顔特徴量として取得する(ステップS102)。対応する監視カメラ10の監視画像に複数の人物の全身画像が含まれる場合には、監視/追跡実行機能部23は、それぞれの人物について、照合用顔画像と照合用顔特徴量を取得する。
そして、監視/追跡実行機能部23は、顔照合モジュール232により、人検知情報抽出機能部22からの照合用顔特徴量のそれぞれについて、監視用顔特徴量との類似度である顔画像類似度を算出する(ステップS103)。
その後、監視/追跡実行機能部23は、算出した各監視対象者の顔画像類似度と照合用顔画像とのセットを、サーバ内通信やWebsocket等により、Webサーバ30の検知/追跡結果判定機能部34へ送信する(ステップS104)。
そして、監視/追跡実行機能部23は、時刻tに時間間隔t1加えてから、すなわち、次の処理時刻に更新した後(ステップS105)、上記ステップS102から上記の処理を繰り返す。ここで、時間間隔t1は、例えば、数秒というように、任意の時間間隔とすることができる。或いは、時間間隔t1は、監視カメラ10の監視画像の取得間隔の整数倍の時間間隔としても良い。
図22は、Webサーバ30の検知/追跡結果判定機能部34による検知結果判定処理の処理手順を示すフローチャートである。検知/追跡結果判定機能部34は、定期的に、例えば映像解析機能部20の監視/追跡実行機能部23における時間間隔t1おきに、このフローチャートに示す処理を実施することができる。
検知/追跡結果判定機能部34は、まず、監視/追跡実行機能部23から類似度と照合用顔画像のセットを受信したか否か判断する(ステップS201)。類似度と照合用画像のセットを受信していないと判断した場合には、検知/追跡結果判定機能部34は、この検知/追跡結果判定処理を終了する。
これに対して、類似度と照合用顔画像のセットを受信したと判断した場合には、検知/追跡結果判定機能部34は、顔照合閾値1を取得する(ステップS202)。すなわち、検知/追跡結果判定機能部34は、カメラ情報テーブル記憶部321に記憶されている、それら類似度と照合用顔画像のセットの送信元である映像解析機能部20に対応する監視カメラ10についてのカメラ情報テーブル3211から、顔照合閾値1を取得する。
そして、検知/追跡結果判定機能部34は、受信した顔画像類似度のそれぞれについて、取得した顔照合閾値1と比較し、顔照合閾値1よりも大きい顔画像類似度が有るか否か判断する(ステップS203)。顔照合閾値1よりも大きい顔画像類似度が無いと判断した場合には、検知/追跡結果判定機能部34は、この検知/追跡結果判定処理を終了する。
これに対して、顔照合閾値1よりも大きい顔画像類似度が有ると判断した場合には、検知/追跡結果判定機能部34は、その顔特徴量を有する人物は監視対象者であると判別する。よってこの場合には、検知/追跡結果判定機能部34は、検知履歴データ記憶部312に検知履歴データとして検知顔画像3121と顔特徴量3122を記憶させると共に、検知履歴テーブル3231を生成して、それを検知履歴テーブル記憶部323に記憶させる(ステップS204)。この生成した検知履歴テーブル3231の顔認証スコアには、顔照合閾値1よりも大きい値の顔画像類似度が記載されることとなる。そしてその後、検知/追跡結果判定機能部34は、この検知/追跡結果判定処理を終了する。
図23は、監視機能部352の検知アラート出力機能部3521による検知アラート出力処理の処理手順を示すフローチャートである。検知アラート出力機能部3521は、定期的に、例えば映像解析機能部20の監視/追跡実行機能部23における時間間隔t1おきに、このフローチャートに示す処理を実施する。
検知アラート出力機能部3521は、まず、カメラ情報テーブル記憶部321に記憶されている、各監視カメラ10についてのカメラ情報テーブル3211から、顔照合閾値1~3を取得する(ステップS301)。
また、検知アラート出力機能部3521は、検知履歴テーブル記憶部323から新規の検知履歴テーブル3231の情報を取得する(ステップS302)。すなわち、検知アラート出力機能部3521は、検知履歴テーブル3231における顔画像スコアとして、顔画像類似度ラベルIDではなくて顔類似度の実数が記録されているものを抽出して取得する。
そして、検知アラート出力機能部3521は、取得した新規の検知履歴テーブル3231に顔認証スコアとして記載されている顔画像類似度の値が顔照合閾値3よりも大きいか否か判断する(ステップS303)。顔画像類似度の値が顔照合閾値3よりも大きいと判断した場合、検知アラート出力機能部3521は、検知履歴テーブル記憶部323の当該検知履歴テーブル3231における顔画像類似度の値を、実数から顔画像類似度ラベルID、ここではID=3に書き換える(ステップS304)。
これに対して、顔画像類似度の値が顔照合閾値3よりも大きくないと判断した場合、検知アラート出力機能部3521は、更に、顔画像類似度の値が顔照合閾値2よりも大きいか否か判断する(ステップS305)。顔画像類似度の値が顔照合閾値2よりも大きいと判断した場合、検知アラート出力機能部3521は、検知履歴テーブル記憶部323の当該検知履歴テーブル3231における顔画像類似度の値を、実数から顔画像類似度ラベルID、ここではID=2に書き換える(ステップS306)。
また、顔画像類似度の値が顔照合閾値2よりも大きくないと判断した場合には、検知アラート出力機能部3521は、検知履歴テーブル記憶部323の当該検知履歴テーブル3231における顔画像類似度の値を、実数から顔画像類似度ラベルID、ここではID=1に書き換える(ステップS307)。これは、そもそも検知履歴テーブル3231は、顔画像類似度の値が顔照合閾値1よりも大きくないと作成されないので、顔画像類似度の値が顔照合閾値2よりも大きくなければ、顔画像類似度の値は顔照合閾値1よりも大きいことは決まっているからである。
以上のようにして、検知履歴テーブル3231における顔画像類似度の値を顔画像類似度ラベルIDに書き換えたならば、検知アラート出力機能部3521は、画面画像である新規の検知人物カードを作成する(ステップS308)。この検知人物カードは、検知履歴データ記憶部312に検知履歴データとして記憶した検知顔画像3121と、それに対応する検知履歴テーブル3231における顔画像類似度ラベルIDに基づく注意段階を示す注意段階表示と、を含む画面画像である。この検知人物カードについては、詳細を後述する。
検知アラート出力機能部3521は、この作成した新規の検知人物カードにより、Webブラウザ41にて表示するための検知アラート画面を更新する(ステップS309)。そして、検知アラート出力機能部3521は、この更新した検知アラート画面を、ネットワークNETを介してWebブラウザ41に送信して、そこに表示させる(ステップS310)。Webブラウザ41では、監視画面の一部に設けられたアラート画面表示領域に、或いは、監視画面とは別のウィンドウを開いて、この検知アラート画面を表示する。そして、検知アラート出力機能部3521は、この検知アラート出力処理を終了する。
図24は、Webブラウザ41に表示される第2実施形態における検知アラート画面42の一例を示す図である。検知アラート画面42は、検知された人物毎の検知人物カード421を含む。この検知人物カード421は、その表示内容として、第1実施形態と同様、監視対象者顔画像4211、検知顔画像4212、注意喚起メッセージ4213、検知情報4216、及び、追跡開始ボタン4217を含むことができる。そして、第2実施形態における検知アラート画面42では、第1実施形態における検知ID4214及び類似度4215に代えて、不審者ID4218及び注意段階表示4219を含むことができる。
不審者ID4218は、検知履歴テーブル3231から転記される識別情報である。
注意段階表示4219は、監視対象者の顔画像と検知された人物の顔画像との類似度を示す。すなわち、類似度は、数値ではなくて、検知履歴テーブル3231における顔画像類似度ラベルIDに基づく複数段階、ここでは3段階の注意段階表示4219として示されている。この注意段階表示4219では、図24においてハッチングにより表している識別表示された四角形の数が、顔画像類似度ラベルIDに対応する。例えば、不審者ID4218が「00098842」である人物の検知人物カード421では、検知履歴テーブル3231における顔画像類似度ラベルIDが「3」であったので、注意段階表示4219では、3個の四角形が識別表示され、不審者ID4218が「00059820」である人物の検知人物カード421では、検知履歴テーブル3231における顔画像類似度ラベルIDが「2」であったので、2個の四角形が識別表示されている。
(2-2)追跡動作
監視者が検知アラート画面42の追跡開始ボタン4217の押下操作を行うと、Webサーバ30は、Webアプリケーション35が提供する追跡機能部353により、映像解析機能部20及び検知/追跡結果判定機能部34を利用して、当該人物を追跡した追跡結果を、Webブラウザ41に提示させていく。この追跡動作は、追跡機能部353の画像登録機能部3531による画像登録処理と、映像解析機能部20の監視/追跡実行機能部23による追跡処理と、検知/追跡結果判定機能部34による追跡結果判定処理と、追跡機能部353の追跡アラート出力機能部3533による追跡アラート出力処理と、を含む。
監視者が検知アラート画面42の追跡開始ボタン4217の押下操作を行うと、Webサーバ30は、Webアプリケーション35が提供する追跡機能部353により、映像解析機能部20及び検知/追跡結果判定機能部34を利用して、当該人物を追跡した追跡結果を、Webブラウザ41に提示させていく。この追跡動作は、追跡機能部353の画像登録機能部3531による画像登録処理と、映像解析機能部20の監視/追跡実行機能部23による追跡処理と、検知/追跡結果判定機能部34による追跡結果判定処理と、追跡機能部353の追跡アラート出力機能部3533による追跡アラート出力処理と、を含む。
追跡機能部353の画像登録機能部3531による画像登録処理の処理手順は、以下の点を除いて、図13を参照して説明した第1実施形態と同様である。すなわち、第1実施形態では、ステップS12において、画像登録機能部3531は、検知アラート画面42の検知IDを有する検知履歴テーブル記憶部323のトラッキングIDに基づいて、検知履歴データ記憶部312から検知顔画像3121を追跡用顔画像として取得する。これに対して、第2実施形態では、画像登録機能部3531は、検知アラート画面42の不審者IDを有する検知履歴テーブル記憶部323のトラッキングIDに基づいて、検知履歴データ記憶部312から検知顔画像3121を追跡用顔画像として取得する。
図25は、映像解析機能部20の監視/追跡実行機能部23による追跡処理の処理手順を示すフローチャートである。第2実施形態においては、監視/追跡実行機能部23は、例えば、サーバ内通信やWebsocket等によりWebサーバ30の追跡機能部353画像登録機能部3531から追跡用画像と特徴量を受信する毎に、このフローチャートに示す処理を実施する。
監視/追跡実行機能部23は、まず、Webサーバ30の画像登録機能部3531から受信した追跡用画像と特徴量を取得する(ステップS111)。
その後、監視/追跡実行機能部23は、人検知情報抽出機能部22から、時刻Tの全身画像とその特徴量とを、照合用全身画像と照合用全身特徴量として取得する(ステップS112)。対応する監視カメラ10の監視画像に複数の人物の全身画像が含まれる場合には、監視/追跡実行機能部23は、それぞれの人物について、照合用全身画像と照合用全身特徴量を取得する。
そして、監視/追跡実行機能部23は、第1実施形態におけるステップS23と同様、全身照合モジュール231により、人検知情報抽出機能部22からの照合用全身特徴量のそれぞれについて、画像登録機能部3531からの追跡用全身特徴量との類似度である全身画像類似度を算出する(ステップS113)。
また、監視/追跡実行機能部23は、人検知情報抽出機能部22から、時刻Tの顔画像とその特徴量とを、照合用顔画像と照合用顔特徴量として取得する(ステップS114)。対応する監視カメラ10の監視画像に複数の人物の顔画像が含まれる場合には、監視/追跡実行機能部23は、それぞれの人物について、照合用顔画像と照合用顔特徴量を取得する。なお、人物の向きによって、全身画像は抽出できても顔画像が抽出できない場合も有る。よって、上記ステップS112で取得される照合用全身画像の数とこのステップS114で取得する照合用顔画像の数とは一致するとは限らない。また、一人も顔画像が抽出できず、照合用顔画像(及び照合用顔特徴量)が取得されない場合もあり得る。
そして、監視/追跡実行機能部23は、第1実施形態におけるステップS25と同様、顔照合モジュール232により、人検知情報抽出機能部22からの照合用顔特徴量のそれぞれについて、画像登録機能部3531からの追跡用顔特徴量との類似度である顔画像類似度を算出する(ステップS115)。
その後、監視/追跡実行機能部23は、第1実施形態におけるステップS26と同様、それら全身画像及び顔画像についての類似度と照合用画像とのセットを、サーバ内通信やWebsocket等により、Webサーバ30の検知/追跡結果判定機能部34へ送信する(ステップS116)。なお、類似度と照合用画像のセットは、全身画像類似度と照合用全身画像とのセットと顔画像類似度と照合用顔画像とのセットとの両方を含む場合も有れば、顔画像類似度と照合用顔画像とのセットの無い全身画像類似度と照合用全身画像とのセットのみを含む場合もあり得る。
そして、監視/追跡実行機能部23は、監視端末40において、監視者によってWebブラウザ41に表示される追跡アラート画面における追跡停止ボタンの押下操作が行われたか否か判断する(ステップS117)。追跡停止ボタンを有する追跡アラート画面の詳細については、後述する。追跡停止ボタンの押下操作が行われたと判断した場合には、監視/追跡実行機能部23は、この監視/追跡処理を終了する。
また、追跡停止ボタンの押下操作が行われていないと判断した場合には、監視/追跡実行機能部23は、時刻Tに時間間隔t1加えてから、すなわち、次の処理時刻に更新した後(ステップS118)、上記ステップS112から上記の処理を繰り返す。ここで、時間間隔t1は、上述した通りである。なお、この時間間隔t1とは異なる時間間隔を用いても良いことは勿論である。
図26は、Webサーバ30の検知/追跡結果判定機能部34による追跡結果判定処理の処理手順を示すフローチャートである。検知/追跡結果判定機能部34は、定期的に、例えば映像解析機能部20の監視/追跡実行機能部23の追跡処理の処理間隔に同期して、このフローチャートに示す処理を実施する。
検知/追跡結果判定機能部34は、まず、第1実施形態におけるステップS31と同様、監視/追跡実行機能部23から類似度と照合用画像のセットを受信したか否か判断する(ステップS221)。類似度と照合用画像のセットを受信していないと判断した場合には、検知/追跡結果判定機能部34は、この追跡結果判定処理を終了する。
これに対して、類似度と照合用画像のセットを受信したと判断した場合には、検知/追跡結果判定機能部34は、顔照合閾値1と全身照合閾値1を取得する(ステップS222)。すなわち、検知/追跡結果判定機能部34は、カメラ情報テーブル記憶部321に記憶されている、それら類似度と照合用画像のセットの送信元である映像解析機能部20に対応する監視カメラ10についてのカメラ情報テーブル3211から、顔照合閾値1と全身照合閾値1を取得する。
そして、検知/追跡結果判定機能部34は、受信した全身画像類似度のそれぞれについて、取得した全身照合閾値1と比較し、全身照合閾値1よりも大きいか全身画像類似度が有るか否か判断する(ステップS223)。全身照合閾値1よりも大きい全身画像類似度が有ると判断した場合には、検知/追跡結果判定機能部34は、その全身特徴量を有する人物は追跡対象者であると判別する。よってこの場合には、検知/追跡結果判定機能部34は、その大きいと判断された全身画像類似度を、上記ステップS221で受信した対応する照合用全身画像と共に、記憶装置302の所定の記憶領域に保存しておくと共に、全身画像類似度を追跡テーブル3251に登録する(ステップS224)。この全身画像類似度の登録に際して、追跡テーブル記憶部325に、該当不審者IDの追跡テーブル3251が未だ記憶されていない場合には、追跡テーブル3251を生成し、その生成した追跡テーブル251を追跡テーブル記憶部325に記憶させる。また、追跡テーブル記憶部325に、該当不審者IDの追跡テーブル3251が既に記憶されている場合には、新たな追跡テーブル3251を生成するのではなく、レコードを追加する。追跡テーブル3251に登録される全身画像類似度は、全身照合閾値1よりも大きい値の全身画像類似度である。
その後、或いは上記ステップS223において全身照合閾値1よりも大きい全身画像類似度が無いと判断した場合、検知/追跡結果判定機能部34は、受信した顔画像類似度のそれぞれについて、取得した顔照合閾値1と比較し、顔照合閾値1よりも大きい顔画像類似度が有るか否か判断する(ステップS225)。顔照合閾値1よりも大きい顔画像類似度が有ると判断した場合には、検知/追跡結果判定機能部34は、その顔特徴量を有する人物は追跡対象者であると判別する。よってこの場合には、検知/追跡結果判定機能部34は、その大きいと判断された顔画像類似度を、上記ステップS221で受信した対応する照合用顔画像と共に、記憶装置302の所定の記憶領域に保存しておくと共に、顔画像類似度を追跡テーブル3251に登録する(ステップS226)。この顔画像類似度の登録に際して、追跡テーブル記憶部325に、該当不審者IDの追跡テーブル3251が未だ記憶されていない場合には、追跡テーブル3251を生成し、その生成した追跡テーブル251を追跡テーブル記憶部325に記憶させる。また、追跡テーブル記憶部325に、該当不審者IDの追跡テーブル3251が既に記憶されている場合には、新たな追跡テーブル3251を生成するのではなく、レコードを追加する。追跡テーブル3251に登録される顔画像類似度は、顔照合閾値1よりも大きい値の全身画像類似度である。
その後、或いは上記ステップS225において顔照合閾値1よりも大きい顔画像類似度が無いと判断した場合には、検知/追跡結果判定機能部34は、この追跡結果判定処理を終了する。
図27乃至図29は、追跡機能部353の追跡アラート出力機能部3533による追跡アラート出力処理の処理手順を示すフローチャートである。追跡アラート出力機能部3533は、定期的に、例えば映像解析機能部20の監視/追跡実行機能部23における時間間隔t1おきに、このフローチャートに示す処理を実施する。
追跡アラート出力機能部3533は、まず、監視端末40において、監視者によってWebブラウザ41に表示される追跡アラート画面における絞り込み指定操作が行われたか否か判断する(ステップS501)。絞り込み指定操作が行われたと判断した場合、追跡アラート出力機能部3533は、後述するステップS519へと進む。
これに対して、絞り込み指定操作が行われていないと判断した場合、追跡アラート出力機能部3533は、カメラ情報テーブル記憶部321に記憶されている、各監視カメラ10についてのカメラ情報テーブル3211から、顔照合閾値1~3及び全身照合閾値1~3を取得する(ステップS502)。
その後、追跡アラート出力機能部3533は、追跡テーブル記憶部325に記憶されている追跡テーブル3251から新規の追跡結果を取得する(ステップS503)。すなわち、追跡アラート出力機能部3533は、追跡テーブル3251における全身画像類似度及び顔画像類似度として、画像類似度IDではなくて類似度の実数が記録されているものを抽出して取得する。
そして、追跡アラート出力機能部3533は、追跡テーブル3251における顔画像類似度の値が顔照合閾値3よりも大きいか否か判断する(ステップS504)。顔画像類似度の値が顔照合閾値3よりも大きいと判断した場合、追跡アラート出力機能部3533は、追跡テーブル記憶部325の当該追跡テーブル3251における顔画像類似度の値を、実数から顔画像類似度ラベルID、ここではID=3に書き換える(ステップS505)。
これに対して、顔画像類似度の値が顔照合閾値3よりも大きくないと判断した場合、追跡アラート出力機能部3533は、更に、顔画像類似度の値が顔照合閾値2よりも大きいか否か判断する(ステップS506)。顔画像類似度の値が顔照合閾値2よりも大きいと判断した場合、追跡アラート出力機能部3533は、追跡テーブル記憶部325の当該追跡テーブル3251における顔画像類似度の値を、実数から顔画像類似度ラベルID、ここではID=2に書き換える(ステップS507)。
また、顔画像類似度の値が顔照合閾値2よりも大きくないと判断した場合、追跡アラート出力機能部3533は、更に、顔画像類似度の値が顔照合閾値1よりも大きいか否か判断する(ステップS508)。顔画像類似度の値が顔照合閾値1よりも大きいと判断した場合、追跡アラート出力機能部3533は、追跡テーブル記憶部325の当該追跡テーブル3251における顔画像類似度の値を、実数から顔画像類似度ラベルID、ここではID=1に書き換える(ステップS509)。
監視機能部352での検知動作に係わる処理では、顔画像類似度しか利用していないため、顔画像類似度の値が顔照合閾値2よりも大きくなければ、顔画像類似度の値は顔照合閾値1よりも大きいことは決まってしまう。これに対して、追跡機能部353の追跡動作に係わる処理では、顔画像類似度と全身類似度との両方を利用しており、追跡テーブル3251には顔画像類似度と全身類似度の何れか片方しか登録されない場合が存在する。すなわち、顔画像類似度の値が顔照合閾値2よりも大きくないときには、顔照合閾値1よりも大きい値の顔画像類似度の値が登録されている場合と、顔照合閾値1以下の顔画像類似度の値が登録されている(又は顔画像類似度の値が登録されていない)場合と、が存在する。そのため、顔画像類似度の値が顔照合閾値2よりも大きくないというだけで、顔画像類似度の値は顔照合閾値1よりも大きいと決めることができない。
以上のようにして、追跡テーブル3251における顔画像類似度の値を顔画像類似度ラベルIDに書き換えたならば、或いは、上記ステップS508において顔画像類似度の値が顔照合閾値1よりも大きくないと判断した場合、追跡アラート出力機能部3533は、全身画像類似度の判定動作に移る。
すなわち、追跡アラート出力機能部3533は、追跡テーブル3251における全身画像類似度の値が全身照合閾値3よりも大きいか否か判断する(ステップS510)。全身画像類似度の値が全身照合閾値3よりも大きいと判断した場合、追跡アラート出力機能部3533は、追跡テーブル記憶部325の当該追跡テーブル3251における全身画像類似度の値を、実数から全身画像類似度ラベルID、ここではID=3に書き換える(ステップS511)。
これに対して、全身画像類似度の値が全身照合閾値3よりも大きくないと判断した場合、追跡アラート出力機能部3533は、更に、全身画像類似度の値が全身照合閾値2よりも大きいか否か判断する(ステップS512)。全身画像類似度の値が全身照合閾値2よりも大きいと判断した場合、追跡アラート出力機能部3533は、追跡テーブル記憶部325の当該追跡テーブル3251における全身画像類似度の値を、実数から全身画像類似度ラベルID、ここではID=2に書き換える(ステップS513)。
また、全身画像類似度の値が全身照合閾値2よりも大きくないと判断した場合、追跡アラート出力機能部3533は、更に、全身画像類似度の値が全身照合閾値1よりも大きいか否か判断する(ステップS514)。全身画像類似度の値が全身照合閾値1よりも大きいと判断した場合、追跡アラート出力機能部3533は、追跡テーブル記憶部325の当該追跡テーブル3251における全身画像類似度の値を、実数から全身画像類似度ラベルID、ここではID=1に書き換える(ステップS515)。
以上のようにして、追跡テーブル3251における全身画像類似度の値を全身画像類似度ラベルIDに書き換えたならば、或いは、上記ステップS514において全身画像類似度の値が全身照合閾値1よりも大きくないと判断した場合、追跡アラート出力機能部3533は、画面画像である新規の追跡情報カードを作成する(ステップS308)。この追跡情報カードは、上記ステップS224及びステップS226で記憶装置302の所定の記憶領域に保存された照合用全身画像及び照合用顔画像と、それに対応する追跡テーブル3251における全身画像類似度ラベルID及び顔画像類似度ラベルIDに基づく注意段階を示す注意段階表示と、を含む画面画像である。この追跡情報カードについては、詳細を後述する。
追跡アラート出力機能部3533は、この作成した新規の追跡情報カードにより、Webブラウザ41にて表示するための追跡アラート画面を更新する(ステップS517)。そして、追跡アラート出力機能部3533は、この更新した追跡アラート画面を、ネットワークNETを介してWebブラウザ41に送信して、そこに表示させる(ステップS518)。Webブラウザ41では、監視画面の一部に設けられたアラート画面表示領域に、或いは、監視画面とは別のウィンドウを開いて、この追跡アラート画面を表示する。そして、追跡アラート出力機能部3533は、この追跡アラート出力処理を終了する。
一方、上記ステップS501において絞り込み指定操作が行われたと判断した場合、追跡アラート出力機能部3533は、その指定された絞り込みレベルを取得する(ステップS519)。この絞り込みレベルは、追跡アラート画面に表示する追跡情報カードを絞り込むための指標である。
追跡アラート出力機能部3533は、追跡テーブル記憶部325に記憶されている追跡テーブル3251より、指定された絞り込みレベルに応じた不審者IDを抽出する(ステップS520)。
そして、追跡アラート出力機能部3533は、それら抽出した不審者IDの検知IDに基づいて、過去検索用データ記憶部311に過去検索用データとして記憶された全身画像3112と、映像解析機能部20の人検知情報抽出機能部22によってその全身画像3112から抽出した顔画像とを含む、追跡アラート画面に表示可能な個数分の追跡情報カードを作成する(ステップS521)。
その後、追跡アラート出力機能部3533は、上記ステップS516と同様に、新規追跡情報カード作成し(ステップS522)、上記ステップS517と同様に、作成した追跡情報カードにより追跡アラート画面を更新する(ステップS523)。そして、追跡アラート出力機能部3533は、上記ステップS518の処理に進み、更新した追跡アラート画面をWebブラウザ41に送信して、そこに表示させることとなる。
図30は、Webブラウザ41に表示される追跡アラート画面44の一例を示す図である。追跡アラート画面44は、追跡対象者情報領域441と、追跡情報カード442と、絞り込み指示領域443と、を含む。
追跡対象者情報領域441は、追跡対象者に関する情報を表示する領域であり、追跡対象者を追加する毎に、追跡アラート画面44の最上位に追加表示されていく。古い追跡対象者情報領域441は順次下方にシフトされていく。ここで、最上位つまり最新の追跡対象者情報領域441とその他の追跡対象者情報領域441とでは、表示内容が異なっている。すなわち、最上位の追跡対象者情報領域441は、注意喚起メッセージ4411、不審者ID4412、登録画像4413、追跡情報4414、及び、追跡停止ボタン4415を含む。これに対して、最上位以外の追跡対象者情報領域441は、登録画像4413と追跡情報4414のみを含む。
ここで、注意喚起メッセージ4411は、監視者の注意を促すためのメッセージであり、例えば、追跡対象者として指定された監視対象者の危険度種別を表示することができる。この危険度種別は、管理テーブル3241から転記されることができる。不審者ID4412は、管理テーブル3241から転記される識別情報である。登録画像4413は、追跡対象者の管理データ記憶部313に記憶された登録顔画像3131及び登録全身画像3133である。追跡情報4414は、当該追跡対象者に関する情報であり、最上位の追跡対象者情報領域441の追跡情報4414とその他の追跡対象者情報領域441の追跡情報4414とでは、内容が異なっている。すなわち、最上位の追跡対象者情報領域441の追跡情報4414は、管理テーブル3241から転記される不審者ID、危険度種別及び説明文を含む。最上位以外の追跡対象者情報領域441の追跡情報4414は、説明文に代えて、追跡状況を含んでいる。追跡停止ボタン4415は、当該人物の追跡を終了する場合に押下されるボタンである。
また、追跡情報カード442は、追跡アラート出力機能部3533が新規カードを作成する毎に、追跡アラート画面44の最上位に追加表示されていく。古い追跡情報カード442は順次下方にシフトされていく。この追跡情報カード442は、その表示内容として、検出日時情報4421、検出カメラ場所情報4422、検出顔画像4423、顔注意段階表示4424、検出全身画像4425、全身注意段階表示4426、及び、検出背景画像4427を含む。
ここで、検出日時情報4421は、当該追跡対象者が何れかの監視カメラ10の監視画像から検知された日時情報である。検出カメラ場所情報4422は、その検知した監視カメラIDに基づくカメラ場所情報である。検出顔画像4423は、検知されて保存された追跡対象者の照合用顔画像である。顔注意段階表示4424は、追跡対象者の顔画像と検知された人物の顔画像との類似度の段階を示すものである。すなわち、類似度が、実数ではなくて、追跡テーブル3251における顔画像類似度ラベルIDに基づく複数段階、ここでは3段階の注意段階表示として示されている。この顔注意段階表示4424では、図30においてハッチングにより表している識別表示された四角形の数が、顔画像類似度ラベルIDに対応する。例えば、一番上の追跡情報カード442では、追跡テーブル3251における顔画像類似度ラベルIDが「2」であったので、顔注意段階表示4424では、2個の四角形が識別表示され、上から二番目の追跡情報カード442では、追跡テーブル3251における顔画像類似度ラベルIDが「3」であったので、顔注意段階表示4424では、3個の四角形が識別表示されている。
同様に、検出全身画像4425は、検知されて保存された追跡対象者の照合用全身画像である。全身注意段階表示4426は、追跡対象者の全身画像と検知された人物の全身画像との類似度の段階を示すものである。すなわち、類似度が、実数ではなくて、追跡テーブル3251における全身画像類似度ラベルIDに基づく複数段階、ここでは3段階の注意段階表示として示されている。この全身注意段階表示4426も顔注意段階表示4424と同様、図30においてハッチングにより表している識別表示された四角形の数が、全身画像類似度ラベルIDに対応する。例えば、一番上の追跡情報カード442では、追跡テーブル3251における全身画像類似度ラベルIDが「3」であったので、全身注意段階表示4426では、3個の四角形が識別表示され、上から二番目の追跡情報カード442では、追跡テーブル3251における全身画像類似度ラベルIDが「2」であったので、全身注意段階表示4426では、2個の四角形が識別表示されている。
検出背景画像4427は、照合用顔画像及び/または照合用全身画像を抽出した元の監視画像であるフレーム画像である。このフレーム画像は、過去検索用データ記憶部311に記憶されているフレーム画像3111が用いられる。
なお、追跡情報カード442は、必ずしも、検出顔画像4423及び顔注意段階表示4424と、検出全身画像4425及び全身注意段階表示4426と、の両方を含むとは限らず、どちらか一方のみの場合も有り得る。
絞り込み指示領域443は、追跡アラート画面44に表示する追跡情報カード442を絞り込むための指示を受け付けるための領域である。この絞り込み指示領域443は、顔画像類似度選択ボタン4431、顔画像類似度選択リセットボタン4432、全身画像類似度選択ボタン4433、及び、全身画像類似度選択リセットボタン4434を含む。
ここで、顔画像類似度選択ボタン4431は、顔注意段階表示4424の段数に対応する3個のボタンを含む。監視者によるこの顔画像類似度選択ボタン4431の押下操作に応じた指定段数以上の顔注意段階表示4424を含む追跡情報カード442のみが追跡アラート画面44に表示されるようになる。図30の例では、顔画像類似度選択ボタン4431での段数が指定されていないので、追跡アラート画面44には、1段以上の顔注意段階表示4424を含む追跡情報カード442が表示されている。顔画像類似度選択リセットボタン4432は、顔画像類似度選択ボタン4431での段数指定をリセットする際に押下操作されるボタンである。
同様に、全身画像類似度選択ボタン4433は、全身注意段階表示4426の段数に対応する3個のボタンを含む。監視者によるこの全身画像類似度選択ボタン4433の押下操作に応じた指定段数以上の全身注意段階表示4426を含む追跡情報カード442のみが追跡アラート画面44に表示されるようになる。図30の例では、全身画像類似度選択ボタン4433での段数が指定されていないので、追跡アラート画面44には、1段以上の全身注意段階表示4426を含む追跡情報カード442が表示されている。全身画像類似度選択リセットボタン4434は、全身画像類似度選択ボタン4433での段数指定をリセットする際に押下操作されるボタンである。
図31は、Webブラウザ41に表示される追跡アラート画面44の別の例を示す図である。この例は、顔画像類似度選択ボタン4431で3段が指定され、全身画像類似度選択ボタン4433で1段が指定された場合を示している。ここで、押下操作されたボタンは、図30ではハッチングにより示すように、識別表示される。顔画像類似度選択ボタン4431による指定と全身画像類似度選択ボタン4433による指定はアンド条件となり、追跡アラート画面44には、両方で指定された段数に合致する追跡情報カード442のみが表示されるようになる。
(2-3)過去検索動作
第1実施形態で説明したように、過去検索機能部354は、Webブラウザ41からの時間及び場所の指定を受けて、過去検索用データ記憶部311からその指定された時間・場所に来訪した人物の全身画像3112を抽出し、その抽出した全身画像3112を一覧表示した選択画面を作成し、Webブラウザ41に表示させる。
第1実施形態で説明したように、過去検索機能部354は、Webブラウザ41からの時間及び場所の指定を受けて、過去検索用データ記憶部311からその指定された時間・場所に来訪した人物の全身画像3112を抽出し、その抽出した全身画像3112を一覧表示した選択画面を作成し、Webブラウザ41に表示させる。
Webブラウザ41から検索する人物の選択指定を受けて、過去検索機能部354は、その選択指定された全身画像3112を追跡用全身画像とし、また、リアルタイムの監視カメラ10からの監視画像に代えて指定された時間・場所についての過去検索用データ記憶部311に記憶されたフレーム画像3111を対象として、追跡機能部353と同様の動作を行う。
これにより、過去検索機能部354は、過去検索用データ記憶部311に記憶されている過去の来訪者の中から、選択指定された人物に類似する人物を検索し、その結果を追跡アラート画面44としてWebブラウザ41に表示させることができる。
(3)効果
以上詳述したように第2実施形態に係る人物検出装置としてのWebサーバ30では、互いに異なる判断基準を有する二つ以上の類似度算出手法のそれぞれを用いて特定画像に対する対象画像の類似度を二つ以上算出する類似度算出部である映像解析機能部20の監視/追跡実行機能部23が算出した類似度のそれぞれに基づいて、対象画像を複数の段階に分類するための複数の閾値を、類似度算出手法毎に、閾値記憶部としてのカメラ情報テーブル記憶部321に記憶しておき、検出部としての検知/追跡結果判定機能部34により、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した対象画像である類似度算出対象者の画像の、特定画像である特定人物の画像に対する少なくとも一つの類似度を監視/追跡実行機能部23から取得し、その監視/追跡実行機能部23での少なくとも一つの類似度の算出に用いた類似度算出手法に対応してカメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の中から、特定人物の画像に類似する画像を検出すると共に、その検出した類似度算出対象者の画像が複数の注意段階の何れであるのか検出する。このように、類似度算出手法の判断基準が異なることによって互いに比較することが難しい類似度を、類似度算出手法に依らない複数段階に分類することで、何れの類似度算出手法を用いたとしても、類似度の度合いを同じ評価基準に落とし込むことができる。
より具体的には、カメラ情報テーブル記憶部321に、例えば少なくとも一つの照合モデルのそれぞれについて、類似度が複数の注意段階の何れであるか判定するための複数の閾値を記憶しておき、検知/追跡結果判定機能部34により、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した類似度算出対象者の画像と特定人物の画像との類似度を例えば少なくとも一つの照合モデルを用いて算出する監視/追跡実行機能部23から、類似度を取得し、カメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、取得した類似度が注意段階の何れであるか検出する。
このような検出された注意段階により、認証結果の確からしさを監視者が容易に認識できるようになる。また、監視カメラ10毎の閾値をカメラ情報テーブル記憶部321に記憶しているので、監視カメラ10間における取得類似度のバラツキを減らすことができる。
以上詳述したように第2実施形態に係る人物検出装置としてのWebサーバ30では、互いに異なる判断基準を有する二つ以上の類似度算出手法のそれぞれを用いて特定画像に対する対象画像の類似度を二つ以上算出する類似度算出部である映像解析機能部20の監視/追跡実行機能部23が算出した類似度のそれぞれに基づいて、対象画像を複数の段階に分類するための複数の閾値を、類似度算出手法毎に、閾値記憶部としてのカメラ情報テーブル記憶部321に記憶しておき、検出部としての検知/追跡結果判定機能部34により、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した対象画像である類似度算出対象者の画像の、特定画像である特定人物の画像に対する少なくとも一つの類似度を監視/追跡実行機能部23から取得し、その監視/追跡実行機能部23での少なくとも一つの類似度の算出に用いた類似度算出手法に対応してカメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の中から、特定人物の画像に類似する画像を検出すると共に、その検出した類似度算出対象者の画像が複数の注意段階の何れであるのか検出する。このように、類似度算出手法の判断基準が異なることによって互いに比較することが難しい類似度を、類似度算出手法に依らない複数段階に分類することで、何れの類似度算出手法を用いたとしても、類似度の度合いを同じ評価基準に落とし込むことができる。
より具体的には、カメラ情報テーブル記憶部321に、例えば少なくとも一つの照合モデルのそれぞれについて、類似度が複数の注意段階の何れであるか判定するための複数の閾値を記憶しておき、検知/追跡結果判定機能部34により、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した類似度算出対象者の画像と特定人物の画像との類似度を例えば少なくとも一つの照合モデルを用いて算出する監視/追跡実行機能部23から、類似度を取得し、カメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、取得した類似度が注意段階の何れであるか検出する。
このような検出された注意段階により、認証結果の確からしさを監視者が容易に認識できるようになる。また、監視カメラ10毎の閾値をカメラ情報テーブル記憶部321に記憶しているので、監視カメラ10間における取得類似度のバラツキを減らすことができる。
また、Webサーバ30は、検知/追跡結果判定機能部34が検出した特定人物の画像に類似する画像を、その検知/追跡結果判定機能部34が検出した注意段階を示す段階表示と共に提示するための出力画面である検知アラート画面42を生成する出力画面生成部としての検知アラート出力機能部3521をさらに備えることができる。
より具体的には、検知アラート出力機能部3521は、検知/追跡結果判定機能部34の判別結果に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の内、特定人物の画像に類似する類似度算出対象者の画像を、注意段階と共に提示するための検知アラート画面42を生成する。
このように、認証結果である類似度を注意段階表示4219として提示するので、熟練監視者でなくても、画像の類似度を直感的に且つある程度正確に認識しやすくなる。よって、認証結果の確からしさを監視者が容易に認識できるようになる。
より具体的には、検知アラート出力機能部3521は、検知/追跡結果判定機能部34の判別結果に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の内、特定人物の画像に類似する類似度算出対象者の画像を、注意段階と共に提示するための検知アラート画面42を生成する。
このように、認証結果である類似度を注意段階表示4219として提示するので、熟練監視者でなくても、画像の類似度を直感的に且つある程度正確に認識しやすくなる。よって、認証結果の確からしさを監視者が容易に認識できるようになる。
なお、検知/追跡結果判定機能部34は、監視/追跡実行機能部23から、複数台の監視カメラ10の監視画像のそれぞれから抽出した類似度算出対象者の顔画像と特定人物の顔画像との類似度を取得し、検知アラート出力機能部3521は、特定人物の顔画像に類似する類似度算出対象者の顔画像を注意段階表示4219と共に提示する検知アラート画面42を生成するようにして良い。
これにより、顔画像の認証結果の確からしさを監視者が容易に認識できるようになる。なお、顔画像ではなく、特定人物の全身画像と類似度算出対象者の顔画像を用いるようにしても良い。
これにより、顔画像の認証結果の確からしさを監視者が容易に認識できるようになる。なお、顔画像ではなく、特定人物の全身画像と類似度算出対象者の顔画像を用いるようにしても良い。
ここで、複数の閾値は、対象画像である類似度算出対象者の画像が特定人物の画像であるか否か分類するための第1の閾値と、類似度算出対象者の画像が特定人物の画像である場合に、類似度算出対象者の画像を複数の段階に分類するための少なくとも一つの第2の閾値と、を含むことができる。
より具体的には、カメラ情報テーブル記憶部321は、第1の閾値としての、類似度算出対象者の画像が特定人物の画像であると推定される類似度に対応する顔照合閾値1と、第2の閾値としての、それぞれ顔照合閾値1よりも大きい類似度に対応する顔照合閾値2及び顔照合閾値3と、を記憶する。検知/追跡結果判定機能部34は、顔照合閾値1よりも大きい類似度を持つ類似度算出対象者の画像を検出し、検知アラート出力機能部3521は、検知/追跡結果判定機能部34が顔照合閾値1に基づいて検出した類似度算出対象者の画像を、検知/追跡結果判定機能部34が顔照合閾値2及び顔照合閾値3に基づいて判別した注意段階を示す注意段階表示4219と共に提示する検知アラート画面42を生成することができる。
これにより、顔照合閾値1によって検知アラート画面42に提示するべき類似度算出対象者の画像を容易に検出でき、検出した画像各々について、顔照合閾値2及び顔照合閾値3に基づいてどのような注意段階表示4219とするべきか決定することができるようになる。
より具体的には、カメラ情報テーブル記憶部321は、第1の閾値としての、類似度算出対象者の画像が特定人物の画像であると推定される類似度に対応する顔照合閾値1と、第2の閾値としての、それぞれ顔照合閾値1よりも大きい類似度に対応する顔照合閾値2及び顔照合閾値3と、を記憶する。検知/追跡結果判定機能部34は、顔照合閾値1よりも大きい類似度を持つ類似度算出対象者の画像を検出し、検知アラート出力機能部3521は、検知/追跡結果判定機能部34が顔照合閾値1に基づいて検出した類似度算出対象者の画像を、検知/追跡結果判定機能部34が顔照合閾値2及び顔照合閾値3に基づいて判別した注意段階を示す注意段階表示4219と共に提示する検知アラート画面42を生成することができる。
これにより、顔照合閾値1によって検知アラート画面42に提示するべき類似度算出対象者の画像を容易に検出でき、検出した画像各々について、顔照合閾値2及び顔照合閾値3に基づいてどのような注意段階表示4219とするべきか決定することができるようになる。
また、第2実施形態に係る人物追跡装置としてのWebサーバ30は、上記人物検出装置としてのWebサーバ30の構成に加えて、検知アラート画面42に段階表示と共に提示された特定人物の画像に類似する複数の類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の画像の指定を、監視者が操作する監視端末40から受け付け、その指定された画像を追跡用画像として登録し、この登録された追跡を行うべき追跡対象者の画像である追跡用画像を特定画像として監視/追跡実行機能部23に、少なくとも二つ以上の類似度算出手法を用いて類似度算出対象者の画像の類似度を少なくとも二つ抽出させる登録部としての画像登録機能部3531と、検知/追跡結果判定機能部34が、監視/追跡実行機能部23から取得した少なくとも二つ以上の類似度から検出した追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像それぞれを、検知/追跡結果判定機能部34が検出した注意段階を示す段階表示と共に提示するための追跡出力画面としての追跡アラート画面44を生成する追跡出力画面生成部としての追跡アラート出力機能部3533と、を備えることができる。
より具体的には、画像登録機能部3531は、検知アラート画面42に段階表示と共に提示された特定人物の画像に類似する複数の類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の顔画像の指定を、監視者が操作する監視端末40から受け付け、その指定された顔画像と当該顔画像に対応する前記追跡対象者の全身画像とを追跡用顔画像及び追跡用全身画像として登録する。また、カメラ情報テーブル記憶部321には、第1の閾値として、類似度算出対象者の顔画像が画像登録機能部3531によって登録された追跡用顔画像であると推定される類似度に対応する顔照合閾値1と、類似度算出対象者の全身画像が画像登録機能部3531によって登録された追跡用全身画像であると推定される類似度に対応する全身照合閾値1と、を記憶すると共に、少なくとも一つの第2の閾値して、それぞれ顔照合閾値1よりも大きい顔画像の類似度に対応する顔照合閾値2及び顔照合閾値3と、それぞれ全身照合閾値1よりも大きい全身画像の類似度に対応する全身照合閾値2及び全身照合閾値3と、を記憶している。そして、検知/追跡結果判定機能部34は、監視/追跡実行機能部23から、例えば第1の照合モデルを用いて算出された、複数台の監視カメラ10の監視画像のそれぞれから抽出した類似度算出対象者の顔画像と画像登録機能部3531によって登録された追跡用顔画像との類似度と、例えば第2の照合モデルを用いて算出された、類似度算出対象者の全身画像と画像登録機能部3531によって登録された追跡用全身画像との類似度と、を取得し、取得した顔画像の類似度の中から、顔照合閾値1よりも大きい類似度を持つ類似度算出対象者の顔画像と、取得した全身画像の類似度の中から、全身照合閾値1よりも大きい類似度を持つ類似度算出対象者の全身画像と、の少なくとも一方を検出し、追跡アラート出力機能部3533は、検知/追跡結果判定機能部34が顔照合閾値1及び全身照合閾値1の少なくとも一方に基づいて検出した類似度算出対象者の顔画像及び全身画像の少なくとも一方を、対応する顔照合閾値2及び顔照合閾値3と全身照合閾値2及び全身照合閾値3との少なくとも一方に基づいて判別した注意段階を示す段階表示と共に提示する追跡アラート画面44を生成するようにしている。
これにより、互いに異なる判断基準を有する二つ以上の類似度算出手法、例えば顔画像のための第1の照合モデルと全身画像のための第2の照合モデルとが、互いに範囲又はスケールが異なる類似度値を出力する場合であっても、追跡アラート画面44では同様の段階表示により類似度が表示されることで、監視者は、類似度の同一性を容易に認識できるようになる。
より具体的には、画像登録機能部3531は、検知アラート画面42に段階表示と共に提示された特定人物の画像に類似する複数の類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の顔画像の指定を、監視者が操作する監視端末40から受け付け、その指定された顔画像と当該顔画像に対応する前記追跡対象者の全身画像とを追跡用顔画像及び追跡用全身画像として登録する。また、カメラ情報テーブル記憶部321には、第1の閾値として、類似度算出対象者の顔画像が画像登録機能部3531によって登録された追跡用顔画像であると推定される類似度に対応する顔照合閾値1と、類似度算出対象者の全身画像が画像登録機能部3531によって登録された追跡用全身画像であると推定される類似度に対応する全身照合閾値1と、を記憶すると共に、少なくとも一つの第2の閾値して、それぞれ顔照合閾値1よりも大きい顔画像の類似度に対応する顔照合閾値2及び顔照合閾値3と、それぞれ全身照合閾値1よりも大きい全身画像の類似度に対応する全身照合閾値2及び全身照合閾値3と、を記憶している。そして、検知/追跡結果判定機能部34は、監視/追跡実行機能部23から、例えば第1の照合モデルを用いて算出された、複数台の監視カメラ10の監視画像のそれぞれから抽出した類似度算出対象者の顔画像と画像登録機能部3531によって登録された追跡用顔画像との類似度と、例えば第2の照合モデルを用いて算出された、類似度算出対象者の全身画像と画像登録機能部3531によって登録された追跡用全身画像との類似度と、を取得し、取得した顔画像の類似度の中から、顔照合閾値1よりも大きい類似度を持つ類似度算出対象者の顔画像と、取得した全身画像の類似度の中から、全身照合閾値1よりも大きい類似度を持つ類似度算出対象者の全身画像と、の少なくとも一方を検出し、追跡アラート出力機能部3533は、検知/追跡結果判定機能部34が顔照合閾値1及び全身照合閾値1の少なくとも一方に基づいて検出した類似度算出対象者の顔画像及び全身画像の少なくとも一方を、対応する顔照合閾値2及び顔照合閾値3と全身照合閾値2及び全身照合閾値3との少なくとも一方に基づいて判別した注意段階を示す段階表示と共に提示する追跡アラート画面44を生成するようにしている。
これにより、互いに異なる判断基準を有する二つ以上の類似度算出手法、例えば顔画像のための第1の照合モデルと全身画像のための第2の照合モデルとが、互いに範囲又はスケールが異なる類似度値を出力する場合であっても、追跡アラート画面44では同様の段階表示により類似度が表示されることで、監視者は、類似度の同一性を容易に認識できるようになる。
また、人物追跡装置としてのWebサーバ30は、監視画像のそれぞれから人物の全身画像を抽出し、全身画像からその特徴量である全身特徴量及び人物の顔画像を抽出し、顔画像からその特徴量である顔特徴量を抽出する抽出部である映像解析機能部20の人検知情報抽出機能部22が抽出した、全身画像、全身特徴量及び顔特徴量を、監視画像と共に蓄積する画像蓄積部としてのファイルサーバ31を更に備えて良く、画像登録機能部3531は、監視端末40から指定された追跡対象者の顔画像に対応するファイルサーバ31に蓄積された全身画像、全身特徴量及び顔特徴量と、その顔特徴量を抽出した顔画像とを、追跡用全身画像、用全身特徴量、用顔特徴量及び追跡用顔画像として登録し、検知/追跡結果判定機能部34は、画像登録機能部3531による登録の時点からファイルサーバ31に蓄積されていく監視画像を照合用画像として、照合用画像それぞれについての、人検知情報抽出機能部22が抽出した全身特徴量と追跡用全身特徴量との類似度である全身画像類似度、及び、人検知情報抽出機能部22が抽出した顔特徴量と追跡用顔特徴量との類似度である顔画像類似度を算出する監視/追跡実行機能部23から、算出した全身画像類似度及び顔画像類似度と追跡用顔画像及び追跡用全身画像とのセットを受け、顔画像類似度及び全身画像類似度の少なくとも一方が、対応する顔照合閾値1及び全身照合閾値1の少なくとも一方よりも大きいか否か判定し、顔照合閾値1及び全身照合閾値1の少なくとも一方よりも大きい類似度を持つ類似度算出対象者の顔画像及び全身画像の少なくとも一方を検出し、検知アラート出力機能部3521は、検知/追跡結果判定機能部34が検出した類似度算出対象者の顔画像及び全身画像の少なくとも一方と、対応する顔照合閾値2及び顔照合閾値3と全身照合閾値2及び全身照合閾値3との少なくとも一方に基づいて判別した注意段階を示す段階表示と、照合用画像としての監視画像を取得した監視カメラ10の位置情報とを、画像登録機能部3531によって登録された追跡用全身画像及び追跡用顔画像と共に提示する追跡出力画面である追跡アラート画面44を生成するようにしている。
これにより、監視カメラ10により追跡対象者の顔画像が取得できない場合でも、全身画像を利用して追跡対象者を追跡できるようになる。
これにより、監視カメラ10により追跡対象者の顔画像が取得できない場合でも、全身画像を利用して追跡対象者を追跡できるようになる。
なお、検知アラート出力機能部3521は、監視端末40からの段数指定を受けて、検知/追跡結果判定機能部34が検出した類似度算出対象者の顔画像及び全身画像の少なくとも一方の内、指定された段階に対応する顔照合閾値2及び顔照合閾値3と全身照合閾値2及び全身照合閾値3との少なくとも一方以上の類似度を有するものを、段階表示と共に提示する絞り込み出力画面としての追跡アラート画面44を生成することができる。追跡中に誤検知が増えた場合、表示件数が多くなり、確度の低い結果も表示してしまうこことなり、追跡対象者の特定が困難になる。
第2実施形態に係る人物追跡装置としてのWebサーバ30は、注意段階を示す段階表示の表示段階の基準を設定可能にすることで、確度の高い追跡結果のみの閲覧を促すことができる。
第2実施形態に係る人物追跡装置としてのWebサーバ30は、注意段階を示す段階表示の表示段階の基準を設定可能にすることで、確度の高い追跡結果のみの閲覧を促すことができる。
或いは、第2実施形態に係る人物追跡装置としてのWebサーバ30では、閾値記憶部としてのカメラ情報テーブル記憶部321に、互いに異なる判断基準を有する二つ以上の類似度算出手法のそれぞれを用いて特定画像に対する対象画像の類似度を二つ以上算出する類似度算出部である映像解析機能部20の監視/追跡実行機能部23が算出した類似度のそれぞれに基づいて、対象画像を複数の段階に分類するための複数の閾値を、類似度算出手法毎に記憶しておき、登録部としての画像登録機能部3531によって、監視者が操作する監視端末40から指定された追跡を行うべき追跡対象者の画像を、特定画像として登録する。そして、検知部としての検知/追跡結果判定機能部34は、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した対象画像である類似度算出対象者の画像の、特定画像に対する少なくとも一つの類似度を監視/追跡実行機能部23から取得し、その監視/追跡実行機能部23での少なくとも一つの類似度の算出に用いた類似度算出手法に対応してカメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の中から、追跡対象者の画像に類似する画像を検出すると共に、その検出した類似度算出対象者の画像が複数の注意段階の何れであるのか検出し、追跡出力画面生成部としての追跡アラート出力機能部3533は、検知/追跡結果判定機能部34が、監視/追跡実行機能部23から取得した少なくとも二つ以上の類似度から検出した追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像それぞれを、監視/追跡実行機能部23が検出した注意段階を示す段階表示と共に提示するための追跡出力画面としての追跡アラート画面44を生成する。
より具体的には、カメラ情報テーブル記憶部321に、例えば二つ以上の照合モデルのそれぞれについて、類似度が複数の注意段階の何れであるか判定するための複数の閾値を記憶しておき、画像登録機能部3531によって、監視者が操作する監視端末40から指定された追跡を行うべき追跡対象者の画像を登録する。そして、検知/追跡結果判定機能部34は、画像登録機能部3531によって登録された追跡対象者の画像と複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した類似度算出対象者の画像との類似度を二つ以上の照合モデルそれぞれを用いて算出する監視/追跡実行機能部23から、二つ以上の類似度を取得し、カメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、取得した二つ以上の類似度それぞれが注意段階の何れであるか判別し、追跡アラート出力機能部3533は、検知/追跡結果判定機能部34の判別結果に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の内、追跡対象者の画像に類似する類似度算出対象者の画像を、注意段階それぞれを示す段階表示と共に提示するための追跡アラート画面44を生成する。
これにより、互いに異なる判断基準を有する二つ以上の類似度算出手法、例えば二つ以上の照合モデルが、互いに範囲又はスケールが異なる類似度値を出力する場合であっても、追跡アラート画面44では同様の段階表示により類似度が表示されることで、監視者は、類似度の同一性を容易に認識できるようになる。
より具体的には、カメラ情報テーブル記憶部321に、例えば二つ以上の照合モデルのそれぞれについて、類似度が複数の注意段階の何れであるか判定するための複数の閾値を記憶しておき、画像登録機能部3531によって、監視者が操作する監視端末40から指定された追跡を行うべき追跡対象者の画像を登録する。そして、検知/追跡結果判定機能部34は、画像登録機能部3531によって登録された追跡対象者の画像と複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した類似度算出対象者の画像との類似度を二つ以上の照合モデルそれぞれを用いて算出する監視/追跡実行機能部23から、二つ以上の類似度を取得し、カメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、取得した二つ以上の類似度それぞれが注意段階の何れであるか判別し、追跡アラート出力機能部3533は、検知/追跡結果判定機能部34の判別結果に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の内、追跡対象者の画像に類似する類似度算出対象者の画像を、注意段階それぞれを示す段階表示と共に提示するための追跡アラート画面44を生成する。
これにより、互いに異なる判断基準を有する二つ以上の類似度算出手法、例えば二つ以上の照合モデルが、互いに範囲又はスケールが異なる類似度値を出力する場合であっても、追跡アラート画面44では同様の段階表示により類似度が表示されることで、監視者は、類似度の同一性を容易に認識できるようになる。
ここで、追跡アラート出力機能部3533は、監視端末40からの段数指定を受けて、検知/追跡結果判定機能部34が検出した類似度算出対象者の画像の内、指定された段階に対応する閾値以上の類似度を有するものを、段階表示と共に提示する絞り込み出力画面としての追跡アラート画面44を生成することができる。
このように、注意段階を示す段階表示の表示段階の基準を設定可能にすることで、確度の高い追跡結果のみの閲覧を促すことができる。
このように、注意段階を示す段階表示の表示段階の基準を設定可能にすることで、確度の高い追跡結果のみの閲覧を促すことができる。
また、カメラ情報テーブル記憶部321は、類似度算出対象者の画像が追跡対象者の画像であると推定される類似度に対応する第1の閾値である顔照合閾値1又は全身照合閾値1と、それぞれ顔照合閾値1又は全身照合閾値1よりも大きい類似度に対応する少なくとも一つの第2の閾値である顔照合閾値2及び顔照合閾値3、又は、全身照合閾値2及び全身照合閾値3と、を記憶し、検知/追跡結果判定機能部34は、顔照合閾値1又は全身照合閾値1よりも大きい顔類似度又は全身類似度を持つ前記類似度算出対象者の画像を検出し、追跡アラート出力機能部3533は、検知/追跡結果判定機能部34が顔照合閾値1又は全身照合閾値1に基づいて検出した前記類似度算出対象者の画像を、検知/追跡結果判定機能部34が顔照合閾値2,3又は全身照合閾値2,3に基づいて判別した注意段階を示す段階表示と共に提示する追跡アラート画面44を生成することができる。
これにより、顔照合閾値1又は全身照合閾値1によって追跡アラート画面44に提示するべき類似度算出対象者の画像を容易に検出でき、検出した画像各々について、顔照合閾値2及び顔照合閾値3、又は、全身照合閾値2及び全身照合閾値3に基づいて、どのような注意段階表示4219とするべきか決定することができるようになる。
これにより、顔照合閾値1又は全身照合閾値1によって追跡アラート画面44に提示するべき類似度算出対象者の画像を容易に検出でき、検出した画像各々について、顔照合閾値2及び顔照合閾値3、又は、全身照合閾値2及び全身照合閾値3に基づいて、どのような注意段階表示4219とするべきか決定することができるようになる。
また、第2実施形態に係る人物追跡システムは、第2実施形態に係る人物追跡装置と、複数台の監視カメラ10と、監視者が操作する監視端末40と、人検知情報抽出機能部22を備える解析部としての映像解析機能部20と、を備えることができる。
また、第2実施形態に係る人物検出方法は、複数台の監視カメラ10が取得した監視画像から特定人物を検出する人物検出方法であって、コンピュータであるWebサーバ30が、互いに異なる判断基準を有する二つ以上の類似度算出手法のそれぞれを用いて特定画像に対する対象画像の類似度を二つ以上算出する類似度算出部である映像解析機能部20の監視/追跡実行機能部23が算出した類似度のそれぞれに基づいて、対象画像を複数の段階に分類するための複数の閾値を、類似度算出手法毎に、メモリである記憶装置302に設けたDBサーバ32のカメラ情報テーブル記憶部321に記憶させておき、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した対象画像である類似度算出対象者の画像の、特定画像である特定人物の画像に対する少なくとも一つの類似度を監視/追跡実行機能部23から取得し、監視/追跡実行機能部23での少なくとも一つの類似度の算出に用いた類似度算出手法に対応してカメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の中から、特定人物の画像に類似する画像を検出すると共に、その検出した類似度算出対象者の画像が複数の注意段階の何れであるのか検出するようにしている。
より具体的には、例えば少なくとも一つの照合モデルのそれぞれについて、類似度が複数の注意段階の何れであるか判定するための複数の閾値をカメラ情報テーブル記憶部321に記憶させておき、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した類似度算出対象者の画像と特定人物の画像との類似度を少なくとも一つの照合モデルを用いて算出する監視/追跡実行機能部23から、類似度を取得し、カメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、取得した類似度が注意段階の何れであるか検出するようにしている。
このような検出された注意段階により、認証結果の確からしさを監視者が容易に認識できるようになる。また、監視カメラ10毎の閾値をカメラ情報テーブル記憶部321に記憶しているので、監視カメラ10間における取得類似度のバラツキを減らすことができる。
より具体的には、例えば少なくとも一つの照合モデルのそれぞれについて、類似度が複数の注意段階の何れであるか判定するための複数の閾値をカメラ情報テーブル記憶部321に記憶させておき、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した類似度算出対象者の画像と特定人物の画像との類似度を少なくとも一つの照合モデルを用いて算出する監視/追跡実行機能部23から、類似度を取得し、カメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、取得した類似度が注意段階の何れであるか検出するようにしている。
このような検出された注意段階により、認証結果の確からしさを監視者が容易に認識できるようになる。また、監視カメラ10毎の閾値をカメラ情報テーブル記憶部321に記憶しているので、監視カメラ10間における取得類似度のバラツキを減らすことができる。
また、第2実施形態に係る人物追跡方法は、複数台の監視カメラ10が取得した監視画像から追跡を行うべき追跡対象者を追跡する人物追跡方法であって、コンピュータであるWebサーバ30が、上記第2実施形態に係る人物検出方法によって検出した特定人物の画像に類似する画像を、検出した注意段階を示す段階表示と共に提示するための出力画面である検知アラート画面42を生成し、検知アラート画面42に段階表示と共に提示された特定人物の画像に類似する複数の類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の画像の指定を、監視者が操作する監視端末40から受け付け、その指定された画像を追跡用画像としてメモリである記憶装置302に設けたファイルサーバ31の管理データ記憶部313に登録する。そして、この管理データ記憶部313に登録された追跡を行うべき追跡対象者の画像である追跡用画像を特定画像として、監視/追跡実行機能部23に、少なくとも二つ以上の類似度算出手法を用いて類似度算出対象者の画像の類似度を少なくとも二つ抽出させ、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の、特定画像である追跡対象者の画像に対する少なくとも二つの類似度を監視/追跡実行機能部23から取得して、この監視/追跡実行機能部23での類似度のそれぞれの算出に用いた類似度算出手法に対応して管理データ記憶部313に記憶されている複数の閾値に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の中から、追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像を検出すると共に、その検出した類似度算出対象者の画像が複数の注意段階の何れであるのか検出し、監視/追跡実行機能部23から取得した少なくとも二つ以上の類似度から検出した追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像それぞれを、検出した注意段階を示す段階表示と共に提示するための追跡出力画面としての追跡アラート画面44を生成するようにしている。
より具体的には、検知アラート画面42に注意段階と共に提示された複数台の監視カメラ10の監視画像のそれぞれから抽出された複数の類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の顔画像の指定を、監視者が操作する監視端末40から受け付け、その指定された顔画像と当該顔画像に対応する追跡対象者の全身画像とを追跡用顔画像及び追跡用全身画像として管理データ記憶部313に登録する。そして、監視/追跡実行機能部23から、例えば第1の照合モデルを用いて算出された、複数台の監視カメラ10の監視画像のそれぞれから抽出した類似度算出対象者の顔画像と登録された追跡用顔画像との類似度と、例えば第2の照合モデルを用いて算出された、類似度算出対象者の全身画像と登録された追跡用全身画像との類似度と、を取得する。また、カメラ情報テーブル記憶部321に第1の閾値として、類似度算出対象者の顔画像が登録された追跡用顔画像であると推定される類似度に対応する顔照合閾値1及び類似度算出対象者の全身画像が登録された追跡用全身画像であると推定される類似度に対応する全身照合閾値1と、少なくとも一つの第2の閾値として、それぞれ顔照合閾値1よりも大きい顔画像の類似度に対応する顔照合閾値2及び顔照合閾値3とそれぞれ全身照合閾値1よりも大きい全身画像の類似度に対応する全身照合閾値2及び全身照合閾値3と、を記憶させておく。そして、取得した前記類似度の中から、顔照合閾値1よりも大きい類似度を持つ類似度算出対象者の顔画像と全身照合閾値1よりも大きい類似度を持つ類似度算出対象者の全身画像との少なくとも一方を検出し、顔照合閾値1及び全身照合閾値1の少なくとも一方に基づいて検出した類似度算出対象者の顔画像及び全身画像の少なくとも一方を、対応する顔照合閾値2及び顔照合閾値3と全身照合閾値2及び全身照合閾値3との少なくとも一方に基づいて判別した注意段階を示す段階表示と共に提示する追跡出力画面としての追跡アラート画面44を生成する。
これにより、互いに異なる判断基準を有する二つ以上の類似度算出手法、例えば顔画像のための第1の照合モデルと全身画像のための第2の照合モデルとが、互いに範囲又はスケールが異なる類似度値を出力する場合であっても、追跡アラート画面44では同様の段階表示により類似度が表示されることで、監視者は、類似度の同一性を容易に認識できるようになる。
より具体的には、検知アラート画面42に注意段階と共に提示された複数台の監視カメラ10の監視画像のそれぞれから抽出された複数の類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の顔画像の指定を、監視者が操作する監視端末40から受け付け、その指定された顔画像と当該顔画像に対応する追跡対象者の全身画像とを追跡用顔画像及び追跡用全身画像として管理データ記憶部313に登録する。そして、監視/追跡実行機能部23から、例えば第1の照合モデルを用いて算出された、複数台の監視カメラ10の監視画像のそれぞれから抽出した類似度算出対象者の顔画像と登録された追跡用顔画像との類似度と、例えば第2の照合モデルを用いて算出された、類似度算出対象者の全身画像と登録された追跡用全身画像との類似度と、を取得する。また、カメラ情報テーブル記憶部321に第1の閾値として、類似度算出対象者の顔画像が登録された追跡用顔画像であると推定される類似度に対応する顔照合閾値1及び類似度算出対象者の全身画像が登録された追跡用全身画像であると推定される類似度に対応する全身照合閾値1と、少なくとも一つの第2の閾値として、それぞれ顔照合閾値1よりも大きい顔画像の類似度に対応する顔照合閾値2及び顔照合閾値3とそれぞれ全身照合閾値1よりも大きい全身画像の類似度に対応する全身照合閾値2及び全身照合閾値3と、を記憶させておく。そして、取得した前記類似度の中から、顔照合閾値1よりも大きい類似度を持つ類似度算出対象者の顔画像と全身照合閾値1よりも大きい類似度を持つ類似度算出対象者の全身画像との少なくとも一方を検出し、顔照合閾値1及び全身照合閾値1の少なくとも一方に基づいて検出した類似度算出対象者の顔画像及び全身画像の少なくとも一方を、対応する顔照合閾値2及び顔照合閾値3と全身照合閾値2及び全身照合閾値3との少なくとも一方に基づいて判別した注意段階を示す段階表示と共に提示する追跡出力画面としての追跡アラート画面44を生成する。
これにより、互いに異なる判断基準を有する二つ以上の類似度算出手法、例えば顔画像のための第1の照合モデルと全身画像のための第2の照合モデルとが、互いに範囲又はスケールが異なる類似度値を出力する場合であっても、追跡アラート画面44では同様の段階表示により類似度が表示されることで、監視者は、類似度の同一性を容易に認識できるようになる。
或いは、第2実施形態に係る人物追跡方法は、複数台の監視カメラ10が取得した監視画像から追跡を行うべき追跡対象者を追跡する人物追跡方法であって、コンピュータであるWebサーバ30が、互いに異なる判断基準を有する二つ以上の類似度算出手法のそれぞれを用いて特定画像に対する対象画像の類似度を二つ以上算出する類似度算出部である映像解析機能部20の監視/追跡実行機能部23が算出した類似度のそれぞれに基づいて、対象画像を複数の段階に分類するための複数の閾値を、類似度算出手法毎にメモリである記憶装置302に設けたDBサーバ32のカメラ情報テーブル記憶部321に記憶させておき、監視者が操作する監視端末40から指定された追跡を行うべき追跡対象者の画像を、特定画像としてメモリである記憶装置302に設けたファイルサーバ31の管理データ記憶部313に登録し、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した対象画像である類似度算出対象者の画像の、特定画像に対する少なくとも一つの類似度を監視/追跡実行機能部23から取得し、この監視/追跡実行機能部23での少なくとも一つの類似度の算出に用いた類似度算出手法に対応してカメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の中から、追跡対象者の画像に類似する画像を検出すると共に、その検出した類似度算出対象者の画像が複数の注意段階の何れであるのか検出し、監視/追跡実行機能部23から取得した少なくとも二つ以上の類似度から検出した追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像それぞれを、検出した注意段階を示す段階表示と共に提示するための追跡出力画面としての追跡アラート画面44を生成するようにしている。
より具体的には、例えば二つ以上の照合モデルのそれぞれについて、類似度が複数の注意段階の何れであるか判定するための複数の閾値をカメラ情報テーブル記憶部321に記憶させておき、監視者が操作する監視端末40から指定された追跡を行うべき追跡対象の画像を管理データ記憶部313に登録し、登録された追跡対象者の画像と複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した類似度算出対象者の画像との類似度を二つ以上の照合モデルそれぞれを用いて算出する監視/追跡実行機能部23から、二つ以上の類似度を取得し、記憶されている複数の閾値に基づいて、取得した類似度が注意段階の何れであるか判別し、判別の結果に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の内、追跡対象者の画像に類似する類似度算出対象者の画像を、注意段階それぞれを示す段階表示と共に提示するための追跡アラート画面44を生成するようにしている。
これにより、互いに異なる判断基準を有する二つ以上の類似度算出手法、例えば二つ以上の照合モデルが、互いに範囲又はスケールが異なる類似度値を出力する場合であっても、追跡アラート画面44では同様の段階表示により類似度が表示されることで、監視者は、類似度の同一性を容易に認識できるようになる。
より具体的には、例えば二つ以上の照合モデルのそれぞれについて、類似度が複数の注意段階の何れであるか判定するための複数の閾値をカメラ情報テーブル記憶部321に記憶させておき、監視者が操作する監視端末40から指定された追跡を行うべき追跡対象の画像を管理データ記憶部313に登録し、登録された追跡対象者の画像と複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した類似度算出対象者の画像との類似度を二つ以上の照合モデルそれぞれを用いて算出する監視/追跡実行機能部23から、二つ以上の類似度を取得し、記憶されている複数の閾値に基づいて、取得した類似度が注意段階の何れであるか判別し、判別の結果に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の内、追跡対象者の画像に類似する類似度算出対象者の画像を、注意段階それぞれを示す段階表示と共に提示するための追跡アラート画面44を生成するようにしている。
これにより、互いに異なる判断基準を有する二つ以上の類似度算出手法、例えば二つ以上の照合モデルが、互いに範囲又はスケールが異なる類似度値を出力する場合であっても、追跡アラート画面44では同様の段階表示により類似度が表示されることで、監視者は、類似度の同一性を容易に認識できるようになる。
[第3実施形態]
第3実施形態では、第1及び第2実施形態と同様の構成については同一の符号を付し、その説明を省略する。第3実施形態では、主として、第2実施形態と異なる部分について説明する。
第3実施形態では、第1及び第2実施形態と同様の構成については同一の符号を付し、その説明を省略する。第3実施形態では、主として、第2実施形態と異なる部分について説明する。
(1)構成
(1-1)全体構成
この発明の第3実施形態に係る人物追跡システム1は、図1を用いて説明した第1の実施形態に係るシステム1と同様であっても良く、その説明を省略する。
(1-1)全体構成
この発明の第3実施形態に係る人物追跡システム1は、図1を用いて説明した第1の実施形態に係るシステム1と同様であっても良く、その説明を省略する。
(1-2)映像解析機能部20
図32は、第3実施形態における映像解析機能部20の構成の一例を示すブロック図である。第3実施形態においても、映像解析機能部20は、画像取得モジュール21、人検知情報抽出機能部22及び監視/追跡実行機能部23を備える。
図32は、第3実施形態における映像解析機能部20の構成の一例を示すブロック図である。第3実施形態においても、映像解析機能部20は、画像取得モジュール21、人検知情報抽出機能部22及び監視/追跡実行機能部23を備える。
そして、第3実施形態においては、人検知情報抽出機能部22が、全身検出モジュール221、領域追跡モジュール222、全身特徴量抽出モジュール223、顔検出モジュール224及び顔特徴量抽出モジュール225に加えて、体温検出モジュール226、脈拍検出モジュール227及び咳検出モジュール228を備える。
また、顔検出モジュール224は、抽出した顔画像を、顔特徴量抽出モジュール225に加えて、体温検出モジュール226、脈拍検出モジュール227及び咳検出モジュール228に送る。
体温検出モジュール226は、全身検出モジュール221から入力された全身画像または顔検出モジュール224から入力された顔画像から、人物の体表面温度を検出する。画像から体表面温度を検出する手法は、従来より種々提案されてきており、本実施形態では、使用する体表面温度検出手法を特に限定しない。体温検出モジュール226は、検出した体温を、サーバ内通信やWebsocket等によりWebサーバに送信する。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、体温検出モジュール226は、検出した体温をネットワークNETを介してWebサーバ30に送信する。
脈拍検出モジュール227は、顔検出モジュール224から入力された顔画像から、人物の脈拍数を検出する。画像から脈拍数を検出する技術としては、例えば、以下の参考文献1乃至3等に提案されている。
[参考文献1] 小原一誠、外4名、“映像からの脈波情報抽出”[Online]、[2020年6月19日検索]、インターネット<URL: https://www.sairct.idac.tohoku.ac.jp/wp-content/uploads/2016/07/160728_c2_yoshizawa_DLpre2.pdf>
[参考文献2] 阿部正英、外2名、“非接触センサを用いた脈拍数と呼吸数の計測”[Online]、[2020年6月19日検索]、インターネット<URL: http://www.mk.ecei.tohoku.ac.jp/papers/data/F05760013.pdf>
[参考文献3] “顔の画像からリアルタイムに脈拍を計測する技術を開発”[Online]、[2020年6月19日検索]、インターネット<URL: https://pr.fujitsu.com/jp/news/2013/03/18.html>
本実施形態では、使用する脈拍数検出手法を特に限定しない。脈拍検出モジュール227は、検出した脈拍数を、サーバ内通信やWebsocket等によりWebサーバに送信する。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、脈拍検出モジュール227は、検出した脈拍数をネットワークNETを介してWebサーバ30に送信する。
[参考文献1] 小原一誠、外4名、“映像からの脈波情報抽出”[Online]、[2020年6月19日検索]、インターネット<URL: https://www.sairct.idac.tohoku.ac.jp/wp-content/uploads/2016/07/160728_c2_yoshizawa_DLpre2.pdf>
[参考文献2] 阿部正英、外2名、“非接触センサを用いた脈拍数と呼吸数の計測”[Online]、[2020年6月19日検索]、インターネット<URL: http://www.mk.ecei.tohoku.ac.jp/papers/data/F05760013.pdf>
[参考文献3] “顔の画像からリアルタイムに脈拍を計測する技術を開発”[Online]、[2020年6月19日検索]、インターネット<URL: https://pr.fujitsu.com/jp/news/2013/03/18.html>
本実施形態では、使用する脈拍数検出手法を特に限定しない。脈拍検出モジュール227は、検出した脈拍数を、サーバ内通信やWebsocket等によりWebサーバに送信する。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、脈拍検出モジュール227は、検出した脈拍数をネットワークNETを介してWebサーバ30に送信する。
咳検出モジュール228は、顔検出モジュール224から入力された顔画像から、人物の咳の症状を検出する。咳検出モジュール228は、例えば、顔画像のブレ具合や、連続する複数の顔画像における顔の変化、等から咳をしているか否か及びその咳の程度を検出する。咳検出モジュール228は、例えば、深層学習等の機械学習により事前に学習させた人物の顔画像に基づいて、咳の症状を検出することができる。咳検出モジュール228は、検出した咳の症状の度合いを示す咳症状を、サーバ内通信やWebsocket等によりWebサーバに送信する。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、咳検出モジュール228は、検出した咳の症状をネットワークNETを介してWebサーバ30に送信する。
(1-3)Webサーバ30
第3実施形態におけるWebサーバ30のソフトウェア構成は、図18を参照して説明した第2実施形態におけるWebサーバ30と同様である。また、ハードウェア構成についても、図11を参照して第1実施形態で説明した通りである。第3実施形態では、Webサーバ30のファイルサーバ31及びDBサーバ32における記憶内容が第2実施形態と異なる場合がある。
第3実施形態におけるWebサーバ30のソフトウェア構成は、図18を参照して説明した第2実施形態におけるWebサーバ30と同様である。また、ハードウェア構成についても、図11を参照して第1実施形態で説明した通りである。第3実施形態では、Webサーバ30のファイルサーバ31及びDBサーバ32における記憶内容が第2実施形態と異なる場合がある。
図33は、ファイルサーバ31の過去検索用データ記憶部311に記憶される過去検索用データの一例を示す図である。第3実施形態では、過去検索用データは、フレーム画像3111、全身画像3112、全身特徴量3113及び顔特徴量3114に加えて、体温3115、脈拍数3116及び咳症状3117を含むことができる。これら体温3115、脈拍数3116及び咳症状3117は、映像解析機能部20の全身検出モジュール221が検出した状態情報である。これらフレーム画像3111、全身画像3112、全身特徴量3113、顔特徴量3114、体温3115、脈拍数3116及び咳症状3117は、例えば、同一のパスに記憶したり、ファイル名の一部に同一の文字列を付したりすることで、紐付けることができる。
検知履歴データ記憶部312は、第3実施形態では、インフルエンザ等の規定の症状に該当する追跡候補者として検知された特定人物それぞれに関するデータである検知履歴データを記憶する。図34は、この検知履歴データ記憶部312に記憶される検知された特定人物の検知履歴データの一例を示す図である。検知履歴データは、検知された特定人物の顔画像である検知顔画像3121及びその検知顔画像3121に対応する顔特徴量3122に加えて、第3実施形態では、検知全身画像3123と全身特徴量3124とを含むことができる。検知全身画像3123は、検知された特定人物の全身画像であり、全身特徴量3124は、その検知全身画像3123に対応する全身特徴量である。これら検知顔画像3121、顔特徴量3122、検知全身画像3123及び全身特徴量3124は、例えば、同一のパスに記憶したり、ファイル名の一部に同一の文字列を付したりすることで、紐付けることができる。
検知履歴データにおける情報は、Webサーバ30が、例えば、何れかの監視カメラ10の監視画像から、規定の体温、脈拍数または咳症状に該当する追跡候補者を検知した時に、検知履歴データ記憶部312に記憶させることができる。すなわち、Webサーバ30は、当該監視画像から取得されて過去検索用データ記憶部311に記憶されている全身画像3112、全身特徴量3113及び顔特徴量3114を、検知全身画像3123、全身特徴量3124及び顔特徴量3122として検知履歴データ記憶部312に記憶させることができる。また、Webサーバ30は、当該監視画像から取得されて過去検索用データ記憶部311に記憶されている全身画像3112を、サーバ内通信やWebsocket等により一つの映像解析機能部20の顔検出モジュール224に入力することで、当該顔検出モジュール224から顔画像を取得し、それを検知顔画像3121として検知履歴データ記憶部312に記憶させることができる。この一つの映像解析機能部20は、追跡候補者が検知された監視画像を取得した監視カメラ10に対応する映像解析機能部20であって良い。
例えば、Webサーバ30は、追跡候補者が検知された際に、第2実施形態と同様に、検知履歴データ記憶部312に記憶したその監視対象に対する検知履歴データにおける検知顔画像3121を、監視端末40のWebブラウザ41にて監視者に閲覧させる。さらに、第3実施形態では、Webサーバ30は、監視者に、検知顔画像3121の検知の元となった状態情報を、監視端末40のWebブラウザ41にて閲覧させる。ここで閲覧させる状態情報は、過去検索用データ記憶部311に記憶されている体温3115、脈拍数3116及び咳症状3117を、種類や性能等に依存する監視カメラ10毎の補正値によって補正したものである。
或いは、Webサーバ30は、過去検索用データ記憶部311に記憶されている複数の人物の全身画像3112に加えて、第3実施形態では、体温3115、脈拍数3116及び咳症状3117を監視端末40のWebブラウザ41にて閲覧させ、監視端末40から任意の全身画像の指定を受けて、その人物を指定の追跡対象者とするようにしても良い。この場合、体温3115、脈拍数3116及び咳症状3117を対応する監視カメラ10用の補正値により補正した結果をWebブラウザ41にて閲覧させるようにしても良い。追跡対象者が指定されたならば、Webサーバ30は、その指定された全身画像3112をサーバ内通信やWebsocket等により一つの映像解析機能部20の顔検出モジュール224に入力することで、当該顔検出モジュール224から顔画像を取得して、管理データ記憶部313に登録顔画像3131として記憶させることができる。
図35は、DBサーバ32のカメラ情報テーブル記憶部321に記憶される、監視カメラ10毎のカメラ情報テーブル3211の記載内容の一例を示す図である。カメラ情報テーブル3211には、例えば、第2実施形態と同様にカメラID、カメラ名称、アスペクト比、カメラ位置X、カメラ位置Y、カメラ角度、顔照合閾値1~3、全身照合閾値1~3、等々が記載されている。そして、第3実施形態では、カメラ情報テーブル3211には、更に、体温補正係数、脈拍補正係数及び咳症状補正係数が記載されている。
ここで、体温補正係数、脈拍補正係数及び咳症状補正係数は、映像解析機能部20の体温検出モジュール226、脈拍検出モジュール227及び咳検出モジュール228が検出した体温、脈拍数及び咳症状を補正するための係数である。これら補正係数は、対応する監視カメラ10自体の種類、性能、設置条件等に依存するため、監視カメラ10を設置してから実際の運用が開始されるまでの間に、適切な値に調整されて、カメラ情報テーブル3211に記載される。
また、顔照合閾値1~3及び全身照合閾値1~3は、映像解析機能部20の全身照合モジュール231及び顔照合モジュール232が算出した類似度と比較するための閾値である。顔照合閾値1~3は、第2実施形態が、監視対象者或いは追跡対象者の顔画像を対象としていたのに対し、第3実施形態では、対応する監視カメラ10の監視画像から抽出された人物の顔画像が追跡対象者の顔画像であるか否か分類するための顔画像類似度に対応する第1乃至第3の閾値である。同様に、全身照合閾値1貸せ3についても、第3実施形態では、対応する監視カメラ10の監視画像から抽出された人物の全身画像が追跡対象者の全身画像であるか否か分類するための全身画像類似度に対応する第1乃至第3の閾値である。なお、第3実施形態においても、この顔照合閾値及び全身照合閾値は、それぞれ3段階に限定するものではないことは勿論である。
また、第2実施形態では、Webサーバ30は、過去検索用データテーブル3221のトラッキングIDを、映像解析機能部20の人検知情報抽出機能部22から与えられる全身画像の領域位置と、過去検索用データテーブル記憶部322に記憶されている当該監視カメラ10の前フレーム画像における過去検索用データテーブル3221それぞれの全身画像の領域位置とを比較して、全身画像の人物の同一性を判別することで、過去検索用データテーブル3221のトラッキングIDを付与しても良いことを説明した。第3実施形態では、過去検索用データテーブル記憶部322に代えて、過去検索用データ記憶部311に記憶されている当該監視カメラ10の前フレーム画像における過去検索用データテーブル3221それぞれの全身画像の領域位置を用いることができる。
図36は、DBサーバ32の検知履歴テーブル記憶部323に記憶される検知履歴テーブル3231の記載内容の一例を示す図である。検知履歴テーブル3231には、例えば、検知ID、検知日時、検知カメラID、顔左右角度、顔上下角度、トラッキングID、等々に加えて、第3実施形態では、要注意者ID、補正後体温、補正後脈拍数及び補正後咳症状が記載される。ここで、検知ID、要注意者IDは、検知履歴データ記憶部312に検知履歴データを記憶する際に付与される、当該追跡候補者を一意に識別する識別情報である。補正後体温、補正後脈拍数及び補正後咳症状は、カメラ情報テーブル記憶部321に記憶されたカメラ情報テーブル3211に記載された補正係数による補正結果である。
図37は、DBサーバ32の管理テーブル記憶部324に記憶される管理テーブル3241の記載内容の一例を示す図である。管理テーブル3241には、例えば、クエリ顔画像パス、顔特徴量ファイルパス、監視ステータス、ピン留めフラグ、長期間滞在フラグ、等々に加えて、第3実施形態では、要注意者ID、補正後体温、補正後脈拍数及び補正後咳症状が記載される。ここで、要注意者ID、補正後体温、補正後脈拍数及び補正後咳症状は、検知履歴テーブル3231から転記される。
図38は、DBサーバ32の追跡テーブル記憶部325に記憶される追跡テーブル3251の記載内容の一例を示す図である。追跡テーブル3251は、第2実施形態では、追跡対象者の不審者ID毎のレコードを含んでいたが、第3実施形態では、追跡対象者の要注意者ID毎のレコードを含む。レコード自体の内容は、第2実施形態と同様、検知ID、全身画像類似度及び顔画像類似度でなる。
Webサーバのバックエンド機能として提供される検知/追跡結果判定機能部34は、第3実施形態では、映像解析機能部20の人検知情報抽出機能部22の各機能部の出力を受けて、規定の症状に該当する追跡候補者が監視カメラ10の監視画像内に現れたことを検知し、検知履歴テーブル記憶部323に記憶する検知履歴テーブルを作成すると共に、人検知情報抽出機能部22の各機能部で抽出した、その人物の検知顔画像3121、顔特徴量3122、検知全身画像3123及び全身特徴量3124を検知履歴データ記憶部312へ記憶させる。
Webアプリケーション35の監視機能部352は、第3実施形態では、検知/追跡結果判定機能部34が追跡候補者を検知した際に、アラートを発生して、Webブラウザ41に提示する。そのために、監視機能部352は、Webブラウザ41に提示するための検知アラート画面を生成する検知アラート出力機能部3521を含む。検知アラート画面は、規定の症状に該当する特定人物である追跡候補者と検知された人物の画像を、その状態情報と共に提示するための出力画面である。
追跡機能部353は、検知/追跡結果判定機能部34が検知した追跡候補者の顔画像と同一の人物の顔画像及び全身画像で、複数の監視カメラ10を跨いでリアルタイムに該当人物を追跡した追跡結果を、Webブラウザ41に提示する。
(2)動作
(2-1)監視動作
第3実施形態においては、各映像解析機能部20は、フレーム画像、全身画像、全身画像の領域位置、全身特徴量及び顔特徴量に加えて、体温、脈拍数及び咳症状を、サーバ内通信やWebsocket等によりWebサーバ30に送信する。Webサーバ30は、複数の映像解析機能部20のそれぞれから送信されてきたフレーム画像、全身画像、全身特徴量、顔特徴量、体温、脈拍数及び咳症状を、過去検索用データとして、ファイルサーバ31の過去検索用データ記憶部311に蓄積する。
(2-1)監視動作
第3実施形態においては、各映像解析機能部20は、フレーム画像、全身画像、全身画像の領域位置、全身特徴量及び顔特徴量に加えて、体温、脈拍数及び咳症状を、サーバ内通信やWebsocket等によりWebサーバ30に送信する。Webサーバ30は、複数の映像解析機能部20のそれぞれから送信されてきたフレーム画像、全身画像、全身特徴量、顔特徴量、体温、脈拍数及び咳症状を、過去検索用データとして、ファイルサーバ31の過去検索用データ記憶部311に蓄積する。
人物追跡システムでは、この各部のリアルタイムな状況監視と並行して、追跡候補者の来訪検知動作が行われる。この追跡候補者来訪検知動作は、検知/追跡結果判定機能部34による検知結果判定処理と、監視機能部352の検知アラート出力機能部3521による検知アラート出力処理と、を含む。
図39は、Webサーバ30の検知/追跡結果判定機能部34による検知結果判定処理の処理手順を示すフローチャートである。検知/追跡結果判定機能部34は、過去検索用データテーブル記憶部322に、何れかの監視カメラ10の監視画像に基づく過去検索用データが記憶される毎に、このフローチャートに示す処理を実施することができる。或いは、検知/追跡結果判定機能部34は、過去検索用データテーブル記憶部322に、各監視カメラ10の監視画像に基づく過去検索用データが所定回数分記憶される毎に、このフローチャートに示す処理を実施するようにしても良い。後者の場合、その複数回分の過去検索用データの内の何れか一つ、例えば最新のものを処理対象として使用することができる。
検知/追跡結果判定機能部34は、まず、過去検索用データ記憶部311に記憶されている過去検索用データから状態情報である体温3115、脈拍数3116及び咳症状3117を取得する(ステップS1001)。また、検知/追跡結果判定機能部34は、カメラ情報テーブル記憶部321に記憶避けている、その過去検索用データの取得元である監視カメラ10のカメラ情報テーブル3211より状態情報の補正値である体温補正値、脈拍数補正値及び咳症状補正値を取得する(ステップS1002)。そして、上記取得した体温3115、脈拍数3116及び咳症状3117を、この体温補正値、脈拍数補正値及び咳症状補正値により補正する(ステップS1003)。
その後、検知/追跡結果判定機能部34は、補正後の体温が予め記憶している規定体温以上であるか否か判断する(ステップS1004)。補正後体温が規定体温以上であると判断した場合には、検知/追跡結果判定機能部34は、検知履歴データ記憶部312に検知履歴データとして検知顔画像3121、顔特徴量3122、検知全身画像3123及び全身特徴量3124を記憶させると共に、検知履歴テーブル3231を生成して、それを検知履歴テーブル記憶部323に記憶させる(ステップS1005)。この生成した検知履歴テーブル3231には、上記ステップS1003で補正した補正後の状態情報である補正後体温、補正後脈拍数及び補正後咳症状が登録されることとなる。そしてその後、検知/追跡結果判定機能部34は、この検知/追跡結果判定処理を終了する。なお、比較対象である規定体温と後述する規定脈拍数及び規定咳症状は、インフルエンザ等の規定の症状に応じた値が予め記憶装置302に記憶されているものとする。
これに対して、ステップS1004において補正後体温が規定体温以上ではないと判断した場合には、検知/追跡結果判定機能部34は、補正後の脈拍数が、予め記憶している規定脈拍数以上であるか否か判断する(ステップS1006)。補正後脈拍数が規定脈拍数以上であると判断した場合には、検知/追跡結果判定機能部34は、上記ステップS1005の処理に進む。
また、補正後脈拍数が規定脈拍数以上ではないと判断した場合には、検知/追跡結果判定機能部34は、補正後の咳症状が、予め記憶している規定咳症状以上か否か判断する(ステップS1007)。補正後咳症状が規定咳症状以上であると判断した場合には、検知/追跡結果判定機能部34は、上記ステップS1005の処理に進む。補正後咳症状が規定咳症状以上ではないと判断した場合には、検知/追跡結果判定機能部34は、この検知/追跡結果判定処理を終了する。
以上のようにして、補正後の体温、脈拍数及び咳症状の何れかが既定の体温、脈拍数または咳症状以上である場合には、追跡候補者が検知されたとして、検知履歴データ記憶部312に検知履歴データが記憶され、検知履歴テーブル3231へ補正後の体温、脈拍数及び咳症状が登録されることになる。
図40及び図41は、監視機能部352の検知アラート出力機能部3521による検知アラート出力処理の処理手順を示すフローチャートである。検知アラート出力機能部3521は、定期的に、例えば映像解析機能部20の監視/追跡実行機能部23による検知結果判定処理と同様の処理タイミングで、このフローチャートに示す処理を実施する。
検知アラート出力機能部3521は、まず、監視端末40において、監視者によってWebブラウザ41に表示される検知アラート画面における絞り込み指定操作が行われたか否か判断する(ステップS2001)。絞り込み指定操作が行われたと判断した場合、検知アラート出力機能部3521は、後述するステップS2006へと進む。
これに対して、絞り込み指定操作が行われていないと判断した場合、検知アラート出力機能部3521は、検知履歴テーブル記憶部323から新規の検知履歴テーブル3231の情報を取得する(ステップS2002)。すなわち、検知アラート出力機能部3521は、検知履歴テーブル3231における検知日時として、前回の処理日時以降の日時が記録されているものを抽出して取得する。
そして、検知アラート出力機能部3521は、取得した新規の検知履歴テーブル3231の情報に基づいて、画面画像である新規の検知人物カードを作成する(ステップS2003)。この検知人物カードは、検知履歴データ記憶部312に検知履歴データとして記憶した検知顔画像3121及び検知全身画像3123と、それに対応する検知履歴テーブル3231における補正後の状態情報と、を含む画面画像である。この検知人物カードについては、詳細を後述する。
検知アラート出力機能部3521は、この作成した新規の検知人物カードにより、Webブラウザ41にて表示するための検知アラート画面を更新する(ステップS2004)。そして、検知アラート出力機能部3521は、この更新した検知アラート画面を、ネットワークNETを介してWebブラウザ41に送信して、そこに表示させる(ステップS2005)。Webブラウザ41では、監視画面の一部に設けられたアラート画面表示領域に、或いは、監視画面とは別のウィンドウを開いて、この検知アラート画面を表示する。そして、検知アラート出力機能部3521は、この検知アラート出力処理を終了する。
一方、上記ステップS2001において絞り込み指定操作が行われたと判断した場合、検知アラート出力機能部3521は、その指定された絞り込みレベルを取得する(ステップS2006)。この絞り込みレベルは、検知アラート画面に表示する検知人物カードを絞り込むための指標である。
また、検知アラート出力機能部3521は、検知履歴テーブル記憶部323から処理対象の検知履歴テーブル3231の情報を取得する(ステップS2007)。すなわち、検知アラート出力機能部3521は、検知履歴テーブル3231における検知日時に基づいて、新しいものから順に一つの検知履歴テーブルの情報を取得する。
その後、検知アラート出力機能部3521は、取得した補正後の体温が、上記絞り込みレベルとして指定された指定体温よりも高いか否か、つまり補正後体温が指定体温以上であるか否か判断する(ステップS2008)。補正後体温が指定体温以上であると判断した場合には、検知アラート出力機能部3521は、取得した検知履歴テーブル3231の情報に基づいて、画面画像である検知人物カードを作成する(ステップS2009)。
そして、検知アラート出力機能部3521は、所定数の検知人物カードを作成したか否か判断する(ステップS2010)。この所定数は、検知アラート画面の表示可能個数に依存することができる。或いは、任意の個数としても良い。未だ所定数の検知人物カードを作成していないと判断した場合には、検知アラート出力機能部3521は、上記ステップS2007の処理に戻る。
また、上記ステップS2008において補正後体温が指定体温以上ではないと判断した場合には、検知アラート出力機能部3521は、取得した補正後の脈拍数が、上記絞り込みレベルとして指定された指定脈拍数以上であるか否か判断する(ステップS2011)。補正後脈拍数が指定脈拍数以上であると判断した場合には、検知アラート出力機能部3521は、上記ステップS2009の処理に進んで、検知人物カードを作成することとなる。
また、上記ステップS2013において補正後脈拍数が指定脈拍数以上ではないと判断した場合には、検知アラート出力機能部3521は、取得した補正後の咳症状が、上記絞り込みレベルとして指定された指定咳症状以上であるか否か判断する(ステップS2012)。補正後咳症状が指定咳症状以上であると判断した場合には、検知アラート出力機能部3521は、上記ステップS2009の処理に進んで、検知人物カードを作成することとなる。補正後咳症状が指定咳症状以上ではないと判断した場合には、検知アラート出力機能部3521は、上記ステップS2010の処理に進む。
そして、上記ステップS2010において所定数の検知人物カードを作成したと判断した場合には、検知アラート出力機能部3521は、作成した検知人物カードを検知日時順に並べ替えて、検知アラート画面を更新する(ステップS2013)。そして、検知アラート出力機能部3521は、上記ステップS2005の処理に進んで、この更新した検知アラート画面を、ネットワークNETを介してWebブラウザ41に送信して、そこに表示させることとなる。
なお、所定数の検知人物カードを作成する前に、上記ステップS2007で取得するべき処理対象の検知履歴テーブル3231の情報が無くなってしまった場合には、ステップS2013に進んで良い。
図42は、Webブラウザ41に表示される検知アラート画面42の一例を示す図である。検知アラート画面42は、検知された人物毎の検知人物カード422と、絞り込み指示領域423と、を含む。なお、図24においては「検知顔画像」及び「検知全身画像」として文字で示しているが、実際には、それらは文字ではなく画像であることに注意されたい。
検知人物カード422は、その表示内容として、注意喚起ラベル4221、要注意者ID4222、追跡候補者画像4223、検知体温4224、検知脈拍数4225、検知咳症状4226、及び、追跡開始ボタン4227を含むことができる。
ここで、注意喚起ラベル4221は、監視者の注意を促すためのメッセージであり、点滅表示灯の識別表示を行うようにしても良い。要注意者ID4222は、検知履歴テーブル3231から転記される識別情報である。追跡候補者画像4223は、その追跡候補者であると検知された人物の、検知履歴データ記憶部312に記憶された検知顔画像3121及び検知全身画像3123である。検知体温4224、検知脈拍数4225及び検知咳症状4226は、検知履歴テーブル3231から転記される補正後体温、補正後脈拍数及び補正後咳症状である。追跡開始ボタン4227は、当該人物を追跡する場合に押下されるボタンである。
なお、この検知人物カード422は、追跡候補者として新たに特定人物が検知される毎に、検知アラート画面42の最上位に表示されるように、古い検知人物カード422が下方にシフトされていく。同一人物については新たな検知人物カード422は追加されない。
また、絞り込み指示領域423は、検知アラート画面42に表示する検知人物カード422を絞り込むための指示を受け付けるための領域である。この絞り込み指示領域423は、体温提示閾値設定スライダ4231、脈拍数提示閾値設定スライダ4232及び咳症状閾値設定ボタン4233を含む。
ここで、体温提示閾値設定スライダ4231は、上記ステップS2008で用いる指定体温を示す提示閾値を設定するためにスライド操作されるスライダである。監視者によるこのスライダのスライド操作で指示される体温以上の補正後体温を含む検知人物カード421が検知アラート画面42に表示されるようになる。図42では、体温提示閾値設定スライダ4231は、37.5℃である規定体温が設定されている状態を示している。
同様に、脈拍数提示閾値設定スライダ4232は、上記ステップS2011で用いる指定脈拍数を示す提示閾値を設定するためにスライド操作されるスライダである。監視者によるこのスライダのスライド操作で指示される脈拍数以上の補正後脈拍数を含む検知人物カード421が検知アラート画面42に表示されるようになる。図42では、脈拍数提示閾値設定スライダ4232は、110である規定脈拍数が設定されている状態を示している。
また、咳症状閾値設定ボタン4233は、本実施形態では咳症状の度合いを3段階で示すものとしているので、咳症状の段数に対応する3個のボタンを含む。監視者によるこの3個のボタンの押下操作に応じた指定段数以上の補正後咳症状を含む検知人物カード421が検知アラート画面42に表示されるようになる。図42の例では、咳症状閾値設定ボタン4233での段数として1段である規定咳症状が設定されている状態を示している。また、この咳症状閾値設定ボタン4233は、この指定段数をリセットする際に押下操作されるボタンであるリセットボタンも含む。
図42の例では、検知アラート画面42は、3つの検知人物カード422を含む。最上部に提示された検知人物カード422は、体温提示閾値設定スライダ4231で指定される37.5℃以上の体温である37.6℃の体温、または、咳症状閾値設定ボタン4233で指定される1段以上の咳症状度合いである2段の咳症状が検知された追跡候補者を提示する検知人物カード422である。2段目に提示された検知人物カード422は、体温提示閾値設定スライダ4231で指定される37.5℃以上の体温である38.8℃の体温、脈拍数提示閾値設定スライダ4232で指定される110以上の脈拍である115の脈拍数、または、咳症状閾値設定ボタン4233で指定される1段以上の咳症状度合いである3段の咳症状が検知された追跡候補者を提示する検知人物カード422である。そして、3段目に提示された検知人物カード422は、脈拍数提示閾値設定スライダ4232で指定される110以上の脈拍である115の脈拍数、または、咳症状閾値設定ボタン4233で指定される1段以上の咳症状度合いである2段の咳症状が検知された追跡候補者を提示する検知人物カード422である。
図43は、体温提示閾値設定スライダ4231により37.8℃、咳症状閾値設定ボタン4233で2段を指定した場合の検知アラート画面42の例である。この例では、この体温と咳症状の提示閾値による絞り込みの結果、図42の例において最上位に提示されていた追跡候補者の検知人物カード422が提示されなくなる。図43の例では、図42の例において2段目と3段目に提示されていた検知人物カード422が上方にシフトされ、新たに、体温提示閾値設定スライダ4231で指定される37.8℃以上の体温である7.9℃の体温、または、咳症状閾値設定ボタン4233で指定される2段以上の咳症状度合いである2段の咳症状が検知された追跡候補者を提示する検知人物カード422が3段目に提示されている。
(2-2)追跡動作
追跡機能部353の画像登録機能部3531による画像登録処理の処理手順は、以下の点を除いて、第1実施形態と同様である。すなわち、第3実施形態においては、追跡開始ボタン4227の押下操作が行われたと判断した場合には、ステップS12において、画像登録機能部3531は、検知アラート画面42の要注意者IDを有する検知履歴テーブル記憶部323のトラッキングIDに基づいて、検知履歴データ記憶部312から検知顔画像3121を追跡用顔画像として取得する。
追跡機能部353の画像登録機能部3531による画像登録処理の処理手順は、以下の点を除いて、第1実施形態と同様である。すなわち、第3実施形態においては、追跡開始ボタン4227の押下操作が行われたと判断した場合には、ステップS12において、画像登録機能部3531は、検知アラート画面42の要注意者IDを有する検知履歴テーブル記憶部323のトラッキングIDに基づいて、検知履歴データ記憶部312から検知顔画像3121を追跡用顔画像として取得する。
そして、ステップS13において、画像登録機能部3531は、追跡用顔画像として取得された検知顔画像3121について検知履歴テーブル3231に記載された検知IDで特定される検知全身画像3123を追跡用全身画像として取得する。或いは、画像登録機能部3531は、その検知IDに基づいて、過去検索用データ記憶部311から全身画像3112を追跡用全身画像として取得する。
さらに、ステップS14において、画像登録機能部3531は、上記検知IDに基づいて、検知履歴データ記憶部312から顔特徴量3122及び全身特徴量3124を追跡用顔特徴量及び追跡用全身特徴量として取得する。
また、映像解析機能部20の監視/追跡実行機能部23による追跡処理の処理手順は、以下の点を除いて、図25を参照して説明した第2実施形態と同様である。すなわち、第3実施形態では、ステップS118における時間間隔t1は、例えば、数秒というように、任意の時間間隔とする。或いは、時間間隔t1は、監視カメラ10の監視画像の取得間隔の整数倍の時間間隔としても良い。
Webサーバ30の検知/追跡結果判定機能部34による追跡結果判定処理、及び追跡機能部353の追跡アラート出力機能部3533による追跡アラート出力処理については、不審者IDを要注意者IDとすることを除いては、第2実施形態と同様である。また、全身画像類似度と全身照合閾値1~3それぞれとの比較、及び顔画像類似度と顔照合閾値1~3それぞれとの比較においては、大きいか否かではなく以上であるか否かの判断としても構わない。何れとするのかは、それぞれの閾値をどう選択するのかに依存する。
図44は、Webブラウザ41に表示される追跡アラート画面44の一例を示す図である。第3実施形態においては、追跡アラート画面44は、以下の点が第2実施形態における追跡アラート画面44と異なっている。すなわち、第3実施形態では、追跡アラート画面44の最上位の追跡対象者情報領域431は、第2実施形態の注意喚起メッセージ4411及び不審者ID4412に代えて、注意喚起ラベル4416及び要注意者ID4417を含み、また、追跡情報4414の表示内容が異なっている。
ここで、注意喚起ラベル4416は、監視者の注意を促すためのメッセージであり、点滅表示灯の識別表示を行うようにしても良い。要注意者ID4417は、管理テーブル3241から転記される識別情報である。追跡情報4414は、当該追跡対象者に関する情報であり、最上位の追跡対象者情報領域431の追跡情報4414とその他の追跡対象者情報領域431の追跡情報4414とでは、内容が異なっている。すなわち、最上位の追跡対象者情報領域431の追跡情報4414は、管理テーブル3241から転記される状態情報である補正後体温、補正後脈拍数及び補正後咳症状を含む。最上位以外の追跡対象者情報領域431の追跡情報4414は、これら状態情報に代えて、追跡状況を含んでいる。
図45は、Webブラウザ41に表示される追跡アラート画面44の別の例を示す図である。この例は、顔画像類似度選択ボタン4431で3段が指定され、全身画像類似度選択ボタン4433で1段が指定された場合を示している。ここで、押下操作されたボタンは、図44ではハッチングにより示すように、識別表示される。顔画像類似度選択ボタン4431による指定と全身画像類似度選択ボタン4433による指定はアンド条件となり、追跡アラート画面44には、両方で指定された段数に合致する追跡情報カード442のみが表示されるようになる。
(2-3)過去検索動作
追跡機能部353による追跡動作は、第2実施形態と同様である。
追跡機能部353による追跡動作は、第2実施形態と同様である。
(3)効果
以上詳述したように第3実施形態に係る人物追跡装置としてのWebサーバ30は、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれに含まれる人物の健康状態に係わる複数種類の状態情報を、監視画像のそれぞれから検出する情報抽出部としての人検知情報抽出機能部22から、当該人検知情報抽出機能部22が検出した複数種類の状態情報を取得し、それら取得した複数種類の状態情報に基づいて、監視画像のそれぞれに含まれる人物が規定の症状に該当する特定人物であるか否か判別する判別部としての検知/追跡結果判定機能部34と、検知/追跡結果判定機能部34の判別結果に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された人物の画像の内、インフルエンザ等の規定の症状に該当する特定人物の画像を、追跡対象者画像として登録する登録部としての画像登録機能部3531と、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから、画像登録機能部3531によって登録された追跡対象者画像に類似する人物の画像を検知する検知部としての検知/追跡結果判定機能部34と、検知/追跡結果判定機能部34が検知した追跡対象者画像に類似する人物の画像を提示するための追跡出力画面としての追跡アラート画面44を生成する追跡出力画面生成部としての追跡アラート出力機能部3533と、を具備するようにしている。これにより、監視カメラ10によって取得した監視画像から規定の症状に該当する人物を検知し、追跡できるようになる。
以上詳述したように第3実施形態に係る人物追跡装置としてのWebサーバ30は、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれに含まれる人物の健康状態に係わる複数種類の状態情報を、監視画像のそれぞれから検出する情報抽出部としての人検知情報抽出機能部22から、当該人検知情報抽出機能部22が検出した複数種類の状態情報を取得し、それら取得した複数種類の状態情報に基づいて、監視画像のそれぞれに含まれる人物が規定の症状に該当する特定人物であるか否か判別する判別部としての検知/追跡結果判定機能部34と、検知/追跡結果判定機能部34の判別結果に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された人物の画像の内、インフルエンザ等の規定の症状に該当する特定人物の画像を、追跡対象者画像として登録する登録部としての画像登録機能部3531と、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから、画像登録機能部3531によって登録された追跡対象者画像に類似する人物の画像を検知する検知部としての検知/追跡結果判定機能部34と、検知/追跡結果判定機能部34が検知した追跡対象者画像に類似する人物の画像を提示するための追跡出力画面としての追跡アラート画面44を生成する追跡出力画面生成部としての追跡アラート出力機能部3533と、を具備するようにしている。これにより、監視カメラ10によって取得した監視画像から規定の症状に該当する人物を検知し、追跡できるようになる。
なお、Webサーバ30は、検知/追跡結果判定機能部34の判別結果に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された人物の画像の内、規定の症状に該当する特定人物の画像を、状態情報と共に提示するための検知出力画面としての検知アラート画面42を生成する検知出力画面生成部としての検知アラート出力機能部3521を更に具備するようにし、画像登録機能部3531は、この検知アラート出力機能部3521が生成した検知アラート画面42を表示する監視端末40から、検知アラート画面42に提示された人物の画像の中から追跡を行うべき追跡対象者の画像の指定を取得し、その取得した指定された画像を追跡対象者画像として登録するようにしている。よって、検知アラート画面42に複数の追跡候補者をその状態情報と共に提示することで、追跡しなければならない追跡対象者を監視者が容易に認識できるようになる。
また、検知/追跡結果判定機能部34は、取得した複数種類の状態情報の内の何れか一種類でも既定値以上であるとき、複数台の監視カメラ10それぞれの監視画像から抽出された人物の画像が規定の症状に該当する特定人物の画像であると判別するようにしている。よって、少しでも規定の症状に該当する可能性がある人物を確実にピックアップすることができる。
また、検知アラート出力機能部3521は、複数種類の状態情報それぞれの種類に対して指定された提示閾値を取得し、取得した提示閾値に基づいて、検知/追跡結果判定機能部34が規定の症状に該当すると判別した特定人物の画像の中から、検知アラート画面42に提示するべき画像を絞り込むようにしている。よって、監視者が提示閾値を指定することで、検知アラート画面42に提示される規定の症状に該当する可能性がある人物を絞り込むことができ、追跡しなければならない追跡対象者を監視者が容易に認識できるようになる。
この場合、検知アラート出力機能部3521は、取得したそれぞれの種類に対する提示閾値の中の何れか一つの提示閾値以上の状態情報を検出した特定人物の画像を、検知アラート画面42に提示するべき画像として選択するようにしている。よって、少しでも規定の症状に該当する可能性がある人物を、絞り込み対象外としてしまうおそれがない。
また、Webサーバ30は、複数台の監視カメラ10それぞれについて、状態情報を補正するための補正係数を記憶したカメラ情報記憶部としてのカメラ情報テーブル記憶部321を更に備え、検知/追跡結果判定機能部34は、人検知情報抽出機能部22から取得した状態情報を、このカメラ情報テーブル記憶部321に記憶された補正係数により補正し、補正後の状態情報に基づいて、人物の画像が規定の症状に該当する特定人物の画像であるか否か判別するようにしている。よって、監視カメラ10の種類等の違いに依存する状態情報間のバラツキを減らすことができる。
なお、状態情報は、監視画像からそれぞれ抽出される、体温、脈拍数及び咳症状の内の少なくとも一つを含むことができる。
また、第3実施形態に係る人物追跡システムは、第3実施形態に係る人物追跡装置としてのWebサーバ30と、複数台の監視カメラ10と、監視者が操作する監視端末40と、人検知情報抽出機能部22を備える解析部としての映像解析機能部20と、を備えることができる。
また、第3実施形態に係る人物追跡方法は、複数台の監視カメラ10が取得した監視画像から追跡を行うべき追跡対象者を追跡する人物追跡方法であって、コンピュータであるWebサーバ30が、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれに含まれる人物の健康状態に係わる複数種類の状態情報を、監視画像のそれぞれから検出する情報抽出部としての人検知情報抽出機能部22から、当該人検知情報抽出機能部22が検出した複数種類の状態情報を取得し、それら取得した複数種類の状態情報に基づいて、監視画像のそれぞれに含まれる人物が規定の症状に該当する特定人物であるか否か判別し、その判別の結果に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された人物の画像の内、規定の症状に該当する特定人物の画像を、追跡対象者画像としてメモリであるファイルサーバ31に登録し、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから、登録された追跡対象者画像に類似する人物の画像を検知し、それら検知した追跡対象者画像に類似する人物の画像を提示するための追跡アラート画面44を生成するようにしている。これにより、監視カメラ10によって取得した監視画像から規定の症状に該当する人物を検知し、追跡できるようになる。
[第4実施形態]
第3実施形態では、検知アラート画面42に提示される検知人物カード422は、提示閾値の何れか以上の体温、脈拍数または咳症状に該当する人物のものとしたが、全ての提示閾値以上であることを条件としても良い。この場合、検知アラート出力機能部3521の処理手順を、図41に示すフローチャートに示す手順に代えて、図46に示すフローチャートに示す手順のようにすれば良い。すなわち、ステップS2008において補正後体温が指定体温以上でないと判断した場合、ステップS2011において補正後脈拍数が指定脈拍数以上でないと判断した場合、或いは、ステップS2012において補正後咳症状が指定咳症状以上でないと判断した場合には、検知アラート出力機能部3521は、検知人物カードを作成せずに、ステップS2010の判断処理へと進む。そして、ステップS2008において補正後体温が指定体温以上であると判断し、ステップS2011において補正後脈拍数が指定脈拍数以上であると判断し、且つ、ステップS2012において補正後咳症状が指定咳症状以上であると判断した場合にのみ、検知アラート出力機能部3521は、ステップS2009に進んで、検知人物カードを作成するようにする。
第3実施形態では、検知アラート画面42に提示される検知人物カード422は、提示閾値の何れか以上の体温、脈拍数または咳症状に該当する人物のものとしたが、全ての提示閾値以上であることを条件としても良い。この場合、検知アラート出力機能部3521の処理手順を、図41に示すフローチャートに示す手順に代えて、図46に示すフローチャートに示す手順のようにすれば良い。すなわち、ステップS2008において補正後体温が指定体温以上でないと判断した場合、ステップS2011において補正後脈拍数が指定脈拍数以上でないと判断した場合、或いは、ステップS2012において補正後咳症状が指定咳症状以上でないと判断した場合には、検知アラート出力機能部3521は、検知人物カードを作成せずに、ステップS2010の判断処理へと進む。そして、ステップS2008において補正後体温が指定体温以上であると判断し、ステップS2011において補正後脈拍数が指定脈拍数以上であると判断し、且つ、ステップS2012において補正後咳症状が指定咳症状以上であると判断した場合にのみ、検知アラート出力機能部3521は、ステップS2009に進んで、検知人物カードを作成するようにする。
このように、第4実施形態においては、検知アラート出力機能部3521は、取得したそれぞれの種類に対する提示閾値の全てについて、提示閾値以上の状態情報を検出した特定人物の画像を、検知アラート画面42に提示するべき画像として選択する。よって、規定の症状に該当する可能性が高い人物を容易に絞り込むことができる。
[他の実施形態]
前記実施形態では、全身画像特徴量及び顔画像特徴量として、人物自体の属性情報を数値化したものとしたが、これに限定するものではない。全身特徴量は、例えば、服装、持ち物(バッグの種類や色、ベビーカー、等)、装飾品(サングラス、マスク、等)、等の人に付随する付随情報を数値化したものを含んでも良い。さらに、全身特徴量は、発熱情報、脈拍、等の画像から得られる又は他のセンサから得られる人の内部情報を数値化したものを含んでも良い。また、顔特徴量は、装飾品(メガネ、帽子、等)等の顔に付随する付随情報を数値化したものを含んでも良い。
前記実施形態では、全身画像特徴量及び顔画像特徴量として、人物自体の属性情報を数値化したものとしたが、これに限定するものではない。全身特徴量は、例えば、服装、持ち物(バッグの種類や色、ベビーカー、等)、装飾品(サングラス、マスク、等)、等の人に付随する付随情報を数値化したものを含んでも良い。さらに、全身特徴量は、発熱情報、脈拍、等の画像から得られる又は他のセンサから得られる人の内部情報を数値化したものを含んでも良い。また、顔特徴量は、装飾品(メガネ、帽子、等)等の顔に付随する付随情報を数値化したものを含んでも良い。
また、全身画像特徴量及び顔画像特徴量は人物自体の属性情報を数値化したもののみとし、それら付随情報を数値化したものや人の内部情報を数値化したものを別の特徴量として、全身画像特徴量及び顔画像特徴量と同様の検知基準の一つとして、その別の特徴量を使用するようにしても良い。
また、前記実施形態では、ファイルサーバ31の過去検索用データ記憶部311に、過去検索用データとしてフレーム画像3111、全身画像3112、全身特徴量3113及び顔特徴量3114を記憶していくものとしたが、顔特徴量3114を抽出する元となった顔画像も記憶するようにしても良い。
また、映像解析機能部20は、監視画像であるフレーム画像から先ず人物の全身画像を抽出し、その抽出した全身画像から顔画像を抽出するものとしたが、これとは逆に、先ずフレーム画像から人物の顔画像を抽出し、その抽出した顔画像を含む全身画像をフレーム画像から抽出するものであっても良い。
前記一実施形態では、監視カメラ10で取得した監視画像から人物の全身画像を抽出し、その抽出した全身画像から人物の顔画像を抽出するものとして説明したが、これに限定するものではない。監視画像に人物の顔が写っている場合には、全身画像を抽出することなく顔画像を抽出するようにしても良い。
また、図24、図42及び図43に示した検知アラート画面42、並びに、図30、図31、図44及び図45に示した追跡アラート画面44についても、このレイアウト並びに表示内容に限定するものではない。例えば、注意段階表示4219、検知咳症状4226、顔注意段階表示4424及び全身注意段階表示4426を、複数の四角形を識別表示する個数で表しているが、例えばイエロー、オレンジ、レッドのように一つの四角形の色を変更する識別表示によって注意段階を表すようにしても良い。或いは、四角形の個数や色ではなく、A~Cや1~3のように、注意段階を文字で表しても構わない。
また、図13乃至図15、図21乃至図23、図25乃至図29、図39乃至図41、及び図46のフローチャートに示した処理ステップの順序は一例であり、この順に限定するものではない。例えば、図14において、ステップS22及びS23の処理とステップS24及びS25の処理とは、順番が逆でも良いし、並行して行っても良い。また、図15において、ステップS33及びS34の処理とステップS35及びS36の処理とについても、その順番は逆でも良いし、並行して行っても良い。このように、各処理ステップは、先行の又は後続する処理ステップと齟齬が生じない限り、処理順序を変更して構わない。
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても良い。さらに、異なる実施形態に亘る構成要素を適宜組み合わせても良い。
1…人物追跡システム
10…監視カメラ
20…映像解析機能部
21…画像取得モジュール
22…人検知情報抽出機能部
23…監視/追跡実行機能部
30…Webサーバ
31…ファイルサーバ
32…データベース(DB)サーバ
33…検索用人検知結果保存機能部
34…検知/追跡結果判定機能部
35…Webアプリケーション
40…監視端末
41…Webブラウザ
42…検知アラート画面
43…検知アラート出力画面
44…追跡アラート画面
221…全身検出モジュール
222…領域追跡モジュール
223…全身特徴量抽出モジュール
224…顔検出モジュール
225…顔特徴量抽出モジュール
226…体温検出モジュール
227…脈拍検出モジュール
228…咳検出モジュール
231…全身照合モジュール
232…顔照合モジュール
251…追跡テーブル
301A…ハードウェアプロセッサ
301B…プログラムメモリ
302…記憶装置
303…通信インタフェース装置
304…バス
311…過去検索用データ記憶部
312…検知履歴データ記憶部
313…管理データ記憶部
321…カメラ情報テーブル記憶部
322…過去検索用データテーブル記憶部
323…検知履歴テーブル記憶部
324…管理テーブル記憶部
325…追跡テーブル記憶部
351…ログイン機能部
352…監視機能部
353…追跡機能部
354…過去検索機能部
421,422…検知人物カード
423,443…絞り込み指示領域
431…追跡対象者情報領域
432…経過時間情報領域
433,442…追跡情報カード
3111…フレーム画像
3112…全身画像
3113,3124,3134…全身特徴量
3114,3122,3132…顔特徴量
3115…体温
3116…脈拍数
3117…咳症状
3121,4212…検知顔画像
3123…検知全身画像
3131…登録顔画像
3133…登録全身画像
3211…カメラ情報テーブル
3221…過去検索用データテーブル
3231…検知履歴テーブル
3241…管理テーブル
3251…追跡テーブル
3521…検知アラート出力機能部
3531…画像登録機能部
3532…検知アラート出力機能部
3533…追跡アラート出力機能部
4211…監視対象者顔画像
4213,4311…注意喚起メッセージ
4214,4312…検知ID
4215…類似度
4216,4314…検知情報
4217…追跡開始ボタン
4218,4412…不審者ID
4219…注意段階表示
4221,4416…注意喚起ラベル
4222,4417…要注意者ID
4223…追跡候補者画像
4224…検知体温
4225…検知脈拍数
4226…検知咳症状
4227…追跡開始ボタン
4231…体温提示閾値設定スライダ
4232…脈拍数提示閾値設定スライダ
4233…咳症状閾値設定ボタン
4313,4413…登録画像
4315…過去検知画像
4316…不審者ID
4317…危険度種別
4318…説明文
4319,4415…追跡停止ボタン
4331,4421…検出日時情報
4332,4422…検出カメラ場所情報
4333…検出画像
4334…画像類似度情報
4335,4427…検出背景画像
4411…注意喚起メッセージ
4414…追跡情報
4423…検出顔画像
4424…顔注意段階表示
4425…検出全身画像
4426…全身注意段階表示
4431…顔画像類似度選択ボタン
4432…顔画像類似度選択リセットボタン
4433…全身画像類似度選択ボタン
4434…全身画像類似度選択リセットボタン
NET…ネットワーク
SV…サーバ装置
10…監視カメラ
20…映像解析機能部
21…画像取得モジュール
22…人検知情報抽出機能部
23…監視/追跡実行機能部
30…Webサーバ
31…ファイルサーバ
32…データベース(DB)サーバ
33…検索用人検知結果保存機能部
34…検知/追跡結果判定機能部
35…Webアプリケーション
40…監視端末
41…Webブラウザ
42…検知アラート画面
43…検知アラート出力画面
44…追跡アラート画面
221…全身検出モジュール
222…領域追跡モジュール
223…全身特徴量抽出モジュール
224…顔検出モジュール
225…顔特徴量抽出モジュール
226…体温検出モジュール
227…脈拍検出モジュール
228…咳検出モジュール
231…全身照合モジュール
232…顔照合モジュール
251…追跡テーブル
301A…ハードウェアプロセッサ
301B…プログラムメモリ
302…記憶装置
303…通信インタフェース装置
304…バス
311…過去検索用データ記憶部
312…検知履歴データ記憶部
313…管理データ記憶部
321…カメラ情報テーブル記憶部
322…過去検索用データテーブル記憶部
323…検知履歴テーブル記憶部
324…管理テーブル記憶部
325…追跡テーブル記憶部
351…ログイン機能部
352…監視機能部
353…追跡機能部
354…過去検索機能部
421,422…検知人物カード
423,443…絞り込み指示領域
431…追跡対象者情報領域
432…経過時間情報領域
433,442…追跡情報カード
3111…フレーム画像
3112…全身画像
3113,3124,3134…全身特徴量
3114,3122,3132…顔特徴量
3115…体温
3116…脈拍数
3117…咳症状
3121,4212…検知顔画像
3123…検知全身画像
3131…登録顔画像
3133…登録全身画像
3211…カメラ情報テーブル
3221…過去検索用データテーブル
3231…検知履歴テーブル
3241…管理テーブル
3251…追跡テーブル
3521…検知アラート出力機能部
3531…画像登録機能部
3532…検知アラート出力機能部
3533…追跡アラート出力機能部
4211…監視対象者顔画像
4213,4311…注意喚起メッセージ
4214,4312…検知ID
4215…類似度
4216,4314…検知情報
4217…追跡開始ボタン
4218,4412…不審者ID
4219…注意段階表示
4221,4416…注意喚起ラベル
4222,4417…要注意者ID
4223…追跡候補者画像
4224…検知体温
4225…検知脈拍数
4226…検知咳症状
4227…追跡開始ボタン
4231…体温提示閾値設定スライダ
4232…脈拍数提示閾値設定スライダ
4233…咳症状閾値設定ボタン
4313,4413…登録画像
4315…過去検知画像
4316…不審者ID
4317…危険度種別
4318…説明文
4319,4415…追跡停止ボタン
4331,4421…検出日時情報
4332,4422…検出カメラ場所情報
4333…検出画像
4334…画像類似度情報
4335,4427…検出背景画像
4411…注意喚起メッセージ
4414…追跡情報
4423…検出顔画像
4424…顔注意段階表示
4425…検出全身画像
4426…全身注意段階表示
4431…顔画像類似度選択ボタン
4432…顔画像類似度選択リセットボタン
4433…全身画像類似度選択ボタン
4434…全身画像類似度選択リセットボタン
NET…ネットワーク
SV…サーバ装置
Claims (33)
- 追跡を行うべき追跡対象者の顔画像及び全身画像を登録する登録部と、
複数台の監視カメラで取得する監視画像のそれぞれについて、前記登録された顔画像に類似する顔画像と、前記登録された顔画像を抽出した前記全身画像に類似する全身画像と、の少なくとも一方を検知する検知部と、
前記検知した顔画像及び全身画像の少なくとも一方を出力する出力部と、
を具備する、人物追跡装置。 - 前記登録部は、
監視者が操作する監視端末から前記追跡対象者の顔画像の指定を受け付け、
前記指定された顔画像とその顔画像に対応する全身画像とを、追跡用顔画像及び追跡用全身画像として登録し、
前記検知部は、前記監視画像のそれぞれについて、前記登録された追跡用顔画像に類似する顔画像と、前記登録された追跡用全身画像に類似する全身画像と、の少なくとも一方を検知する、請求項1に記載の人物追跡装置。 - 前記監視画像のそれぞれから人物の全身画像を抽出し、前記全身画像からその特徴量である全身特徴量及び人物の顔画像を抽出し、前記顔画像からその特徴量である顔特徴量を抽出する抽出部から、前記抽出部が抽出した前記全身画像、前記全身特徴量及び前記顔特徴量を取得し、それら取得した前記全身画像、前記全身特徴量及び前記顔特徴量を前記監視画像と共に蓄積する画像蓄積部を更に具備し、
前記登録部は、
監視者が操作する監視端末から前記追跡対象者の顔画像の指定を受け付け、
その指定された顔画像に対応する前記画像蓄積部に蓄積された前記全身画像、前記全身特徴量及び前記顔特徴量と、前記顔特徴量を抽出した顔画像とを、追跡用全身画像、追跡用全身特徴量、追跡用顔特徴量及び追跡用顔画像として登録し、
前記検知部は、
前記登録部による登録の時点から前記画像蓄積部に蓄積されていく前記監視画像を照合用画像として、前記照合用画像それぞれについての、前記抽出部が抽出した前記全身特徴量と前記追跡用全身特徴量との類似度である全身画像類似度、及び、前記抽出部が抽出した前記顔特徴量と前記追跡用顔特徴量との類似度である顔画像類似度を算出する類似度算出部から、前記類似度算出部が算出した前記全身画像類似度及び前記顔画像類似度と前記追跡用顔画像及び前記追跡用全身画像とのセットを取得し、
前記全身画像類似度及び前記顔画像類似度の少なくとも一方が、対応する閾値よりも大きいか否か判定し、
前記閾値よりも大きい場合に、前記抽出部が前記照合用画像から抽出した全身画像である照合用全身画像及び顔画像である照合用顔画像の内の少なくとも一方の類似度に対応する画像と、前記照合用画像としての前記監視画像を取得した前記監視カメラの位置情報とを、前記登録部によって登録された前記追跡用全身画像及び前記追跡用顔画像と共に表示するための表示用結果を作成し、
前記出力部は、前記検知部によって作成された前記表示用結果を前記監視端末に送信して、前記監視端末に前記表示用結果を表示させる、請求項1に記載の人物追跡装置。 - 前記検知部は、前記表示用結果に、さらに、前記全身画像類似度及び前記顔画像類似度の少なくとも一方の表示を含める、請求項3に記載の人物追跡装置。
- 前記検知部は、前記表示用結果に、さらに、前記照合用画像の表示を含める、請求項3に記載の人物追跡装置。
- 前記登録部は、前記登録の時点以前に前記画像蓄積部に蓄積されていた前記追跡対象者についての前記全身画像、前記全身特徴量及び前記顔特徴量の中から、特定時期に蓄積された前記全身画像、前記全身特徴量及び前記顔特徴量を、前記追跡用全身画像、前記追跡用全身特徴量及び前記追跡用顔特徴量として登録する、請求項3に記載の人物追跡装置。
- 前記登録部は、前記登録の時点以前に前記画像蓄積部に蓄積されていた前記追跡対象者についての前記全身画像、前記全身特徴量及び前記顔特徴量の中から、登録する前記追跡用全身画像、前記追跡用全身特徴量及び前記追跡用顔特徴量の選択を、前記監視端末から受け付ける、請求項3に記載の人物追跡装置。
- 請求項3乃至7の何れかに記載の人物追跡装置と、
前記複数台の監視カメラと、
前記監視者が操作する前記監視端末と、
前記抽出部及び前記類似度算出部を備える解析部と、
を具備する人物追跡システム。 - 前記抽出部は、
前記監視画像から前記全身画像を抽出する全身画像抽出部と、
前記全身画像抽出部によって抽出された前記全身画像から前記全身特徴量を抽出する全身特徴量抽出部と、
前記全身画像抽出部によって抽出された前記全身画像から前記顔画像を抽出する顔画像抽出部と、
前記顔画像抽出部によって抽出された前記顔画像から前記顔特徴量を抽出する顔特徴量抽出部と、
を含む、請求項8に記載の人物追跡システム。 - 前記類似度算出部は、
前記照合用画像それぞれについての前記全身特徴量抽出部によって抽出された前記全身特徴量と前記登録部によって登録された前記全身特徴量との類似度である全身画像類似度を算出する全身類似度算出部と、
前記照合用画像のそれぞれについての前記顔特徴量抽出部によって抽出された前記顔特徴量と前記登録部によって登録された前記顔特徴量との類似度である顔画像類似度を算出する顔類似度算出部と、
を含む、請求項9に記載の人物追跡システム。 - 複数台の監視カメラが取得した監視画像から追跡を行うべき追跡対象者を追跡する人物追跡方法であって、
コンピュータが、
前記複数台の監視カメラそれぞれで定期的に取得した前記監視画像を記憶装置に蓄積させ、
前記監視画像のそれぞれから人物の全身画像を抽出し、前記全身画像からその特徴量である全身特徴量及び人物の顔画像を抽出し、前記顔画像からその特徴量である顔特徴量を抽出する抽出装置から、前記抽出装置が抽出した前記全身画像、前記全身特徴量及び前記顔特徴量を取得し、それら取得した前記全身画像、前記全身特徴量及び前記顔特徴量を前記記憶装置に蓄積させ、
監視者が操作する監視端末からの追跡を行うべき追跡対象者の顔画像の指定を受け付け、
その指定された顔画像に対応する前記記憶装置に蓄積された前記全身画像、前記全身特徴量及び前記顔特徴量と、前記顔特徴量を抽出した顔画像とを、追跡用全身画像、追跡用全身特徴量、追跡用顔特徴量及び追跡用顔画像として登録し、
前記登録の時点から前記記憶装置に蓄積されていく前記監視画像を照合用画像として、前記照合用画像それぞれについての、前記抽出装置が抽出した前記全身特徴量と前記追跡用全身特徴量との類似度である全身画像類似度、及び、前記抽出装置が抽出した前記顔特徴量と前記追跡用顔特徴量との類似度である顔画像類似度を算出する類似度算出装置から、前記類似度算出装置が算出した前記全身画像類似度及び前記顔画像類似度と前記追跡用顔画像及び前記追跡用全身画像とのセットを取得し、
前記照合用画像それぞれについての前記全身画像類似度及び前記顔画像類似度の少なくとも一方が、対応する閾値よりも大きいか否か判定し、
前記全身画像類似度及び前記顔画像類似度の少なくとも一方が前記対応する閾値よりも大きい場合に、前記照合用画像から抽出した全身画像である照合用全身画像及び顔画像である照合用顔画像の内の少なくとも一方の類似度に対応する画像と、前記照合用画像としての前記監視画像を取得した前記監視カメラの位置情報とを、前記登録された前記追跡用全身画像及び前記追跡用顔画像と共に表示するための表示用結果を作成し、
前記作成した前記表示用結果を前記監視端末に送信して、前記監視端末に前記表示用結果を表示させる、
人物追跡方法。 - 互いに異なる判断基準を有する二つ以上の類似度算出手法のそれぞれを用いて特定画像に対する対象画像の類似度を二つ以上算出する類似度算出部が算出した前記類似度のそれぞれに基づいて、前記対象画像を少なくとも一つの照合モデルのそれぞれについて、複数の段階に分類するための複数の閾値を、前記類似度算出手法毎に記憶した閾値記憶部と、 複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれから抽出した前記対象画像である類似度算出対象者の画像の、前記特定画像である特定人物の画像に対する少なくとも一つの類似度を前記類似度算出部から取得し、前記類似度算出部での前記少なくとも一つの類似度の算出に用いた前記類似度算出手法に対応して前記閾値記憶部に記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記特定人物の画像に類似する画像を検出すると共に、その検出した前記類似度算出対象者の画像が複数の注意段階の何れであるか検出する検出部と、
を具備する、人物検出装置。 - 前記検出部が検出した前記特定人物の画像に類似する前記画像を、前記検出部が検出した前記注意段階を示す段階表示と共に提示するための出力画面を生成する出力画面生成部をさらに具備する、請求項12に記載の人物検出装置。
- 前記複数の閾値は、前記対象画像である前記類似度算出対象者の画像が前記特定人物の画像であるか否か分類するための第1の閾値と、前記類似度算出対象者の画像が前記特定人物の画像である場合に、前記類似度算出対象者の画像を前記複数の段階に分類するための少なくとも一つの第2の閾値と、を含む、請求項12又は13に記載の人物検出装置。
- 請求項13に記載の人物検出装置と、
前記人物検出装置によって前記出力画面に前記段階表示と共に提示された前記特定人物の画像に類似する複数の前記類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の画像の指定を、監視者が操作する監視端末から受け付け、その指定された画像を追跡用画像として登録し、前記登録された前記追跡を行うべき前記追跡対象者の画像である前記追跡用画像を前記特定画像として、前記類似度算出部に、少なくとも二つ以上の前記類似度算出手法を用いて前記類似度算出対象者の画像の前記類似度を少なくとも二つ抽出させる登録部と、
前記検出部が、前記類似度算出部から取得した前記少なくとも二つ以上の類似度から検出した前記追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像それぞれを、前記検出部が検出した前記注意段階を示す段階表示と共に提示するための追跡出力画面を生成する追跡出力画面生成部と、
を具備する、人物追跡装置。 - 互いに異なる判断基準を有する二つ以上の類似度算出手法のそれぞれを用いて特定画像に対する対象画像の類似度を二つ以上算出する類似度算出部が算出した前記類似度のそれぞれに基づいて、前記対象画像を複数の段階に分類するための複数の閾値を、前記類似度算出手法毎に記憶した閾値記憶部と、
監視者が操作する監視端末から指定された追跡を行うべき追跡対象者の画像を、前記特定画像として登録する登録部と、
複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれから抽出した前記対象画像である類似度算出対象者の画像の、前記特定画像に対する少なくとも一つの類似度を前記類似度算出部から取得し、前記類似度算出部での前記少なくとも一つの類似度の算出に用いた前記類似度算出手法に対応して前記閾値記憶部に記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記追跡対象者の画像に類似する画像を検出すると共に、その検出した前記類似度算出対象者の画像が複数の注意段階の何れであるのか検出する検出部と、
前記検出部が、前記類似度算出部から取得した前記少なくとも二つ以上の類似度から検出した前記追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像を、前記注意段階を示す段階表示と共に提示するための追跡出力画面を生成する追跡出力画面生成部と、
を具備する、人物追跡装置。 - 前記追跡出力画面生成部は、前記監視端末からの段数指定を受けて、前記検出部が検出した前記類似度算出対象者の前記画像の内、前記指定された段階に対応する閾値以上の類似度を有する画像を、前記段階表示と共に提示する絞り込み出力画面を生成する、請求項15又は16に記載の人物追跡装置。
- 請求項15乃至17の何れかに記載の人物追跡装置と、
前記複数台の監視カメラと、
前記監視者が操作する前記監視端末と、
前記類似度算出部を備える解析部と、
を具備する人物追跡システム。 - 複数台の監視カメラが取得した監視画像から特定人物を検出する人物検出方法であって、
コンピュータが、
互いに異なる判断基準を有する二つ以上の類似度算出手法のそれぞれを用いて特定画像に対する対象画像の類似度を二つ以上算出する類似度算出部が算出した前記類似度のそれぞれに基づいて、前記対象画像を複数の段階に分類するための複数の閾値を、前記類似度算出手法毎にメモリに記憶させておき、
複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれから抽出した前記対象画像である類似度算出対象者の画像の、前記特定画像である特定人物の画像に対する少なくとも一つの類似度を前記類似度算出部から取得し、
前記類似度算出部での前記少なくとも一つの類似度の算出に用いた前記類似度算出手法に対応して前記メモリに記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記特定人物の画像に類似する画像を検出すると共に、その検出した前記類似度算出対象者の画像が複数の注意段階の何れであるのか検出する、
人物検出方法。 - 複数台の監視カメラが取得した監視画像から追跡を行うべき追跡対象者を追跡する人物追跡方法であって、
コンピュータが、
請求項19に記載の人物検出方法によって検出した前記特定人物の画像に類似する前記画像を、前記検出した前記注意段階を示す段階表示と共に提示するための出力画面を生成し、前記出力画面に前記段階表示と共に提示された前記特定人物の画像に類似する複数の類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の画像の指定を、監視者が操作する監視端末から受け付け、
その指定された画像を追跡用画像として前記メモリに登録し、
前記メモリに登録された前記追跡を行うべき前記追跡対象者の画像である前記追跡用画像を前記特定画像として、前記類似度算出部に、少なくとも二つ以上の前記類似度算出手法を用いて前記類似度算出対象者の画像の前記類似度を少なくとも二つ抽出させ、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の、前記特定画像である前記追跡対象者の画像に対する前記少なくとも二つの類似度を前記類似度算出部から取得し、
前記類似度算出部での前記類似度のそれぞれの算出に用いた前記類似度算出手法に対応して前記メモリに記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像を検出すると共に、その検出した前記類似度算出対象者の画像が前記複数の注意段階の何れであるのか検出し、前記類似度算出部から取得した前記少なくとも二つ以上の類似度から検出した前記追跡対象者の画像に類似する前記二つ以上の類似度算出対象者の画像それぞれを、前記検出した前記注意段階を示す段階表示と共に提示する追跡出力画面を生成する、
人物追跡方法。 - 複数台の監視カメラが取得した監視画像から追跡を行うべき追跡対象者を追跡する人物追跡方法であって、
コンピュータが、
互いに異なる判断基準を有する二つ以上の類似度算出手法のそれぞれを用いて特定画像に対する対象画像の類似度を二つ以上算出する類似度算出部が算出した前記類似度のそれぞれに基づいて、前記対象画像を複数の段階に分類するための複数の閾値を、前記類似度算出手法毎にメモリに記憶させておき、
監視者が操作する監視端末から指定された追跡を行うべき追跡対象者の画像を、前記特定画像として前記メモリに登録し、
複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれから抽出した前記対象画像である類似度算出対象者の画像の、前記特定画像に対する少なくとも一つの類似度を前記類似度算出部から取得し、
前記類似度算出部での前記類似度の算出に用いた前記類似度算出手法に対応して前記メモリに記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記追跡対象者の画像に類似する画像を検出すると共に、その検出した前記類似度算出対象者の画像が複数の注意段階の何れであるのか検出し、前記類似度算出部から取得した前記少なくとも二つ以上の類似度から検出した前記追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像を、前記検出した前記注意段階を示す段階表示と共に提示するための追跡出力画面を生成する、
人物追跡方法。 - 請求項12乃至14の何れかに記載の人物検出装置が具備する前記各部による処理を、前記人物検出装置が備えるプロセッサに実行させる人物検出プログラム。
- 複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれに含まれる人物の健康状態に係わる複数種類の状態情報を、前記監視画像のそれぞれから検出する情報抽出部から、前記情報抽出部が検出した前記複数種類の状態情報を取得し、前記取得した前記複数種類の状態情報に基づいて、前記監視画像のそれぞれに含まれる前記人物が規定の症状に該当する特定人物であるか否か判別する判別部と、
前記判別部の判別結果に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された人物の画像の内、前記規定の症状に該当する前記特定人物の画像を、追跡対象者画像として登録する登録部と、
前記複数台の監視カメラそれぞれで定期的に取得した前記監視画像のそれぞれから、前記登録部によって登録された前記追跡対象者画像に類似する人物の画像を検知する検知部と、
前記検知部が検知した前記追跡対象者画像に類似する人物の画像を提示するための追跡出力画面を生成する追跡出力画面生成部と、
を具備する、人物追跡装置。 - 前記判別部の判別結果に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された人物の画像の内、前記規定の症状に該当する前記特定人物の画像を、前記状態情報と共に提示するための検知出力画面を生成する検知出力画面生成部を更に具備し、 前記登録部は、前記検知出力画面生成部が生成した前記検知出力画面を表示する監視端末から、前記検知出力画面に提示された人物の画像の中から追跡を行うべき追跡対象者の画像の指定を取得し、前記取得した前記指定された画像を追跡対象者画像として登録する、請求項23に記載の人物追跡装置。
- 前記判別部は、前記取得した前記複数種類の状態情報の内の何れか一種類でも既定値以上であるとき、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記人物の画像が前記規定の症状に該当する前記特定人物の画像であると判別する、請求項24に記載の人物追跡装置。
- 前記検知出力画面生成部は、前記複数種類の状態情報それぞれの種類に対して指定された提示閾値を取得し、前記取得した前記提示閾値に基づいて、前記判別部が前記規定の症状に該当すると判別した前記特定人物の画像の中から、前記検知出力画面に提示するべき画像を絞り込む、請求項24又は25に記載の人物追跡装置。
- 前記検知出力画面生成部は、前記取得した前記それぞれの種類に対する前記提示閾値の中の何れか一つの前記提示閾値以上の状態情報を検出した前記特定人物の画像を、前記検知出力画面に提示するべき画像として選択する、請求項26に記載の人物追跡装置。
- 前記検知出力画面生成部は、前記取得した前記それぞれの種類に対する前記提示閾値の全てについて、前記提示閾値以上の状態情報を検出した前記特定人物の画像を、前記検知出力画面に提示するべき画像として選択する、請求項26に記載の人物追跡装置。
- 前記複数台の監視カメラそれぞれについて、前記状態情報を補正するための補正係数を記憶したカメラ情報記憶部を更に備え、
前記判別部は、前記情報抽出部から取得した前記状態情報を、前記カメラ情報記憶部に記憶された前記補正係数により補正し、補正後の状態情報に基づいて、前記人物の画像が前記規定の症状に該当する前記特定人物の画像であるか否か判別する、請求項23乃至28の何れかに記載の人物追跡装置。 - 前記状態情報は、前記監視画像からそれぞれ抽出される、体温、脈拍数及び咳症状の内の少なくとも一つを含む、請求項23乃至29の何れかに記載の人物追跡装置。
- 請求項23乃至30の何れかに記載の人物追跡装置と、
前記複数台の監視カメラと、
監視者が操作する監視端末と、
前記情報抽出部を備える解析部と、
を具備する人物追跡システム。 - 複数台の監視カメラが取得した監視画像から追跡を行うべき追跡対象者を追跡する人物追跡方法であって、
コンピュータが、
複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれに含まれる人物の健康状態に係わる複数種類の状態情報を、前記監視画像のそれぞれから検出する情報抽出部から、前記情報抽出部が検出した前記複数種類の状態情報を取得し、前記取得した前記複数種類の状態情報に基づいて、前記監視画像のそれぞれに含まれる前記人物が規定の症状に該当する特定人物であるか否か判別し、
前記判別の結果に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された人物の画像の内、前記規定の症状に該当する前記特定人物の画像を、追跡対象者画像としてメモリに登録し、
前記複数台の監視カメラそれぞれで定期的に取得した前記監視画像のそれぞれから、前記登録された前記追跡対象者画像に類似する人物の画像を検知し、
前記検知した前記追跡対象者画像に類似する人物の画像を提示するための追跡出力画面を生成する、
人物追跡方法。 - 請求項1乃至7、15乃至17、23乃至30の何れかに記載の人物追跡装置が具備する前記各部による処理を、前記人物追跡装置が備えるプロセッサに実行させる人物追跡プログラム。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020-135133 | 2020-08-07 | ||
JP2020135133A JP2022030846A (ja) | 2020-08-07 | 2020-08-07 | 人物追跡装置、人物追跡システム、人物追跡方法及び人物追跡プログラム |
JP2020135146A JP2022030852A (ja) | 2020-08-07 | 2020-08-07 | 人物検出装置、人物追跡装置、人物追跡システム、人物検出方法、人物追跡方法、人物検出プログラム及び人物追跡プログラム |
JP2020135151A JP2022030853A (ja) | 2020-08-07 | 2020-08-07 | 人物追跡装置、人物追跡システム、人物追跡方法及び人物追跡プログラム |
JP2020-135146 | 2020-08-07 | ||
JP2020-135151 | 2020-08-07 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022030558A1 true WO2022030558A1 (ja) | 2022-02-10 |
Family
ID=80117497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/028994 WO2022030558A1 (ja) | 2020-08-07 | 2021-08-04 | 人物を検出または追跡する装置、システム、方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2022030558A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014050518A1 (ja) * | 2012-09-28 | 2014-04-03 | 日本電気株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JP2015130155A (ja) * | 2013-12-02 | 2015-07-16 | Lykaon株式会社 | 防犯システム |
JP2018037075A (ja) * | 2016-08-29 | 2018-03-08 | パナソニックIpマネジメント株式会社 | 不審者通報システム及び不審者通報方法 |
WO2020017190A1 (ja) * | 2018-07-18 | 2020-01-23 | 株式会社日立製作所 | 映像解析装置、人物検索システムおよび人物検索方法 |
-
2021
- 2021-08-04 WO PCT/JP2021/028994 patent/WO2022030558A1/ja unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014050518A1 (ja) * | 2012-09-28 | 2014-04-03 | 日本電気株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JP2015130155A (ja) * | 2013-12-02 | 2015-07-16 | Lykaon株式会社 | 防犯システム |
JP2018037075A (ja) * | 2016-08-29 | 2018-03-08 | パナソニックIpマネジメント株式会社 | 不審者通報システム及び不審者通報方法 |
WO2020017190A1 (ja) * | 2018-07-18 | 2020-01-23 | 株式会社日立製作所 | 映像解析装置、人物検索システムおよび人物検索方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10395262B2 (en) | Systems and methods for sensor data analysis through machine learning | |
US9922271B2 (en) | Object detection and classification | |
JP6013241B2 (ja) | 人物認識装置、及び方法 | |
US9530144B2 (en) | Content output device, content output method, content output program, and recording medium having content output program recorded thereon | |
JP5740210B2 (ja) | 顔画像検索システム、及び顔画像検索方法 | |
JP5793353B2 (ja) | 顔画像検索システム、及び顔画像検索方法 | |
JP2019532532A (ja) | プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法 | |
US20180247361A1 (en) | Information processing apparatus, information processing method, wearable terminal, and program | |
WO2014050518A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
JP6172551B1 (ja) | 画像検索装置、画像検索システム及び画像検索方法 | |
US11295139B2 (en) | Human presence detection in edge devices | |
JP6611772B2 (ja) | 制御方法、情報処理装置及び制御プログラム | |
JPWO2018180588A1 (ja) | 顔画像照合システムおよび顔画像検索システム | |
CN109074498A (zh) | 用于pos区域的访问者跟踪方法和系统 | |
JP2015090579A (ja) | 行動分析システム | |
WO2022030558A1 (ja) | 人物を検出または追跡する装置、システム、方法及びプログラム | |
JP2022030853A (ja) | 人物追跡装置、人物追跡システム、人物追跡方法及び人物追跡プログラム | |
JP2022030852A (ja) | 人物検出装置、人物追跡装置、人物追跡システム、人物検出方法、人物追跡方法、人物検出プログラム及び人物追跡プログラム | |
JP5003536B2 (ja) | サービス支援システム | |
CN110717358B (zh) | 访客人数统计方法、装置、电子设备及存储介质 | |
WO2020240834A1 (ja) | 不正推定システム、不正推定方法、及びプログラム | |
JP2022030846A (ja) | 人物追跡装置、人物追跡システム、人物追跡方法及び人物追跡プログラム | |
JP2015162241A (ja) | 情報提供効果を測定する測定システム及び情報提供効果測定方法 | |
EP4040380A1 (en) | Information processing device, information processing program, and information processing method | |
JP6923011B2 (ja) | 移動時間記憶システム、移動時間記憶方法および移動時間記憶プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21852584 Country of ref document: EP Kind code of ref document: A1 |