JP7210163B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP7210163B2
JP7210163B2 JP2018109504A JP2018109504A JP7210163B2 JP 7210163 B2 JP7210163 B2 JP 7210163B2 JP 2018109504 A JP2018109504 A JP 2018109504A JP 2018109504 A JP2018109504 A JP 2018109504A JP 7210163 B2 JP7210163 B2 JP 7210163B2
Authority
JP
Japan
Prior art keywords
person
detected
image
information
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018109504A
Other languages
English (en)
Other versions
JP2019213116A (ja
Inventor
啓史 安達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018109504A priority Critical patent/JP7210163B2/ja
Publication of JP2019213116A publication Critical patent/JP2019213116A/ja
Application granted granted Critical
Publication of JP7210163B2 publication Critical patent/JP7210163B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。
近年、多数のネットワークカメラで構成される大規模な監視システムが実用化されている。
この種の監視システムにおいて、複数のネットワークカメラが、オフィスや店舗、さらにはショッピングモールやスタジアム、街頭、地域全体など、広い範囲に設置され、広域監視を実現することでセキュリティの向上に役立っている。各ネットワークカメラの撮像画像を解析して撮像画像から人体を検出し、検出された人体を特定人物として認識することにより、人物を検索するシステムや群集の混雑等の異常状態を検知するシステムが提案されている。
特許文献1は、施設を訪問する人物の中から要注意人物を推定し、当該施設に要注意人物が来ていることを通知する防犯システムを開示する。
具体的には、特許文献1の防犯システムは、施設の入口等の設置したカメラで撮像した人物の顔画像と、予め記憶した注意候補人物の顔画像とを照合し、両者が一致しかつ当該注意候補人物の訪問履歴が所定要件を満たす場合に要注意人物であると推定し通知する。
特許文献2は、動画像を分割した部分領域ごとに動きの有無と人物の存在の有無とを判定し、人の動きがある移動領域と人が滞留している滞留領域の数や割合から、異常混雑(蝟集)が発生していることを推定する混雑推定装置を開示する。
特開2016-9234号公報 特許第4966820号公報
ところで、街頭やスタジアム等の広域監視においては、破壊活動や暴力行為を行った人物を要注意人物として予め登録し、ネットワークカメラの撮像画像から登録された要注意人物を検索したり、不審な行動をとる不審人物を検知することが要請される。
特に近年では、複数の人物が共謀して組織的な破壊活動などを行う事案が増加してきている。このように、複数の人物が共謀して破壊活動等を行う場合は、下見や準備等を行うため、対象となる場所に時間間隔を空けて、異なる要注意人物や不審人物が現れる事象が想定され得る。この場合、ある程度の時間差をつけてあるいは同時に異なる要注意人物等が現れる場合を検知して、その事象を報知することが要請される。
しかしながら、上記の従来技術は、要注意人物と推定された人物が単独で監視領域に出現した事象を施設管理者へ通知するに過ぎず、複数の異なる要注意人物等が関連して実行する一連の行為を考慮するものではない。このため、共謀行為等、複数の人物が関連して実行する監視対象行為を適切に検知して報知することができず見逃してしまうおそれがあった。
本発明は上記課題に鑑みてなされたものであり、その目的は、ネットワークカメラを用いる監視システムにおいて、複数のオブジェクトが関連して実行される行為を適切に検知可能な画像処理装置、画像処理方法およびプログラムを提供することにある。
上記課題を解決するため、本発明に係る画像処理装置のある態様によれば、撮像手段により撮像された画像を取得する取得手段と、前記取得手段により取得された前記画像から、予め登録された人物と照合して特定の人物を検出する検出手段と、前記検出手段により、複数の異なる前記特定の人物が、所定の撮像領域内において、所定時間内の時間差で検出されたか否かを判定する判定手段と前記判定手段により、前記所定の撮像領域内において、前記所定時間内の時間差で前記複数の異なる特定の人物が検出されたと判定された場合に、前記所定の撮像領域内において、前記所定時間内の時間差で複数の異なる前記特定の人物が検出された時間差検知に関する情報を、第1の報知情報として外部に報知し、前記判定手段により、前記特定の人物が前記所定の撮像領域外で検出された場合、又は複数の異なる前記特定の人物が前記所定時間外の時間差で検出されたと判定された場合には、前記第1の報知情報とは異なる、前記特定の人物が検出された人物検知に関する情報を、第2の報知情報として外部に報知する報知手段と、を備える画像処理装置が提供される。
本発明によれば、ネットワークカメラを用いる監視システムにおいて、複数のオブジェクトが関連して実行される行為を適切に検知することができる。
本発明の実施形態に係る画像処理システムのネットワーク構成の一例を示す図。 本実施形態に係るネットワークカメラのハードウエア構成の一例を示す図。 本実施形態に係る画像解析サーバ3の機能構成の一例を示す図。 複数のネットワークカメラの設置場所と各カメラの監視エリアの一例を示す図。 画像解析サーバ3のカメラ情報保持部35が保持するカメラ情報テーブルの一例を示す図。 画像解析サーバ3の人物情報保持部36が保持する人物情報テーブルの一例を示す図。 画像解析サーバ3の報知判定部33が参照および書き出しする検出情報テーブルの一例を示す図。 本実施形態に係る画像解析サーバ3が実行する画像解析処理の処理手順の一例を示すフローチャート。 図8の報知判定処理(S5)の詳細処理手順の一例を示すフローチャート。
以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
本実施形態は、撮像装置により撮像された画像を画像解析して人物を検出し、検出された人物が監視対象とすべき特定の人物である場合、所定時間内に複数の異なる特定の人物が検出されたか否かを判定する。そして、本実施形態においては、複数の異なる特定の人物が所定時間内に撮像画像から検出された場合、外部に報知すべき報知情報を生成する。
これにより、要注意人物や不審人物等の監視対象人物が複数関連して実行する行為が発生したか否かを適切に検知することができる。従って、複数の監視対象人物が関連して実行される共謀行為等の監視対象行為を適切に報知することができ、広域監視の精度向上が実現される。
本実施形態で生成される報知情報は、例えば、共謀行為等、複数の監視対象人物が関連して実行する監視対象行為が発生したことを示し、出力装置を介して外部に報知される。 この報知情報は、監視対象人物が単独で検出された場合の報知情報と異なってよい。監視員等のユーザは、これら報知情報を識別することにより、複数の監視対象人物が関連して実行する共謀行為等の行為と、監視対象人物の単独行為とを区別して認識することができる。
なお、以下、本実施形態では、撮像装置であるネットワークカメラを監視に応用する場合を例として説明するが、本実施形態はこの場合に限定されず、複数のオブジェクトが関連して実行する行為を検知するあらゆる他の画像検索用途にも適用可能である。また、以下、本実施形態では、撮像画像を解析して人体を検出し、検出された人体が監視対象とすべき特定の人物として同定された場合に報知する場合を例として説明するが本実施形態が適用可能な検知対象はこれに限定されない。本実施形態は、撮像画像内の動体および静止体を含む、あらゆるオブジェクトの画像検索用途に適用可能である。
<本実施形態のネットワーク構成>
図1は、本実施形態に係る画像処理システムをネットワークカメラシステムに適用した動作環境におけるネットワーク構成の一例を示す図である。
図1のネットワークカメラシステム10は、少なくとも1つのネットワークカメラ1、画像録画サーバ2、画像解析サーバ3、およびクライアントパーソナルコンピュータ(PC)4とを備える。ネットワークカメラ1、画像録画サーバ2、画像解析サーバ3、クライアントPC4は、それぞれネットワーク5を介して接続され、相互に情報の授受を行う。
ネットワーク5は、例えば、Ethernet(登録商標)等の通信規格に準拠する有線LAN(Local Area Network)等の有線ネットワークであってよい。あるいは、ネットワーク5は、無線ネットワークで構成されてもよい。この無線ネットワークは、Bluetooth(登録商標)、ZigBee(登録商標)、UWB(Ultra Wide Band)等の無線PAN(Personal Area Network)を含む。また、Wi-Fi(Wireless Fidelity)(登録商標)等の無線LAN(Local Area Network)や、WiMAX(登録商標)等の無線MAN(Metropolitan Area Network)を含む。 さらに、LTE/3G等の無線WAN(Wide Area Network)を含む。なお、ネットワーク5は、各機器を相互に通信可能に接続できればよく、通信の規格、規模、構成は上記に限定されない。
ネットワークカメラ(以下、単に「カメラ」ともいう。)1は、所定の画角で被写体を撮像する、監視カメラ等の撮像装置である。このカメラ1は、撮像画像(以下、単に「画像」ともいう。)を、ネットワーク5を介して、画像録画サーバ2、画像解析サーバ3、クライアントPC4へ送信することができる。なお、図1では、2つのカメラ1が図示されているが、ネットワークカメラシステム10を構成するカメラの数は1つ以上であってよく、図示される数に限定されない。
画像録画サーバ2、画像解析サーバ3、およびクライアントPC4は、例えば同様のハードウエア構成を備えるパーソナルコンピュータ等の情報処理装置で構成されてよい。 これら情報処理装置の全部または一部は、例えばネットワークカメラシステム10を介して広域を監視する監視員等のユーザが操作可能なインタフェースを備える。
なお、図1では、画像録画サーバ2、画像解析サーバ3、およびクライアントPC4と、3つの情報処理装置が図示されているが、画像処理システム1を構成する情報処理装置の数は図示される数に限定されない。図1の複数の情報処理装置の機能を1つの情報処理装置に実装してもよく、各サーバ2,3およびクライアントPC4の機能をそれぞれ複数の情報処理装置に適宜分散させて実装してもよい。
画像録画サーバ2は、ネットワークカメラ1から送信される画像データを受信し、画像録画サーバ2がアクセス可能な内部または外部の記憶装置に画像データを記憶する。
画像録画サーバ2はまた、画像解析サーバ3、およびクライアントPC4から送信される各種要求やコマンドを受信し、記憶装置に記憶された画像データを要求された画像解析サーバ3、クライアントPC4等へ送信する。
画像解析サーバ3は、画像録画サーバ2から受信した画像の解析処理を実行する。具体的には、画像解析サーバ3は、画像録画サーバ2から受信した画像を解析して、所定の条件に合致する人物を検出する。この画像解析処理は、画像からの動体検出、動体追尾、動体領域検出、人体検出、および顔認識等の少なくとも1つを含む。本実施形態における画像解析処理の詳細は図8および図9を参照して後述する。
画像解析処理の処理結果は、所定の条件に合致する人物の検出結果の情報を含み、画像解析サーバ3がアクセス可能な内部または外部の記憶装置に記憶される。クライアントPC4からの要求に応答して、画像解析サーバ3は、記憶装置に記憶された画像解析結果を適宜送信する。なお、上記ではネットワークカメラ1で撮像された画像を画像録画サーバ2が録画保存し、画像解析サーバ3が画像録画サーバ2から画像データを受信したが、これに替えて画像解析サーバ3は、ネットワークカメラ1から画像データを直接受信してもよい。
クライアントPC4は、監視員等のユーザからの各種要求やコマンドを受け付けて画像解析サーバ3へ送信し、画像解析サーバ3から送信される画像解析結果を受信して取得する。クライアントPC4はまた、ユーザからの各種要求やコマンドを受け付けて、画像録画サーバ2に対して画像録画の指示を送信する。なお、このクライアントPC4の機能は、例えばタブレット等の可搬端末装置に実装されてよい。
クライアントPC4は、表示装置(ディスプレイ)を備え、ネットワークカメラ1から送信される画像データや、画像解析サーバ3での画像解析結果等を表示装置に表示させるための表示制御機能を有する。クライアントPC4はまた、画像解析サーバ3が実行する画像解析処理に関する、例えば監視対象の領域設定や各種閾値設定等のパラメータ設定操作を行うためのインタフェースおよび入力機能を有する。
<ネットワークカメラのハードウエア構成>
図2は、カメラ1のハードウェア構成の一例を示す図である。
図2のカメラ1は、それぞれ、CPU11、ROM12、RAM13、外部メモリ14、撮像部15、入力部16、通信I/F17、およびシステムバス18を備える。
CPU11は、カメラ1における動作を統括的に制御するものであり、システムバス18を介して、各構成部(12~17)を制御する。
ROM(Read Only Memory)12は、CPU11が各種処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、これら制御プログラム等は、外部メモリ14や着脱可能な記憶媒体(不図示)に記憶されていてもよい。
RAM(Random Access Memory)13は、CPU11の主メモリ、ワークエリア等として機能する。すなわち、CPU11は、各種処理の実行に際してROM12から必要なプログラム等をRAM13にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
外部メモリ14は、例えば、CPU11がプログラムを用いた処理を行う際に必要な各種データや各種情報等を記憶している。また、外部メモリ14には、例えば、CPU11がプログラム等を用いた処理を行うことにより得られた各種データや各種情報等が記憶される。
撮像部15は、被写体の撮像を行うレンズ、撮像素子等を備える。レンズは、撮像される被写体からの入射光を撮像素子に結像するための光学レンズであり、入射光を撮像素子に集光させる。撮像素子は、光を画像信号に変換する素子であり、例えば、CMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge Coupled Device)等で構成することができる。
入力部16は、電源ボタンなどから構成され、カメラ1のユーザは、入力部16を介して当該カメラ1に指示を与えることができる。
通信I/F17は、ネットワーク5に接続される外部装置(例えば画像録画サーバ2、画像解析サーバ3、クライアントPC4)と通信するためのインターフェースであり、例えばLANインターフェースである。
システムバス18は、CPU11、ROM12、RAM13、外部メモリ14、撮像部15、入力部16および通信I/F17を通信可能に接続する。
図2に示すカメラ1の各部の機能は、CPU11がROM12もしくは外部メモリ14に記憶されたプログラムを実行することで実現される。
なお、画像録画サーバ2、画像解析サーバ3、およびクライアントPC4は、それぞれ、図2のハードウエア構成において、撮像部15に替えて、表示装置等のハードウエアを備えればよい。表示装置は、液晶ディスプレイ(LCD)等のモニタで構成されてよい。また、画像録画サーバ2、画像解析サーバ3、およびクライアントPC4は、入力部16として、キーボードやマウス等のポインティングデバイスを備えてよく、ユーザが各装置2、3および4に対してそれぞれ指示を与えることができる。
<ネットワークカメラシステム10の機能構成>
図3は、本実施形態に係る画像解析システムを構成する画像解析サーバ3の機能構成の一例を示すブロック図である。
図3に示す各装置の各機能モジュールのうち、ソフトウエアにより実現される機能については、各機能モジュールの機能を提供するためのプログラムがROM等のメモリに記憶され、RAMに読み出してCPUが実行することにより実現される。ハードウエアにより実現される機能については、例えば、所定のコンパイラを用いることで、各機能モジュールの機能を実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。FPGAとは、Field Programmable Gate Arrayの略である。また、FPGAと同様にしてGate Array回路を形成し、ハードウエアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。この場合、専用ハードウエアはCPU11の制御に基づいて動作する。
なお、図3に示した機能ブロックの構成は一例であり、複数の機能ブロックが1つの機能ブロックを構成するようにしてもよいし、いずれかの機能ブロックが複数の機能を行うブロックに分かれてもよい。また、図3に示した機能ブロックの全部または一部を画像解析サーバ3に替えてネットワークカメラ1に搭載してもよく、あるいは画像録画サーバ2を含む汎用の情報処理装置(PC)に搭載してもよい。
画像解析サーバ3は、画像受信部31、人物検出部32、報知判定部33、送信部34、カメラ情報保持部35、および人物情報保持部36を備える。
なお、本実施形態に係る画像解析サーバ3は、画像から人物を検出する他、映像から人物を検出することができる。映像から人物を検出する場合、画像解析サーバ3は、ネットワークカメラ1から映像を取得し、映像(動画像)のフレーム一枚ごとに画像に対する画像解析処理と同様の処理を実行すればよい。
画像受信部31は、ネットワークカメラ1により撮像された画像データを画像録画サーバ2経由で受信し、受信した画像データを伸長および復号化して画像を取得する。取得される画像は、動画像であってもよく、静止画像であってもよい。画像受信部31は、取得された画像を、順次、人物検出部32へ送出する。
なお、画像受信部31に画像を供給する供給元は特に限定されるものではなく、カメラ1や画像録画サーバ2以外の有線若しくは無線を介して画像を供給可能なサーバ装置や録画映像管理装置、あるいはカメラ1以外の撮像装置であってもよい。あるいは、画像受信部31は、外部メモリ24等の画像解析サーバ3が備えるメモリから画像を取得してもよい。
以下では、画像受信部31が動画像を取得した場合であっても静止画像を取得した場合であっても、画像受信部31が人物検出部32へ1枚の画像を送出する場合を説明する。前者の動画像を取得した場合は、上記1枚の画像が動画像を構成する各フレームに相当し、後者の静止画像を取得した場合は、上記1枚の画像が静止画像に相当する。
人物検出部32は、画像受信部31により取得された画像から、監視対象とすべき特定の人物を検出する。人物検出部32が検出すべき特定の人物は、例えば予め登録された要注意人物や、不審な行動を取る不審人物を含む。
本実施形態では、人物検出部32は、顔認識を用いて監視対象とすべき特定の人物を検出する。具体的には、人物検出部32は、画像受信部31から供給される画像から複数の人物の顔情報を抽出し、抽出されたそれぞれの顔情報と人物情報保持部36が保持している監視対象とすべき特定の人物の顔情報との間で特徴量を照合して、類似度を算出する。人物検出部32は、算出された類似度を所定の閾値と比較し、類似度が所定の閾値以上である場合は、画像から検出された人物が特定の人物に類似していると判断し、要注意人物や不審人物等の監視対象とすべき特定の人物であると同定する。
人物検出部32は、上記のように検出された監視対象とすべき特定の人物の情報を検出結果の情報である検出情報として、検出情報テーブルに追記型で記憶するとともに報知判定部33へ供給する。この検出情報は、少なくとも検出された特定の人物を含む画像の撮像時刻、すなわち当該特定の人物の検出時刻、被写体ID、抽出された特徴量、および同定された人物名等を含むが、その具体的な内容は図7を参照して後述する。
なお、上記では被写体が人物である例を説明したが、本実施形態は他の被写体にも適用可能である。この場合、例えば、人物情報保持部36が保持する人物情報に替えて、車両や不審物など他のオブジェクトの特徴を保持しておき、画像からこれらのオブジェクトを抽出して保持するオブジェクトと照合し類似度を求めればよい。
報知判定部33は、検出情報テーブルを参照することにより、人物検出部32により検出された監視対象とすべき特定の人物の検出情報を、予め設定された時間内にある検出情報エントリーと比較する。具体的には、報知判定部33は、予め設定された時間内に、複数の異なる特定の人物が検出されたかを判定する。この検出情報の比較結果は、外部に報知すべき報知情報を含む。この報知判定処理の詳細は図8および図9を参照して後述する。
送信部34は、報知判定部33が出力する検出情報の比較結果を、クライアントPC4ヘ送信する。
カメラ情報保持部35は、ネットワークカメラ1の監視対象エリアの情報を含むカメラ情報を記憶装置に保持記憶する。このカメラ情報は、ネットワークカメラシステム10が複数のネットワークカメラ1で構成される場合、複数のネットワークカメラ1をグルーピングしたカメラグループの情報を含んでよい。
人物情報保持部36は、監視対象とすべき特定の人物の情報を人物情報として記憶装置に保持記憶する。人物情報の具体的な内容は図6を参照して後述する。
図4は、複数のネットワークカメラ1の設置場所と各カメラの監視エリアを地図上にマップした一例を示す図である。
図4の全監視領域41内には、複数のネットワークカメラ101~107が配置されている。監視エリア42は、カメラ101およびカメラ102により重複して監視される撮像領域である。カメラ103は監視エリア43を、カメラ104は監視エリア44を、カメラ105は監視エリア45を、カメラ106は監視エリア46を、カメラ107は監視エリア47を、カメラ107は監視エリア47を、それぞれ監視する。
監視エリア42~48のうち、図4中実線で示す監視エリア43および44は、特定人物を検知すべき検知対象エリアとして設定されている。この場合、カメラ103の検知対象エリアである監視エリア43内では、特定の人物431が検知されており、この特定の人物431が検知されたことが外部に報知される。
一方、図4中破線で示す監視エリア42、45~48は、特定人物が検知すべき検知対象エリアとして設定されていない。この場合、カメラ107の非検知対象エリア(検知対象エリア外)である監視エリア43内では、特定の人物471が検知されているが、この特定の人物471が検知されたことは外部に報知されてもよいし、報知されなくてもよい。あるいは、人物検出部32は、特定の人物が非検知対象エリアで検出された場合については、人物検出処理自体をバイパスしてもよい。
図5は、カメラ情報保持部35が保持するカメラ情報テーブルの一例を示す。図5のカメラ情報テーブル50の各エントリーは、カメラID51、監視エリア52、検知対象エリア53、およびIPアドレス54の各フィールドを含む。
カメラID51は、それぞれのカメラ101~108を一意に識別するカメラの識別子を格納するフィールドである。カメラIDは複数のカメラ101~108間でユニークな値が設定される。
監視エリア52は、それぞれのネットワークカメラが監視すべき監視エリアの情報を格納するフィールドである。図5では、カメラ101が監視している領域がエリアAとなっている。カメラ102が監視している領域も同様にエリアAとなっているが、これはカメラ101と同一または重複する領域(図4の監視エリア42)を監視していることを示す。
検知対象エリア53は、当該領域で特定の人物が出現した事象を検知するか否かを示すフィールドである。本実施形態では、検知対象エリア53は、それぞれのネットワークカメラに設定された監視エリアA~Gについて、当該監視エリアで特定の人物が検知された場合に、さらに複数の異なる特定の人物が同時にまたは所定時間内の時間差で検知されたかを判定するか否かを示す。図5では、カメラ103および104の監視エリア52(BおよびC)が検知対象エリア53として設定されている。すなわち、カメラ103および104の監視エリアBおよびCを撮像した画像から、画像処理サーバ3の人物検出部32が監視対象とすべき特定の人物を画像から検出した際には、複数の異なる特定の人物が所定時間内に検出されたか否かが判定される。さらにこの判定結果に応じて異なる報知情報が生成されてよい。
IPアドレス54は、それぞれのカメラ101~108のIPアドレスを格納するフィールドである。
図6は、人物情報保持部306が保持する人物情報テーブルの一例を示す。図6の人物情報テーブル60の各エントリーは、名前61、および顔画像へのパス62の各フィールドを含む。人物情報テーブル60には、例えば要注意人物等、監視対象とすべき特定の人物の情報を、識別子と特徴量を示す情報を対応付けることにより予め登録する。
名前61は、監視対象とすべき特定の人物の名前や名称を格納するフィールドである。
顔画像へのパス62は、人物情報テーブル60に登録された監視すべき特定の人物の顔画像を格納するメモリ箇所へのパスを示すフィールドである。
なお、図6では、監視すべき特定の人物の顔画像へのパスを保持する例を示すが、これに替えて顔画像から抽出された特徴量を人物情報テーブル60に保持してもよい。この場合、例えば、顔の各器官の位置や大きさをオブジェクト情報として保持すればよい。いずれの場合も、画像処理サーバ3の人物検出部32は、人物情報テーブル60から得られる特徴量と、画像受信部31により取得された画像から検出される人物の特徴量とを照合し、両者の類似度を算出する。これにより、人物検出部32は、画像から検出された人物が監視すべき特定の人物であるか否かを判定する。
<画像解析サーバ3が出力する検出情報の詳細>
図7は、画像解析サーバ3の人物検出部32および報知判定部33が生成および参照する検出情報テーブルの一例を示す。検出情報テーブル70は、例えばクライアントPC4からの要求に応じて適宜外部装置に送信され、表示装置等を介して外部に出力することができる。
撮像時刻71は、人物が検出された画像の撮像時刻を示すフィールドである。
被写体ID72は、検出された人物を被写体として一意に識別するための識別子を示すフィールドである。この被写体ID72にはユニークな値が設定される。なお、後述する顔照合において、別の被写体IDが付与された複数の人物が同一人物であると判定される場合があり得るが、検出情報テーブル70の被写体ID72では検出された人物は全て区別され、同一人物であるか否かは名前78で判断される。
カメラID73は、被写体を検出したカメラ101~108を識別するための識別子を示すフィールドである。
エリアID74は、被写体ID72で特定される被写体が検出された監視エリアの識別子を示すフィールドである。
特徴量75は、被写体ID72で特定される被写体から抽出された特徴量を示すフィールドである。この特徴量75の値は、人物情報保持部36が保持する人物情報テーブル60に登録された特定の人物の特徴量と比較照合され、両者の類似度が算出される。これにより、検出された被写体が要注意人物等の監視対象とすべき特定の人物であるか否かを判定することができる。
サムネイル76は、撮像された画像中、被写体が検出された部分を切り出したサムネイル画像を示すフィールドである。このサムネイル76は、例えば特徴量75に示される特徴量を抽出するために用いたり、クライアントPC4要求に応じて、適宜外部装置に送信され、表示装置等を介して外部に出力されてよい。
属性77は、被写体ID72で特定される被写体の各種属性を保持するフィールドである。こうした被写体の属性は、例えば、画像解析から得られる(あるいは推定される)被写体の年齢、性別、帽子やマスクの有無、ひげ等の外見的特徴を含む。この属性77に保持すべき内容は、検出された被写体の画像に対して、例えば人体検出と並行して属性検出処理を実行することで検出可能である。
名前78は、被写体ID72で特定される被写体の名前や名称を保持するフィールドである。この名前78には、要注意人物等の監視対象とすべき特定の人物の名前や名称が格納される。名前78に格納すべき名前や名称は、被写体IDで特定される被写体が人物情報テーブル60に登録された監視すべき特定の人物であるか否かの判定を行い、判定された要注意人物名を人物情報テーブル60から取得すればよい。
報知情報79は、出力すべき報知内容を格納するフィールドである。本実施形態において、報知情報79の種類は、少なくとも複数であり、図7では、要注意人物を検知したことを示す「要注意人物検知」、複数の異なる要注意人物が所定時間内に検知エリア内に出現したことを報知する「時間差検知」が示されている。なお、同一の要注意人物が所定時間内に検知エリア内に出現した場合にも「時間差検知」を報知してもよい。
なお、図7に示される報知情報79の内容は一例であり、例えば、検出された被写体が人物情報テーブル70に登録された特定の人物であるか否かにかかわりなく、被写体の監視エリアへの出現を検知したことを報知してもよい。
あるいは、検出された被写体が人物情報テーブル70に登録された特定の人物である場合、またはこれにかかわりなく、特定の属性が抽出された人物を検知したことを報知してもよい。このような報知情報79を保持すれば、人物情報テーブル70に登録されていないが不審な位置、姿勢、動き、または外観等が検出された人物を不審人物として報知することができる。
<本実施形態の画像解析処理フロー>
図8は、画像解析サーバ3が実行する画像解析処理手順の一例を示すフローチャートである。図8に示す処理は、ネットワークカメラ1ごとに一定間隔で起動されて実行されてよい。あるいはクライアントPC4から画像解析処理起動要求を受信したことを契機に開始されてよい。ただし、図8に示す処理の開始タイミングは上記に限定されない。
画像解析サーバ3はCPU11が必要なプログラムをROM12または外部メモリ14から読み出して実行することにより、図8に示す処理を実行することができる。ただし、図3に示す各要素のうち少なくとも一部が専用のハードウエアとして動作することで図8の処理が実現されるようにしてもよい。この場合、専用のハードウエアは、CPUの制御に基づいて動作する。
S1で、画像解析サーバ3の画像受信部31は、ネットワークカメラ1から送信される画像データを画像録画サーバ2経由で受信し、受信した画像データを伸長および復号化して画像を取得する。取得された画像は人物検出部32に供給される。
S2で、画像解析サーバ3の人体検出部32は、画像受信部31から供給される画像データから人体を含むオブジェクト検出する。
S3で、S2でオブジェクトが検出されていればステップS4へ進み(S3:Y)、一方、オブジェクトが検出されていなければステップS6へ進む(S3:N)。
S4で、画像解析サーバ3の人物検出部32は、S2で検出されたオブジェクトが、人物情報60として登録された監視対象とすべき特定のオブジェクトであるか否かを照合し、特定のオブジェクトであった場合(S4:Y)、S5へ進む。一方、S2で検出されたオブジェクトが特定のオブジェクトでなかった場合(S4:N)、S6へ進む。具体的には、人物検出部32は、S2で検出されたオブジェクトから、例えば顔情報を抽出し、それぞれの各顔情報と人物情報保持部36で保持している人物情報60中の顔情報とを両者の特徴量を比較することで照合する。この照合において、類似度の所定の閾値以上、登録された特定のオブジェクトと類似していると判定されたオブジェクトが、S4で、特定のオブジェクトとして検出される。ここで検出される特定のオブジェクトは例えば監視すべき要注意人物である。
S5で、画像解析サーバ3の報知判定部33は、ステップS4で要注意人物と判定された特定オブジェクトに対し、報知判定処理を実行する。この報知判定処理の詳細は図9を参照して後述する。
S4の特定のオブジェクトを検出する処理およびS5の報知判定処理は、S1で取得された画像から検出されたすべてのオブジェクトに対して処理し終えるまで繰り返し実行される。
S6で、画像解析サーバ3の送信部34は、S5の報知判定処理の処理結果として、S5で報知情報としてユーザに報知されるべき内容を含む検出情報(図7参照)の全部または一部を、クライアントPC4等へ送信する。検出情報を受信したクライアントPC4は、表示装置等を介してユーザに対し、検出情報中の報知情報を表示出力する。
S7で、画像解析サーバ3は、S1からS6の画像処理を継続するか否かを判定する。例えば、処理の終了指示をユーザから受け付けたか否かに応じて処理を継続するか否かを判定すればよい。画像解析サーバ3は、処理を継続すると判定すると(S7:Y)、S1へ戻り、一方、図8の処理を継続しないと判定すると(S7:N)、図8の処理を終了する。
以上により図8のフローチャートの各処理が終了する。
<本実施形態の報知判定処理の詳細フロー>
図9は、報知判定部33が実行する報知判定処理の詳細処理手順の一例を示すフローチャートである。
S51で、画像解析サーバ3の報知判定部33は、図8のS4で要注意人物と判定された特定のオブジェクトについて、当該特定のオブジェクト(被写体)が検知された位置が検知対象エリアとして設定された監視領域内であるか否かを判定する。報知判定部33は、図5のカメラ情報テーブルの検知対象エリア53の値を参照することにより、特定オブジェクトが検知された位置が検知対象エリア内であるか否かを判定することができる。 特定のオブジェクトが検知された位置が検知対象エリア内である場合(S51:Y)、S52に進み、一方、特定のオブジェクトが検知された位置が検知対象エリア内でない場合(S51:N)、S54に進む。あるいは、特定のオブジェクトが検知された位置が検知対象エリア内にない場合には、報知情報は生成せずに図8のS6に進んでもよい。
S52で、画像解析サーバ3の報知判定部33は、複数の特定のオブジェクト、すなわち図8のS4で検出された要注意人物と、当該要注意人物と異なる他の要注意人物とが、検知対象エリア内で所定時間内に検知されていたか否かを判定する。複数の異なる特定のオブジェクトが所定時間内に検知されていた場合(S52:Y)、S53に進み、一方、複数の異なる特定のオブジェクトが所定時間内に検知されない場合(S52:N)、S54に進む。
複数の異なる特定のオブジェクトが所定時間内に検知されていた場合、S53で、報知判定部33は、複数の異なる特定のオブジェクトが時間差でまたは同時に検知されたと判定し、「時間差検知」を示す報知情報を生成して検出情報の報知情報79に出力する。これにより、例えば、最初に出現した特定のオブジェクトが荷物を放置した後、他の特定のオブジェクトが持ち去る等の荷物の受け渡しの不審行為を検知して外部に報知することができる。
一方、複数の異なる特定のオブジェクトが所定時間内に検知されない場合、S54で、報知判定部33は、特定のオブジェクトが単独で検知されたと判定し、「要注意人物検知」を示す報知情報を生成して検出情報の報知情報79に出力する。S51で、特定のオブジェクトが検知された位置が検知対象エリア内にない場合にも、同様に「要注意人物検知」を示す報知情報を生成してもよく、これに替えて検知対象エリア外で検知された旨を示す他の報知情報を生成してもよい。
例えば、S52の所定時間を1時間と設定したとする。この場合、図7の被写体ID0004の人物(特定の人物B)は検知対象エリア内(エリアC)で検出されており、且つ被写体ID0001の人物(特定の人物A)が1時間以内(25分前)に検知対象エリア(エリアB)内で検出されている。このため、報知判定部33は、時間差検知と判定し、「時間差検知」を示す報知情報を生成する。
同様に、被写体ID0010の人物(特定の人物A)は検知対象エリア内(エリアB)で検出されており、且つ被写体ID0009の人物(特定の人物D)が1時間以内(58分後)に検知対象エリア(エリアC)内で検出されている。このため、報知判定部33は、時間差検知と判定し、「時間差検知」を示す報知情報を生成する。
一方、被写体ID0001の人物(特定の人物A)と被写体ID0009の人物(特定の人物D)は、それぞれの検出時刻から1時間前までの間に異なる要注意人物が検出されていない。このため、報知判定部33は、要注意人物が検出されたことを示す「要注意人物検知」を示す報知情報を生成するが「時間差検知」を示す放置情報は生成しない。
また、被写体ID0006の人物(特定の人物C)は、その検出時刻から1時間前までの間に他の要注意人物(特定の人物AおよびB)が検出されているが、検知対象エリア外(非検知対象エリアF)での検知であるため、「要注意人物検知」とされるが「時間差検知」とはならない。
以上により図9のフローチャートの各処理が終了する。
<変形例>
なお上記では、報知判定部33は、カメラ情報50の検知対象エリア53を参照して、被写体が検出された位置が特定オブジェクトを検知する検知対象エリア内であるか否かを判定したが、本実施形態はこれに限定されない。カメラ情報50の検知対象エリア53にさらに属性を設定し、検知対象エリアに設定された属性に応じて、報知判定処理を変更してもよい。
例えば、検知対象エリア53の属性として、「エリア危険度」を設定可能とし、このエリア危険度が高い監視エリア内で要注意人物が検知された場合は、上記で1時間とした所定時間を10分等へとより短く変更する。一方、エリア危険度が低い非危険監視エリア内で要注意人物が検知された場合は、所定時間を1時間より長く変更したり、あるいは所定時間内に検知される要注意人物の人数が複数人以上(例えば3人)である場合のみ、時間差検知と報知するようにしてもよい。
あるいは、ネットワークカメラ1の監視エリア内にいる警備員の位置に応じて、所定時間の値や所定時間内に検知される要注意人物の人数の閾値を変更してもよい。この場合、警備員の位置は、例えば、映像解析や警備員に携行させたビーコン等から取得することができる。例えば、警備員の位置から遠い検知対象エリア53に対して、所定時間や所定時間内に検知される要注意人物の人数の閾値をより小さく設定すれば、警備員の位置から遠い検知対象エリア53についてより頻繁な報知が可能となり、警備員による警備を補完できる。
また上記では、報知判定部33は、人物情報60として登録された要注意人物と一致する人物が複数人、所定時間内に検知された場合に時間差検知と報知したが、本実施形態はこれに限定されない。例えば、人物情報60として登録された要注意人物と一致しない人物が複数人、所定時間内に検知された場合にも、複数の不審人物の出現として時間差検知と報知してもよい。
また、監視エリア52ごとに報知の閾値を可変に設定してもよい。例えば、類型的に危険度や監視重要度がより高い監視エリア52については、複数人ではなく、1人の要注意人物の検知で、警戒態勢を取るべきと報知してもよい。
さらに、人物情報60の人物ごとに人物危険度を設定し、例えば、特に危険であると設定された人物が検知された場合には1人の検知で警戒態勢を取るべきと報知する等、人物危険度に応じて外部に報知すべき報知情報を変更してもよい。
また、報知判定部33は、検知対象エリア53に集結した要注意人物の人数に応じて、外部に報知すべき報知情報を変更してもよい。例えば、所定時間内に集結した人数が2人である場合は警告(アラート)レベルで報知し、3人以上が集結した場合には警戒態勢を取るべきと報知してもよい。この場合さらに、人物危険度と集結人数の組み合わせに応じて報知情報を変更してもよい。
さらに、検知対象エリア53に集結した複数の要注意人物の位置、姿勢、撮像時刻、および動き等に応じて、外部に報知すべき報知情報を変更してもよい。例えば、複数の要注意人物が近接して同時に現れる、近接して一定時間以上現れる、すれ違う、直接接触する、視線が合う、向かい合う、荷物を受け渡す、および会話する、等の行為を捕捉して、推定される行為を報知してもよい。
以上説明したように、本実施形態によれば、撮像装置により撮像された画像を画像解析して人物を検出し、検出された人物が監視対象とすべき特定の人物である場合、所定時間内に複数の異なる特定の人物が検出されたか否かを判定する。そして、本実施形態においては、複数の異なる特定の人物が所定時間内に撮像画像から検出された場合、外部に報知すべき報知情報を生成する。
これにより、要注意人物や不審人物等の監視対象人物が複数関連して実行する行為が発生したか否かを適切に検知することができる。従って、複数の監視対象人物が関連して実行される共謀行為等の監視対象行為を適切に報知することができ、広域監視の精度向上が実現される。
<他の実施形態>
なお、上述した各実施形態は、その複数を組み合わせて実現することが可能である。
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムによっても実現可能である。すなわち、そのプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)における1つ以上のプロセッサーがプログラムを読出し実行する処理により実現可能である。また、そのプログラムをコンピュータ可読な記録媒体に記録して提供してもよい。
また、上述した各実施形態を、複数の機器、例えば、ホストコンピュータ、インタフェース機器、撮像装置、ウェブアプリケーション等から構成されるシステムに適用してもよく、1つの機器からなる装置に適用してもよい。
また、コンピュータが読みだしたプログラムを実行することにより、実施形態の機能が実現されるものに限定されない。例えば、プログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって上記した実施形態の機能が実現されてもよい。
1…ネットワークカメラ、2…画像録画サーバ、3…画像解析サーバ、4…クライアントPC、5…ネットワーク、31…画像受信部、32…人物検出部、33…報知判定部、34…送信部、35…カメラ情報保持部、36…人物情報保持部

Claims (11)

  1. 撮像手段により撮像された画像を取得する取得手段と、
    前記取得手段により取得された前記画像から、予め登録された人物と照合して特定の人物を検出する検出手段と、
    前記検出手段により、複数の異なる前記特定の人物が、所定の撮像領域内において、所定時間内の時間差で検出されたか否かを判定する判定手段と
    前記判定手段により、前記所定の撮像領域内において、前記所定時間内の時間差で前記複数の異なる特定の人物が検出されたと判定された場合に、前記所定の撮像領域内において、前記所定時間内の時間差で複数の異なる前記特定の人物が検出された時間差検知に関する情報を、第1の報知情報として外部に報知し、前記判定手段により、前記特定の人物が前記所定の撮像領域外で検出された場合、又は複数の異なる前記特定の人物が前記所定時間外の時間差で検出されたと判定された場合には、前記第1の報知情報とは異なる、前記特定の人物が検出された人物検知に関する情報を、第2の報知情報として外部に報知する報知手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記報知手段は、前記判定手段により、前記所定時間内に前記特定の人物が単独で検出されたと判定した場合、前記第2の報知情報を報知する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記報知手段は、前記判定手段により、前記所定時間内の時間差で複数の所定の撮像領域に亘り複数の異なる前記特定の人物が検出されたと判定された場合、前記第1の報知情報を報知する、
    ことを特徴とする請求項1または2に記載の画像処理装置。
  4. 複数の撮像手段のそれぞれについて、撮像領域と、前記撮像領域を報知の対象とするか否かと、前記撮像領域の危険度とを設定する設定手段をさらに備え、
    前記設定手段は、前記設定手段により設定された前記撮像領域の危険度に基づいて、前記所定時間を変更する、
    ことを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
  5. 複数の人物のそれぞれについて、人物の識別子と、前記人物から抽出された特徴量とを対応付けて人物情報として記憶する記憶手段をさらに備え、
    前記検出手段は、前記画像から検出された人物と、前記記憶手段に記憶された前記人物情報の人物とを照合し、前記人物情報の人物と一致する人物を前記特定の人物として検出する、
    ことを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
  6. 前記記憶手段に記憶される前記人物情報は、報知すべき人物の危険度を含み、
    前記判定手段は、前記記憶手段に記憶される前記人物情報の前記人物の危険度に基づいて、前記第1の報知情報を生成する閾値を変更する、
    ことを特徴とする請求項に記載の画像処理装置。
  7. 前記検出手段は、前記画像から検出された人物の特徴量と、前記記憶手段に記憶される前記人物情報の人物の特徴量との間の類似度を算出し、前記類似度が所定の閾値以上と算出された人物を、前記特定の人物として検出する、
    ことを特徴とする請求項またはに記載の画像処理装置。
  8. 複数の人物のそれぞれについて、人物の識別子と、前記人物から抽出された特徴量とを対応付けて人物情報として記憶する記憶手段をさらに備え、
    前記検出手段は、前記画像から検出された人物と、前記記憶手段に記憶された前記人物情報の人物とを照合し、前記人物情報の人物と一致しない人物を前記特定の人物として検出する、
    ことを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
  9. 所定のユーザの位置を取得する第2の取得手段をさらに備え、
    前記判定手段は、前記第2の取得手段により取得された前記所定のユーザの位置に基づいて、前記所定時間を変更する、
    ことを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
  10. 撮像手段により撮像された画像を取得するステップと、
    取得された前記画像から、予め登録された人物と照合して特定の人物を検出するステップと、
    複数の異なる前記特定の人物が、所定の撮像領域内において、所定時間内の時間差で検出されたか否かを判定するステップと
    前記所定の撮像領域内において、前記所定時間内の時間差で前記複数の異なる特定の人物が検出されたと判定された場合に、前記所定の撮像領域内において、前記所定時間内の時間差で複数の異なる前記特定の人物が検出された時間差検知に関する情報を、第1の報知情報として外部に報知し、前記特定の人物が前記所定の撮像領域外で検出された場合、又は複数の異なる前記特定の人物が前記所定時間外の時間差で検出されたと判定された場合には、前記第1の報知情報とは異なる、前記特定の人物が検出された人物検知に関する情報を、第2の報知情報として外部に報知するステップと、
    を含むことを特徴とする画像処理方法。
  11. コンピュータを、請求項1からのいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018109504A 2018-06-07 2018-06-07 画像処理装置、画像処理方法およびプログラム Active JP7210163B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018109504A JP7210163B2 (ja) 2018-06-07 2018-06-07 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018109504A JP7210163B2 (ja) 2018-06-07 2018-06-07 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2019213116A JP2019213116A (ja) 2019-12-12
JP7210163B2 true JP7210163B2 (ja) 2023-01-23

Family

ID=68845612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018109504A Active JP7210163B2 (ja) 2018-06-07 2018-06-07 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7210163B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7478630B2 (ja) * 2020-09-15 2024-05-07 株式会社日立製作所 映像解析システムおよび映像解析方法
JP2022055229A (ja) * 2020-09-28 2022-04-07 横河電機株式会社 監視用デバイス、学習装置、方法およびプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092396A (ja) 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd 単独行動者及びグループ行動者検知装置
JP2009077064A (ja) 2007-09-19 2009-04-09 Fujifilm Corp 監視方法および監視装置
JP2010011092A (ja) 2008-06-27 2010-01-14 Aiphone Co Ltd インターホンシステム
JP2012133665A (ja) 2010-12-22 2012-07-12 Sogo Keibi Hosho Co Ltd 把持物体認識装置、把持物体認識方法、及び把持物体認識プログラム
JP2014178884A (ja) 2013-03-14 2014-09-25 Osaka Gas Co Ltd 警備システム
WO2015166612A1 (ja) 2014-04-28 2015-11-05 日本電気株式会社 映像解析システム、映像解析方法および映像解析プログラム
JP2016114994A (ja) 2014-12-11 2016-06-23 セコム株式会社 携帯端末、行動管理システム及び携帯端末用プログラム
WO2017024045A1 (en) 2015-08-04 2017-02-09 James Carey Video identification and analytical recognition system
WO2017169189A1 (ja) 2016-03-30 2017-10-05 日本電気株式会社 解析装置、解析方法及びプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092396A (ja) 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd 単独行動者及びグループ行動者検知装置
JP2009077064A (ja) 2007-09-19 2009-04-09 Fujifilm Corp 監視方法および監視装置
JP2010011092A (ja) 2008-06-27 2010-01-14 Aiphone Co Ltd インターホンシステム
JP2012133665A (ja) 2010-12-22 2012-07-12 Sogo Keibi Hosho Co Ltd 把持物体認識装置、把持物体認識方法、及び把持物体認識プログラム
JP2014178884A (ja) 2013-03-14 2014-09-25 Osaka Gas Co Ltd 警備システム
WO2015166612A1 (ja) 2014-04-28 2015-11-05 日本電気株式会社 映像解析システム、映像解析方法および映像解析プログラム
JP2016114994A (ja) 2014-12-11 2016-06-23 セコム株式会社 携帯端末、行動管理システム及び携帯端末用プログラム
WO2017024045A1 (en) 2015-08-04 2017-02-09 James Carey Video identification and analytical recognition system
WO2017169189A1 (ja) 2016-03-30 2017-10-05 日本電気株式会社 解析装置、解析方法及びプログラム

Also Published As

Publication number Publication date
JP2019213116A (ja) 2019-12-12

Similar Documents

Publication Publication Date Title
JP6814673B2 (ja) 移動経路予測装置、及び移動経路予測方法
RU2760211C2 (ru) Аналитическая система распознавания
US8970697B2 (en) Image distribution apparatus
US20180268224A1 (en) Information processing device, determination device, notification system, information transmission method, and program
RU2720947C2 (ru) Аналитическая система распознавания и видеоидентификации
JP7210163B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP7145622B2 (ja) 情報処理装置、情報処理装置の制御方法、被写体検出システム、及び、プログラム
JP2019009529A (ja) 顔認証装置、人物追跡システム、人物追跡方法、および、人物追跡プログラム
CN114078603A (zh) 智能养老监护系统、方法及计算机设备、可读存储介质
JP6206627B1 (ja) 情報処理装置、制御方法、及びプログラム
US10783365B2 (en) Image processing device and image processing system
US20210286978A1 (en) Face detection method and server
JP2015228626A (ja) 画像出力装置、画像管理システム、画像処理方法及びプログラム
JP6536643B2 (ja) 情報処理装置、制御方法、及びプログラム
JP2017167800A (ja) 監視システム、情報処理装置、監視方法および監視プログラム
US10902249B2 (en) Video monitoring
Kasturi et al. Classification of human fall in top Viewed kinect depth images using binary support vector machine
Al Maashri et al. A novel drone-based system for accurate human temperature measurement and disease symptoms detection using thermography and AI
WO2022190701A1 (ja) 不審者アラーム通知システム、不審者アラーム通知方法および不審者アラーム通知プログラム
JP7428191B2 (ja) 監視システム、監視装置、監視方法、およびプログラム
JP7478630B2 (ja) 映像解析システムおよび映像解析方法
JP6632632B2 (ja) 監視システム
JP7399306B2 (ja) 監視システム、カメラ、解析装置及びaiモデル生成方法
US20210216755A1 (en) Face authentication system and face authentication method
JP7409635B2 (ja) 捜査支援システムおよび人物画像登録方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230111

R151 Written notification of patent or utility model registration

Ref document number: 7210163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03