JP7210163B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP7210163B2 JP7210163B2 JP2018109504A JP2018109504A JP7210163B2 JP 7210163 B2 JP7210163 B2 JP 7210163B2 JP 2018109504 A JP2018109504 A JP 2018109504A JP 2018109504 A JP2018109504 A JP 2018109504A JP 7210163 B2 JP7210163 B2 JP 7210163B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- detected
- image
- information
- specific
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 46
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000001514 detection method Methods 0.000 claims description 105
- 238000003384 imaging method Methods 0.000 claims description 41
- 238000010191 image analysis Methods 0.000 description 57
- 238000012544 monitoring process Methods 0.000 description 41
- 238000000034 method Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 13
- 230000009471 action Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 230000010365 information processing Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Description
この種の監視システムにおいて、複数のネットワークカメラが、オフィスや店舗、さらにはショッピングモールやスタジアム、街頭、地域全体など、広い範囲に設置され、広域監視を実現することでセキュリティの向上に役立っている。各ネットワークカメラの撮像画像を解析して撮像画像から人体を検出し、検出された人体を特定人物として認識することにより、人物を検索するシステムや群集の混雑等の異常状態を検知するシステムが提案されている。
具体的には、特許文献1の防犯システムは、施設の入口等の設置したカメラで撮像した人物の顔画像と、予め記憶した注意候補人物の顔画像とを照合し、両者が一致しかつ当該注意候補人物の訪問履歴が所定要件を満たす場合に要注意人物であると推定し通知する。
特許文献2は、動画像を分割した部分領域ごとに動きの有無と人物の存在の有無とを判定し、人の動きがある移動領域と人が滞留している滞留領域の数や割合から、異常混雑(蝟集)が発生していることを推定する混雑推定装置を開示する。
特に近年では、複数の人物が共謀して組織的な破壊活動などを行う事案が増加してきている。このように、複数の人物が共謀して破壊活動等を行う場合は、下見や準備等を行うため、対象となる場所に時間間隔を空けて、異なる要注意人物や不審人物が現れる事象が想定され得る。この場合、ある程度の時間差をつけてあるいは同時に異なる要注意人物等が現れる場合を検知して、その事象を報知することが要請される。
これにより、要注意人物や不審人物等の監視対象人物が複数関連して実行する行為が発生したか否かを適切に検知することができる。従って、複数の監視対象人物が関連して実行される共謀行為等の監視対象行為を適切に報知することができ、広域監視の精度向上が実現される。
なお、以下、本実施形態では、撮像装置であるネットワークカメラを監視に応用する場合を例として説明するが、本実施形態はこの場合に限定されず、複数のオブジェクトが関連して実行する行為を検知するあらゆる他の画像検索用途にも適用可能である。また、以下、本実施形態では、撮像画像を解析して人体を検出し、検出された人体が監視対象とすべき特定の人物として同定された場合に報知する場合を例として説明するが本実施形態が適用可能な検知対象はこれに限定されない。本実施形態は、撮像画像内の動体および静止体を含む、あらゆるオブジェクトの画像検索用途に適用可能である。
図1は、本実施形態に係る画像処理システムをネットワークカメラシステムに適用した動作環境におけるネットワーク構成の一例を示す図である。
図1のネットワークカメラシステム10は、少なくとも1つのネットワークカメラ1、画像録画サーバ2、画像解析サーバ3、およびクライアントパーソナルコンピュータ(PC)4とを備える。ネットワークカメラ1、画像録画サーバ2、画像解析サーバ3、クライアントPC4は、それぞれネットワーク5を介して接続され、相互に情報の授受を行う。
なお、図1では、画像録画サーバ2、画像解析サーバ3、およびクライアントPC4と、3つの情報処理装置が図示されているが、画像処理システム1を構成する情報処理装置の数は図示される数に限定されない。図1の複数の情報処理装置の機能を1つの情報処理装置に実装してもよく、各サーバ2,3およびクライアントPC4の機能をそれぞれ複数の情報処理装置に適宜分散させて実装してもよい。
画像録画サーバ2はまた、画像解析サーバ3、およびクライアントPC4から送信される各種要求やコマンドを受信し、記憶装置に記憶された画像データを要求された画像解析サーバ3、クライアントPC4等へ送信する。
画像解析処理の処理結果は、所定の条件に合致する人物の検出結果の情報を含み、画像解析サーバ3がアクセス可能な内部または外部の記憶装置に記憶される。クライアントPC4からの要求に応答して、画像解析サーバ3は、記憶装置に記憶された画像解析結果を適宜送信する。なお、上記ではネットワークカメラ1で撮像された画像を画像録画サーバ2が録画保存し、画像解析サーバ3が画像録画サーバ2から画像データを受信したが、これに替えて画像解析サーバ3は、ネットワークカメラ1から画像データを直接受信してもよい。
図2は、カメラ1のハードウェア構成の一例を示す図である。
図2のカメラ1は、それぞれ、CPU11、ROM12、RAM13、外部メモリ14、撮像部15、入力部16、通信I/F17、およびシステムバス18を備える。
CPU11は、カメラ1における動作を統括的に制御するものであり、システムバス18を介して、各構成部(12~17)を制御する。
ROM(Read Only Memory)12は、CPU11が各種処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、これら制御プログラム等は、外部メモリ14や着脱可能な記憶媒体(不図示)に記憶されていてもよい。
RAM(Random Access Memory)13は、CPU11の主メモリ、ワークエリア等として機能する。すなわち、CPU11は、各種処理の実行に際してROM12から必要なプログラム等をRAM13にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
外部メモリ14は、例えば、CPU11がプログラムを用いた処理を行う際に必要な各種データや各種情報等を記憶している。また、外部メモリ14には、例えば、CPU11がプログラム等を用いた処理を行うことにより得られた各種データや各種情報等が記憶される。
入力部16は、電源ボタンなどから構成され、カメラ1のユーザは、入力部16を介して当該カメラ1に指示を与えることができる。
通信I/F17は、ネットワーク5に接続される外部装置(例えば画像録画サーバ2、画像解析サーバ3、クライアントPC4)と通信するためのインターフェースであり、例えばLANインターフェースである。
システムバス18は、CPU11、ROM12、RAM13、外部メモリ14、撮像部15、入力部16および通信I/F17を通信可能に接続する。
なお、画像録画サーバ2、画像解析サーバ3、およびクライアントPC4は、それぞれ、図2のハードウエア構成において、撮像部15に替えて、表示装置等のハードウエアを備えればよい。表示装置は、液晶ディスプレイ(LCD)等のモニタで構成されてよい。また、画像録画サーバ2、画像解析サーバ3、およびクライアントPC4は、入力部16として、キーボードやマウス等のポインティングデバイスを備えてよく、ユーザが各装置2、3および4に対してそれぞれ指示を与えることができる。
図3は、本実施形態に係る画像解析システムを構成する画像解析サーバ3の機能構成の一例を示すブロック図である。
図3に示す各装置の各機能モジュールのうち、ソフトウエアにより実現される機能については、各機能モジュールの機能を提供するためのプログラムがROM等のメモリに記憶され、RAMに読み出してCPUが実行することにより実現される。ハードウエアにより実現される機能については、例えば、所定のコンパイラを用いることで、各機能モジュールの機能を実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。FPGAとは、Field Programmable Gate Arrayの略である。また、FPGAと同様にしてGate Array回路を形成し、ハードウエアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。この場合、専用ハードウエアはCPU11の制御に基づいて動作する。
画像解析サーバ3は、画像受信部31、人物検出部32、報知判定部33、送信部34、カメラ情報保持部35、および人物情報保持部36を備える。
なお、本実施形態に係る画像解析サーバ3は、画像から人物を検出する他、映像から人物を検出することができる。映像から人物を検出する場合、画像解析サーバ3は、ネットワークカメラ1から映像を取得し、映像(動画像)のフレーム一枚ごとに画像に対する画像解析処理と同様の処理を実行すればよい。
以下では、画像受信部31が動画像を取得した場合であっても静止画像を取得した場合であっても、画像受信部31が人物検出部32へ1枚の画像を送出する場合を説明する。前者の動画像を取得した場合は、上記1枚の画像が動画像を構成する各フレームに相当し、後者の静止画像を取得した場合は、上記1枚の画像が静止画像に相当する。
本実施形態では、人物検出部32は、顔認識を用いて監視対象とすべき特定の人物を検出する。具体的には、人物検出部32は、画像受信部31から供給される画像から複数の人物の顔情報を抽出し、抽出されたそれぞれの顔情報と人物情報保持部36が保持している監視対象とすべき特定の人物の顔情報との間で特徴量を照合して、類似度を算出する。人物検出部32は、算出された類似度を所定の閾値と比較し、類似度が所定の閾値以上である場合は、画像から検出された人物が特定の人物に類似していると判断し、要注意人物や不審人物等の監視対象とすべき特定の人物であると同定する。
なお、上記では被写体が人物である例を説明したが、本実施形態は他の被写体にも適用可能である。この場合、例えば、人物情報保持部36が保持する人物情報に替えて、車両や不審物など他のオブジェクトの特徴を保持しておき、画像からこれらのオブジェクトを抽出して保持するオブジェクトと照合し類似度を求めればよい。
送信部34は、報知判定部33が出力する検出情報の比較結果を、クライアントPC4ヘ送信する。
カメラ情報保持部35は、ネットワークカメラ1の監視対象エリアの情報を含むカメラ情報を記憶装置に保持記憶する。このカメラ情報は、ネットワークカメラシステム10が複数のネットワークカメラ1で構成される場合、複数のネットワークカメラ1をグルーピングしたカメラグループの情報を含んでよい。
人物情報保持部36は、監視対象とすべき特定の人物の情報を人物情報として記憶装置に保持記憶する。人物情報の具体的な内容は図6を参照して後述する。
図4の全監視領域41内には、複数のネットワークカメラ101~107が配置されている。監視エリア42は、カメラ101およびカメラ102により重複して監視される撮像領域である。カメラ103は監視エリア43を、カメラ104は監視エリア44を、カメラ105は監視エリア45を、カメラ106は監視エリア46を、カメラ107は監視エリア47を、カメラ107は監視エリア47を、それぞれ監視する。
一方、図4中破線で示す監視エリア42、45~48は、特定人物が検知すべき検知対象エリアとして設定されていない。この場合、カメラ107の非検知対象エリア(検知対象エリア外)である監視エリア43内では、特定の人物471が検知されているが、この特定の人物471が検知されたことは外部に報知されてもよいし、報知されなくてもよい。あるいは、人物検出部32は、特定の人物が非検知対象エリアで検出された場合については、人物検出処理自体をバイパスしてもよい。
カメラID51は、それぞれのカメラ101~108を一意に識別するカメラの識別子を格納するフィールドである。カメラIDは複数のカメラ101~108間でユニークな値が設定される。
監視エリア52は、それぞれのネットワークカメラが監視すべき監視エリアの情報を格納するフィールドである。図5では、カメラ101が監視している領域がエリアAとなっている。カメラ102が監視している領域も同様にエリアAとなっているが、これはカメラ101と同一または重複する領域(図4の監視エリア42)を監視していることを示す。
IPアドレス54は、それぞれのカメラ101~108のIPアドレスを格納するフィールドである。
名前61は、監視対象とすべき特定の人物の名前や名称を格納するフィールドである。
顔画像へのパス62は、人物情報テーブル60に登録された監視すべき特定の人物の顔画像を格納するメモリ箇所へのパスを示すフィールドである。
なお、図6では、監視すべき特定の人物の顔画像へのパスを保持する例を示すが、これに替えて顔画像から抽出された特徴量を人物情報テーブル60に保持してもよい。この場合、例えば、顔の各器官の位置や大きさをオブジェクト情報として保持すればよい。いずれの場合も、画像処理サーバ3の人物検出部32は、人物情報テーブル60から得られる特徴量と、画像受信部31により取得された画像から検出される人物の特徴量とを照合し、両者の類似度を算出する。これにより、人物検出部32は、画像から検出された人物が監視すべき特定の人物であるか否かを判定する。
図7は、画像解析サーバ3の人物検出部32および報知判定部33が生成および参照する検出情報テーブルの一例を示す。検出情報テーブル70は、例えばクライアントPC4からの要求に応じて適宜外部装置に送信され、表示装置等を介して外部に出力することができる。
撮像時刻71は、人物が検出された画像の撮像時刻を示すフィールドである。
被写体ID72は、検出された人物を被写体として一意に識別するための識別子を示すフィールドである。この被写体ID72にはユニークな値が設定される。なお、後述する顔照合において、別の被写体IDが付与された複数の人物が同一人物であると判定される場合があり得るが、検出情報テーブル70の被写体ID72では検出された人物は全て区別され、同一人物であるか否かは名前78で判断される。
エリアID74は、被写体ID72で特定される被写体が検出された監視エリアの識別子を示すフィールドである。
特徴量75は、被写体ID72で特定される被写体から抽出された特徴量を示すフィールドである。この特徴量75の値は、人物情報保持部36が保持する人物情報テーブル60に登録された特定の人物の特徴量と比較照合され、両者の類似度が算出される。これにより、検出された被写体が要注意人物等の監視対象とすべき特定の人物であるか否かを判定することができる。
属性77は、被写体ID72で特定される被写体の各種属性を保持するフィールドである。こうした被写体の属性は、例えば、画像解析から得られる(あるいは推定される)被写体の年齢、性別、帽子やマスクの有無、ひげ等の外見的特徴を含む。この属性77に保持すべき内容は、検出された被写体の画像に対して、例えば人体検出と並行して属性検出処理を実行することで検出可能である。
報知情報79は、出力すべき報知内容を格納するフィールドである。本実施形態において、報知情報79の種類は、少なくとも複数であり、図7では、要注意人物を検知したことを示す「要注意人物検知」、複数の異なる要注意人物が所定時間内に検知エリア内に出現したことを報知する「時間差検知」が示されている。なお、同一の要注意人物が所定時間内に検知エリア内に出現した場合にも「時間差検知」を報知してもよい。
なお、図7に示される報知情報79の内容は一例であり、例えば、検出された被写体が人物情報テーブル70に登録された特定の人物であるか否かにかかわりなく、被写体の監視エリアへの出現を検知したことを報知してもよい。
あるいは、検出された被写体が人物情報テーブル70に登録された特定の人物である場合、またはこれにかかわりなく、特定の属性が抽出された人物を検知したことを報知してもよい。このような報知情報79を保持すれば、人物情報テーブル70に登録されていないが不審な位置、姿勢、動き、または外観等が検出された人物を不審人物として報知することができる。
図8は、画像解析サーバ3が実行する画像解析処理手順の一例を示すフローチャートである。図8に示す処理は、ネットワークカメラ1ごとに一定間隔で起動されて実行されてよい。あるいはクライアントPC4から画像解析処理起動要求を受信したことを契機に開始されてよい。ただし、図8に示す処理の開始タイミングは上記に限定されない。
画像解析サーバ3はCPU11が必要なプログラムをROM12または外部メモリ14から読み出して実行することにより、図8に示す処理を実行することができる。ただし、図3に示す各要素のうち少なくとも一部が専用のハードウエアとして動作することで図8の処理が実現されるようにしてもよい。この場合、専用のハードウエアは、CPUの制御に基づいて動作する。
S2で、画像解析サーバ3の人体検出部32は、画像受信部31から供給される画像データから人体を含むオブジェクト検出する。
S3で、S2でオブジェクトが検出されていればステップS4へ進み(S3:Y)、一方、オブジェクトが検出されていなければステップS6へ進む(S3:N)。
S4の特定のオブジェクトを検出する処理およびS5の報知判定処理は、S1で取得された画像から検出されたすべてのオブジェクトに対して処理し終えるまで繰り返し実行される。
S7で、画像解析サーバ3は、S1からS6の画像処理を継続するか否かを判定する。例えば、処理の終了指示をユーザから受け付けたか否かに応じて処理を継続するか否かを判定すればよい。画像解析サーバ3は、処理を継続すると判定すると(S7:Y)、S1へ戻り、一方、図8の処理を継続しないと判定すると(S7:N)、図8の処理を終了する。
以上により図8のフローチャートの各処理が終了する。
図9は、報知判定部33が実行する報知判定処理の詳細処理手順の一例を示すフローチャートである。
S51で、画像解析サーバ3の報知判定部33は、図8のS4で要注意人物と判定された特定のオブジェクトについて、当該特定のオブジェクト(被写体)が検知された位置が検知対象エリアとして設定された監視領域内であるか否かを判定する。報知判定部33は、図5のカメラ情報テーブルの検知対象エリア53の値を参照することにより、特定オブジェクトが検知された位置が検知対象エリア内であるか否かを判定することができる。 特定のオブジェクトが検知された位置が検知対象エリア内である場合(S51:Y)、S52に進み、一方、特定のオブジェクトが検知された位置が検知対象エリア内でない場合(S51:N)、S54に進む。あるいは、特定のオブジェクトが検知された位置が検知対象エリア内にない場合には、報知情報は生成せずに図8のS6に進んでもよい。
一方、複数の異なる特定のオブジェクトが所定時間内に検知されない場合、S54で、報知判定部33は、特定のオブジェクトが単独で検知されたと判定し、「要注意人物検知」を示す報知情報を生成して検出情報の報知情報79に出力する。S51で、特定のオブジェクトが検知された位置が検知対象エリア内にない場合にも、同様に「要注意人物検知」を示す報知情報を生成してもよく、これに替えて検知対象エリア外で検知された旨を示す他の報知情報を生成してもよい。
同様に、被写体ID0010の人物(特定の人物A)は検知対象エリア内(エリアB)で検出されており、且つ被写体ID0009の人物(特定の人物D)が1時間以内(58分後)に検知対象エリア(エリアC)内で検出されている。このため、報知判定部33は、時間差検知と判定し、「時間差検知」を示す報知情報を生成する。
また、被写体ID0006の人物(特定の人物C)は、その検出時刻から1時間前までの間に他の要注意人物(特定の人物AおよびB)が検出されているが、検知対象エリア外(非検知対象エリアF)での検知であるため、「要注意人物検知」とされるが「時間差検知」とはならない。
以上により図9のフローチャートの各処理が終了する。
なお上記では、報知判定部33は、カメラ情報50の検知対象エリア53を参照して、被写体が検出された位置が特定オブジェクトを検知する検知対象エリア内であるか否かを判定したが、本実施形態はこれに限定されない。カメラ情報50の検知対象エリア53にさらに属性を設定し、検知対象エリアに設定された属性に応じて、報知判定処理を変更してもよい。
例えば、検知対象エリア53の属性として、「エリア危険度」を設定可能とし、このエリア危険度が高い監視エリア内で要注意人物が検知された場合は、上記で1時間とした所定時間を10分等へとより短く変更する。一方、エリア危険度が低い非危険監視エリア内で要注意人物が検知された場合は、所定時間を1時間より長く変更したり、あるいは所定時間内に検知される要注意人物の人数が複数人以上(例えば3人)である場合のみ、時間差検知と報知するようにしてもよい。
また上記では、報知判定部33は、人物情報60として登録された要注意人物と一致する人物が複数人、所定時間内に検知された場合に時間差検知と報知したが、本実施形態はこれに限定されない。例えば、人物情報60として登録された要注意人物と一致しない人物が複数人、所定時間内に検知された場合にも、複数の不審人物の出現として時間差検知と報知してもよい。
さらに、人物情報60の人物ごとに人物危険度を設定し、例えば、特に危険であると設定された人物が検知された場合には1人の検知で警戒態勢を取るべきと報知する等、人物危険度に応じて外部に報知すべき報知情報を変更してもよい。
また、報知判定部33は、検知対象エリア53に集結した要注意人物の人数に応じて、外部に報知すべき報知情報を変更してもよい。例えば、所定時間内に集結した人数が2人である場合は警告(アラート)レベルで報知し、3人以上が集結した場合には警戒態勢を取るべきと報知してもよい。この場合さらに、人物危険度と集結人数の組み合わせに応じて報知情報を変更してもよい。
これにより、要注意人物や不審人物等の監視対象人物が複数関連して実行する行為が発生したか否かを適切に検知することができる。従って、複数の監視対象人物が関連して実行される共謀行為等の監視対象行為を適切に報知することができ、広域監視の精度向上が実現される。
なお、上述した各実施形態は、その複数を組み合わせて実現することが可能である。
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムによっても実現可能である。すなわち、そのプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)における1つ以上のプロセッサーがプログラムを読出し実行する処理により実現可能である。また、そのプログラムをコンピュータ可読な記録媒体に記録して提供してもよい。
また、上述した各実施形態を、複数の機器、例えば、ホストコンピュータ、インタフェース機器、撮像装置、ウェブアプリケーション等から構成されるシステムに適用してもよく、1つの機器からなる装置に適用してもよい。
また、コンピュータが読みだしたプログラムを実行することにより、実施形態の機能が実現されるものに限定されない。例えば、プログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって上記した実施形態の機能が実現されてもよい。
Claims (11)
- 撮像手段により撮像された画像を取得する取得手段と、
前記取得手段により取得された前記画像から、予め登録された人物と照合して特定の人物を検出する検出手段と、
前記検出手段により、複数の異なる前記特定の人物が、所定の撮像領域内において、所定時間内の時間差で検出されたか否かを判定する判定手段と、
前記判定手段により、前記所定の撮像領域内において、前記所定時間内の時間差で前記複数の異なる特定の人物が検出されたと判定された場合に、前記所定の撮像領域内において、前記所定時間内の時間差で複数の異なる前記特定の人物が検出された時間差検知に関する情報を、第1の報知情報として外部に報知し、前記判定手段により、前記特定の人物が前記所定の撮像領域外で検出された場合、又は複数の異なる前記特定の人物が前記所定時間外の時間差で検出されたと判定された場合には、前記第1の報知情報とは異なる、前記特定の人物が検出された人物検知に関する情報を、第2の報知情報として外部に報知する報知手段と、
を備えることを特徴とする画像処理装置。 - 前記報知手段は、前記判定手段により、前記所定時間内に前記特定の人物が単独で検出されたと判定した場合、前記第2の報知情報を報知する
ことを特徴とする請求項1に記載の画像処理装置。 - 前記報知手段は、前記判定手段により、前記所定時間内の時間差で複数の所定の撮像領域に亘り複数の異なる前記特定の人物が検出されたと判定された場合、前記第1の報知情報を報知する、
ことを特徴とする請求項1または2に記載の画像処理装置。 - 複数の撮像手段のそれぞれについて、撮像領域と、前記撮像領域を報知の対象とするか否かと、前記撮像領域の危険度とを設定する設定手段をさらに備え、
前記設定手段は、前記設定手段により設定された前記撮像領域の危険度に基づいて、前記所定時間を変更する、
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 - 複数の人物のそれぞれについて、人物の識別子と、前記人物から抽出された特徴量とを対応付けて人物情報として記憶する記憶手段をさらに備え、
前記検出手段は、前記画像から検出された人物と、前記記憶手段に記憶された前記人物情報の人物とを照合し、前記人物情報の人物と一致する人物を前記特定の人物として検出する、
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 - 前記記憶手段に記憶される前記人物情報は、報知すべき人物の危険度を含み、
前記判定手段は、前記記憶手段に記憶される前記人物情報の前記人物の危険度に基づいて、前記第1の報知情報を生成する閾値を変更する、
ことを特徴とする請求項5に記載の画像処理装置。 - 前記検出手段は、前記画像から検出された人物の特徴量と、前記記憶手段に記憶される前記人物情報の人物の特徴量との間の類似度を算出し、前記類似度が所定の閾値以上と算出された人物を、前記特定の人物として検出する、
ことを特徴とする請求項5または6に記載の画像処理装置。 - 複数の人物のそれぞれについて、人物の識別子と、前記人物から抽出された特徴量とを対応付けて人物情報として記憶する記憶手段をさらに備え、
前記検出手段は、前記画像から検出された人物と、前記記憶手段に記憶された前記人物情報の人物とを照合し、前記人物情報の人物と一致しない人物を前記特定の人物として検出する、
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 - 所定のユーザの位置を取得する第2の取得手段をさらに備え、
前記判定手段は、前記第2の取得手段により取得された前記所定のユーザの位置に基づいて、前記所定時間を変更する、
ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。 - 撮像手段により撮像された画像を取得するステップと、
取得された前記画像から、予め登録された人物と照合して特定の人物を検出するステップと、
複数の異なる前記特定の人物が、所定の撮像領域内において、所定時間内の時間差で検出されたか否かを判定するステップと、
前記所定の撮像領域内において、前記所定時間内の時間差で前記複数の異なる特定の人物が検出されたと判定された場合に、前記所定の撮像領域内において、前記所定時間内の時間差で複数の異なる前記特定の人物が検出された時間差検知に関する情報を、第1の報知情報として外部に報知し、前記特定の人物が前記所定の撮像領域外で検出された場合、又は複数の異なる前記特定の人物が前記所定時間外の時間差で検出されたと判定された場合には、前記第1の報知情報とは異なる、前記特定の人物が検出された人物検知に関する情報を、第2の報知情報として外部に報知するステップと、
を含むことを特徴とする画像処理方法。 - コンピュータを、請求項1から9のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018109504A JP7210163B2 (ja) | 2018-06-07 | 2018-06-07 | 画像処理装置、画像処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018109504A JP7210163B2 (ja) | 2018-06-07 | 2018-06-07 | 画像処理装置、画像処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019213116A JP2019213116A (ja) | 2019-12-12 |
JP7210163B2 true JP7210163B2 (ja) | 2023-01-23 |
Family
ID=68845612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018109504A Active JP7210163B2 (ja) | 2018-06-07 | 2018-06-07 | 画像処理装置、画像処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7210163B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7478630B2 (ja) * | 2020-09-15 | 2024-05-07 | 株式会社日立製作所 | 映像解析システムおよび映像解析方法 |
JP2022055229A (ja) * | 2020-09-28 | 2022-04-07 | 横河電機株式会社 | 監視用デバイス、学習装置、方法およびプログラム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006092396A (ja) | 2004-09-27 | 2006-04-06 | Oki Electric Ind Co Ltd | 単独行動者及びグループ行動者検知装置 |
JP2009077064A (ja) | 2007-09-19 | 2009-04-09 | Fujifilm Corp | 監視方法および監視装置 |
JP2010011092A (ja) | 2008-06-27 | 2010-01-14 | Aiphone Co Ltd | インターホンシステム |
JP2012133665A (ja) | 2010-12-22 | 2012-07-12 | Sogo Keibi Hosho Co Ltd | 把持物体認識装置、把持物体認識方法、及び把持物体認識プログラム |
JP2014178884A (ja) | 2013-03-14 | 2014-09-25 | Osaka Gas Co Ltd | 警備システム |
WO2015166612A1 (ja) | 2014-04-28 | 2015-11-05 | 日本電気株式会社 | 映像解析システム、映像解析方法および映像解析プログラム |
JP2016114994A (ja) | 2014-12-11 | 2016-06-23 | セコム株式会社 | 携帯端末、行動管理システム及び携帯端末用プログラム |
WO2017024045A1 (en) | 2015-08-04 | 2017-02-09 | James Carey | Video identification and analytical recognition system |
WO2017169189A1 (ja) | 2016-03-30 | 2017-10-05 | 日本電気株式会社 | 解析装置、解析方法及びプログラム |
-
2018
- 2018-06-07 JP JP2018109504A patent/JP7210163B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006092396A (ja) | 2004-09-27 | 2006-04-06 | Oki Electric Ind Co Ltd | 単独行動者及びグループ行動者検知装置 |
JP2009077064A (ja) | 2007-09-19 | 2009-04-09 | Fujifilm Corp | 監視方法および監視装置 |
JP2010011092A (ja) | 2008-06-27 | 2010-01-14 | Aiphone Co Ltd | インターホンシステム |
JP2012133665A (ja) | 2010-12-22 | 2012-07-12 | Sogo Keibi Hosho Co Ltd | 把持物体認識装置、把持物体認識方法、及び把持物体認識プログラム |
JP2014178884A (ja) | 2013-03-14 | 2014-09-25 | Osaka Gas Co Ltd | 警備システム |
WO2015166612A1 (ja) | 2014-04-28 | 2015-11-05 | 日本電気株式会社 | 映像解析システム、映像解析方法および映像解析プログラム |
JP2016114994A (ja) | 2014-12-11 | 2016-06-23 | セコム株式会社 | 携帯端末、行動管理システム及び携帯端末用プログラム |
WO2017024045A1 (en) | 2015-08-04 | 2017-02-09 | James Carey | Video identification and analytical recognition system |
WO2017169189A1 (ja) | 2016-03-30 | 2017-10-05 | 日本電気株式会社 | 解析装置、解析方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2019213116A (ja) | 2019-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6814673B2 (ja) | 移動経路予測装置、及び移動経路予測方法 | |
RU2760211C2 (ru) | Аналитическая система распознавания | |
US8970697B2 (en) | Image distribution apparatus | |
US20180268224A1 (en) | Information processing device, determination device, notification system, information transmission method, and program | |
RU2720947C2 (ru) | Аналитическая система распознавания и видеоидентификации | |
JP7210163B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP7145622B2 (ja) | 情報処理装置、情報処理装置の制御方法、被写体検出システム、及び、プログラム | |
JP2019009529A (ja) | 顔認証装置、人物追跡システム、人物追跡方法、および、人物追跡プログラム | |
CN114078603A (zh) | 智能养老监护系统、方法及计算机设备、可读存储介质 | |
JP6206627B1 (ja) | 情報処理装置、制御方法、及びプログラム | |
US10783365B2 (en) | Image processing device and image processing system | |
US20210286978A1 (en) | Face detection method and server | |
JP2015228626A (ja) | 画像出力装置、画像管理システム、画像処理方法及びプログラム | |
JP6536643B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
JP2017167800A (ja) | 監視システム、情報処理装置、監視方法および監視プログラム | |
US10902249B2 (en) | Video monitoring | |
Kasturi et al. | Classification of human fall in top Viewed kinect depth images using binary support vector machine | |
Al Maashri et al. | A novel drone-based system for accurate human temperature measurement and disease symptoms detection using thermography and AI | |
WO2022190701A1 (ja) | 不審者アラーム通知システム、不審者アラーム通知方法および不審者アラーム通知プログラム | |
JP7428191B2 (ja) | 監視システム、監視装置、監視方法、およびプログラム | |
JP7478630B2 (ja) | 映像解析システムおよび映像解析方法 | |
JP6632632B2 (ja) | 監視システム | |
JP7399306B2 (ja) | 監視システム、カメラ、解析装置及びaiモデル生成方法 | |
US20210216755A1 (en) | Face authentication system and face authentication method | |
JP7409635B2 (ja) | 捜査支援システムおよび人物画像登録方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210513 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220728 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230111 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7210163 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D03 |