JP2019205034A - 監視パラメータ更新システム、監視パラメータ更新方法およびプログラム - Google Patents

監視パラメータ更新システム、監視パラメータ更新方法およびプログラム Download PDF

Info

Publication number
JP2019205034A
JP2019205034A JP2018097993A JP2018097993A JP2019205034A JP 2019205034 A JP2019205034 A JP 2019205034A JP 2018097993 A JP2018097993 A JP 2018097993A JP 2018097993 A JP2018097993 A JP 2018097993A JP 2019205034 A JP2019205034 A JP 2019205034A
Authority
JP
Japan
Prior art keywords
image
processing device
captured
monitoring
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018097993A
Other languages
English (en)
Other versions
JP7002009B2 (ja
JP2019205034A5 (ja
Inventor
孝文 新妻
Takafumi Niizuma
孝文 新妻
崇 神尾
Takashi Kamio
崇 神尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018097993A priority Critical patent/JP7002009B2/ja
Publication of JP2019205034A publication Critical patent/JP2019205034A/ja
Publication of JP2019205034A5 publication Critical patent/JP2019205034A5/ja
Application granted granted Critical
Publication of JP7002009B2 publication Critical patent/JP7002009B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】撮像画像中に現れた監視対象物である特定オブジェクトを誤認識した場合に撮像画像の認識に関する監視パラメータを更新し、特定オブジェクトの認識精度を向上して監視精度の劣化を抑制する。【解決手段】監視カメラシステム5では、監視エリアを撮像可能に設置された監視カメラ10に接続された画像認識装置30と、クラウドサーバ40とが通信可能に接続される。画像認識装置30は、監視カメラ10による監視エリアの撮像画像に基づいて、撮像映像中に現れた人物を認識し、その認識結果および撮像映像を対応付けてクラウドサーバ40に送信する。クラウドサーバ40は、この認識結果および撮像映像に基づいて、影や標識等の対象を人物であると誤認識した場合、認識用のパラメータを含む使用指示を画像認識装置30に送信する。【選択図】図1

Description

本開示は、監視パラメータ更新システム、監視パラメータ更新方法およびプログラムに関する。
特許文献1には、複数台のカメラのそれぞれにより撮像されたイメージデータとカメラのパラメータ値を可変なスライドバーとをGUI(Graphical User Interface)に表示し、それぞれのイメージデータが同一の外観が得られなければ、ユーザの操作により選択されたカメラについて、ユーザのスライドバーの操作によりパラメータ値を変更する技術が開示されている。
特開2008−17476号公報
しかし、特許文献1の構成では、パラメータ値を変更するかどうかはそれぞれのイメージデータが同一の外観を有するか否かという基準に依存する。このため、パラメータ値が設定されている時にイメージデータ中に現れた所定のオブジェクト(例えば人物)が誤認識された場合に現時点のパラメータ値を変更することはできない。従って、イメージデータ中に監視対象物である所定のオブジェクトが出現しても、その出現を看過する可能性があり、監視精度が不十分となる可能性があった。
本開示は、上述した従来の状況に鑑みて案出され、撮像画像中に現れた監視対象物である特定オブジェクトを誤認識した場合に撮像画像の認識に関する監視パラメータを更新し、特定オブジェクトの認識精度を向上して監視精度の劣化を抑制する監視パラメータ更新システム、監視パラメータ更新方法およびプログラムを提供することを目的とする。
本開示は、監視エリアを撮像可能に設置されたカメラに接続された第1処理装置と、第2処理装置とが通信可能に接続された監視パラメータ更新システムであって、前記第1処理装置は、前記カメラにより撮像された前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識し、その認識結果および撮像画像を対応付けて前記第2処理装置に送信し、前記第2処理装置は、前記第1処理装置から送られた前記認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識した場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信する、監視パラメータ更新システムを提供する。
また、本開示は、監視エリアを撮像可能に設置されたカメラに接続された第1処理装置と、第2処理装置とが通信可能に接続された監視パラメータ更新システムを用いた監視パラメータ更新方法であって、前記第1処理装置は、前記カメラにより撮像された前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識し、その認識結果および撮像画像を対応付けて前記第2処理装置に送信し、前記第2処理装置は、前記第1処理装置から送られた前記認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識した場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信する、監視パラメータ更新方法を提供する。
また、本開示は、監視エリアを撮像可能に設置されたカメラと第2処理装置とにそれぞれ接続された、コンピュータである第1処理装置に、前記カメラにより撮像された前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識するステップと、前記特定オブジェクトの認識結果および撮像画像を対応付けて前記第2処理装置に送信するステップと、前記特定オブジェクトの認識結果および撮像画像に基づいて前記第2処理装置により前記特定オブジェクトでないオブジェクトが認識された場合に、前記第2処理装置から送られた、監視パラメータを含む監視パラメータ更新指示を受信するステップと、をそれぞれ実行させるための、プログラムを提供する。
また、本開示は、監視エリアを撮像可能に設置されたカメラに接続された第1処理装置との間で通信可能に接続された、コンピュータである第2処理装置に、前記カメラにより撮像された前記監視エリアの撮像画像に基づいて前記第1処理装置により前記撮像画像中に現れた特定オブジェクトが認識された場合に、前記第1処理装置から送られた、前記特定オブジェクトの認識結果および撮像画像を受信するステップと、前記第1処理装置から送られた前記認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識するステップと、前記オブジェクトが認識された場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信するステップと、をそれぞれ実行させるための、プログラムを提供する。
本開示によれば、撮像画像中に現れた監視対象物である特定オブジェクトを誤認識した場合に撮像画像の認識に関する監視パラメータを更新し、特定オブジェクトの認識精度を向上して監視精度の劣化を抑制することができる。
実施の形態1に係る監視カメラシステムの概要例を示す図 監視カメラのハードウェア構成例を示すブロック図 画像認識装置のハードウェア構成例を示すブロック図 クラウドサーバのハードウェア構成例を示すブロック図 実施の形態1に係る監視カメラシステムの動作手順例を示すシーケンス図 認識用のパラメータが登録されたパラメータテーブルの登録内容の一例を示す図 正報が通知された場合に表示される監視カメラの撮像映像の一例を示す図 誤報が通知された場合に表示される監視カメラの撮像映像の一例を示す図
(実施の形態の着想に至る経緯)
例えば、高速道路の入口は、安全上、人が入っていけない場所である。高速道路の入口には、通常、監視カメラが設置されている。このような監視カメラにより撮像された撮像映像に映る被写体(オブジェクト)を認識するための画像認識装置は、監視カメラにより撮像された撮像映像に人物らしき被写体(オブジェクト)が映っている場合、ユーザ(例えば、システムの運用者)にその事象を通知する。運用者は、監視カメラの撮像映像に映っている被写体が人であることを確認すると、警報を発する等の様々な対処を行う。
人物らしき対象が映っていることが認識されて画像認識装置から運用者に通知される発報には、正報(いわゆる、認識された被写体が人であるとの正しい認識結果を知らせる旨のメッセージ)の他、撮像映像内に映る影もしくは標識を誤って人物と認識してしまった誤報が多々ある。運用者は、常に1台の監視カメラの撮像映像を監視して観ているわけでなく、複数台の監視カメラの撮像映像のそれぞれを常に観ている。運用者が、誤報に対応する監視カメラの撮像映像を確認している間に、他の監視カメラの撮像映像に基づく正報が通知された場合、正報に対応する撮像映像の運用者による確認が遅れてしまう。この間に、高速道路の入口から入った人物が路肩まで出てしまう等、危ない事象が起こり得る。このように、従来技術では、運用者が、多くの撮像映像を確認しなければならない状況になると、発生したそれぞれの事象に対し、素早く対処できず対応の遅れに繋がることが想定される。また、誤報の数が多くなると、運用者は、撮像映像の確認に忙殺され、正報に対応する撮像映像を見逃してしまうことにも繋がる。このような課題に対して、特許文献1の構成では依然として具体的な解決を図ることが困難である。
そこで、以下の実施の形態1では、被写体(言い換えると、対象)の誤認識を低減し、運用者に通知される誤報の数を減らすことで、素早く対処すべき事象への対応の遅れや、正報に対応する撮像映像の見逃しを無くし、運用者が迅速に対象を認識でき、かつ運用者の負担を減らすようにする監視カメラシステムの例を説明する。
(実施の形態1)
以下、適宜図面を参照しながら、本開示に係る監視パラメータ更新システム、監視パラメータ更新方法およびプログラムとして、監視パラメータ更新システムの一例としての監視カメラシステムを具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
図1は、実施の形態1に係る監視カメラシステム5の概要例を示す図である。監視カメラシステム5は、人物等の立ち入りが禁止された立入禁止区域(例えば、高速道路の入口)を撮像エリア(言い換えると、撮像エリア)として設定され、その撮像エリアに人物等が立ち入らないように監視する。具体的には、監視カメラシステム5は、複数の監視カメラ10と、それぞれの監視カメラに対応する複数の画像認識装置30と、クラウドサーバ40とを含む構成を有する。複数の監視カメラ10は、例えば複数の立入禁止区域をそれぞれ監視エリアとして撮像可能な位置に設置される。立入禁止区域は、例えば、遮断機が降りた踏切内もしくは夜間の入場が禁止された公園内等のように、不規則にあるいは時間帯によって立ち入りが制限される場所を含んでよい。また、立入禁止区域は、例えば、人に限らず車両、犬もしくは猫等の小動物の立ち入りが禁止される場所を含んでよい。監視カメラ10により撮像された撮像映像は、それぞれ対応して設けられた画像認識装置30に伝送される。
ここでは、1台の監視カメラ10と1台の画像認識装置30は、1セットとして組み合わされ、ネットワークNW1を介して通信可能である。なお、1台の監視カメラ10と1台の画像認識装置30は、別々の筐体に収容された装置として構成されてもよいし、同一の筐体に収容されて、一体の装置として構成されてもよい。また、1台の監視認識装置に複数の監視カメラが接続されてもよい。
それぞれの画像認識装置30は、それぞれの監視カメラ10で撮像される撮像映像を解析して画像認識処理を行い、監視エリアでの人物判定等の処理を行うものであり、ネットワークNW2を介してクラウドサーバ40に通信可能に接続される。クラウドサーバ40は、画像認識装置30による人物判定、および監視カメラ10による撮像映像を基に、撮像映像を構成する個々の撮像画像ごとに人物等の被写体(オブジェクト)の認識処理等の画像認識処理を行う。また、クラウドサーバ40は、画像認識処理の結果に基づいて、対応する画像認識装置30もしくはその画像認識装置30に対応する監視カメラ10に対し、認識用のパラメータ(後述参照)を更新するものであり、ネットワークNW3を介して、PC(personal computer)50に接続される。PC50は、クラウドサーバ40から送信された発報情報(後述する正報参照)および正報が生成された時の撮像映像を表示する。なお、PC50は、クラウドサーバ40から取得した発報情報に誤報が含まれる場合、アラームを発して運用者に通知する。
図2は、監視カメラ10のハードウェア構成例を示すブロック図である。カメラの一例としての監視カメラ10は、パン・チルト・ズーム可能なPTZ(Pan Tilt Zoom)カメラである。例えば、監視カメラ10は、既定のホームポジション(つまり、プリセット位置の一つ)において、自カメラに対応する立入禁止区域の全体を画角内に含むように撮像する。撮像映像中に人物等の対象が出現した場合、監視カメラ10は、対象が画角内で大きくなるように、パン角およびチルト角を変更して姿勢を対象に向け、ズーム倍率を上げてもよい。
監視カメラ10は、CPU11と、記憶部12と、撮像部13と、映像処理部14と、通信部15と、パンチルト駆動部16と、加速度センサ18と、IR照射部19と、を含む構成である。
パンチルト駆動部16は、撮像部13をパン方向およびチルト方向に駆動するものであり、チルト制御部21、パン制御部22、チルトモータ23およびパンモータ24を含む。チルト制御部21は、チルトモータ23の回転角を制御する。パン制御部22は、パンモータ24の回転角を制御する。
加速度センサ18は、監視カメラ10の姿勢(例えば、レンズの光軸方向を定めるパン角およびチルト角)に対応する信号を出力する。CPU11は、加速度センサ18から出力される信号を基に、監視カメラ10の姿勢を制御する。加速度センサ18には、例えば半導体ピエゾ抵抗効果を利用した半導体式、回転質量体により可動接点と固定接点を開閉する機械式のものが用いられる。
撮像部13は、撮像素子として、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)を有する。撮像素子は、例えば1画素がR画素、G画素、B画素およびIR画素のベイヤ配列で形成される、複数の画素群(例えば100万画素)を含む。また、撮像部13は、焦点距離を調節可能フォーカスレンズ、およびズーム倍率を変更可能なズームレンズを含む。撮像部13は、撮像素子から出力される電荷信号を増幅するアンプ、およびこのアンプのゲインを調整可能なゲイン調整部を含む。
映像処理部14は、撮像部13で撮像された撮像映像のデータ信号に対し、AD変換、色補正、雑音除去、輪郭強調等の各種の信号処理を行う。
記憶部12は、例えばRAM(Random Access Memory)とROM(Read Only Memory)を含み、監視カメラ10の動作の実行に必要なプログラムやデータ(例えば、フォーカス調整に必要な焦点距離、ゲイン調整に必要なゲイン値等のパラメータを含む)、動作中に生成された情報またはデータ等を一時的に保存する。記憶部12は、監視カメラ10のホームポジションを表す(パン角、チルト角、ズーム倍率)をプリセット値として記憶してもよい。RAMは、例えばCPU11の動作時に使用されるワークメモリである。ROMは、例えばCPU11を制御するためのプログラムおよびデータを予め記憶する。
CPU11は、監視カメラ10の各部の動作を制御する。CPU11は、監視カメラ10の制御部として機能し、監視カメラ10の各部の動作を全体的に統括するための制御処理、監視カメラ10の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。CPU11は、記憶部12内のROMに記憶されたプログラムの実行に従って動作する。CPU11は、加速度センサ18から出力される信号を基に、監視カメラ10の姿勢を制御する。CPU11は、撮像部13で撮像され、映像処理部14で信号処理された撮像映像のデータを、通信部15を介して、画像認識装置30に送信する。
通信部15は、有線LAN(Local Area Network)で画像認識装置30と通信可能に接続される。なお、通信部15は、無線LANでPCと通信可能に接続されてもよい。
IR照射部19は、夜間等の周囲が暗い場合、白黒画像を撮像するために、被写体に向けて近赤外光(IR(infrared radiation )光)を照射する。ここでは、夜間に光の到達する距離が長く、非可視光であるIR光を照射する場合を示したが、非可視光であるIR光に限らず、可視光を照射してもよい。
図3は、画像認識装置30のハードウェア構成例を示すブロック図である。画像認識装置30は、自装置に接続される監視カメラ10により撮像された撮像映像をリアルタイムで受信して画像認識処理(例えば、人物の判定、人物の侵入の有無の検知)を施す。また、画像認識装置30は、人物判定の結果として人物の侵入を検知した場合、人物判定の結果(発報情報の一例)および人物判定が行われた撮像映像(発報画像の一例)をクラウドサーバ40に送信する。また、画像認識装置30は、例えば1日1回、クラウドサーバ40から最適な認識用のパラメータを受信し、自装置が保持する認識用のパラメータを更新するか、または監視カメラ10が保持する認識用のパラメータを監視カメラ10に更新させる。
第1処理装置の一例としての画像認識装置30は、映像処理装置として動作し、プロセッサ31、ROM(Read only memory)32、RAM(Random Access memory)33、ハードディスクドライブ(HDD)34、および通信部35を少なくとも含む構成である。
プロセッサ31は、例えばCPU(Central Processing unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて構成され、画像認識装置30の各部の動作を制御する。プロセッサ31は、画像認識装置30の制御部として機能し、画像認識装置30の各部の動作を全体的に統括するための制御処理、画像認識装置30の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。プロセッサ31は、ROM32に記憶されたプログラムおよびデータに従って動作する。プロセッサ31は、画像認識装置30に接続される監視カメラ10により撮像された撮像映像を用いて、上述した画像認識処理を行う。
ROM32は、例えばプロセッサ31を制御するためのプログラムおよびデータを予め記憶する。RAM33は、プロセッサ31の動作時に使用されるワークメモリである。RAM33は、プロセッサ31の動作の実行に必要なプログラムやデータ、更には、動作中に生成された情報またはデータ等を一時的に保存する。
HDD34は、大容量の記憶媒体であり、プロセッサ31により実行された撮像映像の画像認識判定結果34aと、通信部35により受信された撮像画像データ34bと、プロセッサ31における画像認識処理において用いられる認識用のパラメータ34c等を記憶する。
通信部35は、ネットワークNW1を介して、監視カメラ10とデータ通信可能に接続される。通信部35は、ネットワークNW2を介して、クラウドサーバ40とデータ通信可能に接続される。ネットワークNW1およびネットワークNW2は、有線LAN(Local Area Network)または無線LANであってもよい。
図4は、クラウドサーバ40のハードウェア構成例を示すブロック図である。クラウドサーバ40は、画像認識装置30から送信された、人物判定の結果(発報情報の一例)および人物判定が行われた撮像映像(発報画像の一例)を受信するとともに、この撮像映像を用いて画像認識装置30での画像認識処理の精度を確認するために画像認識の再検証を行う。クラウドサーバ40は、再検証を行う際、ハードディスクドライブ(HDD)44に蓄積されている誤報データ(図示略)との類似性を確認し、誤報データとの類似性が高い場合、誤報と判定し、誤報と判定された撮像映像をPC50に表示しない。一方、クラウドサーバ40は、誤報データとの類似性が低い場合、正報と判定し、正報と判定された撮像映像をPC50に表示する。クラウドサーバ40は、誤報の判定結果および誤報と判定された撮像映像を含む誤報データをハードディスクドライブ(HDD)44に蓄積し、学習データとして扱う。クラウドサーバ40は、誤報データを大量に蓄積する。誤報データの蓄積量が増加すると、クラウドサーバ40によって判定される誤報データとの類似性の確認精度が向上する。クラウドサーバ40は、誤報と判定した場合、その都度、認識用のパラメータを更新する。クラウドサーバ40は、例えば1日1回、現時点の最適な認識用のパラメータを画像認識装置30に送信する。最適な認識用のパラメータは、図6に示すように、例えば照度、明るさ、背景色、色情報等に対応する、白黒/カラーの切替、フォーカス調整、ゲイン調整等を含む。
第2処理装置の一例としてのクラウドサーバ40は、映像処理装置として動作し、プロセッサ41、ROM(Read only memory)42、RAM(Random Access memory)43、ハードディスクドライブ(HDD)44、および通信部45を含む構成である。
プロセッサ41は、例えばCPU(Central Processing unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて構成され、クラウドサーバ40の各部の動作を制御する。プロセッサ41は、クラウドサーバ40の制御部として機能し、クラウドサーバ40の各部の動作を全体的に統括するための制御処理、クラウドサーバ40の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。プロセッサ41は、ROM42に記憶されたプログラムおよびデータに従って動作する。プロセッサ41は、画像認識装置30から送信された、人物判定の結果(発報情報の一例)および人物判定が行われた撮像映像(発報画像の一例)を用いて、上述した画像認識の再検証を行う。
ROM42は、例えばプロセッサ41を制御するためのプログラムおよびデータを予め記憶する。RAM43は、プロセッサ41の動作時に使用されるワークメモリである。RAM43は、プロセッサ41の動作の実行に必要なプログラムやデータ、更には、動作中に生成された情報またはデータ等を一時的に保存する。
HDD44は、大容量の記憶媒体であり、撮像映像の画像認識判定結果44a、撮像画像データ44b、認識用のパラメータ44c等を記憶する。
通信部45は、ネットワークNW2を介して、画像認識装置30とデータ通信可能に接続される。通信部45は、ネットワークNW3を介して、PC50とデータ通信可能に接続される。ネットワークNW3は、有線LAN(Local Area Network)または無線LANであってもよい。
次に、実施の形態1に係る監視カメラシステム5の動作例を説明する。
図5は、実施の形態1に係る監視カメラシステム5の動作手順例を示すシーケンス図である。監視カメラ10の撮像部13は、監視エリアSA(図7参照)の一例として立入禁止区域を撮像する(T1)。通信部15は、ネットワークNW1を介して、撮像部13による撮像映像を画像認識装置30に送信する(T2)。
画像認識装置30の通信部35は、監視カメラ10からの撮像映像を受信する。プロセッサ31は、通信部35を介して受信した撮像映像に対して画像認識処理を行い、人物判定を行う(T3)。
画像認識処理では、例えば人工知能を用いて人物判定が行われる。プロセッサ31は、ディープラーニング等の機械学習によって蓄積された人物画像の学習データを基に、学習済みモデルを生成し、この学習済みモデルに撮像映像を入力し、その学習済みモデルを用いた人物判定(言い換えると、人物の検知および認識の処理)の出力として、対象である人物の有無を判定する。また、プロセッサ31は、判定した人物を囲む枠を設定し、この人物画像の動きに合わせて枠を移動させる。
なお、ステップT3では、人工知能を用いて画像中の人物を判定したが、プロセッサ31は、予め登録された人物の参照画像と、監視カメラ10による撮像映像とのテンプレートマッチングを行って人物を判定してもよい。プロセッサ31は、テンプレートマッチングを行い、参照画像と撮像映像との特徴量の類似度が既定値より高い場合、人物を判定し、同様に人物を囲む枠を設定してもよい。
通信部35は、人物判定の結果、および人物判定が行われた撮像映像をクラウドサーバ40に送信する(T4)。ここでは、人物であると判定された場合、撮像画像が送信されるが、人物でないと判定された場合にも撮像画像を送信してもよい。画像認識装置30では、人物でないと判定された場合でも、クラウドサーバ40が人物判定を行って、画像認識装置の判定を取り消し、人物と判定することも想定される。これにより、人物でないと判定される誤判定を排除できる。従って、人物検知の精度を高めることができる。
クラウドサーバ40の通信部45は、画像認識装置30から人物判定の結果および人物判定後の撮像映像を受信する。クラウドサーバ40のプロセッサ41は、オブジェクト認識処理を行う(T5)。
オブジェクト認識処理では、例えば人工知能を用いて人物判定が行われる。プロセッサ41は、ディープラーニング等の機械学習によって蓄積された人物画像の学習データを基に、学習済みモデルを生成し、この学習済みモデルに撮像映像を入力し、その学習済みモデルを用いたオブジェクト認識処理(つまり、人物の検知および認識の処理)の出力として、対象である人物の有無を判定する。また、プロセッサ41は、判定した人物を囲む枠を設定し、この人物画像の動きに合わせて枠を移動させる。
なお、ステップT5では、人工知能を用いて画像中の人物を判定したが、プロセッサ41は、予め登録された人物の参照画像と、監視カメラ10による撮像映像とのテンプレートマッチングを行ってもよい。プロセッサ41は、テンプレートマッチングで特徴量の類似度が既定値より高い場合、人物を判定する。プロセッサ41は、人物が判定された人物画像を囲む枠を設定し、この人物画像の動きに合わせて枠を移動させる。
なお、ステップT3およびステップT5の判定では、同じ判定手法が用いられたが、異なる判定手法を用いてもよい。例えば、ステップT3では人工知能を用いて人物判定を行い、ステップT5ではテンプレートマッチングを行って人物判定を行ってもよい。逆に、ステップT3ではテンプレートマッチングを行って人物判定を行い、ステップT5では人工知能を用いて人物判定を行ってもよい。この場合、異なる判定手法で同じ判定結果が得られる場合、判定精度が高まる。また、判定結果が異なる場合、疑わしい判定結果をPCに表示して、運用者の判断を仰ぐようにしてもよい。また、画像認識装置と比べて、判定能力が高いと想定されるクラウドサーバの判定結果を優先してもよい。
また、ステップT3およびステップT5の判定では、立入禁止区域に侵入している対象として人間である場合を想定したが、車両、小動物、ゴミ等であってもよい。
人物判定の結果、正報(つまり、画像認識装置30での認識結果がクラウドサーバ40での認識結果と一致した旨の結果)が得られた場合、プロセッサ41は、HDD44に、人物判定の結果を画像認識判定結果44aとして記憶し、正報に対応する撮像映像を撮像画像データ44bとして記憶する。また、プロセッサ41は、正報に対応する撮像映像を学習データとして蓄積し、認識用のパラメータ44cを更新する。
クラウドサーバ40の通信部45は、人物判定の結果、正報(つまり、画像認識装置30での認識結果がクラウドサーバ40での認識結果と一致した旨の結果)が得られた場合、その判定結果および撮像映像をPC50に送信する(T6)。PC50は、正報である判定結果および撮像画像を受信し、その撮像画像を、PC50に内蔵されるまたはPC50に接続されるディスプレイ(図示略)の表示画面に表示する(T7)。運用者は、PC50に表示された正報である撮像映像を視認できる。これにより、誤報(つまり、画像認識装置30での認識結果がクラウドサーバ40での認識結果と一致しなかった旨の結果)に対応する撮像映像が表示されないので、運用者は、正報に対応する撮像映像の確認に注力できる。
ステップT5の人物判定の結果、誤報(つまり、画像認識装置30での認識結果がクラウドサーバ40での認識結果と一致しなかった旨の結果)が得られた場合、プロセッサ41は、HDD44に、人物判定の結果を画像認識判定結果44aとして記憶し、誤報に対応する撮像映像を撮像画像データ44bとして記憶する。また、プロセッサ41は、誤報に対応する撮像映像を学習データとして蓄積し、認識用のパラメータ44cを更新する。
クラウドサーバ40の通信部45は、人物判定の結果、誤報(つまり、画像認識装置30での認識結果がクラウドサーバ40での認識結果と一致しなかった旨の結果)が得られた場合、認識用のパラメータ44cを画像認識装置30に送信し、この認識用のパラメータ44cを含む更新指示(監視パラメータ更新指示の一例)を行う(T8)。この認識用のパラメータ44cの送信は、ステップT4で撮像映像を送信した画像認識装置30に対して行われる。
図6は、認識用のパラメータ44cが登録されたパラメータテーブルTb1の登録内容の一例を示す図である。このパラメータテーブルTb1は、クラウドサーバ40のHDD44に記憶される。パラメータテーブルTb1に登録されている認識用のパラメータは、撮像画像に映る対象に対して人物判定を行う際、誤判定を抑制するために更新されるパラメータである。パラメータテーブルTb1には、認識用のパラメータの一例として、白黒/カラー切替、フォーカス調整、ゲイン調整の各条件が登録される。また、認識用のパラメータは、例えば人工知能により画像認識処理を行う場合、ニューラルネットワークを構成する中間層のニューロンの数および重み付け係数を含んでよい。また、テンプレートマッチングにより画像認識処理を行う場合、使用される参照画像を含む。また、認識用のパラメータは、正報画像および誤報画像を含んでもよい。
白黒/カラー切替は、画像認識装置30によって行われる。白黒/カラー切替は、日時や画像全体の照度を基に、撮像される映像を白黒画像あるいはカラー画像に切り替えることである。例えば、日中(明るい時間帯)や画像全体が明るい場合、カラー画像が採用される。夜間(暗い時間帯)や画像全体が暗い場合、白黒画像が採用される。一例として、監視カメラ10の撮像素子において、1画素がR画素、G画素、B画素およびIR画素のベイヤ配列で構成される場合、白黒画像は、IR画素から出力される信号で生成され、カラー画像は、R画素、G画素およびB画素から出力される信号で生成される。白黒/カラー切替を行う場合、画像認識装置30のプロセッサ31は、通信部35を介して入力される監視カメラ10による撮像信号のうち、IR画素の信号を選択して白黒画像を選択し、またはRGB画素の信号を選択してカラー画像を選択する。
フォーカス調整は、監視カメラ10によって行われる。フォーカス調整は、日時や画像全体の乱れ(言い換えると、ぼけ)の度合いを基に、フォーカスを調整する(焦点距離を調節する)ことである。監視カメラ10のCPU11は、撮像部13内の撮像素子の前に配されたフォーカスレンズを光軸方向に移動させることで焦点距離を調節する。
ゲイン調整は、監視カメラ10によって行われる。ゲイン調整は、天候や夜間等の影響で光量の多寡が生じる場合、撮像信号を増減して画像の明るさを調整することである。監視カメラ10のCPU11は、撮像部13内の撮像素子からの電荷信号が入力されるアンプのゲインを調整することで、撮像信号を増減させる。
画像認識装置30の通信部35は、ステップT8でクラウドサーバ40から認識用のパラメータ44cを受信すると、自装置のHDD34に記憶されている認識用のパラメータ34cを更新する(T9)。プロセッサ31は、自装置のパラメータとして、認識用のパラメータ34cに含まれる白黒/カラー切替を設定する。通信部35は、認識用のパラメータ34cに含まれるフォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方を監視カメラ10に送信する(T10)。
監視カメラ10の通信部15は、画像認識装置30からフォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方を受信する。CPU11は、フォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方を記憶部12に記憶し、撮像部13に対してフォーカス調整およびゲイン調整のうち一方またはその両方を行う(T11)。
クラウドサーバ40のHDD44には、多くの画像認識装置30から受信した正報または誤報の撮像映像を基にリアルタイムに更新される、最適な認識用のパラメータ44cが登録されたパラメータテーブルTb1が記憶される。プロセッサ41は、HDD44に記憶されたパラメータテーブルTb1に登録されている認識用のパラメータ44cを、定期的に(ここでは、一例として1日1回)それぞれの画像認識装置30に送信し、この認識用のパラメータ44cを含む使用指示(監視パラメータ使用指示)を行う(T12)。
それぞれの画像認識装置30の通信部35は、ステップT12でクラウドサーバ40から認識用のパラメータ44cを受信すると、自装置のHDD34に記憶されている認識用のパラメータ34cを更新する(T13)。それぞれのプロセッサ31は、自装置のパラメータとして、認識用のパラメータ34cに含まれる白黒/カラー切替を設定する。それぞれの通信部35は、認識用のパラメータ34cに含まれるフォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方をそれぞれの監視カメラ10に送信する(T14)。
それぞれの監視カメラ10の通信部15は、画像認識装置30からフォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方を受信する。それぞれのCPU11は、フォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方を記憶部12に記憶し、撮像部13に対してフォーカス調整およびゲイン調整のうち一方またはその両方を行う(T15)。これ以降、監視カメラ10は、ステップT1の処理に戻り、監視カメラシステム5は、同様の処理を繰り返す。
図7は、正報が通知された場合に表示される監視カメラ10の撮像映像GZ1の一例を示す図である。図7に示す撮像映像GZ1は、例えばPC50に内蔵されたディスプレイ(図示略)またはPC50に接続されたディスプレイ(図示略)の表示画面において表示される。監視カメラ10は、例えば高速道路の入口付近の上方に設置される。撮像映像GZ1には、監視カメラ10が俯瞰するように撮像した、監視エリアSAとして高速道路の入口から料金所ゲートに至る道路が映っている。撮像映像GZ1には、人物と判定された、作業員らしい3人の人物hm1,hm2,hm3が映っている。また、撮像映像GZ1には、3人の人物hm1,hm2,hm3の上半身をそれぞれ囲むように、枠w1,w2,w3が重畳表示される。運用者は、上述したディスプレイ(図示略)の表示画面において表示されている撮像映像GZ1に映っている枠w1,w2,w3で囲まれた3人の人物hm1,hm2,hm3を視認する。この場合、3人の人物hm1,hm2,hm3は、道路関係者であると判断されるので、運用者は、例えば特に対処しない。撮像映像GZ1は、例えば正報画像である。
図8は、誤報が通知された場合に表示される監視カメラ10の撮像映像GZ2の一例を示す図である。誤報が通知された場合、監視カメラ10による撮像映像GZ2は、PC50に表示されないが、図8に示す撮像映像GZ1は、例えばPC50に内蔵されたディスプレイ(図示略)またはPC50に接続されたディスプレイ(図示略)の表示画面において表示されてよい。撮像映像GZ2は、画像認識装置30からクラウドサーバ40に伝送されると、プロセッサ41は、撮像映像GZ2を撮像画像データ44bとしてHDD44に保存する。撮像映像GZ2は、認識用のパラメータ44cの学習データとして利用される。撮像映像GZ2には、日陰により、人物と誤判定された、ポールの影e1および標識e2が映っている。また、撮像映像GZ2には、ポールの影e1の一部および標識e2をそれぞれ囲むように、枠w4,w5が重畳表示される。ただし、撮像映像GZ2は、PC50に表示されないので、運用者は、誤判定された撮像映像GZ2に気づかない。この場合、PC50に常時撮像映像が表示される場合、枠w4,w5が表示されないことになる。なお、運用者は、手空きの場合、誤判定された撮像映像GZ2をPC50に表示させてもよく、人物判定の結果を確認することができる。撮像映像GZ2は、誤報画像である。
以上により、実施の形態1に係る監視カメラシステム5は、監視エリアSAを撮像可能に設置された監視カメラ10に接続された画像認識装置30(第1処理装置の一例)と、クラウドサーバ40(第2処理装置の一例)とが通信可能に接続される。画像認識装置30は、監視カメラ10により撮像された監視エリアSAの撮像画像に基づいて、撮像画像中に現れた人物hm1,hm2,hm3(特定オブジェクトの一例)を認識し、その認識結果および撮像画像を対応付けてクラウドサーバ40に送信する。クラウドサーバ40は、画像認識装置30から送られた認識結果および撮像画像に基づいて、人物でない影e1や標識e2等の対象(特定オブジェクトでないオブジェクトの一例)を認識した場合、クラウドサーバ40が保持している認識用のパラメータ(監視パラメータの一例)を含む監視パラメータ使用指示を画像認識装置30に送信する。クラウドサーバ40が保持している認識用のパラメータが画像認識装置30に送信されるのは、オブジェクトの認識能力がそれぞれの画像認識装置30よりクラウドサーバ40が優れているからである。つまり、画像認識装置30の認識結果よりもクラウドサーバ40の認識結果が優先され、画像認識装置30の認識結果がクラウドサーバ40の認識結果に一致しなかった場合には、クラウドサーバ40が保持している認識用のパラメータが正解データとして、画像認識装置30に送られる。
これにより、監視カメラシステム5は、監視カメラ10により撮像された撮像映像中に現れた対象である人物が画像認識装置30によって誤認識されたとクラウドサーバ40によって判定された場合、画像認識装置30が撮像映像の認識に用いた認識用のパラメータを適正に更新できる。つまり、上述したように、撮像映像中に現れる対象(つまり、人物や物体等のオブジェクト)の認識能力は画像認識装置30よりもクラウドサーバ40の方が優れている。クラウドサーバ40は、画像認識装置30から送られた人物等の特定のオブジェクトの認識結果および撮像映像を受け取り、画像認識装置30の認識結果を再検証することで、画像認識装置30が用いた認識用のパラメータを更新させるか否かを決定する。従って、監視カメラシステム5によれば、監視カメラ10による撮像映像中に現れ得る人物の認識精度の向上が可能となり、監視エリアSAにおける監視精度の劣化を抑制でき、監視員の負担の軽減が図られる。
また、画像認識装置30は、監視カメラ10により撮像された監視エリアSAの撮像映像を認識する時に用いる認識用のパラメータを、クラウドサーバ40から送られた更新指示(監視パラメータ更新指示の一例)に含まれる認識用のパラメータに更新する。これにより、クラウドサーバ40は、自装置が保持している認識用のパラメータを、全ての画像認識装置30に送信し、画像認識装置30に登録されている認識用のパラメータを更新できる。従って、それぞれの画像認識装置30に登録されている認識用のパラメータを共通化でき、画像認識の精度を揃えることができる。例えばメンテナンス等がある場合、一時的に画像認識装置30の置換が可能となる。
また、認識用のパラメータは、監視エリアSAの撮像映像を白黒画像またはカラー画像に切り替えるための切替条件を含む。画像認識装置30は、この切替条件を用いて、監視エリアSAの撮像映像を白黒画像またはカラー画像に切り替える。これにより、画像認識装置30およびクラウドサーバ40は、日時や画像全体の照度によって光量の多寡が生じるような場合でも、監視カメラ10による撮像映像として、画像認識に適した白黒画像またはカラー画像を得ることができる。さらに、画像認識に適した撮像映像に対し、画像認識を行うことで、認識精度が向上する。
また、認識用のパラメータは、監視カメラ10の撮像時におけるフォーカス調整条件を含む。画像認識装置30は、このフォーカス調整条件を含む使用指示を監視カメラ10に転送する。画像認識装置30は、監視カメラ10に対し、撮像時におけるフォーカス調整条件を更新させる。画像認識装置30は、更新後の前記フォーカス調整条件を用いて、監視カメラ10で撮像された撮像映像を受信する。これにより、画像認識装置30およびクラウドサーバ40は、監視カメラ10で撮像される映像のフォーカスを調整することで、日時や画像全体の乱れによってぼけが生じるような場合でも、撮像映像を鮮明化できる。さらに、鮮明化された撮像映像に対し、画像認識を行うことで、認識精度が向上する。
また、認識用のパラメータは、監視カメラ10の撮像時におけるゲイン調整条件を含む。画像認識装置30は、ゲイン調整条件を含む使用指示を監視カメラ10に転送する。画像認識装置30は、監視カメラ10の撮像時におけるゲイン調整条件を更新させる。画像認識装置30は、更新後のゲイン調整条件を用いて撮像された撮像映像を受信する。これにより、画像認識装置30およびクラウドサーバ40は、監視カメラ10の撮像部13から出力される撮像信号のゲインを調整することで、天候や夜間等の影響で明るさが変化するような場合でも、撮像映像の輝度を適正に調整可能である。さらに、輝度が適正に調整された撮像映像に対し、画像認識を行うことで、認識精度が向上する。
また、使用指示に含まれる認識用のパラメータは、人物と認識されたことのある画像を示す正報画像と、人物と誤認識されたことのある画像を示す誤報画像のうち少なくとも一方を有する。画像認識装置30は、正報画像または誤報画像を用いて、監視カメラ10により撮像された監視エリアSAの撮像映像の認識を行う。これにより、画像認識装置30およびクラウドサーバ40は、正報画像または誤報画像を用いて、画像認識を行うことで、認識精度が高まる。また、正報画像と誤報画像のいずれを用いて画像認識を行ってもよく、学習効果が高まり、認識精度の向上に繋がる。
また、クラウドサーバ40は、画像認識装置30から送られた認識結果および撮像映像に基づいて、人物を認識した場合、画像認識装置30またはクラウドサーバ40における認識結果を、クラウドサーバ40に接続されるPC50に内蔵または接続されたディスプレイ(モニタの一例)に表示する。これにより、人物を認識した場合、クラウドサーバ40に接続されるPC50は、正報画像である、監視カメラ10による撮像映像GZ1、およびその認識結果を表す枠w1,w2,w3を表示できる。また、人物を誤認識した撮像映像GZ2が表示されないので、運用者が視認する撮像映像の量を削減できる。従って、運用者は、立入禁止区域に人物が侵入した等、発生した事象に対し素早く対処でき、また、事象の見逃しを減らせる。
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。
例えば、上記実施の形態では、高速道路の入口を監視する場合を示したが、この例に限らず、人や物が立ち入らない場所、例えば人や車の進入が禁止される遮断機が降りている踏切内、放射線管理区域、夜間入場不可である動物園や公園等を監視する場合においても、本開示は同様に適用可能である。
上記実施の形態では、対象が人である場合を示したが、対象は、立入禁止区域への侵入が許可されていないもの、車、小動物、ゴミ等を含む。
上記実施形態では、人物の認識結果として、人物を囲む枠w1,w2,w3を撮像映像中に表示したが、人物を認識したことを表すマークやメッセージ等を表示してもよい。
上記実施形態では、クラウドサーバに接続されるPCが人物を認識した撮像映像を表示したが、画像認識装置にモニタを接続し、このモニタが人物を認識した撮像映像を表示してもよい。これにより、運用者は、PCに表示される撮像映像およびモニタに表示される撮像映像を見比べることができ、最終的な人物か否かの判断を行うことも可能である。
また、本開示は、上記実施形態の装置の機能を実現するプログラムを、ネットワークあるいは各種記憶媒体を介して装置に供給し、この装置内のコンピュータが読み出して実行するプログラムも適用範囲である。
本開示は、撮像画像中に現れた監視対象物である特定オブジェクトを誤認識した場合に撮像画像の認識に関する監視パラメータを更新し、特定オブジェクトの認識精度を向上して監視精度の劣化を抑制する監視パラメータ更新システム、監視パラメータ更新方法およびプログラムとして有用である。
5 監視カメラシステム
10 監視カメラ
11 CPU
12 記憶部
13 撮像部
14 映像処理部
15 通信部
16 パンチルト駆動部
18 加速度センサ
19 IR照射部
30 画像認識装置
31 プロセッサ
32 ROM
33 RAM
34 HDD
35 通信部
40 クラウドサーバ
41 プロセッサ
42 ROM
43 RAM
44 HDD
45 通信部
50 PC

Claims (10)

  1. 監視エリアを撮像可能に設置されたカメラに接続された第1処理装置と、第2処理装置とが通信可能に接続された監視パラメータ更新システムであって、
    前記第1処理装置は、
    前記カメラにより撮像された前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識し、その認識結果および撮像画像を対応付けて前記第2処理装置に送信し、
    前記第2処理装置は、
    前記第1処理装置から送られた前記認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識した場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信する、
    監視パラメータ更新システム。
  2. 前記第1処理装置は、
    前記カメラにより撮像された前記監視エリアの撮像画像を認識する時に用いる監視パラメータを、前記第2処理装置から送られた前記監視パラメータ更新指示に含まれる監視パラメータに更新する、
    請求項1に記載の監視パラメータ更新システム。
  3. 前記監視パラメータは、前記監視エリアの撮像画像を白黒画像またはカラー画像に切り替えるための切替条件であり、
    前記第1処理装置は、
    前記切替条件を用いて、前記監視エリアの撮像画像を白黒画像またはカラー画像に切り替える、
    請求項2に記載の監視パラメータ更新システム。
  4. 前記監視パラメータは、前記カメラの撮像時におけるフォーカス調整条件であり、
    前記第1処理装置は、
    前記フォーカス調整条件を含む前記監視パラメータ更新指示を前記カメラに転送し、前記カメラの撮像時におけるフォーカス調整条件を更新させ、更新後の前記フォーカス調整条件を用いて撮像された撮像画像を受信する、
    請求項2に記載の監視パラメータ更新システム。
  5. 前記監視パラメータは、前記カメラの撮像時におけるゲイン調整条件であり、
    前記第1処理装置は、
    前記ゲイン調整条件を含む前記監視パラメータ更新指示を前記カメラに転送し、前記カメラの撮像時におけるゲイン調整条件を更新させ、更新後の前記ゲイン調整条件を用いて撮像された撮像画像を受信する、
    請求項2に記載の監視パラメータ更新システム。
  6. 前記監視パラメータ更新指示に含まれる監視パラメータは、前記特定オブジェクトと認識されたことのある画像を示す正報画像と、前記特定オブジェクトと誤認識されたことのある画像を示す誤報画像とのうち少なくとも一方を有し、
    前記第1処理装置は、
    前記正報画像または前記誤報画像を用いて、前記カメラにより撮像された前記監視エリアの撮像画像の認識を行う、
    請求項2に記載の監視パラメータ更新システム。
  7. 前記第2処理装置は、
    前記第1処理装置から送られた前記認識結果および撮像画像に基づいて、前記特定オブジェクトを認識した場合、前記第1処理装置または前記第2処理装置における認識結果を、前記第2処理装置に接続されるモニタに表示する、
    請求項1〜6のうちいずれか1項に記載の監視パラメータ更新システム。
  8. 監視エリアを撮像可能に設置されたカメラに接続された第1処理装置と、第2処理装置とが通信可能に接続された監視パラメータ更新システムを用いた監視パラメータ更新方法であって、
    前記第1処理装置は、
    前記カメラにより撮像された前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識し、その認識結果および撮像画像を対応付けて前記第2処理装置に送信し、
    前記第2処理装置は、
    前記第1処理装置から送られた前記認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識した場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信する、
    監視パラメータ更新方法。
  9. 監視エリアを撮像可能に設置されたカメラと第2処理装置とにそれぞれ接続された、コンピュータである第1処理装置に、
    前記カメラにより撮像された前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識するステップと、
    前記特定オブジェクトの認識結果および撮像画像を対応付けて前記第2処理装置に送信するステップと、
    前記特定オブジェクトの認識結果および撮像画像に基づいて前記第2処理装置により前記特定オブジェクトでないオブジェクトが認識された場合に、前記第2処理装置から送られた、監視パラメータを含む監視パラメータ更新指示を受信するステップと、をそれぞれ実行させるための、
    プログラム。
  10. 監視エリアを撮像可能に設置されたカメラに接続された第1処理装置との間で通信可能に接続された、コンピュータである第2処理装置に、
    前記カメラにより撮像された前記監視エリアの撮像画像に基づいて前記第1処理装置により前記撮像画像中に現れた特定オブジェクトが認識された場合に、前記第1処理装置から送られた、前記特定オブジェクトの認識結果および撮像画像を受信するステップと、
    前記第1処理装置から送られた前記認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識するステップと、
    前記オブジェクトが認識された場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信するステップと、をそれぞれ実行させるための、
    プログラム。
JP2018097993A 2018-05-22 2018-05-22 監視パラメータ更新システム、監視パラメータ更新方法およびプログラム Active JP7002009B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018097993A JP7002009B2 (ja) 2018-05-22 2018-05-22 監視パラメータ更新システム、監視パラメータ更新方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018097993A JP7002009B2 (ja) 2018-05-22 2018-05-22 監視パラメータ更新システム、監視パラメータ更新方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2019205034A true JP2019205034A (ja) 2019-11-28
JP2019205034A5 JP2019205034A5 (ja) 2021-07-26
JP7002009B2 JP7002009B2 (ja) 2022-01-20

Family

ID=68727392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018097993A Active JP7002009B2 (ja) 2018-05-22 2018-05-22 監視パラメータ更新システム、監視パラメータ更新方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7002009B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3680222A1 (en) 2019-01-11 2020-07-15 Ohara, Inc. Optical glass, optical element, and preform
CN113935395A (zh) * 2020-06-25 2022-01-14 安讯士有限公司 对象识别神经网络的训练

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226327A (ja) * 2006-02-21 2007-09-06 Oki Electric Ind Co Ltd 個人識別装置,個人識別方法
KR101789690B1 (ko) * 2017-07-11 2017-10-25 (주)블루비스 딥 러닝 기반 보안 서비스 제공 시스템 및 방법
JP2017228224A (ja) * 2016-06-24 2017-12-28 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018033050A (ja) * 2016-08-25 2018-03-01 株式会社知能フレームワーク研究所 状態監視システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226327A (ja) * 2006-02-21 2007-09-06 Oki Electric Ind Co Ltd 個人識別装置,個人識別方法
JP2017228224A (ja) * 2016-06-24 2017-12-28 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018033050A (ja) * 2016-08-25 2018-03-01 株式会社知能フレームワーク研究所 状態監視システム
KR101789690B1 (ko) * 2017-07-11 2017-10-25 (주)블루비스 딥 러닝 기반 보안 서비스 제공 시스템 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3680222A1 (en) 2019-01-11 2020-07-15 Ohara, Inc. Optical glass, optical element, and preform
CN113935395A (zh) * 2020-06-25 2022-01-14 安讯士有限公司 对象识别神经网络的训练

Also Published As

Publication number Publication date
JP7002009B2 (ja) 2022-01-20

Similar Documents

Publication Publication Date Title
JP3698420B2 (ja) 画像監視装置及び画像監視方法及び画像監視処理プログラム
US11790504B2 (en) Monitoring method and apparatus
KR101793636B1 (ko) 통합 지능형 cctv 영상 처리 시스템
US9848112B2 (en) Optical detection apparatus and methods
US20160142680A1 (en) Image processing apparatus, image processing method, and storage medium
US20160189501A1 (en) Security monitoring system and corresponding alarm triggering method
JP2006011728A (ja) 不審者対策システム及び不審者検出装置
JP7002009B2 (ja) 監視パラメータ更新システム、監視パラメータ更新方法およびプログラム
US11113798B2 (en) Collating system, collating method, and camera device
JP5147670B2 (ja) 画像処理装置及び画像処理方法、撮像装置
JP4412929B2 (ja) 顔検知装置
CN111917967A (zh) 门监控系统及其控制方法
JP2020170319A (ja) 検出装置
JP5256060B2 (ja) 撮像装置
US20230254456A1 (en) Monitoring camera, camera parameter determining method and storage medium
JP4668863B2 (ja) 撮像装置
JP4574509B2 (ja) システム用カメラ、監視システム及び監視方法
US20220311935A1 (en) Monitoring camera and image processing method
Tamaki et al. An automatic compensation system for unclear area in 360-degree images using pan-tilt camera
KR101706221B1 (ko) 감시카메라 및 그 감시카메라의 대상 식별을 통한 알람 제어 방법
KR20190119291A (ko) 차량용 모니터링 방법 및 장치
CN113011222B (zh) 一种活体检测系统、方法及电子设备
JP2021148984A (ja) 撮像装置、撮像システム、情報処理装置、制御方法、プログラム、および、記憶媒体
JP4445309B2 (ja) 監視装置、監視システム、動き検知装置及び撮影装置
GB2423661A (en) Identifying scene changes

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210521

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211209

R151 Written notification of patent or utility model registration

Ref document number: 7002009

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151