JP7002009B2 - Monitoring parameter update system, monitoring parameter update method and program - Google Patents
Monitoring parameter update system, monitoring parameter update method and program Download PDFInfo
- Publication number
- JP7002009B2 JP7002009B2 JP2018097993A JP2018097993A JP7002009B2 JP 7002009 B2 JP7002009 B2 JP 7002009B2 JP 2018097993 A JP2018097993 A JP 2018097993A JP 2018097993 A JP2018097993 A JP 2018097993A JP 7002009 B2 JP7002009 B2 JP 7002009B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing device
- captured image
- monitoring parameter
- monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本開示は、監視パラメータ更新システム、監視パラメータ更新方法およびプログラムに関する。 The present disclosure relates to a monitoring parameter update system, a monitoring parameter update method and a program.
特許文献1には、複数台のカメラのそれぞれにより撮像されたイメージデータとカメラのパラメータ値を可変なスライドバーとをGUI(Graphical User Interface)に表示し、それぞれのイメージデータが同一の外観が得られなければ、ユーザの操作により選択されたカメラについて、ユーザのスライドバーの操作によりパラメータ値を変更する技術が開示されている。 In Patent Document 1, image data captured by each of a plurality of cameras and a slide bar in which the parameter values of the cameras are variable are displayed on a GUI (Graphical User Interface), and each image data has the same appearance. If not, the technique of changing the parameter value by the operation of the slide bar of the user for the camera selected by the operation of the user is disclosed.
しかし、特許文献1の構成では、パラメータ値を変更するかどうかはそれぞれのイメージデータが同一の外観を有するか否かという基準に依存する。このため、パラメータ値が設定されている時にイメージデータ中に現れた所定のオブジェクト(例えば人物)が誤認識された場合に現時点のパラメータ値を変更することはできない。従って、イメージデータ中に監視対象物である所定のオブジェクトが出現しても、その出現を看過する可能性があり、監視精度が不十分となる可能性があった。 However, in the configuration of Patent Document 1, whether or not to change the parameter value depends on the criterion of whether or not each image data has the same appearance. Therefore, when a predetermined object (for example, a person) appearing in the image data is erroneously recognized when the parameter value is set, the current parameter value cannot be changed. Therefore, even if a predetermined object, which is a monitoring target, appears in the image data, the appearance may be overlooked, and the monitoring accuracy may be insufficient.
本開示は、上述した従来の状況に鑑みて案出され、撮像画像中に現れた監視対象物である特定オブジェクトを誤認識した場合に撮像画像の認識に関する監視パラメータを更新し、特定オブジェクトの認識精度を向上して監視精度の劣化を抑制する監視パラメータ更新システム、監視パラメータ更新方法およびプログラムを提供することを目的とする。 The present disclosure has been devised in view of the above-mentioned conventional situation, and when a specific object that is a monitoring target appearing in a captured image is erroneously recognized, the monitoring parameters related to the recognition of the captured image are updated to recognize the specific object. It is an object of the present invention to provide a monitoring parameter update system, a monitoring parameter update method, and a program for improving accuracy and suppressing deterioration of monitoring accuracy.
本開示は、監視エリアを撮像可能に設置されたカメラに接続された第1処理装置と、第2処理装置とが通信可能に接続された監視パラメータ更新システムであって、前記第1処理装置は、前記カメラにより撮像された前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識し、その認識結果および撮像画像を対応付けて前記第2処理装置に送信し、前記第2処理装置は、前記第1処理装置から送られた、前記認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識した場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信する、監視パラメータ更新システムを提供する。 The present disclosure is a monitoring parameter update system in which a first processing device connected to a camera installed so as to be able to image a monitoring area and a second processing device are connected so as to be communicable, and the first processing device is the first processing device. Based on the captured image of the monitoring area captured by the camera, the specific object appearing in the captured image is recognized, and the recognition result and the captured image are associated with each other and transmitted to the second processing device. When the second processing device recognizes an object that is not the specific object based on the recognition result and the captured image sent from the first processing device, the first processing device issues a monitoring parameter update instruction including a monitoring parameter. Provide a monitoring parameter update system to be sent to the processing device .
また、本開示は、監視エリアを撮像可能に設置されたカメラに接続された第1処理装置と、第2処理装置とが通信可能に接続された監視パラメータ更新システムを用いた監視パラメータ更新方法であって、前記第1処理装置は、前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識し、その認識結果および撮像画像を対応付けて前記第2処理装置に送信し、前記第2処理装置は、前記第1処理装置から送られた前記認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識した場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信する、監視パラメータ更新方法を提供する。 Further, the present disclosure is a monitoring parameter updating method using a monitoring parameter updating system in which a first processing device connected to a camera installed so as to be able to image a monitoring area and a monitoring parameter updating device connected to a second processing device so as to be communicable. Therefore, the first processing device recognizes a specific object appearing in the captured image based on the captured image of the monitoring area, and transmits the recognition result and the captured image to the second processing device in association with each other. Then, when the second processing device recognizes an object that is not the specific object based on the recognition result and the captured image sent from the first processing device, the first processing device issues a monitoring parameter update instruction including a monitoring parameter. Provides a monitoring parameter update method to be sent to the processing device .
また、本開示は、監視エリアを撮像可能に設置されたカメラと第2処理装置とにそれぞれ接続された、コンピュータである第1処理装置に、前記カメラにより撮像された前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識するステップと、前記特定オブジェクトの認識結果および撮像画像を対応付けて前記第2処理装置に送信するステップと、前記特定オブジェクトの認識結果および撮像画像に基づいて前記第2処理装置により前記特定オブジェクトでないオブジェクトが認識された場合に、前記第2処理装置から送られた、監視パラメータを含む監視パラメータ更新指示を受信するステップと、をコンピュータ上で実行させるための、プログラムを提供する。 Further, the present disclosure describes the captured image of the monitoring area captured by the camera on the first processing device, which is a computer connected to the camera installed so that the monitoring area can be imaged and the second processing device, respectively. Based on this, a step of recognizing a specific object appearing in the captured image, a step of associating the recognition result of the specific object and the captured image and transmitting the captured image to the second processing device, a recognition result of the specific object, and When an object other than the specific object is recognized by the second processing device based on the captured image, a step of receiving a monitoring parameter update instruction including a monitoring parameter sent from the second processing device is performed on a computer. Provides a program to run on.
また、本開示は、監視エリアを撮像可能に設置されたカメラに接続された第1処理装置との間で通信可能に接続された、コンピュータである第2処理装置に、前記カメラにより撮像された前記監視エリアの撮像画像に基づいて前記第1処理装置により前記撮像画像中に現れた特定オブジェクトが認識された場合に、前記第1処理装置から送られた、前記特定オブジェクトの認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識するステップと、前記オブジェクトが認識された場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信するステップと、をコンピュータ上で実行させるための、プログラムを提供する。 Further, the present disclosure is captured by the camera on a second processing device, which is a computer, which is communicably connected to a first processing device connected to a camera installed so that the monitoring area can be imaged. When the specific object appearing in the captured image is recognized by the first processing device based on the captured image of the monitoring area, the recognition result and the captured image of the specific object sent from the first processing device. Based on the image, a step of recognizing an object that is not the specific object and a step of transmitting a monitoring parameter update instruction including a monitoring parameter to the first processing device when the object is recognized are executed on a computer . To provide a program for.
本開示によれば、撮像画像中に現れた監視対象物である特定オブジェクトを誤認識した場合に撮像画像の認識に関する監視パラメータを更新し、特定オブジェクトの認識精度を向上して監視精度の劣化を抑制することができる。 According to the present disclosure, when a specific object that is a monitoring object appearing in a captured image is erroneously recognized, the monitoring parameters related to the recognition of the captured image are updated to improve the recognition accuracy of the specific object and deteriorate the monitoring accuracy. It can be suppressed.
(実施の形態の着想に至る経緯)
例えば、高速道路の入口は、安全上、人が入っていけない場所である。高速道路の入口には、通常、監視カメラが設置されている。このような監視カメラにより撮像された撮像映像に映る被写体(オブジェクト)を認識するための画像認識装置は、監視カメラにより撮像された撮像映像に人物らしき被写体(オブジェクト)が映っている場合、ユーザ(例えば、システムの運用者)にその事象を通知する。運用者は、監視カメラの撮像映像に映っている被写体が人であることを確認すると、警報を発する等の様々な対処を行う。
(Background to the idea of the embodiment)
For example, the entrance to a highway is a place where people cannot enter for safety reasons. Surveillance cameras are usually installed at the entrance of the highway. An image recognition device for recognizing a subject (object) reflected in an image captured by such a surveillance camera is a user (object) when a subject (object) that looks like a person is reflected in the image captured by the surveillance camera. For example, the system operator) is notified of the event. When the operator confirms that the subject shown in the image captured by the surveillance camera is a person, the operator takes various measures such as issuing an alarm.
人物らしき対象が映っていることが認識されて画像認識装置から運用者に通知される発報には、正報(いわゆる、認識された被写体が人であるとの正しい認識結果を知らせる旨のメッセージ)の他、撮像映像内に映る影もしくは標識を誤って人物と認識してしまった誤報が多々ある。運用者は、常に1台の監視カメラの撮像映像を監視して観ているわけでなく、複数台の監視カメラの撮像映像のそれぞれを常に観ている。運用者が、誤報に対応する監視カメラの撮像映像を確認している間に、他の監視カメラの撮像映像に基づく正報が通知された場合、正報に対応する撮像映像の運用者による確認が遅れてしまう。この間に、高速道路の入口から入った人物が路肩まで出てしまう等、危ない事象が起こり得る。このように、従来技術では、運用者が、多くの撮像映像を確認しなければならない状況になると、発生したそれぞれの事象に対し、素早く対処できず対応の遅れに繋がることが想定される。また、誤報の数が多くなると、運用者は、撮像映像の確認に忙殺され、正報に対応する撮像映像を見逃してしまうことにも繋がる。このような課題に対して、特許文献1の構成では依然として具体的な解決を図ることが困難である。 The notification that the image recognition device notifies the operator when it is recognized that an object that seems to be a person is reflected is a positive report (so-called a message to inform the correct recognition result that the recognized subject is a person). ), There are many false alarms in which the shadow or sign reflected in the captured image is mistakenly recognized as a person. The operator does not always monitor and watch the images captured by one surveillance camera, but always watches the images captured by a plurality of surveillance cameras. If the operator is notified of the correct report based on the image captured by another surveillance camera while the operator is checking the image captured by the surveillance camera corresponding to the false report, the operator confirms the captured image corresponding to the correct report. Will be delayed. During this time, a dangerous event may occur, such as a person entering from the entrance of a highway going out to the shoulder. As described above, in the conventional technology, when the operator has to confirm a large number of captured images, it is assumed that each event that has occurred cannot be dealt with quickly and the response is delayed. In addition, when the number of false alarms increases, the operator is overwhelmed by checking the captured image, which leads to overlooking the captured image corresponding to the correct report. It is still difficult to solve such a problem concretely with the configuration of Patent Document 1.
そこで、以下の実施の形態1では、被写体(言い換えると、対象)の誤認識を低減し、運用者に通知される誤報の数を減らすことで、素早く対処すべき事象への対応の遅れや、正報に対応する撮像映像の見逃しを無くし、運用者が迅速に対象を認識でき、かつ運用者の負担を減らすようにする監視カメラシステムの例を説明する。 Therefore, in the following embodiment 1, by reducing the misrecognition of the subject (in other words, the target) and reducing the number of false alarms notified to the operator, the delay in responding to the event to be dealt with quickly and the delay in responding to the event should be dealt with. An example of a surveillance camera system will be described in which the operator can quickly recognize the target and reduce the burden on the operator by eliminating the oversight of the captured image corresponding to the false alarm.
(実施の形態1)
以下、適宜図面を参照しながら、本開示に係る監視パラメータ更新システム、監視パラメータ更新方法およびプログラムとして、監視パラメータ更新システムの一例としての監視カメラシステムを具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(Embodiment 1)
Hereinafter, an embodiment in which a surveillance camera system as an example of a surveillance parameter update system is specifically disclosed as a monitoring parameter update system, a monitoring parameter update method, and a program according to the present disclosure will be described in detail with reference to the drawings as appropriate. do. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art. It should be noted that the accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.
図1は、実施の形態1に係る監視カメラシステム5の概要例を示す図である。監視カメラシステム5は、人物等の立ち入りが禁止された立入禁止区域(例えば、高速道路の入口)を撮像エリア(言い換えると、撮像エリア)として設定され、その撮像エリアに人物等が立ち入らないように監視する。具体的には、監視カメラシステム5は、複数の監視カメラ10と、それぞれの監視カメラに対応する複数の画像認識装置30と、クラウドサーバ40とを含む構成を有する。複数の監視カメラ10は、例えば複数の立入禁止区域をそれぞれ監視エリアとして撮像可能な位置に設置される。立入禁止区域は、例えば、遮断機が降りた踏切内もしくは夜間の入場が禁止された公園内等のように、不規則にあるいは時間帯によって立ち入りが制限される場所を含んでよい。また、立入禁止区域は、例えば、人に限らず車両、犬もしくは猫等の小動物の立ち入りが禁止される場所を含んでよい。監視カメラ10により撮像された撮像映像は、それぞれ対応して設けられた画像認識装置30に伝送される。
FIG. 1 is a diagram showing a schematic example of the
ここでは、1台の監視カメラ10と1台の画像認識装置30は、1セットとして組み合わされ、ネットワークNW1を介して通信可能である。なお、1台の監視カメラ10と1台の画像認識装置30は、別々の筐体に収容された装置として構成されてもよいし、同一の筐体に収容されて、一体の装置として構成されてもよい。また、1台の監視認識装置に複数の監視カメラが接続されてもよい。
Here, one
それぞれの画像認識装置30は、それぞれの監視カメラ10で撮像される撮像映像を解析して画像認識処理を行い、監視エリアでの人物判定等の処理を行うものであり、ネットワークNW2を介してクラウドサーバ40に通信可能に接続される。クラウドサーバ40は、画像認識装置30による人物判定、および監視カメラ10による撮像映像を基に、撮像映像を構成する個々の撮像画像ごとに人物等の被写体(オブジェクト)の認識処理等の画像認識処理を行う。また、クラウドサーバ40は、画像認識処理の結果に基づいて、対応する画像認識装置30もしくはその画像認識装置30に対応する監視カメラ10に対し、認識用のパラメータ(後述参照)を更新するものであり、ネットワークNW3を介して、PC(personal computer)50に接続される。PC50は、クラウドサーバ40から送信された発報情報(後述する正報参照)および正報が生成された時の撮像映像を表示する。なお、PC50は、クラウドサーバ40から取得した発報情報に誤報が含まれる場合、アラームを発して運用者に通知する。
Each
図2は、監視カメラ10のハードウェア構成例を示すブロック図である。カメラの一例としての監視カメラ10は、パン・チルト・ズーム可能なPTZ(Pan Tilt Zoom)カメラである。例えば、監視カメラ10は、既定のホームポジション(つまり、プリセット位置の一つ)において、自カメラに対応する立入禁止区域の全体を画角内に含むように撮像する。撮像映像中に人物等の対象が出現した場合、監視カメラ10は、対象が画角内で大きくなるように、パン角およびチルト角を変更して姿勢を対象に向け、ズーム倍率を上げてもよい。
FIG. 2 is a block diagram showing a hardware configuration example of the
監視カメラ10は、CPU11と、記憶部12と、撮像部13と、映像処理部14と、通信部15と、パンチルト駆動部16と、加速度センサ18と、IR照射部19と、を含む構成である。
The
パンチルト駆動部16は、撮像部13をパン方向およびチルト方向に駆動するものであり、チルト制御部21、パン制御部22、チルトモータ23およびパンモータ24を含む。チルト制御部21は、チルトモータ23の回転角を制御する。パン制御部22は、パンモータ24の回転角を制御する。
The
加速度センサ18は、監視カメラ10の姿勢(例えば、レンズの光軸方向を定めるパン角およびチルト角)に対応する信号を出力する。CPU11は、加速度センサ18から出力される信号を基に、監視カメラ10の姿勢を制御する。加速度センサ18には、例えば半導体ピエゾ抵抗効果を利用した半導体式、回転質量体により可動接点と固定接点を開閉する機械式のものが用いられる。
The
撮像部13は、撮像素子として、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)を有する。撮像素子は、例えば1画素がR画素、G画素、B画素およびIR画素のベイヤ配列で形成される、複数の画素群(例えば100万画素)を含む。また、撮像部13は、焦点距離を調節可能フォーカスレンズ、およびズーム倍率を変更可能なズームレンズを含む。撮像部13は、撮像素子から出力される電荷信号を増幅するアンプ、およびこのアンプのゲインを調整可能なゲイン調整部を含む。
The
映像処理部14は、撮像部13で撮像された撮像映像のデータ信号に対し、AD変換、色補正、雑音除去、輪郭強調等の各種の信号処理を行う。
The
記憶部12は、例えばRAM(Random Access Memory)とROM(Read Only Memory)を含み、監視カメラ10の動作の実行に必要なプログラムやデータ(例えば、フォーカス調整に必要な焦点距離、ゲイン調整に必要なゲイン値等のパラメータを含む)、動作中に生成された情報またはデータ等を一時的に保存する。記憶部12は、監視カメラ10のホームポジションを表す(パン角、チルト角、ズーム倍率)をプリセット値として記憶してもよい。RAMは、例えばCPU11の動作時に使用されるワークメモリである。ROMは、例えばCPU11を制御するためのプログラムおよびデータを予め記憶する。
The
CPU11は、監視カメラ10の各部の動作を制御する。CPU11は、監視カメラ10の制御部として機能し、監視カメラ10の各部の動作を全体的に統括するための制御処理、監視カメラ10の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。CPU11は、記憶部12内のROMに記憶されたプログラムの実行に従って動作する。CPU11は、加速度センサ18から出力される信号を基に、監視カメラ10の姿勢を制御する。CPU11は、撮像部13で撮像され、映像処理部14で信号処理された撮像映像のデータを、通信部15を介して、画像認識装置30に送信する。
The
通信部15は、有線LAN(Local Area Network)で画像認識装置30と通信可能に接続される。なお、通信部15は、無線LANでPCと通信可能に接続されてもよい。
The
IR照射部19は、夜間等の周囲が暗い場合、白黒画像を撮像するために、被写体に向けて近赤外光(IR(infrared radiation )光)を照射する。ここでは、夜間に光の到達する距離が長く、非可視光であるIR光を照射する場合を示したが、非可視光であるIR光に限らず、可視光を照射してもよい。
The
図3は、画像認識装置30のハードウェア構成例を示すブロック図である。画像認識装置30は、自装置に接続される監視カメラ10により撮像された撮像映像をリアルタイムで受信して画像認識処理(例えば、人物の判定、人物の侵入の有無の検知)を施す。また、画像認識装置30は、人物判定の結果として人物の侵入を検知した場合、人物判定の結果(発報情報の一例)および人物判定が行われた撮像映像(発報画像の一例)をクラウドサーバ40に送信する。また、画像認識装置30は、例えば1日1回、クラウドサーバ40から最適な認識用のパラメータを受信し、自装置が保持する認識用のパラメータを更新するか、または監視カメラ10が保持する認識用のパラメータを監視カメラ10に更新させる。
FIG. 3 is a block diagram showing a hardware configuration example of the
第1処理装置の一例としての画像認識装置30は、映像処理装置として動作し、プロセッサ31、ROM(Read only memory)32、RAM(Random Access memory)33、ハードディスクドライブ(HDD)34、および通信部35を少なくとも含む構成である。
The
プロセッサ31は、例えばCPU(Central Processing unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて構成され、画像認識装置30の各部の動作を制御する。プロセッサ31は、画像認識装置30の制御部として機能し、画像認識装置30の各部の動作を全体的に統括するための制御処理、画像認識装置30の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。プロセッサ31は、ROM32に記憶されたプログラムおよびデータに従って動作する。プロセッサ31は、画像認識装置30に接続される監視カメラ10により撮像された撮像映像を用いて、上述した画像認識処理を行う。
The
ROM32は、例えばプロセッサ31を制御するためのプログラムおよびデータを予め記憶する。RAM33は、プロセッサ31の動作時に使用されるワークメモリである。RAM33は、プロセッサ31の動作の実行に必要なプログラムやデータ、更には、動作中に生成された情報またはデータ等を一時的に保存する。
The
HDD34は、大容量の記憶媒体であり、プロセッサ31により実行された撮像映像の画像認識判定結果34aと、通信部35により受信された撮像画像データ34bと、プロセッサ31における画像認識処理において用いられる認識用のパラメータ34c等を記憶する。
The
通信部35は、ネットワークNW1を介して、監視カメラ10とデータ通信可能に接続される。通信部35は、ネットワークNW2を介して、クラウドサーバ40とデータ通信可能に接続される。ネットワークNW1およびネットワークNW2は、有線LAN(Local Area Network)または無線LANであってもよい。
The
図4は、クラウドサーバ40のハードウェア構成例を示すブロック図である。クラウドサーバ40は、画像認識装置30から送信された、人物判定の結果(発報情報の一例)および人物判定が行われた撮像映像(発報画像の一例)を受信するとともに、この撮像映像を用いて画像認識装置30での画像認識処理の精度を確認するために画像認識の再検証を行う。クラウドサーバ40は、再検証を行う際、ハードディスクドライブ(HDD)44に蓄積されている誤報データ(図示略)との類似性を確認し、誤報データとの類似性が高い場合、誤報と判定し、誤報と判定された撮像映像をPC50に表示しない。一方、クラウドサーバ40は、誤報データとの類似性が低い場合、正報と判定し、正報と判定された撮像映像をPC50に表示する。クラウドサーバ40は、誤報の判定結果および誤報と判定された撮像映像を含む誤報データをハードディスクドライブ(HDD)44に蓄積し、学習データとして扱う。クラウドサーバ40は、誤報データを大量に蓄積する。誤報データの蓄積量が増加すると、クラウドサーバ40によって判定される誤報データとの類似性の確認精度が向上する。クラウドサーバ40は、誤報と判定した場合、その都度、認識用のパラメータを更新する。クラウドサーバ40は、例えば1日1回、現時点の最適な認識用のパラメータを画像認識装置30に送信する。最適な認識用のパラメータは、図6に示すように、例えば照度、明るさ、背景色、色情報等に対応する、白黒/カラーの切替、フォーカス調整、ゲイン調整等を含む。
FIG. 4 is a block diagram showing a hardware configuration example of the
第2処理装置の一例としてのクラウドサーバ40は、映像処理装置として動作し、プロセッサ41、ROM(Read only memory)42、RAM(Random Access memory)43、ハードディスクドライブ(HDD)44、および通信部45を含む構成である。
The
プロセッサ41は、例えばCPU(Central Processing unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて構成され、クラウドサーバ40の各部の動作を制御する。プロセッサ41は、クラウドサーバ40の制御部として機能し、クラウドサーバ40の各部の動作を全体的に統括するための制御処理、クラウドサーバ40の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。プロセッサ41は、ROM42に記憶されたプログラムおよびデータに従って動作する。プロセッサ41は、画像認識装置30から送信された、人物判定の結果(発報情報の一例)および人物判定が行われた撮像映像(発報画像の一例)を用いて、上述した画像認識の再検証を行う。
The
ROM42は、例えばプロセッサ41を制御するためのプログラムおよびデータを予め記憶する。RAM43は、プロセッサ41の動作時に使用されるワークメモリである。RAM43は、プロセッサ41の動作の実行に必要なプログラムやデータ、更には、動作中に生成された情報またはデータ等を一時的に保存する。
The
HDD44は、大容量の記憶媒体であり、撮像映像の画像認識判定結果44a、撮像画像データ44b、認識用のパラメータ44c等を記憶する。
The
通信部45は、ネットワークNW2を介して、画像認識装置30とデータ通信可能に接続される。通信部45は、ネットワークNW3を介して、PC50とデータ通信可能に接続される。ネットワークNW3は、有線LAN(Local Area Network)または無線LANであってもよい。
The
次に、実施の形態1に係る監視カメラシステム5の動作例を説明する。
Next, an operation example of the
図5は、実施の形態1に係る監視カメラシステム5の動作手順例を示すシーケンス図である。監視カメラ10の撮像部13は、監視エリアSA(図7参照)の一例として立入禁止区域を撮像する(T1)。通信部15は、ネットワークNW1を介して、撮像部13による撮像映像を画像認識装置30に送信する(T2)。
FIG. 5 is a sequence diagram showing an example of an operation procedure of the
画像認識装置30の通信部35は、監視カメラ10からの撮像映像を受信する。プロセッサ31は、通信部35を介して受信した撮像映像に対して画像認識処理を行い、人物判定を行う(T3)。
The
画像認識処理では、例えば人工知能を用いて人物判定が行われる。プロセッサ31は、ディープラーニング等の機械学習によって蓄積された人物画像の学習データを基に、学習済みモデルを生成し、この学習済みモデルに撮像映像を入力し、その学習済みモデルを用いた人物判定(言い換えると、人物の検知および認識の処理)の出力として、対象である人物の有無を判定する。また、プロセッサ31は、判定した人物を囲む枠を設定し、この人物画像の動きに合わせて枠を移動させる。
In the image recognition process, for example, a person is determined using artificial intelligence. The
なお、ステップT3では、人工知能を用いて画像中の人物を判定したが、プロセッサ31は、予め登録された人物の参照画像と、監視カメラ10による撮像映像とのテンプレートマッチングを行って人物を判定してもよい。プロセッサ31は、テンプレートマッチングを行い、参照画像と撮像映像との特徴量の類似度が既定値より高い場合、人物を判定し、同様に人物を囲む枠を設定してもよい。
In step T3, the person in the image is determined by using artificial intelligence, but the
通信部35は、人物判定の結果、および人物判定が行われた撮像映像をクラウドサーバ40に送信する(T4)。ここでは、人物であると判定された場合、撮像画像が送信されるが、人物でないと判定された場合にも撮像画像を送信してもよい。画像認識装置30では、人物でないと判定された場合でも、クラウドサーバ40が人物判定を行って、画像認識装置の判定を取り消し、人物と判定することも想定される。これにより、人物でないと判定される誤判定を排除できる。従って、人物検知の精度を高めることができる。
The
クラウドサーバ40の通信部45は、画像認識装置30から人物判定の結果および人物判定後の撮像映像を受信する。クラウドサーバ40のプロセッサ41は、オブジェクト認識処理を行う(T5)。
The
オブジェクト認識処理では、例えば人工知能を用いて人物判定が行われる。プロセッサ41は、ディープラーニング等の機械学習によって蓄積された人物画像の学習データを基に、学習済みモデルを生成し、この学習済みモデルに撮像映像を入力し、その学習済みモデルを用いたオブジェクト認識処理(つまり、人物の検知および認識の処理)の出力として、対象である人物の有無を判定する。また、プロセッサ41は、判定した人物を囲む枠を設定し、この人物画像の動きに合わせて枠を移動させる。
In the object recognition process, for example, a person is determined using artificial intelligence. The
なお、ステップT5では、人工知能を用いて画像中の人物を判定したが、プロセッサ41は、予め登録された人物の参照画像と、監視カメラ10による撮像映像とのテンプレートマッチングを行ってもよい。プロセッサ41は、テンプレートマッチングで特徴量の類似度が既定値より高い場合、人物を判定する。プロセッサ41は、人物が判定された人物画像を囲む枠を設定し、この人物画像の動きに合わせて枠を移動させる。
In step T5, the person in the image is determined by using artificial intelligence, but the
なお、ステップT3およびステップT5の判定では、同じ判定手法が用いられたが、異なる判定手法を用いてもよい。例えば、ステップT3では人工知能を用いて人物判定を行い、ステップT5ではテンプレートマッチングを行って人物判定を行ってもよい。逆に、ステップT3ではテンプレートマッチングを行って人物判定を行い、ステップT5では人工知能を用いて人物判定を行ってもよい。この場合、異なる判定手法で同じ判定結果が得られる場合、判定精度が高まる。また、判定結果が異なる場合、疑わしい判定結果をPCに表示して、運用者の判断を仰ぐようにしてもよい。また、画像認識装置と比べて、判定能力が高いと想定されるクラウドサーバの判定結果を優先してもよい。 Although the same determination method was used in the determinations in steps T3 and T5, different determination methods may be used. For example, in step T3, a person may be determined using artificial intelligence, and in step T5, template matching may be performed to determine a person. On the contrary, in step T3, template matching may be performed to determine a person, and in step T5, artificial intelligence may be used to determine a person. In this case, if the same determination result can be obtained by different determination methods, the determination accuracy is improved. Further, when the judgment results are different, the suspicious judgment result may be displayed on the PC to ask the operator's judgment. Further, the determination result of the cloud server, which is assumed to have higher determination ability than the image recognition device, may be prioritized.
また、ステップT3およびステップT5の判定では、立入禁止区域に侵入している対象として人間である場合を想定したが、車両、小動物、ゴミ等であってもよい。 Further, in the determination of step T3 and step T5, it is assumed that the target invading the restricted area is a human being, but a vehicle, a small animal, garbage, or the like may be used.
人物判定の結果、正報(つまり、画像認識装置30での認識結果がクラウドサーバ40での認識結果と一致した旨の結果)が得られた場合、プロセッサ41は、HDD44に、人物判定の結果を画像認識判定結果44aとして記憶し、正報に対応する撮像映像を撮像画像データ44bとして記憶する。また、プロセッサ41は、正報に対応する撮像映像を学習データとして蓄積し、認識用のパラメータ44cを更新する。
When a correct report (that is, a result that the recognition result of the
クラウドサーバ40の通信部45は、人物判定の結果、正報(つまり、画像認識装置30での認識結果がクラウドサーバ40での認識結果と一致した旨の結果)が得られた場合、その判定結果および撮像映像をPC50に送信する(T6)。PC50は、正報である判定結果および撮像画像を受信し、その撮像画像を、PC50に内蔵されるまたはPC50に接続されるディスプレイ(図示略)の表示画面に表示する(T7)。運用者は、PC50に表示された正報である撮像映像を視認できる。これにより、誤報(つまり、画像認識装置30での認識結果がクラウドサーバ40での認識結果と一致しなかった旨の結果)に対応する撮像映像が表示されないので、運用者は、正報に対応する撮像映像の確認に注力できる。
When the
ステップT5の人物判定の結果、誤報(つまり、画像認識装置30での認識結果がクラウドサーバ40での認識結果と一致しなかった旨の結果)が得られた場合、プロセッサ41は、HDD44に、人物判定の結果を画像認識判定結果44aとして記憶し、誤報に対応する撮像映像を撮像画像データ44bとして記憶する。また、プロセッサ41は、誤報に対応する撮像映像を学習データとして蓄積し、認識用のパラメータ44cを更新する。
If an erroneous report (that is, a result that the recognition result of the
クラウドサーバ40の通信部45は、人物判定の結果、誤報(つまり、画像認識装置30での認識結果がクラウドサーバ40での認識結果と一致しなかった旨の結果)が得られた場合、認識用のパラメータ44cを画像認識装置30に送信し、この認識用のパラメータ44cを含む更新指示(監視パラメータ更新指示の一例)を行う(T8)。この認識用のパラメータ44cの送信は、ステップT4で撮像映像を送信した画像認識装置30に対して行われる。
The
図6は、認識用のパラメータ44cが登録されたパラメータテーブルTb1の登録内容の一例を示す図である。このパラメータテーブルTb1は、クラウドサーバ40のHDD44に記憶される。パラメータテーブルTb1に登録されている認識用のパラメータは、撮像画像に映る対象に対して人物判定を行う際、誤判定を抑制するために更新されるパラメータである。パラメータテーブルTb1には、認識用のパラメータの一例として、白黒/カラー切替、フォーカス調整、ゲイン調整の各条件が登録される。また、認識用のパラメータは、例えば人工知能により画像認識処理を行う場合、ニューラルネットワークを構成する中間層のニューロンの数および重み付け係数を含んでよい。また、テンプレートマッチングにより画像認識処理を行う場合、使用される参照画像を含む。また、認識用のパラメータは、正報画像および誤報画像を含んでもよい。
FIG. 6 is a diagram showing an example of the registered contents of the parameter table Tb1 in which the recognition parameter 44c is registered. This parameter table Tb1 is stored in the
白黒/カラー切替は、画像認識装置30によって行われる。白黒/カラー切替は、日時や画像全体の照度を基に、撮像される映像を白黒画像あるいはカラー画像に切り替えることである。例えば、日中(明るい時間帯)や画像全体が明るい場合、カラー画像が採用される。夜間(暗い時間帯)や画像全体が暗い場合、白黒画像が採用される。一例として、監視カメラ10の撮像素子において、1画素がR画素、G画素、B画素およびIR画素のベイヤ配列で構成される場合、白黒画像は、IR画素から出力される信号で生成され、カラー画像は、R画素、G画素およびB画素から出力される信号で生成される。白黒/カラー切替を行う場合、画像認識装置30のプロセッサ31は、通信部35を介して入力される監視カメラ10による撮像信号のうち、IR画素の信号を選択して白黒画像を選択し、またはRGB画素の信号を選択してカラー画像を選択する。
Black-and-white / color switching is performed by the
フォーカス調整は、監視カメラ10によって行われる。フォーカス調整は、日時や画像全体の乱れ(言い換えると、ぼけ)の度合いを基に、フォーカスを調整する(焦点距離を調節する)ことである。監視カメラ10のCPU11は、撮像部13内の撮像素子の前に配されたフォーカスレンズを光軸方向に移動させることで焦点距離を調節する。
The focus adjustment is performed by the
ゲイン調整は、監視カメラ10によって行われる。ゲイン調整は、天候や夜間等の影響で光量の多寡が生じる場合、撮像信号を増減して画像の明るさを調整することである。監視カメラ10のCPU11は、撮像部13内の撮像素子からの電荷信号が入力されるアンプのゲインを調整することで、撮像信号を増減させる。
The gain adjustment is performed by the
画像認識装置30の通信部35は、ステップT8でクラウドサーバ40から認識用のパラメータ44cを受信すると、自装置のHDD34に記憶されている認識用のパラメータ34cを更新する(T9)。プロセッサ31は、自装置のパラメータとして、認識用のパラメータ34cに含まれる白黒/カラー切替を設定する。通信部35は、認識用のパラメータ34cに含まれるフォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方を監視カメラ10に送信する(T10)。
When the
監視カメラ10の通信部15は、画像認識装置30からフォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方を受信する。CPU11は、フォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方を記憶部12に記憶し、撮像部13に対してフォーカス調整およびゲイン調整のうち一方またはその両方を行う(T11)。
The
クラウドサーバ40のHDD44には、多くの画像認識装置30から受信した正報または誤報の撮像映像を基にリアルタイムに更新される、最適な認識用のパラメータ44cが登録されたパラメータテーブルTb1が記憶される。プロセッサ41は、HDD44に記憶されたパラメータテーブルTb1に登録されている認識用のパラメータ44cを、定期的に(ここでは、一例として1日1回)それぞれの画像認識装置30に送信し、この認識用のパラメータ44cを含む使用指示(監視パラメータ使用指示)を行う(T12)。
The
それぞれの画像認識装置30の通信部35は、ステップT12でクラウドサーバ40から認識用のパラメータ44cを受信すると、自装置のHDD34に記憶されている認識用のパラメータ34cを更新する(T13)。それぞれのプロセッサ31は、自装置のパラメータとして、認識用のパラメータ34cに含まれる白黒/カラー切替を設定する。それぞれの通信部35は、認識用のパラメータ34cに含まれるフォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方をそれぞれの監視カメラ10に送信する(T14)。
When the
それぞれの監視カメラ10の通信部15は、画像認識装置30からフォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方を受信する。それぞれのCPU11は、フォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方を記憶部12に記憶し、撮像部13に対してフォーカス調整およびゲイン調整のうち一方またはその両方を行う(T15)。これ以降、監視カメラ10は、ステップT1の処理に戻り、監視カメラシステム5は、同様の処理を繰り返す。
The
図7は、正報が通知された場合に表示される監視カメラ10の撮像映像GZ1の一例を示す図である。図7に示す撮像映像GZ1は、例えばPC50に内蔵されたディスプレイ(図示略)またはPC50に接続されたディスプレイ(図示略)の表示画面において表示される。監視カメラ10は、例えば高速道路の入口付近の上方に設置される。撮像映像GZ1には、監視カメラ10が俯瞰するように撮像した、監視エリアSAとして高速道路の入口から料金所ゲートに至る道路が映っている。撮像映像GZ1には、人物と判定された、作業員らしい3人の人物hm1,hm2,hm3が映っている。また、撮像映像GZ1には、3人の人物hm1,hm2,hm3の上半身をそれぞれ囲むように、枠w1,w2,w3が重畳表示される。運用者は、上述したディスプレイ(図示略)の表示画面において表示されている撮像映像GZ1に映っている枠w1,w2,w3で囲まれた3人の人物hm1,hm2,hm3を視認する。この場合、3人の人物hm1,hm2,hm3は、道路関係者であると判断されるので、運用者は、例えば特に対処しない。撮像映像GZ1は、例えば正報画像である。
FIG. 7 is a diagram showing an example of the captured image GZ1 of the
図8は、誤報が通知された場合に表示される監視カメラ10の撮像映像GZ2の一例を示す図である。誤報が通知された場合、監視カメラ10による撮像映像GZ2は、PC50に表示されないが、図8に示す撮像映像GZ1は、例えばPC50に内蔵されたディスプレイ(図示略)またはPC50に接続されたディスプレイ(図示略)の表示画面において表示されてよい。撮像映像GZ2は、画像認識装置30からクラウドサーバ40に伝送されると、プロセッサ41は、撮像映像GZ2を撮像画像データ44bとしてHDD44に保存する。撮像映像GZ2は、認識用のパラメータ44cの学習データとして利用される。撮像映像GZ2には、日陰により、人物と誤判定された、ポールの影e1および標識e2が映っている。また、撮像映像GZ2には、ポールの影e1の一部および標識e2をそれぞれ囲むように、枠w4,w5が重畳表示される。ただし、撮像映像GZ2は、PC50に表示されないので、運用者は、誤判定された撮像映像GZ2に気づかない。この場合、PC50に常時撮像映像が表示される場合、枠w4,w5が表示されないことになる。なお、運用者は、手空きの場合、誤判定された撮像映像GZ2をPC50に表示させてもよく、人物判定の結果を確認することができる。撮像映像GZ2は、誤報画像である。
FIG. 8 is a diagram showing an example of the captured image GZ2 of the
以上により、実施の形態1に係る監視カメラシステム5は、監視エリアSAを撮像可能に設置された監視カメラ10に接続された画像認識装置30(第1処理装置の一例)と、クラウドサーバ40(第2処理装置の一例)とが通信可能に接続される。画像認識装置30は、監視カメラ10により撮像された監視エリアSAの撮像画像に基づいて、撮像画像中に現れた人物hm1,hm2,hm3(特定オブジェクトの一例)を認識し、その認識結果および撮像画像を対応付けてクラウドサーバ40に送信する。クラウドサーバ40は、画像認識装置30から送られた認識結果および撮像画像に基づいて、人物でない影e1や標識e2等の対象(特定オブジェクトでないオブジェクトの一例)を認識した場合、クラウドサーバ40が保持している認識用のパラメータ(監視パラメータの一例)を含む監視パラメータ使用指示を画像認識装置30に送信する。クラウドサーバ40が保持している認識用のパラメータが画像認識装置30に送信されるのは、オブジェクトの認識能力がそれぞれの画像認識装置30よりクラウドサーバ40が優れているからである。つまり、画像認識装置30の認識結果よりもクラウドサーバ40の認識結果が優先され、画像認識装置30の認識結果がクラウドサーバ40の認識結果に一致しなかった場合には、クラウドサーバ40が保持している認識用のパラメータが正解データとして、画像認識装置30に送られる。
As described above, the
これにより、監視カメラシステム5は、監視カメラ10により撮像された撮像映像中に現れた対象である人物が画像認識装置30によって誤認識されたとクラウドサーバ40によって判定された場合、画像認識装置30が撮像映像の認識に用いた認識用のパラメータを適正に更新できる。つまり、上述したように、撮像映像中に現れる対象(つまり、人物や物体等のオブジェクト)の認識能力は画像認識装置30よりもクラウドサーバ40の方が優れている。クラウドサーバ40は、画像認識装置30から送られた人物等の特定のオブジェクトの認識結果および撮像映像を受け取り、画像認識装置30の認識結果を再検証することで、画像認識装置30が用いた認識用のパラメータを更新させるか否かを決定する。従って、監視カメラシステム5によれば、監視カメラ10による撮像映像中に現れ得る人物の認識精度の向上が可能となり、監視エリアSAにおける監視精度の劣化を抑制でき、監視員の負担の軽減が図られる。
As a result, when the
また、画像認識装置30は、監視カメラ10により撮像された監視エリアSAの撮像映像を認識する時に用いる認識用のパラメータを、クラウドサーバ40から送られた更新指示(監視パラメータ更新指示の一例)に含まれる認識用のパラメータに更新する。これにより、クラウドサーバ40は、自装置が保持している認識用のパラメータを、全ての画像認識装置30に送信し、画像認識装置30に登録されている認識用のパラメータを更新できる。従って、それぞれの画像認識装置30に登録されている認識用のパラメータを共通化でき、画像認識の精度を揃えることができる。例えばメンテナンス等がある場合、一時的に画像認識装置30の置換が可能となる。
Further, the
また、認識用のパラメータは、監視エリアSAの撮像映像を白黒画像またはカラー画像に切り替えるための切替条件を含む。画像認識装置30は、この切替条件を用いて、監視エリアSAの撮像映像を白黒画像またはカラー画像に切り替える。これにより、画像認識装置30およびクラウドサーバ40は、日時や画像全体の照度によって光量の多寡が生じるような場合でも、監視カメラ10による撮像映像として、画像認識に適した白黒画像またはカラー画像を得ることができる。さらに、画像認識に適した撮像映像に対し、画像認識を行うことで、認識精度が向上する。
Further, the recognition parameter includes a switching condition for switching the captured image of the monitoring area SA to a black-and-white image or a color image. The
また、認識用のパラメータは、監視カメラ10の撮像時におけるフォーカス調整条件を含む。画像認識装置30は、このフォーカス調整条件を含む使用指示を監視カメラ10に転送する。画像認識装置30は、監視カメラ10に対し、撮像時におけるフォーカス調整条件を更新させる。画像認識装置30は、更新後の前記フォーカス調整条件を用いて、監視カメラ10で撮像された撮像映像を受信する。これにより、画像認識装置30およびクラウドサーバ40は、監視カメラ10で撮像される映像のフォーカスを調整することで、日時や画像全体の乱れによってぼけが生じるような場合でも、撮像映像を鮮明化できる。さらに、鮮明化された撮像映像に対し、画像認識を行うことで、認識精度が向上する。
Further, the recognition parameter includes the focus adjustment condition at the time of imaging by the
また、認識用のパラメータは、監視カメラ10の撮像時におけるゲイン調整条件を含む。画像認識装置30は、ゲイン調整条件を含む使用指示を監視カメラ10に転送する。画像認識装置30は、監視カメラ10の撮像時におけるゲイン調整条件を更新させる。画像認識装置30は、更新後のゲイン調整条件を用いて撮像された撮像映像を受信する。これにより、画像認識装置30およびクラウドサーバ40は、監視カメラ10の撮像部13から出力される撮像信号のゲインを調整することで、天候や夜間等の影響で明るさが変化するような場合でも、撮像映像の輝度を適正に調整可能である。さらに、輝度が適正に調整された撮像映像に対し、画像認識を行うことで、認識精度が向上する。
Further, the recognition parameter includes a gain adjustment condition at the time of imaging by the
また、使用指示に含まれる認識用のパラメータは、人物と認識されたことのある画像を示す正報画像と、人物と誤認識されたことのある画像を示す誤報画像のうち少なくとも一方を有する。画像認識装置30は、正報画像または誤報画像を用いて、監視カメラ10により撮像された監視エリアSAの撮像映像の認識を行う。これにより、画像認識装置30およびクラウドサーバ40は、正報画像または誤報画像を用いて、画像認識を行うことで、認識精度が高まる。また、正報画像と誤報画像のいずれを用いて画像認識を行ってもよく、学習効果が高まり、認識精度の向上に繋がる。
Further, the recognition parameter included in the usage instruction includes at least one of a positive image showing an image that has been recognized as a person and an erroneous image showing an image that has been erroneously recognized as a person. The
また、クラウドサーバ40は、画像認識装置30から送られた認識結果および撮像映像に基づいて、人物を認識した場合、画像認識装置30またはクラウドサーバ40における認識結果を、クラウドサーバ40に接続されるPC50に内蔵または接続されたディスプレイ(モニタの一例)に表示する。これにより、人物を認識した場合、クラウドサーバ40に接続されるPC50は、正報画像である、監視カメラ10による撮像映像GZ1、およびその認識結果を表す枠w1,w2,w3を表示できる。また、人物を誤認識した撮像映像GZ2が表示されないので、運用者が視認する撮像映像の量を削減できる。従って、運用者は、立入禁止区域に人物が侵入した等、発生した事象に対し素早く対処でき、また、事象の見逃しを減らせる。
Further, when the
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described above with reference to the drawings, it goes without saying that the present disclosure is not limited to such examples. It is clear that a person skilled in the art can come up with various modifications, modifications, substitutions, additions, deletions, and even examples within the scope of the claims. It is naturally understood that it belongs to the technical scope of the present disclosure. Further, each component in the various embodiments described above may be arbitrarily combined as long as the gist of the invention is not deviated.
例えば、上記実施の形態では、高速道路の入口を監視する場合を示したが、この例に限らず、人や物が立ち入らない場所、例えば人や車の進入が禁止される遮断機が降りている踏切内、放射線管理区域、夜間入場不可である動物園や公園等を監視する場合においても、本開示は同様に適用可能である。 For example, in the above embodiment, the case of monitoring the entrance of the expressway is shown, but the case is not limited to this example, and a place where people or things cannot enter, for example, a barrier that prohibits the entry of people or cars is dismounted. This disclosure is also applicable when monitoring railroad crossings, radiation controlled areas, zoos and parks that are not accessible at night.
上記実施の形態では、対象が人である場合を示したが、対象は、立入禁止区域への侵入が許可されていないもの、車、小動物、ゴミ等を含む。 In the above embodiment, the case where the target is a person is shown, but the target includes those who are not permitted to enter the restricted area, cars, small animals, garbage, and the like.
上記実施形態では、人物の認識結果として、人物を囲む枠w1,w2,w3を撮像映像中に表示したが、人物を認識したことを表すマークやメッセージ等を表示してもよい。 In the above embodiment, as the recognition result of the person, the frames w1, w2, w3 surrounding the person are displayed in the captured image, but a mark or a message indicating that the person has been recognized may be displayed.
上記実施形態では、クラウドサーバに接続されるPCが人物を認識した撮像映像を表示したが、画像認識装置にモニタを接続し、このモニタが人物を認識した撮像映像を表示してもよい。これにより、運用者は、PCに表示される撮像映像およびモニタに表示される撮像映像を見比べることができ、最終的な人物か否かの判断を行うことも可能である。 In the above embodiment, the PC connected to the cloud server displays the captured image that recognizes the person, but a monitor may be connected to the image recognition device and the captured image that the monitor recognizes the person may be displayed. As a result, the operator can compare the captured image displayed on the PC and the captured image displayed on the monitor, and can also determine whether or not the person is the final person.
また、本開示は、上記実施形態の装置の機能を実現するプログラムを、ネットワークあるいは各種記憶媒体を介して装置に供給し、この装置内のコンピュータが読み出して実行するプログラムも適用範囲である。 The present disclosure also covers a program in which a program that realizes the functions of the device of the above embodiment is supplied to the device via a network or various storage media, and is read and executed by a computer in the device.
本開示は、撮像画像中に現れた監視対象物である特定オブジェクトを誤認識した場合に撮像画像の認識に関する監視パラメータを更新し、特定オブジェクトの認識精度を向上して監視精度の劣化を抑制する監視パラメータ更新システム、監視パラメータ更新方法およびプログラムとして有用である。 The present disclosure updates the monitoring parameters related to the recognition of the captured image when the specific object that is the monitored object appearing in the captured image is erroneously recognized, improves the recognition accuracy of the specific object, and suppresses the deterioration of the monitoring accuracy. It is useful as a monitoring parameter update system, monitoring parameter update method, and program.
5 監視カメラシステム
10 監視カメラ
11 CPU
12 記憶部
13 撮像部
14 映像処理部
15 通信部
16 パンチルト駆動部
18 加速度センサ
19 IR照射部
30 画像認識装置
31 プロセッサ
32 ROM
33 RAM
34 HDD
35 通信部
40 クラウドサーバ
41 プロセッサ
42 ROM
43 RAM
44 HDD
45 通信部
50 PC
5
12
33 RAM
34 HDD
35
43 RAM
44 HDD
45
Claims (10)
前記第1処理装置は、
前記カメラにより撮像された前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識し、その認識結果および撮像画像を対応付けて前記第2処理装置に送信し、
前記第2処理装置は、
前記第1処理装置から送られた、前記認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識した場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信する、
監視パラメータ更新システム。 It is a monitoring parameter update system in which the first processing device connected to a camera installed so that the monitoring area can be imaged and the second processing device are connected so as to be communicable.
The first processing device is
Based on the captured image of the monitoring area captured by the camera, a specific object appearing in the captured image is recognized, and the recognition result and the captured image are associated with each other and transmitted to the second processing device.
The second processing device is
When an object other than the specific object is recognized based on the recognition result and the captured image sent from the first processing device, a monitoring parameter update instruction including a monitoring parameter is transmitted to the first processing device .
Monitoring parameter update system.
請求項1に記載の監視パラメータ更新システム。 The first processing device updates the monitoring parameters used when recognizing the captured image of the monitoring area captured by the camera to the monitoring parameters included in the monitoring parameter update instruction sent from the second processing device . ,
The monitoring parameter update system according to claim 1.
前記第1処理装置は、
前記切替条件を用いて、前記監視エリアの撮像画像を白黒画像またはカラー画像に切り替える、
請求項2に記載の監視パラメータ更新システム。 The monitoring parameter is a switching condition for switching the captured image of the monitoring area to a black-and-white image or a color image.
The first processing device is
Using the switching condition, the captured image of the monitoring area is switched to a black-and-white image or a color image.
The monitoring parameter update system according to claim 2.
前記第1処理装置は、前記フォーカス調整条件を含む前記監視パラメータ更新指示を前記カメラに転送し、前記カメラの撮像時におけるフォーカス調整条件を更新させ、更新後の前記フォーカス調整条件を用いて撮像された撮像画像を受信する、
請求項2に記載の監視パラメータ更新システム。 The monitoring parameter is a focus adjustment condition at the time of imaging by the camera.
The first processing device transfers the monitoring parameter update instruction including the focus adjustment condition to the camera, updates the focus adjustment condition at the time of imaging of the camera, and is imaged using the updated focus adjustment condition. Receive the captured image,
The monitoring parameter update system according to claim 2.
前記第1処理装置は、前記ゲイン調整条件を含む前記監視パラメータ更新指示を前記カメラに転送し、前記カメラの撮像時におけるゲイン調整条件を更新させ、更新後の前記ゲイン調整条件を用いて撮像された撮像画像を受信する、
請求項2に記載の監視パラメータ更新システム。 The monitoring parameter is a gain adjustment condition at the time of imaging by the camera.
The first processing apparatus transfers the monitoring parameter update instruction including the gain adjustment condition to the camera, updates the gain adjustment condition at the time of imaging of the camera, and is imaged using the updated gain adjustment condition. Receive the captured image,
The monitoring parameter update system according to claim 2.
前記第1処理装置は、前記正報画像または前記誤報画像を用いて、前記カメラにより撮像された前記監視エリアの撮像画像の認識を行う、
請求項2に記載の監視パラメータ更新システム。 The monitoring parameter included in the monitoring parameter update instruction is at least a positive image showing an image that has been recognized as the specific object and a false alarm image showing an image that has been erroneously recognized as the specific object. Have one
The first processing apparatus recognizes the captured image of the monitoring area captured by the camera using the positive image or the false alarm image.
The monitoring parameter update system according to claim 2.
請求項1~6のうちいずれか1項に記載の監視パラメータ更新システム。 When the second processing device recognizes the specific object based on the recognition result and the captured image sent from the first processing device, the second processing device obtains the recognition result in the first processing device or the second processing device. Displayed on the monitor connected to the second processing device ,
The monitoring parameter update system according to any one of claims 1 to 6.
前記第1処理装置は、
前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識し、その認識結果および撮像画像を対応付けて前記第2処理装置に送信し、
前記第2処理装置は、
前記第1処理装置から送られた前記認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識した場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信する、
監視パラメータ更新方法。 It is a monitoring parameter updating method using a monitoring parameter updating system in which a first processing device connected to a camera installed so that a monitoring area can be imaged and a second processing device are connected so as to be able to communicate with each other.
The first processing device is
Based on the captured image of the monitoring area, a specific object appearing in the captured image is recognized, and the recognition result and the captured image are associated with each other and transmitted to the second processing device.
The second processing device is
When an object other than the specific object is recognized based on the recognition result and the captured image sent from the first processing device , a monitoring parameter update instruction including a monitoring parameter is transmitted to the first processing device .
How to update monitoring parameters.
前記カメラにより撮像された前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識するステップと、
前記特定オブジェクトの認識結果および撮像画像を対応付けて前記第2処理装置に送信するステップと、
前記特定オブジェクトの認識結果および撮像画像に基づいて前記第2処理装置により前記特定オブジェクトでないオブジェクトが認識された場合に、前記第2処理装置から送られた、監視パラメータを含む監視パラメータ更新指示を受信するステップと、をコンピュータ上で実行させるための、
プログラム。 To the first processing device, which is a computer, connected to the camera installed so that the monitoring area can be imaged and the second processing device, respectively.
A step of recognizing a specific object appearing in the captured image based on the captured image of the monitoring area captured by the camera , and
A step of associating the recognition result of the specific object and the captured image and transmitting the image to the second processing device ,
When an object that is not the specific object is recognized by the second processing device based on the recognition result of the specific object and the captured image, the monitoring parameter update instruction including the monitoring parameter sent from the second processing device is received . Steps to perform, and to run them on your computer,
program.
前記カメラにより撮像された前記監視エリアの撮像画像に基づいて前記第1処理装置により前記撮像画像中に現れた特定オブジェクトが認識された場合に、
前記第1処理装置から送られた、前記特定オブジェクトの認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識するステップと、
前記特定オブジェクトでないオブジェクトが認識された場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信するステップと、をコンピュータ上で実行させるための、
プログラム。 To the second processing device, which is a computer, which is communicably connected to the first processing device connected to the camera installed so that the monitoring area can be imaged.
When the specific object appearing in the captured image is recognized by the first processing device based on the captured image of the monitoring area captured by the camera .
A step of recognizing an object that is not the specific object based on the recognition result and the captured image of the specific object sent from the first processing device .
When an object that is not the specific object is recognized, a step of transmitting a monitoring parameter update instruction including a monitoring parameter to the first processing device and a step of transmitting the monitoring parameter update instruction to the first processing device are executed on the computer .
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018097993A JP7002009B2 (en) | 2018-05-22 | 2018-05-22 | Monitoring parameter update system, monitoring parameter update method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018097993A JP7002009B2 (en) | 2018-05-22 | 2018-05-22 | Monitoring parameter update system, monitoring parameter update method and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019205034A JP2019205034A (en) | 2019-11-28 |
JP2019205034A5 JP2019205034A5 (en) | 2021-07-26 |
JP7002009B2 true JP7002009B2 (en) | 2022-01-20 |
Family
ID=68727392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018097993A Active JP7002009B2 (en) | 2018-05-22 | 2018-05-22 | Monitoring parameter update system, monitoring parameter update method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7002009B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11236010B2 (en) | 2019-01-11 | 2022-02-01 | Ohara Inc. | Optical glass, optical element, and preform |
EP3929801A1 (en) * | 2020-06-25 | 2021-12-29 | Axis AB | Training of an object recognition neural network |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007226327A (en) | 2006-02-21 | 2007-09-06 | Oki Electric Ind Co Ltd | Personal identification device and personal identification method |
JP2017228224A (en) | 2016-06-24 | 2017-12-28 | キヤノン株式会社 | Information processing device, information processing method, and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6717461B2 (en) * | 2016-08-25 | 2020-07-01 | 株式会社知能フレームワーク研究所 | Condition monitoring system |
KR101789690B1 (en) * | 2017-07-11 | 2017-10-25 | (주)블루비스 | System and method for providing security service based on deep learning |
-
2018
- 2018-05-22 JP JP2018097993A patent/JP7002009B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007226327A (en) | 2006-02-21 | 2007-09-06 | Oki Electric Ind Co Ltd | Personal identification device and personal identification method |
JP2017228224A (en) | 2016-06-24 | 2017-12-28 | キヤノン株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2019205034A (en) | 2019-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210217212A1 (en) | Method and system for automatically colorizing night-vision images | |
US11790504B2 (en) | Monitoring method and apparatus | |
JP6732902B2 (en) | Imaging device and imaging system | |
JP7207793B2 (en) | Video-based real-time intrusion detection method and surveillance camera using artificial intelligence | |
WO2020057346A1 (en) | Video monitoring method and apparatus, monitoring server and video monitoring system | |
CN107483889A (en) | The tunnel monitoring system of wisdom building site control platform | |
JP7002009B2 (en) | Monitoring parameter update system, monitoring parameter update method and program | |
CN109376601B (en) | Object tracking method based on high-speed ball, monitoring server and video monitoring system | |
KR101625538B1 (en) | Car Number Recognition system | |
KR101337554B1 (en) | Apparatus for trace of wanted criminal and missing person using image recognition and method thereof | |
CN105208273A (en) | Method and device for taking photos through dual-camera terminal and dual-camera terminal | |
US11113798B2 (en) | Collating system, collating method, and camera device | |
CN104735422A (en) | Multifunctional intelligent analysis and monitor system | |
KR101340897B1 (en) | The anticrime system in a school zone | |
KR20140110684A (en) | The analysis system and controlling method of moving image data by a CCTV monitor | |
JP2020170319A (en) | Detection device | |
KR101485512B1 (en) | The sequence processing method of images through hippocampal neual network learning of behavior patterns in case of future crimes | |
KR102111162B1 (en) | Multichannel camera home monitoring system and method to be cmmunicated with blackbox for a car | |
JP2020171057A (en) | Imaging device | |
KR101706221B1 (en) | Security camera and Method of controlling thereof | |
KR102069735B1 (en) | Method and apparatus for monitoring of vehicle | |
AU2021103548A4 (en) | Smart home surveillance system using iot application with warning of intruder activities | |
KR102209857B1 (en) | System for face recognition in patrol car | |
JP2021118478A (en) | Monitor camera, camera parameter determination method and program | |
GB2423661A (en) | Identifying scene changes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210521 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210521 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211209 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7002009 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |