JP7002009B2 - Monitoring parameter update system, monitoring parameter update method and program - Google Patents

Monitoring parameter update system, monitoring parameter update method and program Download PDF

Info

Publication number
JP7002009B2
JP7002009B2 JP2018097993A JP2018097993A JP7002009B2 JP 7002009 B2 JP7002009 B2 JP 7002009B2 JP 2018097993 A JP2018097993 A JP 2018097993A JP 2018097993 A JP2018097993 A JP 2018097993A JP 7002009 B2 JP7002009 B2 JP 7002009B2
Authority
JP
Japan
Prior art keywords
image
processing device
captured image
monitoring parameter
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018097993A
Other languages
Japanese (ja)
Other versions
JP2019205034A (en
JP2019205034A5 (en
Inventor
孝文 新妻
崇 神尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018097993A priority Critical patent/JP7002009B2/en
Publication of JP2019205034A publication Critical patent/JP2019205034A/en
Publication of JP2019205034A5 publication Critical patent/JP2019205034A5/ja
Application granted granted Critical
Publication of JP7002009B2 publication Critical patent/JP7002009B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、監視パラメータ更新システム、監視パラメータ更新方法およびプログラムに関する。 The present disclosure relates to a monitoring parameter update system, a monitoring parameter update method and a program.

特許文献1には、複数台のカメラのそれぞれにより撮像されたイメージデータとカメラのパラメータ値を可変なスライドバーとをGUI(Graphical User Interface)に表示し、それぞれのイメージデータが同一の外観が得られなければ、ユーザの操作により選択されたカメラについて、ユーザのスライドバーの操作によりパラメータ値を変更する技術が開示されている。 In Patent Document 1, image data captured by each of a plurality of cameras and a slide bar in which the parameter values of the cameras are variable are displayed on a GUI (Graphical User Interface), and each image data has the same appearance. If not, the technique of changing the parameter value by the operation of the slide bar of the user for the camera selected by the operation of the user is disclosed.

特開2008-17476号公報Japanese Unexamined Patent Publication No. 2008-17476

しかし、特許文献1の構成では、パラメータ値を変更するかどうかはそれぞれのイメージデータが同一の外観を有するか否かという基準に依存する。このため、パラメータ値が設定されている時にイメージデータ中に現れた所定のオブジェクト(例えば人物)が誤認識された場合に現時点のパラメータ値を変更することはできない。従って、イメージデータ中に監視対象物である所定のオブジェクトが出現しても、その出現を看過する可能性があり、監視精度が不十分となる可能性があった。 However, in the configuration of Patent Document 1, whether or not to change the parameter value depends on the criterion of whether or not each image data has the same appearance. Therefore, when a predetermined object (for example, a person) appearing in the image data is erroneously recognized when the parameter value is set, the current parameter value cannot be changed. Therefore, even if a predetermined object, which is a monitoring target, appears in the image data, the appearance may be overlooked, and the monitoring accuracy may be insufficient.

本開示は、上述した従来の状況に鑑みて案出され、撮像画像中に現れた監視対象物である特定オブジェクトを誤認識した場合に撮像画像の認識に関する監視パラメータを更新し、特定オブジェクトの認識精度を向上して監視精度の劣化を抑制する監視パラメータ更新システム、監視パラメータ更新方法およびプログラムを提供することを目的とする。 The present disclosure has been devised in view of the above-mentioned conventional situation, and when a specific object that is a monitoring target appearing in a captured image is erroneously recognized, the monitoring parameters related to the recognition of the captured image are updated to recognize the specific object. It is an object of the present invention to provide a monitoring parameter update system, a monitoring parameter update method, and a program for improving accuracy and suppressing deterioration of monitoring accuracy.

本開示は、監視エリアを撮像可能に設置されたカメラに接続された第1処理装置と、第2処理装置とが通信可能に接続された監視パラメータ更新システムであって、前記第1処理装置は、前記カメラにより撮像された前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識し、その認識結果および撮像画像を対応付けて前記第2処理装置に送信し、前記第2処理装置は、前記第1処理装置から送られた、前記認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識した場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信する、監視パラメータ更新システムを提供する。 The present disclosure is a monitoring parameter update system in which a first processing device connected to a camera installed so as to be able to image a monitoring area and a second processing device are connected so as to be communicable, and the first processing device is the first processing device. Based on the captured image of the monitoring area captured by the camera, the specific object appearing in the captured image is recognized, and the recognition result and the captured image are associated with each other and transmitted to the second processing device. When the second processing device recognizes an object that is not the specific object based on the recognition result and the captured image sent from the first processing device, the first processing device issues a monitoring parameter update instruction including a monitoring parameter. Provide a monitoring parameter update system to be sent to the processing device .

また、本開示は、監視エリアを撮像可能に設置されたカメラに接続された第1処理装置と、第2処理装置とが通信可能に接続された監視パラメータ更新システムを用いた監視パラメータ更新方法であって、前記第1処理装置は、前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識し、その認識結果および撮像画像を対応付けて前記第2処理装置に送信し、前記第2処理装置は、前記第1処理装置から送られた前記認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識した場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信する、監視パラメータ更新方法を提供する。 Further, the present disclosure is a monitoring parameter updating method using a monitoring parameter updating system in which a first processing device connected to a camera installed so as to be able to image a monitoring area and a monitoring parameter updating device connected to a second processing device so as to be communicable. Therefore, the first processing device recognizes a specific object appearing in the captured image based on the captured image of the monitoring area, and transmits the recognition result and the captured image to the second processing device in association with each other. Then, when the second processing device recognizes an object that is not the specific object based on the recognition result and the captured image sent from the first processing device, the first processing device issues a monitoring parameter update instruction including a monitoring parameter. Provides a monitoring parameter update method to be sent to the processing device .

また、本開示は、監視エリアを撮像可能に設置されたカメラと第2処理装置とにそれぞれ接続された、コンピュータである第1処理装置に、前記カメラにより撮像された前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識するステップと、前記特定オブジェクトの認識結果および撮像画像を対応付けて前記第2処理装置に送信するステップと、前記特定オブジェクトの認識結果および撮像画像に基づいて前記第2処理装置により前記特定オブジェクトでないオブジェクトが認識された場合に、前記第2処理装置から送られた、監視パラメータを含む監視パラメータ更新指示を受信するステップと、をコンピュータ上で実行させるための、プログラムを提供する。 Further, the present disclosure describes the captured image of the monitoring area captured by the camera on the first processing device, which is a computer connected to the camera installed so that the monitoring area can be imaged and the second processing device, respectively. Based on this, a step of recognizing a specific object appearing in the captured image, a step of associating the recognition result of the specific object and the captured image and transmitting the captured image to the second processing device, a recognition result of the specific object, and When an object other than the specific object is recognized by the second processing device based on the captured image, a step of receiving a monitoring parameter update instruction including a monitoring parameter sent from the second processing device is performed on a computer. Provides a program to run on.

また、本開示は、監視エリアを撮像可能に設置されたカメラに接続された第1処理装置との間で通信可能に接続された、コンピュータである第2処理装置に、前記カメラにより撮像された前記監視エリアの撮像画像に基づいて前記第1処理装置により前記撮像画像中に現れた特定オブジェクトが認識された場合に、前記第1処理装置から送られた、前記特定オブジェクトの認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識するステップと、前記オブジェクトが認識された場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信するステップと、をコンピュータ上で実行させるための、プログラムを提供する。 Further, the present disclosure is captured by the camera on a second processing device, which is a computer, which is communicably connected to a first processing device connected to a camera installed so that the monitoring area can be imaged. When the specific object appearing in the captured image is recognized by the first processing device based on the captured image of the monitoring area, the recognition result and the captured image of the specific object sent from the first processing device. Based on the image, a step of recognizing an object that is not the specific object and a step of transmitting a monitoring parameter update instruction including a monitoring parameter to the first processing device when the object is recognized are executed on a computer . To provide a program for.

本開示によれば、撮像画像中に現れた監視対象物である特定オブジェクトを誤認識した場合に撮像画像の認識に関する監視パラメータを更新し、特定オブジェクトの認識精度を向上して監視精度の劣化を抑制することができる。 According to the present disclosure, when a specific object that is a monitoring object appearing in a captured image is erroneously recognized, the monitoring parameters related to the recognition of the captured image are updated to improve the recognition accuracy of the specific object and deteriorate the monitoring accuracy. It can be suppressed.

実施の形態1に係る監視カメラシステムの概要例を示す図The figure which shows the outline example of the surveillance camera system which concerns on Embodiment 1. 監視カメラのハードウェア構成例を示すブロック図Block diagram showing a hardware configuration example of a surveillance camera 画像認識装置のハードウェア構成例を示すブロック図Block diagram showing a hardware configuration example of an image recognition device クラウドサーバのハードウェア構成例を示すブロック図Block diagram showing a hardware configuration example of a cloud server 実施の形態1に係る監視カメラシステムの動作手順例を示すシーケンス図A sequence diagram showing an example of an operation procedure of the surveillance camera system according to the first embodiment. 認識用のパラメータが登録されたパラメータテーブルの登録内容の一例を示す図A diagram showing an example of the registered contents of the parameter table in which the parameters for recognition are registered. 正報が通知された場合に表示される監視カメラの撮像映像の一例を示す図The figure which shows an example of the image taken by the surveillance camera which is displayed when the positive news is notified. 誤報が通知された場合に表示される監視カメラの撮像映像の一例を示す図The figure which shows an example of the image taken by the surveillance camera which is displayed when a false alarm is notified.

(実施の形態の着想に至る経緯)
例えば、高速道路の入口は、安全上、人が入っていけない場所である。高速道路の入口には、通常、監視カメラが設置されている。このような監視カメラにより撮像された撮像映像に映る被写体(オブジェクト)を認識するための画像認識装置は、監視カメラにより撮像された撮像映像に人物らしき被写体(オブジェクト)が映っている場合、ユーザ(例えば、システムの運用者)にその事象を通知する。運用者は、監視カメラの撮像映像に映っている被写体が人であることを確認すると、警報を発する等の様々な対処を行う。
(Background to the idea of the embodiment)
For example, the entrance to a highway is a place where people cannot enter for safety reasons. Surveillance cameras are usually installed at the entrance of the highway. An image recognition device for recognizing a subject (object) reflected in an image captured by such a surveillance camera is a user (object) when a subject (object) that looks like a person is reflected in the image captured by the surveillance camera. For example, the system operator) is notified of the event. When the operator confirms that the subject shown in the image captured by the surveillance camera is a person, the operator takes various measures such as issuing an alarm.

人物らしき対象が映っていることが認識されて画像認識装置から運用者に通知される発報には、正報(いわゆる、認識された被写体が人であるとの正しい認識結果を知らせる旨のメッセージ)の他、撮像映像内に映る影もしくは標識を誤って人物と認識してしまった誤報が多々ある。運用者は、常に1台の監視カメラの撮像映像を監視して観ているわけでなく、複数台の監視カメラの撮像映像のそれぞれを常に観ている。運用者が、誤報に対応する監視カメラの撮像映像を確認している間に、他の監視カメラの撮像映像に基づく正報が通知された場合、正報に対応する撮像映像の運用者による確認が遅れてしまう。この間に、高速道路の入口から入った人物が路肩まで出てしまう等、危ない事象が起こり得る。このように、従来技術では、運用者が、多くの撮像映像を確認しなければならない状況になると、発生したそれぞれの事象に対し、素早く対処できず対応の遅れに繋がることが想定される。また、誤報の数が多くなると、運用者は、撮像映像の確認に忙殺され、正報に対応する撮像映像を見逃してしまうことにも繋がる。このような課題に対して、特許文献1の構成では依然として具体的な解決を図ることが困難である。 The notification that the image recognition device notifies the operator when it is recognized that an object that seems to be a person is reflected is a positive report (so-called a message to inform the correct recognition result that the recognized subject is a person). ), There are many false alarms in which the shadow or sign reflected in the captured image is mistakenly recognized as a person. The operator does not always monitor and watch the images captured by one surveillance camera, but always watches the images captured by a plurality of surveillance cameras. If the operator is notified of the correct report based on the image captured by another surveillance camera while the operator is checking the image captured by the surveillance camera corresponding to the false report, the operator confirms the captured image corresponding to the correct report. Will be delayed. During this time, a dangerous event may occur, such as a person entering from the entrance of a highway going out to the shoulder. As described above, in the conventional technology, when the operator has to confirm a large number of captured images, it is assumed that each event that has occurred cannot be dealt with quickly and the response is delayed. In addition, when the number of false alarms increases, the operator is overwhelmed by checking the captured image, which leads to overlooking the captured image corresponding to the correct report. It is still difficult to solve such a problem concretely with the configuration of Patent Document 1.

そこで、以下の実施の形態1では、被写体(言い換えると、対象)の誤認識を低減し、運用者に通知される誤報の数を減らすことで、素早く対処すべき事象への対応の遅れや、正報に対応する撮像映像の見逃しを無くし、運用者が迅速に対象を認識でき、かつ運用者の負担を減らすようにする監視カメラシステムの例を説明する。 Therefore, in the following embodiment 1, by reducing the misrecognition of the subject (in other words, the target) and reducing the number of false alarms notified to the operator, the delay in responding to the event to be dealt with quickly and the delay in responding to the event should be dealt with. An example of a surveillance camera system will be described in which the operator can quickly recognize the target and reduce the burden on the operator by eliminating the oversight of the captured image corresponding to the false alarm.

(実施の形態1)
以下、適宜図面を参照しながら、本開示に係る監視パラメータ更新システム、監視パラメータ更新方法およびプログラムとして、監視パラメータ更新システムの一例としての監視カメラシステムを具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(Embodiment 1)
Hereinafter, an embodiment in which a surveillance camera system as an example of a surveillance parameter update system is specifically disclosed as a monitoring parameter update system, a monitoring parameter update method, and a program according to the present disclosure will be described in detail with reference to the drawings as appropriate. do. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art. It should be noted that the accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.

図1は、実施の形態1に係る監視カメラシステム5の概要例を示す図である。監視カメラシステム5は、人物等の立ち入りが禁止された立入禁止区域(例えば、高速道路の入口)を撮像エリア(言い換えると、撮像エリア)として設定され、その撮像エリアに人物等が立ち入らないように監視する。具体的には、監視カメラシステム5は、複数の監視カメラ10と、それぞれの監視カメラに対応する複数の画像認識装置30と、クラウドサーバ40とを含む構成を有する。複数の監視カメラ10は、例えば複数の立入禁止区域をそれぞれ監視エリアとして撮像可能な位置に設置される。立入禁止区域は、例えば、遮断機が降りた踏切内もしくは夜間の入場が禁止された公園内等のように、不規則にあるいは時間帯によって立ち入りが制限される場所を含んでよい。また、立入禁止区域は、例えば、人に限らず車両、犬もしくは猫等の小動物の立ち入りが禁止される場所を含んでよい。監視カメラ10により撮像された撮像映像は、それぞれ対応して設けられた画像認識装置30に伝送される。 FIG. 1 is a diagram showing a schematic example of the surveillance camera system 5 according to the first embodiment. In the surveillance camera system 5, an exclusion zone (for example, the entrance of a highway) where people are prohibited from entering is set as an imaging area (in other words, an imaging area) so that no one can enter the imaging area. Monitor. Specifically, the surveillance camera system 5 has a configuration including a plurality of surveillance cameras 10, a plurality of image recognition devices 30 corresponding to the respective surveillance cameras, and a cloud server 40. The plurality of surveillance cameras 10 are installed at positions where, for example, a plurality of restricted areas can be imaged as surveillance areas. The exclusion zone may include a place where access is restricted irregularly or depending on the time of day, for example, in a railroad crossing where a barrier is dropped or in a park where entry is prohibited at night. Further, the exclusion zone may include, for example, a place where not only humans but also vehicles, dogs, cats and other small animals are prohibited from entering. The captured images captured by the surveillance camera 10 are transmitted to the corresponding image recognition devices 30.

ここでは、1台の監視カメラ10と1台の画像認識装置30は、1セットとして組み合わされ、ネットワークNW1を介して通信可能である。なお、1台の監視カメラ10と1台の画像認識装置30は、別々の筐体に収容された装置として構成されてもよいし、同一の筐体に収容されて、一体の装置として構成されてもよい。また、1台の監視認識装置に複数の監視カメラが接続されてもよい。 Here, one surveillance camera 10 and one image recognition device 30 are combined as one set and can communicate via the network NW1. In addition, one surveillance camera 10 and one image recognition device 30 may be configured as a device housed in separate housings, or may be housed in the same housing and configured as an integrated device. You may. Further, a plurality of surveillance cameras may be connected to one surveillance recognition device.

それぞれの画像認識装置30は、それぞれの監視カメラ10で撮像される撮像映像を解析して画像認識処理を行い、監視エリアでの人物判定等の処理を行うものであり、ネットワークNW2を介してクラウドサーバ40に通信可能に接続される。クラウドサーバ40は、画像認識装置30による人物判定、および監視カメラ10による撮像映像を基に、撮像映像を構成する個々の撮像画像ごとに人物等の被写体(オブジェクト)の認識処理等の画像認識処理を行う。また、クラウドサーバ40は、画像認識処理の結果に基づいて、対応する画像認識装置30もしくはその画像認識装置30に対応する監視カメラ10に対し、認識用のパラメータ(後述参照)を更新するものであり、ネットワークNW3を介して、PC(personal computer)50に接続される。PC50は、クラウドサーバ40から送信された発報情報(後述する正報参照)および正報が生成された時の撮像映像を表示する。なお、PC50は、クラウドサーバ40から取得した発報情報に誤報が含まれる場合、アラームを発して運用者に通知する。 Each image recognition device 30 analyzes the captured image captured by each surveillance camera 10 and performs image recognition processing, and performs processing such as person determination in the surveillance area, and is a cloud via the network NW2. It is communicably connected to the server 40. The cloud server 40 performs image recognition processing such as recognition processing of a subject (object) such as a person for each captured image constituting the captured image based on the person determination by the image recognition device 30 and the captured image by the surveillance camera 10. I do. Further, the cloud server 40 updates the recognition parameters (see below) for the corresponding image recognition device 30 or the surveillance camera 10 corresponding to the image recognition device 30 based on the result of the image recognition process. Yes, it is connected to a PC (personal computer) 50 via the network NW3. The PC 50 displays the alarm information transmitted from the cloud server 40 (see the positive report described later) and the captured image when the positive report is generated. The PC 50 issues an alarm to notify the operator when the alarm information acquired from the cloud server 40 contains a false alarm.

図2は、監視カメラ10のハードウェア構成例を示すブロック図である。カメラの一例としての監視カメラ10は、パン・チルト・ズーム可能なPTZ(Pan Tilt Zoom)カメラである。例えば、監視カメラ10は、既定のホームポジション(つまり、プリセット位置の一つ)において、自カメラに対応する立入禁止区域の全体を画角内に含むように撮像する。撮像映像中に人物等の対象が出現した場合、監視カメラ10は、対象が画角内で大きくなるように、パン角およびチルト角を変更して姿勢を対象に向け、ズーム倍率を上げてもよい。 FIG. 2 is a block diagram showing a hardware configuration example of the surveillance camera 10. The surveillance camera 10 as an example of the camera is a PTZ (Pan Tilt Zoom) camera capable of pan / tilt / zoom. For example, the surveillance camera 10 takes an image at a predetermined home position (that is, one of the preset positions) so as to include the entire restricted area corresponding to the own camera within the angle of view. When an object such as a person appears in the captured image, the surveillance camera 10 changes the pan angle and tilt angle so that the object becomes larger within the angle of view, and even if the posture is aimed at the object and the zoom magnification is increased. good.

監視カメラ10は、CPU11と、記憶部12と、撮像部13と、映像処理部14と、通信部15と、パンチルト駆動部16と、加速度センサ18と、IR照射部19と、を含む構成である。 The surveillance camera 10 includes a CPU 11, a storage unit 12, an image pickup unit 13, a video processing unit 14, a communication unit 15, a pan / tilt drive unit 16, an acceleration sensor 18, and an IR irradiation unit 19. be.

パンチルト駆動部16は、撮像部13をパン方向およびチルト方向に駆動するものであり、チルト制御部21、パン制御部22、チルトモータ23およびパンモータ24を含む。チルト制御部21は、チルトモータ23の回転角を制御する。パン制御部22は、パンモータ24の回転角を制御する。 The pan-tilt drive unit 16 drives the image pickup unit 13 in the pan direction and the tilt direction, and includes a tilt control unit 21, a pan control unit 22, a tilt motor 23, and a pan motor 24. The tilt control unit 21 controls the rotation angle of the tilt motor 23. The pan control unit 22 controls the rotation angle of the pan motor 24.

加速度センサ18は、監視カメラ10の姿勢(例えば、レンズの光軸方向を定めるパン角およびチルト角)に対応する信号を出力する。CPU11は、加速度センサ18から出力される信号を基に、監視カメラ10の姿勢を制御する。加速度センサ18には、例えば半導体ピエゾ抵抗効果を利用した半導体式、回転質量体により可動接点と固定接点を開閉する機械式のものが用いられる。 The accelerometer 18 outputs a signal corresponding to the posture of the surveillance camera 10 (for example, a pan angle and a tilt angle that determine the optical axis direction of the lens). The CPU 11 controls the posture of the surveillance camera 10 based on the signal output from the acceleration sensor 18. As the acceleration sensor 18, for example, a semiconductor type using a semiconductor piezoresistive effect or a mechanical type that opens and closes a movable contact and a fixed contact by a rotating mass body is used.

撮像部13は、撮像素子として、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)を有する。撮像素子は、例えば1画素がR画素、G画素、B画素およびIR画素のベイヤ配列で形成される、複数の画素群(例えば100万画素)を含む。また、撮像部13は、焦点距離を調節可能フォーカスレンズ、およびズーム倍率を変更可能なズームレンズを含む。撮像部13は、撮像素子から出力される電荷信号を増幅するアンプ、およびこのアンプのゲインを調整可能なゲイン調整部を含む。 The image pickup unit 13 has a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) as an image pickup device. The image pickup device includes, for example, a plurality of pixel groups (for example, 1 million pixels) in which one pixel is formed by a Bayer array of R pixels, G pixels, B pixels, and IR pixels. Further, the image pickup unit 13 includes a focus lens whose focal length can be adjusted and a zoom lens whose zoom magnification can be changed. The image pickup unit 13 includes an amplifier that amplifies the charge signal output from the image pickup element, and a gain adjustment unit that can adjust the gain of the amplifier.

映像処理部14は、撮像部13で撮像された撮像映像のデータ信号に対し、AD変換、色補正、雑音除去、輪郭強調等の各種の信号処理を行う。 The image processing unit 14 performs various signal processing such as AD conversion, color correction, noise removal, and contour enhancement on the data signal of the image captured image captured by the image pickup unit 13.

記憶部12は、例えばRAM(Random Access Memory)とROM(Read Only Memory)を含み、監視カメラ10の動作の実行に必要なプログラムやデータ(例えば、フォーカス調整に必要な焦点距離、ゲイン調整に必要なゲイン値等のパラメータを含む)、動作中に生成された情報またはデータ等を一時的に保存する。記憶部12は、監視カメラ10のホームポジションを表す(パン角、チルト角、ズーム倍率)をプリセット値として記憶してもよい。RAMは、例えばCPU11の動作時に使用されるワークメモリである。ROMは、例えばCPU11を制御するためのプログラムおよびデータを予め記憶する。 The storage unit 12 includes, for example, a RAM (Random Access Memory) and a ROM (Read Only Memory), and is required for programs and data (for example, focal length required for focus adjustment and gain adjustment) necessary for executing the operation of the surveillance camera 10. (Including parameters such as gain value), information or data generated during operation is temporarily saved. The storage unit 12 may store (pan angle, tilt angle, zoom magnification) representing the home position of the surveillance camera 10 as preset values. The RAM is, for example, a work memory used when the CPU 11 is operating. The ROM stores, for example, a program and data for controlling the CPU 11 in advance.

CPU11は、監視カメラ10の各部の動作を制御する。CPU11は、監視カメラ10の制御部として機能し、監視カメラ10の各部の動作を全体的に統括するための制御処理、監視カメラ10の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。CPU11は、記憶部12内のROMに記憶されたプログラムの実行に従って動作する。CPU11は、加速度センサ18から出力される信号を基に、監視カメラ10の姿勢を制御する。CPU11は、撮像部13で撮像され、映像処理部14で信号処理された撮像映像のデータを、通信部15を介して、画像認識装置30に送信する。 The CPU 11 controls the operation of each part of the surveillance camera 10. The CPU 11 functions as a control unit of the surveillance camera 10, controls processing for overall control of the operation of each unit of the surveillance camera 10, data input / output processing with and from each unit of the surveillance camera 10, and data calculation (data calculation (). Calculation) Processing and data storage processing are performed. The CPU 11 operates according to the execution of the program stored in the ROM in the storage unit 12. The CPU 11 controls the posture of the surveillance camera 10 based on the signal output from the acceleration sensor 18. The CPU 11 transmits the data of the captured image captured by the imaging unit 13 and signal-processed by the image processing unit 14 to the image recognition device 30 via the communication unit 15.

通信部15は、有線LAN(Local Area Network)で画像認識装置30と通信可能に接続される。なお、通信部15は、無線LANでPCと通信可能に接続されてもよい。 The communication unit 15 is communicably connected to the image recognition device 30 via a wired LAN (Local Area Network). The communication unit 15 may be connected to the PC via a wireless LAN so as to be able to communicate with the PC.

IR照射部19は、夜間等の周囲が暗い場合、白黒画像を撮像するために、被写体に向けて近赤外光(IR(infrared radiation )光)を照射する。ここでは、夜間に光の到達する距離が長く、非可視光であるIR光を照射する場合を示したが、非可視光であるIR光に限らず、可視光を照射してもよい。 The IR irradiation unit 19 irradiates a subject with near-infrared light (IR (infrared radiation) light) in order to capture a black-and-white image when the surroundings are dark, such as at night. Here, the case where the light reaches a long distance at night and the IR light which is invisible light is irradiated is shown. However, the light is not limited to the IR light which is invisible light, and visible light may be irradiated.

図3は、画像認識装置30のハードウェア構成例を示すブロック図である。画像認識装置30は、自装置に接続される監視カメラ10により撮像された撮像映像をリアルタイムで受信して画像認識処理(例えば、人物の判定、人物の侵入の有無の検知)を施す。また、画像認識装置30は、人物判定の結果として人物の侵入を検知した場合、人物判定の結果(発報情報の一例)および人物判定が行われた撮像映像(発報画像の一例)をクラウドサーバ40に送信する。また、画像認識装置30は、例えば1日1回、クラウドサーバ40から最適な認識用のパラメータを受信し、自装置が保持する認識用のパラメータを更新するか、または監視カメラ10が保持する認識用のパラメータを監視カメラ10に更新させる。 FIG. 3 is a block diagram showing a hardware configuration example of the image recognition device 30. The image recognition device 30 receives the captured image captured by the surveillance camera 10 connected to the own device in real time and performs image recognition processing (for example, determination of a person, detection of the presence or absence of intrusion of a person). Further, when the image recognition device 30 detects the intrusion of a person as a result of the person determination, the image recognition device 30 cloud the result of the person determination (an example of the alarm information) and the captured image in which the person is determined (an example of the alarm image). Send to server 40. Further, the image recognition device 30 receives, for example, once a day from the cloud server 40 the optimum recognition parameters, updates the recognition parameters held by the own device, or recognizes the recognition held by the surveillance camera 10. The surveillance camera 10 is made to update the parameters for.

第1処理装置の一例としての画像認識装置30は、映像処理装置として動作し、プロセッサ31、ROM(Read only memory)32、RAM(Random Access memory)33、ハードディスクドライブ(HDD)34、および通信部35を少なくとも含む構成である。 The image recognition device 30 as an example of the first processing device operates as a video processing device, and has a processor 31, a ROM (Read only memory) 32, a RAM (Random Access memory) 33, a hard disk drive (HDD) 34, and a communication unit. It is a configuration including at least 35.

プロセッサ31は、例えばCPU(Central Processing unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて構成され、画像認識装置30の各部の動作を制御する。プロセッサ31は、画像認識装置30の制御部として機能し、画像認識装置30の各部の動作を全体的に統括するための制御処理、画像認識装置30の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。プロセッサ31は、ROM32に記憶されたプログラムおよびデータに従って動作する。プロセッサ31は、画像認識装置30に接続される監視カメラ10により撮像された撮像映像を用いて、上述した画像認識処理を行う。 The processor 31 is configured by using, for example, a CPU (Central Processing unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array), and controls the operation of each part of the image recognition device 30. The processor 31 functions as a control unit of the image recognition device 30, and controls processing for overall control of the operation of each part of the image recognition device 30, data input / output processing with each part of the image recognition device 30, and data input / output processing. Performs data calculation processing and data storage processing. The processor 31 operates according to the program and data stored in the ROM 32. The processor 31 performs the above-mentioned image recognition process using the captured image captured by the surveillance camera 10 connected to the image recognition device 30.

ROM32は、例えばプロセッサ31を制御するためのプログラムおよびデータを予め記憶する。RAM33は、プロセッサ31の動作時に使用されるワークメモリである。RAM33は、プロセッサ31の動作の実行に必要なプログラムやデータ、更には、動作中に生成された情報またはデータ等を一時的に保存する。 The ROM 32 stores, for example, a program and data for controlling the processor 31 in advance. The RAM 33 is a work memory used when the processor 31 operates. The RAM 33 temporarily stores programs and data necessary for executing the operation of the processor 31, as well as information or data generated during the operation.

HDD34は、大容量の記憶媒体であり、プロセッサ31により実行された撮像映像の画像認識判定結果34aと、通信部35により受信された撮像画像データ34bと、プロセッサ31における画像認識処理において用いられる認識用のパラメータ34c等を記憶する。 The HDD 34 is a large-capacity storage medium, and the image recognition determination result 34a of the captured image executed by the processor 31, the captured image data 34b received by the communication unit 35, and the recognition used in the image recognition process in the processor 31. Parameters 34c and the like for storage are stored.

通信部35は、ネットワークNW1を介して、監視カメラ10とデータ通信可能に接続される。通信部35は、ネットワークNW2を介して、クラウドサーバ40とデータ通信可能に接続される。ネットワークNW1およびネットワークNW2は、有線LAN(Local Area Network)または無線LANであってもよい。 The communication unit 35 is connected to the surveillance camera 10 via the network NW1 so as to be capable of data communication. The communication unit 35 is connected to the cloud server 40 via the network NW2 so as to be capable of data communication. The network NW1 and the network NW2 may be a wired LAN (Local Area Network) or a wireless LAN.

図4は、クラウドサーバ40のハードウェア構成例を示すブロック図である。クラウドサーバ40は、画像認識装置30から送信された、人物判定の結果(発報情報の一例)および人物判定が行われた撮像映像(発報画像の一例)を受信するとともに、この撮像映像を用いて画像認識装置30での画像認識処理の精度を確認するために画像認識の再検証を行う。クラウドサーバ40は、再検証を行う際、ハードディスクドライブ(HDD)44に蓄積されている誤報データ(図示略)との類似性を確認し、誤報データとの類似性が高い場合、誤報と判定し、誤報と判定された撮像映像をPC50に表示しない。一方、クラウドサーバ40は、誤報データとの類似性が低い場合、正報と判定し、正報と判定された撮像映像をPC50に表示する。クラウドサーバ40は、誤報の判定結果および誤報と判定された撮像映像を含む誤報データをハードディスクドライブ(HDD)44に蓄積し、学習データとして扱う。クラウドサーバ40は、誤報データを大量に蓄積する。誤報データの蓄積量が増加すると、クラウドサーバ40によって判定される誤報データとの類似性の確認精度が向上する。クラウドサーバ40は、誤報と判定した場合、その都度、認識用のパラメータを更新する。クラウドサーバ40は、例えば1日1回、現時点の最適な認識用のパラメータを画像認識装置30に送信する。最適な認識用のパラメータは、図6に示すように、例えば照度、明るさ、背景色、色情報等に対応する、白黒/カラーの切替、フォーカス調整、ゲイン調整等を含む。 FIG. 4 is a block diagram showing a hardware configuration example of the cloud server 40. The cloud server 40 receives the result of the person determination (an example of the alarm information) and the captured image in which the person is determined (an example of the alarm image) transmitted from the image recognition device 30, and also receives the captured image. The image recognition is re-verified in order to confirm the accuracy of the image recognition process in the image recognition device 30. When the cloud server 40 performs re-verification, it confirms the similarity with the false alarm data (not shown) stored in the hard disk drive (HDD) 44, and if the similarity with the false alarm data is high, it determines that it is a false alarm. , The captured image determined to be a false alarm is not displayed on the PC 50. On the other hand, when the similarity with the false alarm data is low, the cloud server 40 determines that the report is correct, and displays the captured image determined to be the correct report on the PC 50. The cloud server 40 stores the false alarm data including the false alarm determination result and the captured image determined as the false alarm in the hard disk drive (HDD) 44 and treats it as learning data. The cloud server 40 accumulates a large amount of false alarm data. When the accumulated amount of false alarm data increases, the accuracy of confirming the similarity with the false alarm data determined by the cloud server 40 improves. The cloud server 40 updates the recognition parameter each time it determines that it is a false alarm. The cloud server 40 transmits, for example, once a day, the parameters for the optimum recognition at the present time to the image recognition device 30. As shown in FIG. 6, the optimum recognition parameters include, for example, black-and-white / color switching, focus adjustment, gain adjustment, and the like corresponding to illuminance, brightness, background color, color information, and the like.

第2処理装置の一例としてのクラウドサーバ40は、映像処理装置として動作し、プロセッサ41、ROM(Read only memory)42、RAM(Random Access memory)43、ハードディスクドライブ(HDD)44、および通信部45を含む構成である。 The cloud server 40 as an example of the second processing device operates as a video processing device, and has a processor 41, a ROM (Read only memory) 42, a RAM (Random Access memory) 43, a hard disk drive (HDD) 44, and a communication unit 45. It is a configuration including.

プロセッサ41は、例えばCPU(Central Processing unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて構成され、クラウドサーバ40の各部の動作を制御する。プロセッサ41は、クラウドサーバ40の制御部として機能し、クラウドサーバ40の各部の動作を全体的に統括するための制御処理、クラウドサーバ40の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。プロセッサ41は、ROM42に記憶されたプログラムおよびデータに従って動作する。プロセッサ41は、画像認識装置30から送信された、人物判定の結果(発報情報の一例)および人物判定が行われた撮像映像(発報画像の一例)を用いて、上述した画像認識の再検証を行う。 The processor 41 is configured by using, for example, a CPU (Central Processing unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array), and controls the operation of each part of the cloud server 40. The processor 41 functions as a control unit of the cloud server 40, and controls processing for overall control of the operation of each unit of the cloud server 40, data input / output processing with and from each unit of the cloud server 40, and data calculation. Performs (calculation) processing and data storage processing. The processor 41 operates according to the program and data stored in the ROM 42. The processor 41 uses the result of the person determination (an example of the alarm information) and the captured image in which the person is determined (an example of the alarm image) transmitted from the image recognition device 30 to repeat the above-mentioned image recognition. Perform verification.

ROM42は、例えばプロセッサ41を制御するためのプログラムおよびデータを予め記憶する。RAM43は、プロセッサ41の動作時に使用されるワークメモリである。RAM43は、プロセッサ41の動作の実行に必要なプログラムやデータ、更には、動作中に生成された情報またはデータ等を一時的に保存する。 The ROM 42 stores, for example, a program and data for controlling the processor 41 in advance. The RAM 43 is a work memory used when the processor 41 operates. The RAM 43 temporarily stores programs and data necessary for executing the operation of the processor 41, as well as information or data generated during the operation.

HDD44は、大容量の記憶媒体であり、撮像映像の画像認識判定結果44a、撮像画像データ44b、認識用のパラメータ44c等を記憶する。 The HDD 44 is a large-capacity storage medium, and stores an image recognition determination result 44a of a captured image, captured image data 44b, a recognition parameter 44c, and the like.

通信部45は、ネットワークNW2を介して、画像認識装置30とデータ通信可能に接続される。通信部45は、ネットワークNW3を介して、PC50とデータ通信可能に接続される。ネットワークNW3は、有線LAN(Local Area Network)または無線LANであってもよい。 The communication unit 45 is connected to the image recognition device 30 via the network NW2 so as to be capable of data communication. The communication unit 45 is connected to the PC 50 via the network NW3 so as to be capable of data communication. The network NW3 may be a wired LAN (Local Area Network) or a wireless LAN.

次に、実施の形態1に係る監視カメラシステム5の動作例を説明する。 Next, an operation example of the surveillance camera system 5 according to the first embodiment will be described.

図5は、実施の形態1に係る監視カメラシステム5の動作手順例を示すシーケンス図である。監視カメラ10の撮像部13は、監視エリアSA(図7参照)の一例として立入禁止区域を撮像する(T1)。通信部15は、ネットワークNW1を介して、撮像部13による撮像映像を画像認識装置30に送信する(T2)。 FIG. 5 is a sequence diagram showing an example of an operation procedure of the surveillance camera system 5 according to the first embodiment. The imaging unit 13 of the surveillance camera 10 captures an exclusion zone as an example of the surveillance area SA (see FIG. 7) (T1). The communication unit 15 transmits the image captured by the image pickup unit 13 to the image recognition device 30 via the network NW1 (T2).

画像認識装置30の通信部35は、監視カメラ10からの撮像映像を受信する。プロセッサ31は、通信部35を介して受信した撮像映像に対して画像認識処理を行い、人物判定を行う(T3)。 The communication unit 35 of the image recognition device 30 receives the captured image from the surveillance camera 10. The processor 31 performs image recognition processing on the captured image received via the communication unit 35, and performs a person determination (T3).

画像認識処理では、例えば人工知能を用いて人物判定が行われる。プロセッサ31は、ディープラーニング等の機械学習によって蓄積された人物画像の学習データを基に、学習済みモデルを生成し、この学習済みモデルに撮像映像を入力し、その学習済みモデルを用いた人物判定(言い換えると、人物の検知および認識の処理)の出力として、対象である人物の有無を判定する。また、プロセッサ31は、判定した人物を囲む枠を設定し、この人物画像の動きに合わせて枠を移動させる。 In the image recognition process, for example, a person is determined using artificial intelligence. The processor 31 generates a trained model based on the training data of the person image accumulated by machine learning such as deep learning, inputs the captured image to the trained model, and determines the person using the trained model. (In other words, the presence or absence of the target person is determined as the output of the process of detecting and recognizing the person). Further, the processor 31 sets a frame surrounding the determined person, and moves the frame according to the movement of the person image.

なお、ステップT3では、人工知能を用いて画像中の人物を判定したが、プロセッサ31は、予め登録された人物の参照画像と、監視カメラ10による撮像映像とのテンプレートマッチングを行って人物を判定してもよい。プロセッサ31は、テンプレートマッチングを行い、参照画像と撮像映像との特徴量の類似度が既定値より高い場合、人物を判定し、同様に人物を囲む枠を設定してもよい。 In step T3, the person in the image is determined by using artificial intelligence, but the processor 31 performs template matching between the reference image of the person registered in advance and the image captured by the surveillance camera 10 to determine the person. You may. The processor 31 may perform template matching, determine a person when the similarity between the feature amount of the reference image and the captured image is higher than the default value, and similarly set a frame surrounding the person.

通信部35は、人物判定の結果、および人物判定が行われた撮像映像をクラウドサーバ40に送信する(T4)。ここでは、人物であると判定された場合、撮像画像が送信されるが、人物でないと判定された場合にも撮像画像を送信してもよい。画像認識装置30では、人物でないと判定された場合でも、クラウドサーバ40が人物判定を行って、画像認識装置の判定を取り消し、人物と判定することも想定される。これにより、人物でないと判定される誤判定を排除できる。従って、人物検知の精度を高めることができる。 The communication unit 35 transmits the result of the person determination and the captured image in which the person determination is performed to the cloud server 40 (T4). Here, if it is determined that the person is a person, the captured image is transmitted, but if it is determined that the person is not a person, the captured image may be transmitted. In the image recognition device 30, even if it is determined that the person is not a person, it is assumed that the cloud server 40 performs the person determination, cancels the determination of the image recognition device, and determines that the person is a person. As a result, it is possible to eliminate an erroneous determination that the person is not a person. Therefore, the accuracy of person detection can be improved.

クラウドサーバ40の通信部45は、画像認識装置30から人物判定の結果および人物判定後の撮像映像を受信する。クラウドサーバ40のプロセッサ41は、オブジェクト認識処理を行う(T5)。 The communication unit 45 of the cloud server 40 receives the result of the person determination and the captured image after the person determination from the image recognition device 30. The processor 41 of the cloud server 40 performs object recognition processing (T5).

オブジェクト認識処理では、例えば人工知能を用いて人物判定が行われる。プロセッサ41は、ディープラーニング等の機械学習によって蓄積された人物画像の学習データを基に、学習済みモデルを生成し、この学習済みモデルに撮像映像を入力し、その学習済みモデルを用いたオブジェクト認識処理(つまり、人物の検知および認識の処理)の出力として、対象である人物の有無を判定する。また、プロセッサ41は、判定した人物を囲む枠を設定し、この人物画像の動きに合わせて枠を移動させる。 In the object recognition process, for example, a person is determined using artificial intelligence. The processor 41 generates a trained model based on the training data of the person image accumulated by machine learning such as deep learning, inputs the captured image to the trained model, and recognizes the object using the trained model. As the output of the process (that is, the process of detecting and recognizing a person), it is determined whether or not there is a target person. Further, the processor 41 sets a frame surrounding the determined person, and moves the frame according to the movement of the person image.

なお、ステップT5では、人工知能を用いて画像中の人物を判定したが、プロセッサ41は、予め登録された人物の参照画像と、監視カメラ10による撮像映像とのテンプレートマッチングを行ってもよい。プロセッサ41は、テンプレートマッチングで特徴量の類似度が既定値より高い場合、人物を判定する。プロセッサ41は、人物が判定された人物画像を囲む枠を設定し、この人物画像の動きに合わせて枠を移動させる。 In step T5, the person in the image is determined by using artificial intelligence, but the processor 41 may perform template matching between the reference image of the person registered in advance and the image captured by the surveillance camera 10. The processor 41 determines a person when the similarity of the feature amount is higher than the default value in the template matching. The processor 41 sets a frame surrounding the person image in which the person is determined, and moves the frame according to the movement of the person image.

なお、ステップT3およびステップT5の判定では、同じ判定手法が用いられたが、異なる判定手法を用いてもよい。例えば、ステップT3では人工知能を用いて人物判定を行い、ステップT5ではテンプレートマッチングを行って人物判定を行ってもよい。逆に、ステップT3ではテンプレートマッチングを行って人物判定を行い、ステップT5では人工知能を用いて人物判定を行ってもよい。この場合、異なる判定手法で同じ判定結果が得られる場合、判定精度が高まる。また、判定結果が異なる場合、疑わしい判定結果をPCに表示して、運用者の判断を仰ぐようにしてもよい。また、画像認識装置と比べて、判定能力が高いと想定されるクラウドサーバの判定結果を優先してもよい。 Although the same determination method was used in the determinations in steps T3 and T5, different determination methods may be used. For example, in step T3, a person may be determined using artificial intelligence, and in step T5, template matching may be performed to determine a person. On the contrary, in step T3, template matching may be performed to determine a person, and in step T5, artificial intelligence may be used to determine a person. In this case, if the same determination result can be obtained by different determination methods, the determination accuracy is improved. Further, when the judgment results are different, the suspicious judgment result may be displayed on the PC to ask the operator's judgment. Further, the determination result of the cloud server, which is assumed to have higher determination ability than the image recognition device, may be prioritized.

また、ステップT3およびステップT5の判定では、立入禁止区域に侵入している対象として人間である場合を想定したが、車両、小動物、ゴミ等であってもよい。 Further, in the determination of step T3 and step T5, it is assumed that the target invading the restricted area is a human being, but a vehicle, a small animal, garbage, or the like may be used.

人物判定の結果、正報(つまり、画像認識装置30での認識結果がクラウドサーバ40での認識結果と一致した旨の結果)が得られた場合、プロセッサ41は、HDD44に、人物判定の結果を画像認識判定結果44aとして記憶し、正報に対応する撮像映像を撮像画像データ44bとして記憶する。また、プロセッサ41は、正報に対応する撮像映像を学習データとして蓄積し、認識用のパラメータ44cを更新する。 When a correct report (that is, a result that the recognition result of the image recognition device 30 matches the recognition result of the cloud server 40) is obtained as a result of the person determination, the processor 41 tells the HDD 44 the result of the person determination. Is stored as the image recognition determination result 44a, and the captured image corresponding to the correct report is stored as the captured image data 44b. Further, the processor 41 stores the captured image corresponding to the positive report as learning data, and updates the recognition parameter 44c.

クラウドサーバ40の通信部45は、人物判定の結果、正報(つまり、画像認識装置30での認識結果がクラウドサーバ40での認識結果と一致した旨の結果)が得られた場合、その判定結果および撮像映像をPC50に送信する(T6)。PC50は、正報である判定結果および撮像画像を受信し、その撮像画像を、PC50に内蔵されるまたはPC50に接続されるディスプレイ(図示略)の表示画面に表示する(T7)。運用者は、PC50に表示された正報である撮像映像を視認できる。これにより、誤報(つまり、画像認識装置30での認識結果がクラウドサーバ40での認識結果と一致しなかった旨の結果)に対応する撮像映像が表示されないので、運用者は、正報に対応する撮像映像の確認に注力できる。 When the communication unit 45 of the cloud server 40 obtains a correct report (that is, the result that the recognition result of the image recognition device 30 matches the recognition result of the cloud server 40) as a result of the person determination, the determination is made. The result and the captured image are transmitted to the PC 50 (T6). The PC 50 receives a determination result and a captured image which are positive reports, and displays the captured image on a display screen of a display (not shown) built in the PC 50 or connected to the PC 50 (T7). The operator can visually recognize the captured image which is the correct report displayed on the PC 50. As a result, the captured image corresponding to the false alarm (that is, the result that the recognition result of the image recognition device 30 does not match the recognition result of the cloud server 40) is not displayed, so that the operator responds to the correct report. You can focus on checking the captured image.

ステップT5の人物判定の結果、誤報(つまり、画像認識装置30での認識結果がクラウドサーバ40での認識結果と一致しなかった旨の結果)が得られた場合、プロセッサ41は、HDD44に、人物判定の結果を画像認識判定結果44aとして記憶し、誤報に対応する撮像映像を撮像画像データ44bとして記憶する。また、プロセッサ41は、誤報に対応する撮像映像を学習データとして蓄積し、認識用のパラメータ44cを更新する。 If an erroneous report (that is, a result that the recognition result of the image recognition device 30 does not match the recognition result of the cloud server 40) is obtained as a result of the person determination in step T5, the processor 41 sends the HDD 44 to the HDD 44. The result of the person determination is stored as the image recognition determination result 44a, and the captured image corresponding to the erroneous report is stored as the captured image data 44b. Further, the processor 41 stores the captured image corresponding to the false alarm as learning data, and updates the recognition parameter 44c.

クラウドサーバ40の通信部45は、人物判定の結果、誤報(つまり、画像認識装置30での認識結果がクラウドサーバ40での認識結果と一致しなかった旨の結果)が得られた場合、認識用のパラメータ44cを画像認識装置30に送信し、この認識用のパラメータ44cを含む更新指示(監視パラメータ更新指示の一例)を行う(T8)。この認識用のパラメータ44cの送信は、ステップT4で撮像映像を送信した画像認識装置30に対して行われる。 The communication unit 45 of the cloud server 40 recognizes when a false report (that is, a result that the recognition result of the image recognition device 30 does not match the recognition result of the cloud server 40) is obtained as a result of the person determination. The parameter 44c for is transmitted to the image recognition device 30, and an update instruction (an example of a monitoring parameter update instruction) including the parameter 44c for recognition is given (T8). The transmission of the recognition parameter 44c is performed to the image recognition device 30 that has transmitted the captured image in step T4.

図6は、認識用のパラメータ44cが登録されたパラメータテーブルTb1の登録内容の一例を示す図である。このパラメータテーブルTb1は、クラウドサーバ40のHDD44に記憶される。パラメータテーブルTb1に登録されている認識用のパラメータは、撮像画像に映る対象に対して人物判定を行う際、誤判定を抑制するために更新されるパラメータである。パラメータテーブルTb1には、認識用のパラメータの一例として、白黒/カラー切替、フォーカス調整、ゲイン調整の各条件が登録される。また、認識用のパラメータは、例えば人工知能により画像認識処理を行う場合、ニューラルネットワークを構成する中間層のニューロンの数および重み付け係数を含んでよい。また、テンプレートマッチングにより画像認識処理を行う場合、使用される参照画像を含む。また、認識用のパラメータは、正報画像および誤報画像を含んでもよい。 FIG. 6 is a diagram showing an example of the registered contents of the parameter table Tb1 in which the recognition parameter 44c is registered. This parameter table Tb1 is stored in the HDD 44 of the cloud server 40. The recognition parameter registered in the parameter table Tb1 is a parameter that is updated in order to suppress an erroneous determination when performing a person determination on an object displayed in a captured image. In the parameter table Tb1, each condition of black-and-white / color switching, focus adjustment, and gain adjustment is registered as an example of the recognition parameter. Further, the recognition parameter may include, for example, the number of neurons in the intermediate layer constituting the neural network and a weighting coefficient when performing image recognition processing by artificial intelligence. Further, when performing image recognition processing by template matching, a reference image to be used is included. Moreover, the parameter for recognition may include a positive report image and a false report image.

白黒/カラー切替は、画像認識装置30によって行われる。白黒/カラー切替は、日時や画像全体の照度を基に、撮像される映像を白黒画像あるいはカラー画像に切り替えることである。例えば、日中(明るい時間帯)や画像全体が明るい場合、カラー画像が採用される。夜間(暗い時間帯)や画像全体が暗い場合、白黒画像が採用される。一例として、監視カメラ10の撮像素子において、1画素がR画素、G画素、B画素およびIR画素のベイヤ配列で構成される場合、白黒画像は、IR画素から出力される信号で生成され、カラー画像は、R画素、G画素およびB画素から出力される信号で生成される。白黒/カラー切替を行う場合、画像認識装置30のプロセッサ31は、通信部35を介して入力される監視カメラ10による撮像信号のうち、IR画素の信号を選択して白黒画像を選択し、またはRGB画素の信号を選択してカラー画像を選択する。 Black-and-white / color switching is performed by the image recognition device 30. Black-and-white / color switching is to switch the captured image to a black-and-white image or a color image based on the date and time and the illuminance of the entire image. For example, a color image is adopted during the daytime (bright hours) or when the entire image is bright. A black-and-white image is adopted at night (dark hours) or when the entire image is dark. As an example, in the image pickup element of the surveillance camera 10, when one pixel is composed of a bayer arrangement of R pixel, G pixel, B pixel and IR pixel, a black-and-white image is generated by a signal output from the IR pixel and is colored. The image is generated by the signals output from the R pixel, the G pixel and the B pixel. When performing black-and-white / color switching, the processor 31 of the image recognition device 30 selects an IR pixel signal from among the images captured by the surveillance camera 10 input via the communication unit 35, or selects a black-and-white image. Select the RGB pixel signal and select the color image.

フォーカス調整は、監視カメラ10によって行われる。フォーカス調整は、日時や画像全体の乱れ(言い換えると、ぼけ)の度合いを基に、フォーカスを調整する(焦点距離を調節する)ことである。監視カメラ10のCPU11は、撮像部13内の撮像素子の前に配されたフォーカスレンズを光軸方向に移動させることで焦点距離を調節する。 The focus adjustment is performed by the surveillance camera 10. Focus adjustment is to adjust the focus (adjust the focal length) based on the date and time and the degree of distortion (in other words, blur) of the entire image. The CPU 11 of the surveillance camera 10 adjusts the focal length by moving the focus lens arranged in front of the image pickup element in the image pickup unit 13 in the optical axis direction.

ゲイン調整は、監視カメラ10によって行われる。ゲイン調整は、天候や夜間等の影響で光量の多寡が生じる場合、撮像信号を増減して画像の明るさを調整することである。監視カメラ10のCPU11は、撮像部13内の撮像素子からの電荷信号が入力されるアンプのゲインを調整することで、撮像信号を増減させる。 The gain adjustment is performed by the surveillance camera 10. Gain adjustment is to adjust the brightness of an image by increasing or decreasing the imaging signal when the amount of light is large due to the influence of weather or nighttime. The CPU 11 of the surveillance camera 10 increases or decreases the image pickup signal by adjusting the gain of the amplifier to which the charge signal from the image pickup element in the image pickup unit 13 is input.

画像認識装置30の通信部35は、ステップT8でクラウドサーバ40から認識用のパラメータ44cを受信すると、自装置のHDD34に記憶されている認識用のパラメータ34cを更新する(T9)。プロセッサ31は、自装置のパラメータとして、認識用のパラメータ34cに含まれる白黒/カラー切替を設定する。通信部35は、認識用のパラメータ34cに含まれるフォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方を監視カメラ10に送信する(T10)。 When the communication unit 35 of the image recognition device 30 receives the recognition parameter 44c from the cloud server 40 in step T8, the communication unit 35 updates the recognition parameter 34c stored in the HDD 34 of its own device (T9). The processor 31 sets the black-and-white / color switching included in the recognition parameter 34c as a parameter of its own device. The communication unit 35 transmits one or both of the focus adjustment and gain adjustment parameters included in the recognition parameter 34c to the surveillance camera 10 (T10).

監視カメラ10の通信部15は、画像認識装置30からフォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方を受信する。CPU11は、フォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方を記憶部12に記憶し、撮像部13に対してフォーカス調整およびゲイン調整のうち一方またはその両方を行う(T11)。 The communication unit 15 of the surveillance camera 10 receives one or both of the focus adjustment and gain adjustment parameters from the image recognition device 30. The CPU 11 stores one or both of the focus adjustment and the gain adjustment parameters in the storage unit 12, and performs one or both of the focus adjustment and the gain adjustment on the image pickup unit 13 (T11).

クラウドサーバ40のHDD44には、多くの画像認識装置30から受信した正報または誤報の撮像映像を基にリアルタイムに更新される、最適な認識用のパラメータ44cが登録されたパラメータテーブルTb1が記憶される。プロセッサ41は、HDD44に記憶されたパラメータテーブルTb1に登録されている認識用のパラメータ44cを、定期的に(ここでは、一例として1日1回)それぞれの画像認識装置30に送信し、この認識用のパラメータ44cを含む使用指示(監視パラメータ使用指示)を行う(T12)。 The HDD 44 of the cloud server 40 stores a parameter table Tb1 in which the optimum recognition parameter 44c, which is updated in real time based on the captured images of positive or false reports received from many image recognition devices 30, is registered. To. The processor 41 periodically (here, once a day as an example) transmits the recognition parameter 44c registered in the parameter table Tb1 stored in the HDD 44 to each image recognition device 30, and this recognition. A usage instruction (monitoring parameter usage instruction) including the parameter 44c for is given (T12).

それぞれの画像認識装置30の通信部35は、ステップT12でクラウドサーバ40から認識用のパラメータ44cを受信すると、自装置のHDD34に記憶されている認識用のパラメータ34cを更新する(T13)。それぞれのプロセッサ31は、自装置のパラメータとして、認識用のパラメータ34cに含まれる白黒/カラー切替を設定する。それぞれの通信部35は、認識用のパラメータ34cに含まれるフォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方をそれぞれの監視カメラ10に送信する(T14)。 When the communication unit 35 of each image recognition device 30 receives the recognition parameter 44c from the cloud server 40 in step T12, the communication unit 35 updates the recognition parameter 34c stored in the HDD 34 of its own device (T13). Each processor 31 sets black-and-white / color switching included in the recognition parameter 34c as a parameter of its own device. Each communication unit 35 transmits one or both of the focus adjustment and gain adjustment parameters included in the recognition parameter 34c to the respective surveillance cameras 10 (T14).

それぞれの監視カメラ10の通信部15は、画像認識装置30からフォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方を受信する。それぞれのCPU11は、フォーカス調整およびゲイン調整のそれぞれのパラメータのうち一方またはその両方を記憶部12に記憶し、撮像部13に対してフォーカス調整およびゲイン調整のうち一方またはその両方を行う(T15)。これ以降、監視カメラ10は、ステップT1の処理に戻り、監視カメラシステム5は、同様の処理を繰り返す。 The communication unit 15 of each surveillance camera 10 receives one or both of the focus adjustment and gain adjustment parameters from the image recognition device 30. Each CPU 11 stores one or both of the focus adjustment and gain adjustment parameters in the storage unit 12, and performs one or both of the focus adjustment and the gain adjustment on the image pickup unit 13 (T15). .. After that, the surveillance camera 10 returns to the process of step T1, and the surveillance camera system 5 repeats the same process.

図7は、正報が通知された場合に表示される監視カメラ10の撮像映像GZ1の一例を示す図である。図7に示す撮像映像GZ1は、例えばPC50に内蔵されたディスプレイ(図示略)またはPC50に接続されたディスプレイ(図示略)の表示画面において表示される。監視カメラ10は、例えば高速道路の入口付近の上方に設置される。撮像映像GZ1には、監視カメラ10が俯瞰するように撮像した、監視エリアSAとして高速道路の入口から料金所ゲートに至る道路が映っている。撮像映像GZ1には、人物と判定された、作業員らしい3人の人物hm1,hm2,hm3が映っている。また、撮像映像GZ1には、3人の人物hm1,hm2,hm3の上半身をそれぞれ囲むように、枠w1,w2,w3が重畳表示される。運用者は、上述したディスプレイ(図示略)の表示画面において表示されている撮像映像GZ1に映っている枠w1,w2,w3で囲まれた3人の人物hm1,hm2,hm3を視認する。この場合、3人の人物hm1,hm2,hm3は、道路関係者であると判断されるので、運用者は、例えば特に対処しない。撮像映像GZ1は、例えば正報画像である。 FIG. 7 is a diagram showing an example of the captured image GZ1 of the surveillance camera 10 displayed when the correct report is notified. The captured image GZ1 shown in FIG. 7 is displayed, for example, on the display screen of a display built in the PC 50 (not shown) or a display connected to the PC 50 (not shown). The surveillance camera 10 is installed above, for example, near the entrance of a highway. The captured image GZ1 shows the road from the entrance of the expressway to the tollhouse gate as the surveillance area SA, which is captured by the surveillance camera 10 so as to take a bird's-eye view. The captured image GZ1 shows three people, hm1, hm2, and hm3, who are determined to be people and are likely to be workers. Further, the frames w1, w2, w3 are superimposed and displayed on the captured image GZ1 so as to surround the upper bodies of the three people hm1, hm2, hm3, respectively. The operator visually recognizes three people hm1, hm2, hm3 surrounded by frames w1, w2, w3 displayed in the captured image GZ1 displayed on the display screen of the display (not shown) described above. In this case, since it is determined that the three persons hm1, hm2, hm3 are related to the road, the operator does not take any particular measures, for example. The captured image GZ1 is, for example, a positive image.

図8は、誤報が通知された場合に表示される監視カメラ10の撮像映像GZ2の一例を示す図である。誤報が通知された場合、監視カメラ10による撮像映像GZ2は、PC50に表示されないが、図8に示す撮像映像GZ1は、例えばPC50に内蔵されたディスプレイ(図示略)またはPC50に接続されたディスプレイ(図示略)の表示画面において表示されてよい。撮像映像GZ2は、画像認識装置30からクラウドサーバ40に伝送されると、プロセッサ41は、撮像映像GZ2を撮像画像データ44bとしてHDD44に保存する。撮像映像GZ2は、認識用のパラメータ44cの学習データとして利用される。撮像映像GZ2には、日陰により、人物と誤判定された、ポールの影e1および標識e2が映っている。また、撮像映像GZ2には、ポールの影e1の一部および標識e2をそれぞれ囲むように、枠w4,w5が重畳表示される。ただし、撮像映像GZ2は、PC50に表示されないので、運用者は、誤判定された撮像映像GZ2に気づかない。この場合、PC50に常時撮像映像が表示される場合、枠w4,w5が表示されないことになる。なお、運用者は、手空きの場合、誤判定された撮像映像GZ2をPC50に表示させてもよく、人物判定の結果を確認することができる。撮像映像GZ2は、誤報画像である。 FIG. 8 is a diagram showing an example of the captured image GZ2 of the surveillance camera 10 displayed when a false alarm is notified. When a false alarm is notified, the captured image GZ2 by the surveillance camera 10 is not displayed on the PC50, but the captured image GZ1 shown in FIG. 8 is, for example, a display built in the PC50 (not shown) or a display connected to the PC50 (not shown). It may be displayed on the display screen (not shown). When the captured image GZ2 is transmitted from the image recognition device 30 to the cloud server 40, the processor 41 stores the captured image GZ2 as the captured image data 44b in the HDD 44. The captured image GZ2 is used as learning data of the parameter 44c for recognition. The captured image GZ2 shows the shadow e1 and the sign e2 of the pole, which are erroneously determined to be a person due to the shade. Further, the frames w4 and w5 are superimposed and displayed on the captured image GZ2 so as to surround a part of the shadow e1 of the pole and the marker e2, respectively. However, since the captured image GZ2 is not displayed on the PC 50, the operator does not notice the erroneously determined captured image GZ2. In this case, when the captured image is always displayed on the PC 50, the frames w4 and w5 are not displayed. If the operator is free, the erroneously determined captured image GZ2 may be displayed on the PC 50, and the result of the person determination can be confirmed. The captured image GZ2 is a false alarm image.

以上により、実施の形態1に係る監視カメラシステム5は、監視エリアSAを撮像可能に設置された監視カメラ10に接続された画像認識装置30(第1処理装置の一例)と、クラウドサーバ40(第2処理装置の一例)とが通信可能に接続される。画像認識装置30は、監視カメラ10により撮像された監視エリアSAの撮像画像に基づいて、撮像画像中に現れた人物hm1,hm2,hm3(特定オブジェクトの一例)を認識し、その認識結果および撮像画像を対応付けてクラウドサーバ40に送信する。クラウドサーバ40は、画像認識装置30から送られた認識結果および撮像画像に基づいて、人物でない影e1や標識e2等の対象(特定オブジェクトでないオブジェクトの一例)を認識した場合、クラウドサーバ40が保持している認識用のパラメータ(監視パラメータの一例)を含む監視パラメータ使用指示を画像認識装置30に送信する。クラウドサーバ40が保持している認識用のパラメータが画像認識装置30に送信されるのは、オブジェクトの認識能力がそれぞれの画像認識装置30よりクラウドサーバ40が優れているからである。つまり、画像認識装置30の認識結果よりもクラウドサーバ40の認識結果が優先され、画像認識装置30の認識結果がクラウドサーバ40の認識結果に一致しなかった場合には、クラウドサーバ40が保持している認識用のパラメータが正解データとして、画像認識装置30に送られる。 As described above, the surveillance camera system 5 according to the first embodiment includes an image recognition device 30 (an example of a first processing device) connected to a surveillance camera 10 installed so as to be able to capture a surveillance area SA, and a cloud server 40 (an example of a first processing device). An example of a second processing device) is communicably connected. The image recognition device 30 recognizes the person hm1, hm2, hm3 (an example of a specific object) appearing in the captured image based on the captured image of the surveillance area SA captured by the surveillance camera 10, and the recognition result and the image pickup. The images are associated and transmitted to the cloud server 40. When the cloud server 40 recognizes an object (an example of an object that is not a specific object) such as a shadow e1 or a marker e2 that is not a person based on the recognition result and the captured image sent from the image recognition device 30, the cloud server 40 holds the object. An instruction to use the monitoring parameter including the recognition parameter (an example of the monitoring parameter) is transmitted to the image recognition device 30. The recognition parameters held by the cloud server 40 are transmitted to the image recognition device 30 because the cloud server 40 is superior to each image recognition device 30 in the object recognition ability. That is, if the recognition result of the cloud server 40 is prioritized over the recognition result of the image recognition device 30, and the recognition result of the image recognition device 30 does not match the recognition result of the cloud server 40, the cloud server 40 holds the data. The recognition parameters are sent to the image recognition device 30 as correct answer data.

これにより、監視カメラシステム5は、監視カメラ10により撮像された撮像映像中に現れた対象である人物が画像認識装置30によって誤認識されたとクラウドサーバ40によって判定された場合、画像認識装置30が撮像映像の認識に用いた認識用のパラメータを適正に更新できる。つまり、上述したように、撮像映像中に現れる対象(つまり、人物や物体等のオブジェクト)の認識能力は画像認識装置30よりもクラウドサーバ40の方が優れている。クラウドサーバ40は、画像認識装置30から送られた人物等の特定のオブジェクトの認識結果および撮像映像を受け取り、画像認識装置30の認識結果を再検証することで、画像認識装置30が用いた認識用のパラメータを更新させるか否かを決定する。従って、監視カメラシステム5によれば、監視カメラ10による撮像映像中に現れ得る人物の認識精度の向上が可能となり、監視エリアSAにおける監視精度の劣化を抑制でき、監視員の負担の軽減が図られる。 As a result, when the cloud server 40 determines that the person who is the target appearing in the captured image captured by the surveillance camera 10 is erroneously recognized by the image recognition device 30, the surveillance camera system 5 causes the image recognition device 30 to determine. The recognition parameters used to recognize the captured image can be updated appropriately. That is, as described above, the cloud server 40 is superior to the image recognition device 30 in the recognition ability of an object (that is, an object such as a person or an object) appearing in the captured image. The cloud server 40 receives the recognition result of a specific object such as a person sent from the image recognition device 30 and the captured image, and re-verifies the recognition result of the image recognition device 30 to recognize the recognition used by the image recognition device 30. Decide whether to update the parameters for. Therefore, according to the surveillance camera system 5, it is possible to improve the recognition accuracy of a person who may appear in the image captured by the surveillance camera 10, suppress the deterioration of the surveillance accuracy in the surveillance area SA, and reduce the burden on the observer. Be done.

また、画像認識装置30は、監視カメラ10により撮像された監視エリアSAの撮像映像を認識する時に用いる認識用のパラメータを、クラウドサーバ40から送られた更新指示(監視パラメータ更新指示の一例)に含まれる認識用のパラメータに更新する。これにより、クラウドサーバ40は、自装置が保持している認識用のパラメータを、全ての画像認識装置30に送信し、画像認識装置30に登録されている認識用のパラメータを更新できる。従って、それぞれの画像認識装置30に登録されている認識用のパラメータを共通化でき、画像認識の精度を揃えることができる。例えばメンテナンス等がある場合、一時的に画像認識装置30の置換が可能となる。 Further, the image recognition device 30 uses the recognition parameter used when recognizing the captured image of the surveillance area SA captured by the surveillance camera 10 as an update instruction (an example of a surveillance parameter update instruction) sent from the cloud server 40. Update to the included recognition parameters. As a result, the cloud server 40 can transmit the recognition parameters held by its own device to all the image recognition devices 30 and update the recognition parameters registered in the image recognition device 30. Therefore, the recognition parameters registered in each image recognition device 30 can be shared, and the accuracy of image recognition can be made uniform. For example, when there is maintenance or the like, the image recognition device 30 can be temporarily replaced.

また、認識用のパラメータは、監視エリアSAの撮像映像を白黒画像またはカラー画像に切り替えるための切替条件を含む。画像認識装置30は、この切替条件を用いて、監視エリアSAの撮像映像を白黒画像またはカラー画像に切り替える。これにより、画像認識装置30およびクラウドサーバ40は、日時や画像全体の照度によって光量の多寡が生じるような場合でも、監視カメラ10による撮像映像として、画像認識に適した白黒画像またはカラー画像を得ることができる。さらに、画像認識に適した撮像映像に対し、画像認識を行うことで、認識精度が向上する。 Further, the recognition parameter includes a switching condition for switching the captured image of the monitoring area SA to a black-and-white image or a color image. The image recognition device 30 uses this switching condition to switch the captured image of the monitoring area SA to a black-and-white image or a color image. As a result, the image recognition device 30 and the cloud server 40 obtain a black-and-white image or a color image suitable for image recognition as an image captured by the surveillance camera 10 even when the amount of light varies depending on the date and time or the illuminance of the entire image. be able to. Further, the recognition accuracy is improved by performing image recognition on the captured image suitable for image recognition.

また、認識用のパラメータは、監視カメラ10の撮像時におけるフォーカス調整条件を含む。画像認識装置30は、このフォーカス調整条件を含む使用指示を監視カメラ10に転送する。画像認識装置30は、監視カメラ10に対し、撮像時におけるフォーカス調整条件を更新させる。画像認識装置30は、更新後の前記フォーカス調整条件を用いて、監視カメラ10で撮像された撮像映像を受信する。これにより、画像認識装置30およびクラウドサーバ40は、監視カメラ10で撮像される映像のフォーカスを調整することで、日時や画像全体の乱れによってぼけが生じるような場合でも、撮像映像を鮮明化できる。さらに、鮮明化された撮像映像に対し、画像認識を行うことで、認識精度が向上する。 Further, the recognition parameter includes the focus adjustment condition at the time of imaging by the surveillance camera 10. The image recognition device 30 transfers a usage instruction including this focus adjustment condition to the surveillance camera 10. The image recognition device 30 causes the surveillance camera 10 to update the focus adjustment condition at the time of imaging. The image recognition device 30 receives the captured image captured by the surveillance camera 10 using the updated focus adjustment condition. As a result, the image recognition device 30 and the cloud server 40 can adjust the focus of the image captured by the surveillance camera 10 to sharpen the captured image even when the image is blurred due to the date and time or the disturbance of the entire image. .. Further, by performing image recognition on the sharpened captured image, the recognition accuracy is improved.

また、認識用のパラメータは、監視カメラ10の撮像時におけるゲイン調整条件を含む。画像認識装置30は、ゲイン調整条件を含む使用指示を監視カメラ10に転送する。画像認識装置30は、監視カメラ10の撮像時におけるゲイン調整条件を更新させる。画像認識装置30は、更新後のゲイン調整条件を用いて撮像された撮像映像を受信する。これにより、画像認識装置30およびクラウドサーバ40は、監視カメラ10の撮像部13から出力される撮像信号のゲインを調整することで、天候や夜間等の影響で明るさが変化するような場合でも、撮像映像の輝度を適正に調整可能である。さらに、輝度が適正に調整された撮像映像に対し、画像認識を行うことで、認識精度が向上する。 Further, the recognition parameter includes a gain adjustment condition at the time of imaging by the surveillance camera 10. The image recognition device 30 transfers a usage instruction including a gain adjustment condition to the surveillance camera 10. The image recognition device 30 updates the gain adjustment conditions at the time of imaging by the surveillance camera 10. The image recognition device 30 receives the captured image captured by using the updated gain adjustment condition. As a result, the image recognition device 30 and the cloud server 40 adjust the gain of the image pickup signal output from the image pickup unit 13 of the surveillance camera 10, so that the brightness changes due to the influence of the weather, nighttime, or the like. , The brightness of the captured image can be adjusted appropriately. Further, the recognition accuracy is improved by performing image recognition on the captured image whose brightness is appropriately adjusted.

また、使用指示に含まれる認識用のパラメータは、人物と認識されたことのある画像を示す正報画像と、人物と誤認識されたことのある画像を示す誤報画像のうち少なくとも一方を有する。画像認識装置30は、正報画像または誤報画像を用いて、監視カメラ10により撮像された監視エリアSAの撮像映像の認識を行う。これにより、画像認識装置30およびクラウドサーバ40は、正報画像または誤報画像を用いて、画像認識を行うことで、認識精度が高まる。また、正報画像と誤報画像のいずれを用いて画像認識を行ってもよく、学習効果が高まり、認識精度の向上に繋がる。 Further, the recognition parameter included in the usage instruction includes at least one of a positive image showing an image that has been recognized as a person and an erroneous image showing an image that has been erroneously recognized as a person. The image recognition device 30 recognizes the captured image of the surveillance area SA captured by the surveillance camera 10 by using the positive report image or the false report image. As a result, the image recognition device 30 and the cloud server 40 perform image recognition using the positive report image or the false report image, and the recognition accuracy is improved. In addition, image recognition may be performed using either a positive image or a false alarm image, which enhances the learning effect and leads to an improvement in recognition accuracy.

また、クラウドサーバ40は、画像認識装置30から送られた認識結果および撮像映像に基づいて、人物を認識した場合、画像認識装置30またはクラウドサーバ40における認識結果を、クラウドサーバ40に接続されるPC50に内蔵または接続されたディスプレイ(モニタの一例)に表示する。これにより、人物を認識した場合、クラウドサーバ40に接続されるPC50は、正報画像である、監視カメラ10による撮像映像GZ1、およびその認識結果を表す枠w1,w2,w3を表示できる。また、人物を誤認識した撮像映像GZ2が表示されないので、運用者が視認する撮像映像の量を削減できる。従って、運用者は、立入禁止区域に人物が侵入した等、発生した事象に対し素早く対処でき、また、事象の見逃しを減らせる。 Further, when the cloud server 40 recognizes a person based on the recognition result and the captured image sent from the image recognition device 30, the recognition result in the image recognition device 30 or the cloud server 40 is connected to the cloud server 40. It is displayed on a display (an example of a monitor) built in or connected to the PC 50. As a result, when a person is recognized, the PC 50 connected to the cloud server 40 can display the image GZ1 captured by the surveillance camera 10 which is a positive image, and the frames w1, w2, and w3 representing the recognition result. Further, since the captured image GZ2 that erroneously recognizes a person is not displayed, the amount of the captured image visually recognized by the operator can be reduced. Therefore, the operator can quickly deal with an event that has occurred, such as a person invading an exclusion zone, and can reduce the oversight of the event.

以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described above with reference to the drawings, it goes without saying that the present disclosure is not limited to such examples. It is clear that a person skilled in the art can come up with various modifications, modifications, substitutions, additions, deletions, and even examples within the scope of the claims. It is naturally understood that it belongs to the technical scope of the present disclosure. Further, each component in the various embodiments described above may be arbitrarily combined as long as the gist of the invention is not deviated.

例えば、上記実施の形態では、高速道路の入口を監視する場合を示したが、この例に限らず、人や物が立ち入らない場所、例えば人や車の進入が禁止される遮断機が降りている踏切内、放射線管理区域、夜間入場不可である動物園や公園等を監視する場合においても、本開示は同様に適用可能である。 For example, in the above embodiment, the case of monitoring the entrance of the expressway is shown, but the case is not limited to this example, and a place where people or things cannot enter, for example, a barrier that prohibits the entry of people or cars is dismounted. This disclosure is also applicable when monitoring railroad crossings, radiation controlled areas, zoos and parks that are not accessible at night.

上記実施の形態では、対象が人である場合を示したが、対象は、立入禁止区域への侵入が許可されていないもの、車、小動物、ゴミ等を含む。 In the above embodiment, the case where the target is a person is shown, but the target includes those who are not permitted to enter the restricted area, cars, small animals, garbage, and the like.

上記実施形態では、人物の認識結果として、人物を囲む枠w1,w2,w3を撮像映像中に表示したが、人物を認識したことを表すマークやメッセージ等を表示してもよい。 In the above embodiment, as the recognition result of the person, the frames w1, w2, w3 surrounding the person are displayed in the captured image, but a mark or a message indicating that the person has been recognized may be displayed.

上記実施形態では、クラウドサーバに接続されるPCが人物を認識した撮像映像を表示したが、画像認識装置にモニタを接続し、このモニタが人物を認識した撮像映像を表示してもよい。これにより、運用者は、PCに表示される撮像映像およびモニタに表示される撮像映像を見比べることができ、最終的な人物か否かの判断を行うことも可能である。 In the above embodiment, the PC connected to the cloud server displays the captured image that recognizes the person, but a monitor may be connected to the image recognition device and the captured image that the monitor recognizes the person may be displayed. As a result, the operator can compare the captured image displayed on the PC and the captured image displayed on the monitor, and can also determine whether or not the person is the final person.

また、本開示は、上記実施形態の装置の機能を実現するプログラムを、ネットワークあるいは各種記憶媒体を介して装置に供給し、この装置内のコンピュータが読み出して実行するプログラムも適用範囲である。 The present disclosure also covers a program in which a program that realizes the functions of the device of the above embodiment is supplied to the device via a network or various storage media, and is read and executed by a computer in the device.

本開示は、撮像画像中に現れた監視対象物である特定オブジェクトを誤認識した場合に撮像画像の認識に関する監視パラメータを更新し、特定オブジェクトの認識精度を向上して監視精度の劣化を抑制する監視パラメータ更新システム、監視パラメータ更新方法およびプログラムとして有用である。 The present disclosure updates the monitoring parameters related to the recognition of the captured image when the specific object that is the monitored object appearing in the captured image is erroneously recognized, improves the recognition accuracy of the specific object, and suppresses the deterioration of the monitoring accuracy. It is useful as a monitoring parameter update system, monitoring parameter update method, and program.

5 監視カメラシステム
10 監視カメラ
11 CPU
12 記憶部
13 撮像部
14 映像処理部
15 通信部
16 パンチルト駆動部
18 加速度センサ
19 IR照射部
30 画像認識装置
31 プロセッサ
32 ROM
33 RAM
34 HDD
35 通信部
40 クラウドサーバ
41 プロセッサ
42 ROM
43 RAM
44 HDD
45 通信部
50 PC
5 Surveillance camera system 10 Surveillance camera 11 CPU
12 Storage unit 13 Imaging unit 14 Image processing unit 15 Communication unit 16 Pan-tilt drive unit 18 Accelerometer 19 IR irradiation unit 30 Image recognition device 31 Processor 32 ROM
33 RAM
34 HDD
35 Communication unit 40 Cloud server 41 Processor 42 ROM
43 RAM
44 HDD
45 Communication unit 50 PC

Claims (10)

監視エリアを撮像可能に設置されたカメラに接続された第1処理装置と、第2処理装置とが通信可能に接続された監視パラメータ更新システムであって、
前記第1処理装置は、
前記カメラにより撮像された前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識し、その認識結果および撮像画像を対応付けて前記第2処理装置に送信し、
前記第2処理装置は、
前記第1処理装置から送られた、前記認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識した場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信する、
監視パラメータ更新システム。
It is a monitoring parameter update system in which the first processing device connected to a camera installed so that the monitoring area can be imaged and the second processing device are connected so as to be communicable.
The first processing device is
Based on the captured image of the monitoring area captured by the camera, a specific object appearing in the captured image is recognized, and the recognition result and the captured image are associated with each other and transmitted to the second processing device.
The second processing device is
When an object other than the specific object is recognized based on the recognition result and the captured image sent from the first processing device, a monitoring parameter update instruction including a monitoring parameter is transmitted to the first processing device .
Monitoring parameter update system.
前記第1処理装置は、前記カメラにより撮像された前記監視エリアの撮像画像を認識する時に用いる監視パラメータを、前記第2処理装置から送られた前記監視パラメータ更新指示に含まれる監視パラメータに更新する、
請求項1に記載の監視パラメータ更新システム。
The first processing device updates the monitoring parameters used when recognizing the captured image of the monitoring area captured by the camera to the monitoring parameters included in the monitoring parameter update instruction sent from the second processing device . ,
The monitoring parameter update system according to claim 1.
前記監視パラメータは、前記監視エリアの撮像画像を白黒画像またはカラー画像に切り替えるための切替条件であり、
前記第1処理装置は、
前記切替条件を用いて、前記監視エリアの撮像画像を白黒画像またはカラー画像に切り替える、
請求項2に記載の監視パラメータ更新システム。
The monitoring parameter is a switching condition for switching the captured image of the monitoring area to a black-and-white image or a color image.
The first processing device is
Using the switching condition, the captured image of the monitoring area is switched to a black-and-white image or a color image.
The monitoring parameter update system according to claim 2.
前記監視パラメータは、前記カメラの撮像時におけるフォーカス調整条件であり、
前記第1処理装置は、前記フォーカス調整条件を含む前記監視パラメータ更新指示を前記カメラに転送し、前記カメラの撮像時におけるフォーカス調整条件を更新させ、更新後の前記フォーカス調整条件を用いて撮像された撮像画像を受信する、
請求項2に記載の監視パラメータ更新システム。
The monitoring parameter is a focus adjustment condition at the time of imaging by the camera.
The first processing device transfers the monitoring parameter update instruction including the focus adjustment condition to the camera, updates the focus adjustment condition at the time of imaging of the camera, and is imaged using the updated focus adjustment condition. Receive the captured image,
The monitoring parameter update system according to claim 2.
前記監視パラメータは、前記カメラの撮像時におけるゲイン調整条件であり、
前記第1処理装置は、前記ゲイン調整条件を含む前記監視パラメータ更新指示を前記カメラに転送し、前記カメラの撮像時におけるゲイン調整条件を更新させ、更新後の前記ゲイン調整条件を用いて撮像された撮像画像を受信する、
請求項2に記載の監視パラメータ更新システム。
The monitoring parameter is a gain adjustment condition at the time of imaging by the camera.
The first processing apparatus transfers the monitoring parameter update instruction including the gain adjustment condition to the camera, updates the gain adjustment condition at the time of imaging of the camera, and is imaged using the updated gain adjustment condition. Receive the captured image,
The monitoring parameter update system according to claim 2.
前記監視パラメータ更新指示に含まれる監視パラメータは、前記特定オブジェクトと認識されたことのある画像を示す正報画像と、前記特定オブジェクトと誤認識されたことのある画像を示す誤報画像とのうち少なくとも一方を有し、
前記第1処理装置は、前記正報画像または前記誤報画像を用いて、前記カメラにより撮像された前記監視エリアの撮像画像の認識を行う、
請求項2に記載の監視パラメータ更新システム。
The monitoring parameter included in the monitoring parameter update instruction is at least a positive image showing an image that has been recognized as the specific object and a false alarm image showing an image that has been erroneously recognized as the specific object. Have one
The first processing apparatus recognizes the captured image of the monitoring area captured by the camera using the positive image or the false alarm image.
The monitoring parameter update system according to claim 2.
前記第2処理装置は、前記第1処理装置から送られた前記認識結果および撮像画像に基づいて、前記特定オブジェクトを認識した場合、前記第1処理装置または前記第2処理装置における認識結果を前記第2処理装置に接続されるモニタに表示する、
請求項1~6のうちいずれか1項に記載の監視パラメータ更新システム。
When the second processing device recognizes the specific object based on the recognition result and the captured image sent from the first processing device, the second processing device obtains the recognition result in the first processing device or the second processing device. Displayed on the monitor connected to the second processing device ,
The monitoring parameter update system according to any one of claims 1 to 6.
監視エリアを撮像可能に設置されたカメラに接続された第1処理装置と、第2処理装置とが通信可能に接続された監視パラメータ更新システムを用いた監視パラメータ更新方法であって、
前記第1処理装置は、
前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識し、その認識結果および撮像画像を対応付けて前記第2処理装置に送信し、
前記第2処理装置は、
前記第1処理装置から送られた前記認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識した場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信する、
監視パラメータ更新方法。
It is a monitoring parameter updating method using a monitoring parameter updating system in which a first processing device connected to a camera installed so that a monitoring area can be imaged and a second processing device are connected so as to be able to communicate with each other.
The first processing device is
Based on the captured image of the monitoring area, a specific object appearing in the captured image is recognized, and the recognition result and the captured image are associated with each other and transmitted to the second processing device.
The second processing device is
When an object other than the specific object is recognized based on the recognition result and the captured image sent from the first processing device , a monitoring parameter update instruction including a monitoring parameter is transmitted to the first processing device .
How to update monitoring parameters.
監視エリアを撮像可能に設置されたカメラと第2処理装置とにそれぞれ接続された、コンピュータである第1処理装置に、
前記カメラにより撮像された前記監視エリアの撮像画像に基づいて、前記撮像画像中に現れた特定オブジェクトを認識するステップと、
前記特定オブジェクトの認識結果および撮像画像を対応付けて前記第2処理装置に送信するステップと、
前記特定オブジェクトの認識結果および撮像画像に基づいて前記第2処理装置により前記特定オブジェクトでないオブジェクトが認識された場合に、前記第2処理装置から送られた、監視パラメータを含む監視パラメータ更新指示を受信するステップと、をコンピュータ上で実行させるための、
プログラム。
To the first processing device, which is a computer, connected to the camera installed so that the monitoring area can be imaged and the second processing device, respectively.
A step of recognizing a specific object appearing in the captured image based on the captured image of the monitoring area captured by the camera , and
A step of associating the recognition result of the specific object and the captured image and transmitting the image to the second processing device ,
When an object that is not the specific object is recognized by the second processing device based on the recognition result of the specific object and the captured image, the monitoring parameter update instruction including the monitoring parameter sent from the second processing device is received . Steps to perform, and to run them on your computer,
program.
監視エリアを撮像可能に設置されたカメラに接続された第1処理装置との間で通信可能に接続された、コンピュータである第2処理装置に、
前記カメラにより撮像された前記監視エリアの撮像画像に基づいて前記第1処理装置により前記撮像画像中に現れた特定オブジェクトが認識された場合に、
前記第1処理装置から送られた、前記特定オブジェクトの認識結果および撮像画像に基づいて、前記特定オブジェクトでないオブジェクトを認識するステップと、
前記特定オブジェクトでないオブジェクトが認識された場合、監視パラメータを含む監視パラメータ更新指示を前記第1処理装置に送信するステップと、をコンピュータ上で実行させるための、
プログラム。
To the second processing device, which is a computer, which is communicably connected to the first processing device connected to the camera installed so that the monitoring area can be imaged.
When the specific object appearing in the captured image is recognized by the first processing device based on the captured image of the monitoring area captured by the camera .
A step of recognizing an object that is not the specific object based on the recognition result and the captured image of the specific object sent from the first processing device .
When an object that is not the specific object is recognized, a step of transmitting a monitoring parameter update instruction including a monitoring parameter to the first processing device and a step of transmitting the monitoring parameter update instruction to the first processing device are executed on the computer .
program.
JP2018097993A 2018-05-22 2018-05-22 Monitoring parameter update system, monitoring parameter update method and program Active JP7002009B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018097993A JP7002009B2 (en) 2018-05-22 2018-05-22 Monitoring parameter update system, monitoring parameter update method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018097993A JP7002009B2 (en) 2018-05-22 2018-05-22 Monitoring parameter update system, monitoring parameter update method and program

Publications (3)

Publication Number Publication Date
JP2019205034A JP2019205034A (en) 2019-11-28
JP2019205034A5 JP2019205034A5 (en) 2021-07-26
JP7002009B2 true JP7002009B2 (en) 2022-01-20

Family

ID=68727392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018097993A Active JP7002009B2 (en) 2018-05-22 2018-05-22 Monitoring parameter update system, monitoring parameter update method and program

Country Status (1)

Country Link
JP (1) JP7002009B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11236010B2 (en) 2019-01-11 2022-02-01 Ohara Inc. Optical glass, optical element, and preform
EP3929801A1 (en) * 2020-06-25 2021-12-29 Axis AB Training of an object recognition neural network

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226327A (en) 2006-02-21 2007-09-06 Oki Electric Ind Co Ltd Personal identification device and personal identification method
JP2017228224A (en) 2016-06-24 2017-12-28 キヤノン株式会社 Information processing device, information processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6717461B2 (en) * 2016-08-25 2020-07-01 株式会社知能フレームワーク研究所 Condition monitoring system
KR101789690B1 (en) * 2017-07-11 2017-10-25 (주)블루비스 System and method for providing security service based on deep learning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226327A (en) 2006-02-21 2007-09-06 Oki Electric Ind Co Ltd Personal identification device and personal identification method
JP2017228224A (en) 2016-06-24 2017-12-28 キヤノン株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2019205034A (en) 2019-11-28

Similar Documents

Publication Publication Date Title
US20210217212A1 (en) Method and system for automatically colorizing night-vision images
US11790504B2 (en) Monitoring method and apparatus
JP6732902B2 (en) Imaging device and imaging system
JP7207793B2 (en) Video-based real-time intrusion detection method and surveillance camera using artificial intelligence
WO2020057346A1 (en) Video monitoring method and apparatus, monitoring server and video monitoring system
CN107483889A (en) The tunnel monitoring system of wisdom building site control platform
JP7002009B2 (en) Monitoring parameter update system, monitoring parameter update method and program
CN109376601B (en) Object tracking method based on high-speed ball, monitoring server and video monitoring system
KR101625538B1 (en) Car Number Recognition system
KR101337554B1 (en) Apparatus for trace of wanted criminal and missing person using image recognition and method thereof
CN105208273A (en) Method and device for taking photos through dual-camera terminal and dual-camera terminal
US11113798B2 (en) Collating system, collating method, and camera device
CN104735422A (en) Multifunctional intelligent analysis and monitor system
KR101340897B1 (en) The anticrime system in a school zone
KR20140110684A (en) The analysis system and controlling method of moving image data by a CCTV monitor
JP2020170319A (en) Detection device
KR101485512B1 (en) The sequence processing method of images through hippocampal neual network learning of behavior patterns in case of future crimes
KR102111162B1 (en) Multichannel camera home monitoring system and method to be cmmunicated with blackbox for a car
JP2020171057A (en) Imaging device
KR101706221B1 (en) Security camera and Method of controlling thereof
KR102069735B1 (en) Method and apparatus for monitoring of vehicle
AU2021103548A4 (en) Smart home surveillance system using iot application with warning of intruder activities
KR102209857B1 (en) System for face recognition in patrol car
JP2021118478A (en) Monitor camera, camera parameter determination method and program
GB2423661A (en) Identifying scene changes

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210521

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211209

R151 Written notification of patent or utility model registration

Ref document number: 7002009

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151