JP2018173913A - Image processing system, information processing device, and program - Google Patents

Image processing system, information processing device, and program Download PDF

Info

Publication number
JP2018173913A
JP2018173913A JP2017073010A JP2017073010A JP2018173913A JP 2018173913 A JP2018173913 A JP 2018173913A JP 2017073010 A JP2017073010 A JP 2017073010A JP 2017073010 A JP2017073010 A JP 2017073010A JP 2018173913 A JP2018173913 A JP 2018173913A
Authority
JP
Japan
Prior art keywords
image
alarm
cause
accuracy
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017073010A
Other languages
Japanese (ja)
Other versions
JP6905849B2 (en
Inventor
広大 畑中
Kodai Hatanaka
広大 畑中
央智 牛島
Hisatomo Ushijima
央智 牛島
二見 聡
Satoshi Futami
聡 二見
徹 加沢
Toru Kazawa
徹 加沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2017073010A priority Critical patent/JP6905849B2/en
Publication of JP2018173913A publication Critical patent/JP2018173913A/en
Application granted granted Critical
Publication of JP6905849B2 publication Critical patent/JP6905849B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system capable of improving recognition rate without using a high-performance identification apparatus.SOLUTION: An image processing system 100 which identifies a predetermined alarm cause from an image taken by an imaging apparatus 10 comprises: an image acquisition means 31 for acquiring the image from the imaging apparatus; a first identification means 34a which identifies the alarm cause captured in the image and calculates degree of certainty of the alarm caused identified; a display process means 32 for displaying the image on a display device; a reception means 33 for receiving input of the alarm cause captured in the image displayed on the display device; an image extraction means 35 which stores the image into an image storage part when the degree of certainty, calculated by the first identification means and for identifying the alarm cause received by the reception means, is equal to or higher than a first threshold value; and an identification means construction means 36 for constructing a second identification means 34b by utilizing the image stored in the image storage part.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理システム、情報処理装置、及び、プログラムに関する。   The present invention relates to an image processing system, an information processing apparatus, and a program.

カメラが撮像した画像を識別装置が認識し、画像に写っている警報原因を検出する画像処理が知られている。人間と同様の作業をコンピュータで実現できるため、識別装置の機能を人工知能(AI:Artificial Intelligence)と呼ぶ場合がある。人工知能とは、人間の脳が行っている知的な作業をコンピュータで模倣したソフトウェアやコンピュータをいう。   Image processing is known in which an identification device recognizes an image captured by a camera and detects the cause of an alarm reflected in the image. Since a task similar to that of a human being can be realized by a computer, the function of the identification device may be called artificial intelligence (AI). Artificial intelligence refers to software or a computer that mimics the intellectual work performed by the human brain.

しかしながら、識別が困難な画像もあるため識別装置が警報原因を誤認識又は未認識する場合があり、従来から認識率を向上させる技術が考案されている(例えば、特許文献1参照。)。特許文献1には、車載された識別装置が誤認識又は未認識した画像を人が確認し、数秒間の動画をより高性能な識別装置に送信し、高性能な識別装置が動画から学習すべき画像を抽出する学習方法が開示されている。高性能な識別装置で抽出された画像を車両の識別装置が学習し、シミュレーションで学習の効果を評価して、改善している場合に学習結果を更新する。このような処理によれば、車両の識別装置の認識率を徐々に向上させることができる。   However, since there are images that are difficult to identify, the identification device may misrecognize or unrecognize the cause of the alarm, and a technique for improving the recognition rate has been devised (see, for example, Patent Document 1). In Patent Literature 1, a person confirms an image that has been misrecognized or unrecognized by a vehicle-mounted identification device, and a moving image of several seconds is transmitted to a higher-performance identification device, which learns from the moving image. A learning method for extracting a power image is disclosed. A vehicle identification device learns an image extracted by a high-performance identification device, evaluates the effect of learning by simulation, and updates the learning result when it is improved. According to such a process, the recognition rate of the vehicle identification device can be gradually improved.

特開2011−59810号公報JP 2011-59810 A

しかしながら、特許文献1に開示された方法では、車載された識別装置よりも高性能な識別装置を用意する必要があるという問題がある。一般に、高性能な識別装置は大量の学習画像が必要であるため、人手により又は適切な情報処理で大量の学習画像を収集しなければならない。また、学習する画像の量が多いほど学習に時間がかかってしまう。   However, the method disclosed in Patent Document 1 has a problem that it is necessary to prepare a high-performance identification device as compared with the on-vehicle identification device. In general, since a high-performance identification device requires a large amount of learning images, a large amount of learning images must be collected manually or by appropriate information processing. In addition, the learning takes time as the amount of images to be learned increases.

本発明は、上記課題に鑑み、高性能な識別装置を使わずに認識率を向上させることができる画像処理システムを提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an image processing system capable of improving the recognition rate without using a high-performance identification device.

本発明は、撮像装置が撮像した画像から予め定められた警報原因を識別する画像処理システムであって、前記撮像装置から前記画像を取得する画像取得手段と、前記画像に写っている前記警報原因を識別すると共に、前記警報原因が識別される確度を算出する第一の識別手段と、前記画像を表示装置に表示する表示処理手段と、前記表示装置に表示された前記画像に写っている前記警報原因の入力を受け付ける受付手段と、前記第一の識別手段が算出し前記受付手段が受け付けた前記警報原因が識別される確度が第一の閾値以上の場合、前記画像を画像記憶部に格納する画像抽出手段と、前記画像記憶部に記憶されている前記画像を用いて第二の識別手段を構築する識別手段構築手段と、を有する。   The present invention is an image processing system for identifying a predetermined alarm cause from an image captured by an imaging device, the image acquisition means for acquiring the image from the imaging device, and the alarm cause reflected in the image And a first identification means for calculating the probability that the cause of the alarm is identified, a display processing means for displaying the image on a display device, and the image displayed on the display device An accepting means for accepting an input of an alarm cause, and an image storage unit storing the image when the accuracy of identifying the cause of the alarm calculated by the first identifying means and accepted by the accepting means is greater than or equal to a first threshold value Image extracting means for performing the identification, and identifying means constructing means for constructing a second identifying means using the image stored in the image storage unit.

本発明によれば、高性能な識別装置を使わずに認識率を向上させることができる画像処理システムを提供することができる。   According to the present invention, it is possible to provide an image processing system capable of improving the recognition rate without using a high-performance identification device.

画像処理システムが学習対象の警報画像を抽出する動作の概略を説明する図である。It is a figure explaining the outline of the operation | movement which an image processing system extracts the warning image of learning object. 画像処理システムのシステム構成図の一例である。1 is an example of a system configuration diagram of an image processing system. カメラ装置の概略的なハードウェア構成図の一例である。It is an example of the schematic hardware block diagram of a camera apparatus. 情報処理装置の概略的なハードウェア構成を示したブロック図の一例である。It is an example of the block diagram which showed the schematic hardware constitutions of information processing apparatus. 画像処理システムが備える各機能を図示した機能ブロック図の一例である。It is an example of the functional block diagram which illustrated each function with which an image processing system is provided. カメラ装置が警報画像に描画した外接矩形の一例を示す図である。It is a figure which shows an example of the circumscribed rectangle which the camera apparatus drawn on the alarm image. 学習のモデルの一例であるニューラルネットワークにおける多層パーセプトロンと呼ばれるモデルを示す図である。It is a figure which shows the model called the multilayer perceptron in the neural network which is an example of the model of learning. LCDに表示される警報原因の入力画面の一例である。It is an example of the alarm cause input screen displayed on the LCD. 学習に用いられる警報画像の抽出方法を説明する図の一例である。It is an example of the figure explaining the extraction method of the alarm image used for learning. 複数の警報画像から算出された各警報原因の確度のうち監視員が入力した警報原因の確度を時系列に示す図である。It is a figure which shows the accuracy of the alarm cause which the monitoring person input among the accuracy of each alarm cause calculated from the some alarm image in time series. 情報処理装置が警報画像を抽出して学習DBに格納する処理を説明するフローチャート図の一例である。It is an example of the flowchart figure explaining the process which information processing apparatus extracts a warning image and stores in learning DB. 情報処理装置による識別装置の評価の概略を説明する図の一例である。It is an example of the figure explaining the outline of evaluation of the identification device by information processing apparatus. 画像処理システムが備える各機能を図示した機能ブロック図の一例である(実施例2)。(Example 2) which is an example of the functional block diagram which illustrated each function with which an image processing system is provided. 警報原因推定部(現行)と警報原因推定部(新)のそれぞれで評価用画像を識別した際の識別結果を示す図の一例である。It is an example of the figure which shows the identification result at the time of identifying the image for evaluation in each of a warning cause estimation part (present) and a warning cause estimation part (new). 警報原因推定部(現行)と警報原因推定部(新)のそれぞれで評価用画像を識別した際の確度を示す図の一例である。It is an example of the figure which shows the accuracy at the time of identifying the image for evaluation in each of a warning cause estimation part (present) and a warning cause estimation part (new). 情報処理装置が警報原因推定部の性能を評価して更新するか否かを判断する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure which judges whether information processing apparatus evaluates and updates the performance of an alarm cause estimation part.

以下、本発明を実施するための形態について図面を参照しながら説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

<画像処理システムの動作の概略>
図1は、画像処理システム100が学習対象の警報画像6を抽出する動作の概略を説明する図である。本実施例の画像処理システム100は、画像に写った対象を画像処理により検出する技術に関する。この対象は警報の原因となるため警報原因と称される。
<Outline of operation of image processing system>
FIG. 1 is a diagram for explaining an outline of an operation in which the image processing system 100 extracts an alarm image 6 to be learned. The image processing system 100 according to the present embodiment relates to a technique for detecting an object shown in an image by image processing. This object is called an alarm cause because it causes an alarm.

監視場所8のカメラ装置10は異常を検出すると警報画像6を監視センター9に送信する。従来、監視センター9の監視員7は、警報画像6を1枚1枚目視し、例えば侵入者が検出されたのかどうかを判断していた。警報画像6は、異常が検出された時刻の前後の少なくとも数秒の画像を含むため、監視員7が1枚1枚目視することが負担となっている。   When the camera device 10 at the monitoring location 8 detects an abnormality, it transmits an alarm image 6 to the monitoring center 9. Conventionally, the monitoring staff 7 of the monitoring center 9 has visually checked the alarm images 6 one by one to determine, for example, whether an intruder has been detected. Since the alarm image 6 includes images of at least several seconds before and after the time when the abnormality is detected, it is a burden for the supervisor 7 to visually check each image.

そこで、監視センター9で機械的な識別装置を採用して警報原因を特定することで、監視員7の負担を低減することが検討されている。   Therefore, it has been studied to reduce the burden on the supervisor 7 by adopting a mechanical identification device at the monitoring center 9 to identify the cause of the alarm.

このためには、識別装置の認識率が高いことが望ましいため、本実施形態では認識率を向上させる技術について説明される。識別装置が警報原因を識別した警報画像6に確度が閾値a(第二の閾値)以上の警報画像6が含まれない場合、監視員7は警報画像6を目視して警報原因を入力する。そして、この警報原因の確度が閾値b(第一の閾値)以上の警報画像6を新たな学習データとして学習する。したがって、警報画像6の中に、警報原因の確度が十分高いものがなく識別装置が警報原因を推定又は判断できない場合であっても、監視員7が推定又は判断した警報原因の確度が一定以上である場合に、警報画像6が学習されるので認識率を向上することができる。   For this purpose, since the recognition rate of the identification device is desirably high, a technique for improving the recognition rate will be described in this embodiment. When the alarm image 6 with the accuracy equal to or greater than the threshold a (second threshold) is not included in the alarm image 6 in which the identification device has identified the alarm cause, the monitor 7 looks at the alarm image 6 and inputs the alarm cause. Then, the alarm image 6 having the alarm cause accuracy equal to or higher than the threshold value b (first threshold value) is learned as new learning data. Therefore, even if there is no alarm image with sufficiently high accuracy in the alarm image 6 and the identification device cannot estimate or determine the alarm cause, the accuracy of the alarm cause estimated or determined by the monitor 7 is more than a certain level. In this case, since the alarm image 6 is learned, the recognition rate can be improved.

図1を用いて画像処理システム100の動作の概略を説明する。
(1)まず、カメラ装置10は動体かつ/又は遠赤外線を放射する動物などを検出する。動物等を以下、検知対象という。
(2)カメラ装置10は検知対象が検知された時刻の前後数秒の警報画像6を監視センター9に送信する。
(3)警報原因推定部34は、警報原因と画像の関係を予め学習してある識別装置である。警報原因推定部34が警報画像6を識別することで、1枚の警報画像6ごとに各警報原因とその確度を算出する。
(4)確度が十分に高い場合(確度が閾値a以上)、確度が閾値a以上の警報原因が警報画像6に写っている可能性が高いと判断してよいので、閾値a以上の確度を有する警報原因に着目して確度が閾値b以上の警報画像6が学習DB392(Data Base)に認識結果(警報原因)と共に格納される。
(5)一方、確度が閾値a未満の警報画像6が存在しない場合、監視員7は確度が閾値a未満の警報画像6を目視して警報原因を入力する。警報画像6が複数枚でも、1回の警報では同じ警報原因が写っているため、監視員7は複数の警報画像6を確認して1つの警報原因を入力するだけでよい。
(6)学習画像自動抽出部35は監視員7が入力した警報原因の確度が閾値b以上の警報画像6のみを学習DB392に該入力した警報原因と共に格納する。
An outline of the operation of the image processing system 100 will be described with reference to FIG.
(1) First, the camera apparatus 10 detects a moving object and / or an animal that emits far infrared rays. Animals and the like are hereinafter referred to as detection targets.
(2) The camera device 10 transmits an alarm image 6 of several seconds before and after the time when the detection target is detected to the monitoring center 9.
(3) The alarm cause estimation unit 34 is an identification device that has learned in advance the relationship between the alarm cause and the image. The alarm cause estimation unit 34 identifies the alarm image 6 and calculates each alarm cause and its accuracy for each alarm image 6.
(4) If the accuracy is sufficiently high (accuracy is greater than or equal to threshold a), it may be determined that there is a high possibility that the cause of the alarm with accuracy greater than or equal to the threshold a is reflected in the alarm image 6; Focusing on the alarm cause, the alarm image 6 having the accuracy of the threshold value b or higher is stored in the learning DB 392 (Data Base) together with the recognition result (alarm cause).
(5) On the other hand, when there is no alarm image 6 with the accuracy less than the threshold value a, the supervisor 7 visually checks the alarm image 6 with the accuracy less than the threshold value a and inputs the cause of the alarm. Even if there are a plurality of alarm images 6, the same alarm cause is reflected in one alarm, so the supervisor 7 only needs to confirm the plurality of alarm images 6 and input one alarm cause.
(6) The learning image automatic extraction unit 35 stores only the alarm image 6 with the accuracy of the alarm cause input by the monitoring person 7 with the threshold value b or more together with the input alarm cause in the learning DB 392.

この結果、学習DB392には警報原因の確度が高い(閾値a又はb以上)警報画像6が警報原因と共に格納されたことになる。後述する学習部は警報原因を教師信号に警報画像6を学習するので、認識率が向上した識別装置を作成できる。また、認識率が向上するほど、監視員7による警報原因の入力負担を低減できる。   As a result, the learning DB 392 stores the alarm image 6 with high alarm cause accuracy (threshold a or b or more) together with the alarm cause. Since the learning unit described later learns the alarm image 6 using the cause of the alarm as a teacher signal, an identification device with an improved recognition rate can be created. Moreover, the input burden of the alarm cause by the monitoring person 7 can be reduced, so that a recognition rate improves.

<用語について>
警報原因とは、警報の原因となった対象をいう。例えば、警報画像に写っている動体、遠赤外線が検知された動物などの検知対象である。
<Terminology>
An alarm cause refers to an object that causes an alarm. For example, it is a detection target such as a moving object shown in an alarm image or an animal in which far infrared rays are detected.

また、識別とは、画像に写っている警報原因を見分けることであるが、特定すること、判断すること、又は、認識すること等と表現してもよい。   Moreover, although identification is identifying the cause of the alarm shown in the image, it may be expressed as specifying, judging, or recognizing.

確度とは、確実さの程度又はたしかさである。本実施形態では、主に警報原因が識別された場合、それがどのくらい確かかを示す。尤度や確率と称してもよい。   The accuracy is the degree or method of certainty. In the present embodiment, when an alarm cause is identified, how much it is sure is shown. It may be referred to as likelihood or probability.

<システム構成例>
図2は、画像処理システム100のシステム構成図の一例を示す。画像処理システム100は、ネットワークNを介して接続されたカメラ装置10と情報処理装置30とを主に有する。カメラ装置10は監視場所8に設置され、毎秒数枚の画像を撮像する撮像装置である。監視場所8は、例えば、オフィス、個人邸宅、ホテル、店舗、研究所、倉庫、工場など第三者の出入りが監視されうる場所である。屋内に限られず、駐車場、競技施設、山林、臨海地域、立ち入り禁止区域などの屋外に設置される場合もある。
<System configuration example>
FIG. 2 shows an example of a system configuration diagram of the image processing system 100. The image processing system 100 mainly includes a camera device 10 and an information processing device 30 connected via a network N. The camera device 10 is an imaging device that is installed in the monitoring place 8 and captures several images per second. The monitoring place 8 is a place where the entrance and exit of a third party such as an office, a private residence, a hotel, a store, a laboratory, a warehouse, and a factory can be monitored. Not limited to indoors, it may be installed outdoors such as parking lots, competition facilities, forests, coastal areas, and restricted areas.

カメラ装置10は撮像する機能だけでなく動体を検出する画像処理機能及び対象から放出される遠赤外線を検知する機能を有している。カメラ装置10は画像に動体が写っている場合、かつ/又は、遠赤外線を検出した場合、その前後の画像を警報画像6として監視センター9に送信する。監視中のカメラ装置10に撮像されうる検知対象は様々であり監視場所8によって異なるが、例えば虫、鳥、小動物(ねずみ、猫、犬、りす、とかげ等)、及び、人等である。多くの監視場所8でカメラ装置10が検知すべきは人であるが、人だけを検出しようとすると画像処理が複雑になったり、人が存在しても未検知となったりする場合が生じうるので、動体かつ/又は遠赤外線を放射する動物などの検知対象を検知している。   The camera device 10 has not only a function of capturing an image but also an image processing function of detecting a moving object and a function of detecting far infrared rays emitted from the target. When the moving object is reflected in the image and / or when far-infrared rays are detected, the camera device 10 transmits the images before and after that to the monitoring center 9 as the alarm image 6. The detection target that can be imaged by the camera device 10 being monitored is various and varies depending on the monitoring location 8, and is, for example, an insect, a bird, a small animal (a mouse, a cat, a dog, a squirrel, a lizard, etc.) and a person. Although it is a person that the camera apparatus 10 should detect at many monitoring locations 8, if only the person is detected, the image processing may be complicated, or even if there is a person, it may not be detected. Therefore, a detection target such as a moving object and / or an animal that emits far infrared rays is detected.

ネットワークNは、カメラ装置10が設置されている監視場所8に構築されているLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等により構築されている。ネットワークNが複数のLANを有する場合、ネットワークNはWANと呼ばれ、インターネットが含まれる場合がある。ネットワークNは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。また、カメラ装置10が、3G、4G、5G、LTE(Long Term Revolution)などの無線の公衆回線網に接続する場合は、LANを介さずにプロバイダネットワークに接続することができる。   The network N is constructed by a LAN constructed in the monitoring place 8 where the camera device 10 is installed, a provider network of a provider that connects the LAN to the Internet, a line provided by a circuit provider, and the like. When the network N has a plurality of LANs, the network N is called WAN and may include the Internet. The network N may be constructed by either wired or wireless, and wired and wireless may be combined. When the camera device 10 is connected to a wireless public network such as 3G, 4G, 5G, or LTE (Long Term Revolution), the camera device 10 can be connected to the provider network without going through the LAN.

監視センター9は、監視員7が警報画像6を確認して検知対象が警報の対象か否かを判断する場所である。情報処理装置30は本実施例で説明するように認識率が向上される識別装置を有している。情報処理装置30は検知対象を識別して、人である場合は警報の対象であると確定したり、監視員7が最終的な確認を行ったりして、警備員を監視場所8に派遣する。   The monitoring center 9 is a place where the supervisor 7 confirms the alarm image 6 and determines whether or not the detection target is an alarm target. The information processing apparatus 30 has an identification device that improves the recognition rate as described in the present embodiment. The information processing apparatus 30 identifies the detection target, and if it is a person, it determines that it is the target of the alarm, or the supervisor 7 performs final confirmation, and dispatches the guard to the monitoring place 8. .

情報処理装置30は、一般的なコンピュータ、PC(Personal Computer)、サーバなどとよばれる装置である。図2では説明の便宜上、一台の情報処理装置30を示したが、情報処理装置30は一台とは限らず、図1で説明した機能を複数の情報処理装置30が分担して有していてもよい。   The information processing apparatus 30 is an apparatus called a general computer, a PC (Personal Computer), a server, or the like. In FIG. 2, for convenience of explanation, one information processing apparatus 30 is shown. However, the information processing apparatus 30 is not limited to one, and a plurality of information processing apparatuses 30 share the functions described in FIG. 1. It may be.

<ハードウェア構成例>
図3は、カメラ装置10のハードウェア構成図の一例である。カメラ装置10は、撮像部101、画像処理IC103、遠赤外線センサ102、信号処理IC104、ROM105、CPU106、RAM107、及び、通信装置108を有している。
<Hardware configuration example>
FIG. 3 is an example of a hardware configuration diagram of the camera apparatus 10. The camera device 10 includes an imaging unit 101, an image processing IC 103, a far infrared sensor 102, a signal processing IC 104, a ROM 105, a CPU 106, a RAM 107, and a communication device 108.

撮像部101は、レンズ、絞り、シャッター(メカ・電子)、CMOSやCCDなどの固体撮像素子、及び、メモリ等を有するカメラである。画像は白黒でもカラーでもよい。撮像部101はCPU106からの制御により定期的に所定範囲を撮像し、画像を画像処理IC103に送出する。画像処理IC103は、画像に動体を検出する画像処理を施す集積回路である。   The imaging unit 101 is a camera having a lens, a diaphragm, a shutter (mechanical / electronic), a solid-state imaging device such as a CMOS or a CCD, and a memory. The image may be black and white or color. The imaging unit 101 periodically captures a predetermined range under the control of the CPU 106 and sends the image to the image processing IC 103. The image processing IC 103 is an integrated circuit that performs image processing for detecting a moving object on an image.

遠赤外線センサ102は、物体から放射される遠赤外線を検知して温度変化を検知するセンサである。具体的には焦電素子又はサーモパイルセンサが知られている。レンズを有しており、レンズの画角に入る遠赤外線を焦電素子又はサーモパイルセンサに誘導し、主に恒温動物が放射する遠赤外線を電気信号に変換する。信号処理IC104は、電気信号を監視して温度変化の有無を判断する集積回路である。   The far-infrared sensor 102 is a sensor that detects a far-infrared ray emitted from an object to detect a temperature change. Specifically, a pyroelectric element or a thermopile sensor is known. It has a lens, and guides far-infrared rays that enter the angle of view of the lens to a pyroelectric element or a thermopile sensor, and converts far-infrared rays radiated mainly by thermostat animals into electrical signals. The signal processing IC 104 is an integrated circuit that monitors an electrical signal and determines whether there is a temperature change.

CPU106は、RAM107を作業メモリにしてROM105に記憶されたプログラムを実行し、カメラ装置10の全体を制御する。すなわち、撮像部101による撮像を制御したり、遠赤外線センサ102による遠赤外線の検出を制御したりする。また、通信装置108を制御して監視センター9に警報画像6を送信したりする。   The CPU 106 controls the entire camera device 10 by executing a program stored in the ROM 105 using the RAM 107 as a working memory. That is, the imaging by the imaging unit 101 is controlled, or the detection of far infrared rays by the far infrared sensor 102 is controlled. In addition, the alarm device 6 is transmitted to the monitoring center 9 by controlling the communication device 108.

通信装置108は、ネットワークインタフェースやイーサネット(登録商標)カードと呼ばれ、ネットワークに接続する機能を提供する。無線LANのアクセスポイントや携帯電話網の基地局に接続してもよい。   The communication device 108 is called a network interface or an Ethernet (registered trademark) card, and provides a function of connecting to a network. You may connect to the access point of a wireless LAN, or the base station of a mobile telephone network.

図4は、情報処理装置30の概略的なハードウェア構成を示したブロック図である。情報処理装置30は、概ねパーソナル・コンピュータ、ワークステーション又はアプライアンス・サーバとして実装することができる。情報処理装置30は、CPU201と、CPU201が使用するデータの高速アクセスを可能とするメモリ202とを備える。CPU201及びメモリ202は、システム・バス203を介して、情報処理装置30の他のデバイス又はドライバ、例えば、グラフィックス・ドライバ204及びネットワーク・ドライバ(NIC)205へと接続されている。   FIG. 4 is a block diagram illustrating a schematic hardware configuration of the information processing apparatus 30. The information processing apparatus 30 can be generally implemented as a personal computer, a workstation, or an appliance server. The information processing apparatus 30 includes a CPU 201 and a memory 202 that enables high-speed access to data used by the CPU 201. The CPU 201 and the memory 202 are connected to other devices or drivers of the information processing apparatus 30 such as a graphics driver 204 and a network driver (NIC) 205 via the system bus 203.

LCD(表示装置)206はグラフィックス・ドライバ204に接続されて、CPU201による表示指示を実行し画面を表示する。LCD206にはタッチパネルが一体に配置されていてもよい。この場合、監視員7は操作手段として指を使って情報処理装置30を操作できる。   An LCD (display device) 206 is connected to the graphics driver 204 and executes a display instruction from the CPU 201 to display a screen. A touch panel may be integrally disposed on the LCD 206. In this case, the monitor 7 can operate the information processing apparatus 30 using a finger as an operation means.

また、ネットワーク・ドライバ205は、トランスポート層レベル及び物理層レベルで情報処理装置30をネットワークNへと接続して、カメラ装置10等とのセッションを確立させている。   The network driver 205 connects the information processing apparatus 30 to the network N at the transport layer level and the physical layer level to establish a session with the camera apparatus 10 and the like.

システム・バス203には、更にI/Oバス・ブリッジ207が接続されている。I/Oバス・ブリッジ207の下流側には、PCIなどのI/Oバス208を介して、IDE、ATA、ATAPI、シリアルATA、SCSI、USBなどにより、HDD209などの記憶装置が接続されている。HDD209の代わりに又はHDD209と共にSSD(Solid State Drive)を有していてもよい。   An I / O bus bridge 207 is further connected to the system bus 203. On the downstream side of the I / O bus bridge 207, a storage device such as an HDD 209 is connected by an IDE, ATA, ATAPI, serial ATA, SCSI, USB, etc. via an I / O bus 208 such as PCI. . Instead of the HDD 209 or together with the HDD 209, an SSD (Solid State Drive) may be included.

HDD209は情報処理装置30の全体を制御するプログラム209pを記憶している。情報処理装置30はプログラム209pを実行することで、監視員の操作を受け付けたり学習したりする。プログラム209pは、プログラムを配信するサーバから配信される他、USBメモリや光記憶媒体などの可搬性の記憶媒体に記憶された状態で配布されてもよい。   The HDD 209 stores a program 209p for controlling the entire information processing apparatus 30. The information processing apparatus 30 executes the program 209p to accept or learn the operation of the supervisor. The program 209p may be distributed in a state of being stored in a portable storage medium such as a USB memory or an optical storage medium in addition to being distributed from a server that distributes the program.

また、I/Oバス208には、USBなどのバスを介して、キーボード及びマウス(ポインティング・デバイスと呼ばれる)などの入力装置210が接続され、監視員7などのオペレータによる入力及び指令を受け付けている。   Also, an input device 210 such as a keyboard and a mouse (referred to as a pointing device) is connected to the I / O bus 208 via a USB bus or the like, and accepts input and commands from an operator such as the supervisor 7. Yes.

情報処理装置30はクラウドコンピューティングに対応していてもよい。クラウドコンピューティングとは、特定ハードウェア資源が意識されずにネットワーク上のリソースが利用される利用形態をいう。この場合、図4に示したハードウェア構成は、1つの筐体に収納されていたり一まとまりの装置として備えられていたりする必要はなく、情報処理装置30が備えていることが好ましいハード的な要素を示す。   The information processing apparatus 30 may support cloud computing. Cloud computing refers to a usage pattern in which resources on a network are used without being aware of specific hardware resources. In this case, the hardware configuration shown in FIG. 4 does not need to be housed in a single housing or provided as a single device, and is preferably provided in the information processing device 30. Indicates an element.

<画像処理システムの機能構成例>
図5は、画像処理システム100が備える各機能を図示した機能ブロック図の一例である。なお、本実施形態では認識率の向上に関する機能について主に説明する。
<Functional configuration example of image processing system>
FIG. 5 is an example of a functional block diagram illustrating each function provided in the image processing system 100. In the present embodiment, functions related to the improvement of the recognition rate will be mainly described.

<<カメラ装置の機能構成>>
カメラ装置10は、画像取得部11、画像処理部12、遠赤外線検知部13、温度変化判断部14、及び通信部15を有している。これらの各機能は図3に示したCPU106がプログラムを実行してカメラ装置10のハードウェアと協働することで実現される機能又は手段である。ハード的又はソフト的に実現される機能を明確に区別する必要はなく、これらの機能の一部又は全てがICなどのハードウェア回路により実現されてもよい。
<< Functional configuration of camera device >>
The camera device 10 includes an image acquisition unit 11, an image processing unit 12, a far infrared detection unit 13, a temperature change determination unit 14, and a communication unit 15. Each of these functions is a function or means realized by the CPU 106 shown in FIG. 3 executing a program and cooperating with the hardware of the camera apparatus 10. It is not necessary to clearly distinguish functions implemented in hardware or software, and some or all of these functions may be implemented by a hardware circuit such as an IC.

また、カメラ装置10は、図3に示したROM105又はRAM107により構築される記憶部19を有している。記憶部19には画像DB191が構築されている。画像DB191は、カメラ装置10が直接有していなくてもよく、カメラ装置10がアクセス可能なネットワーク上の任意の場所にあればよい。   In addition, the camera apparatus 10 includes a storage unit 19 constructed by the ROM 105 or the RAM 107 illustrated in FIG. An image DB 191 is constructed in the storage unit 19. The image DB 191 does not have to be directly included in the camera apparatus 10 and may be in any place on the network that the camera apparatus 10 can access.

画像取得部11は、検知対象の有無に関係なく定期的に画像を取得する(撮像する)。検知対象が検知されるまでは撮像の間隔を長くし、検知対象が検知されたら撮像の間隔を短くしてもよい。画像取得部11は、図3のCPU106が撮像部101を制御すること等により実現される。   The image acquisition unit 11 periodically acquires (captures images) regardless of whether or not there is a detection target. The imaging interval may be lengthened until the detection target is detected, and the imaging interval may be shortened when the detection target is detected. The image acquisition unit 11 is realized by the CPU 106 in FIG.

画像処理部12は、時系列の画像から動体を検出する。例えば時刻tの画像を記憶部19に記憶しておき、時刻t+1の画像と画素又は画素ブロックごとに比較することで、変化の有無を判断する。画素値が変化する画素には動体が写っていると判断し、変化した画素に外接矩形を描画する。画像処理部12は、動体がないと判断した画像と共に動体があると判断した画像にフラグなどを付与して画像DB191に記憶する。画像DB191では古い画像から上書きされ常に一定枚数の新しい画像が保持されている。   The image processing unit 12 detects a moving object from a time-series image. For example, the image at time t is stored in the storage unit 19, and the presence / absence of change is determined by comparing the image at time t + 1 with each pixel or pixel block. It is determined that a moving object is reflected in the pixel whose pixel value changes, and a circumscribed rectangle is drawn on the changed pixel. The image processing unit 12 assigns a flag or the like to the image determined to have a moving object together with the image determined to have no moving object, and stores the image in the image DB 191. The image DB 191 overwrites the old image and always holds a certain number of new images.

遠赤外線検知部13は、遠赤外線の波長域の電磁波を定期的に収集してA/D変換を行うことで電気信号を生成する。遠赤外線検知部13は、図3のCPU106が遠赤外線センサ102を制御すること等により実現される。   The far-infrared detector 13 periodically collects electromagnetic waves in the far-infrared wavelength region and performs A / D conversion to generate an electrical signal. The far-infrared detector 13 is realized by the CPU 106 in FIG. 3 controlling the far-infrared sensor 102.

温度変化判断部14は、遠赤外線検知部13が生成した電気信号を監視して温度変化があったか否かを判断する。温度変化があると判断した場合、画像に動体が写っている可能性があるため、最も新しく撮像された画像にフラグなどを付与する。この画像は画像処理により動体が検出されているものであることが好ましい(例えば、遠赤外線を検知した時刻に撮像した画像から動体を検出した場合、該画像にフラグを付与することで可能になる)。しかし、遠赤外線の検知で付与されたフラグの前後の複数の画像が警報画像6となるので、画像処理により動体が検出されていない画像にフラグが付されても、動体が検出された画像を含めてカメラ装置10が警報画像6を情報処理装置30に送信できる。   The temperature change determination unit 14 monitors the electrical signal generated by the far infrared ray detection unit 13 and determines whether or not there has been a temperature change. If it is determined that there is a temperature change, a moving object may be included in the image, so a flag or the like is assigned to the most recently captured image. This image is preferably one in which a moving object is detected by image processing (for example, when a moving object is detected from an image captured at the time when far-infrared light is detected, this can be achieved by adding a flag to the image. ). However, since a plurality of images before and after the flag given by the detection of the far-infrared are the warning image 6, even if a flag is attached to an image in which no moving object is detected by image processing, an image in which the moving object is detected is displayed. Including the camera device 10 can transmit the alarm image 6 to the information processing device 30.

通信部15は、フラグが付された画像を画像DB191から検出して警報画像6として情報処理装置30に送信する。例えば、フラグが付された画像の時間的に前後の数枚〜数十枚を送信する。通信部15は、図3のCPU106が通信装置108を制御すること等により実現される。   The communication unit 15 detects the image with the flag from the image DB 191 and transmits it to the information processing apparatus 30 as the alarm image 6. For example, several to several tens of images before and after a flagged image are transmitted. The communication unit 15 is realized by the CPU 106 of FIG.

<<情報処理装置の機能構成>>
情報処理装置30は、通信部31、表示制御部32、操作受付部33、警報原因推定部34、及び学習画像自動抽出部35を有している。これらの各機能は図4に示したCPU201がプログラム209pを実行して情報処理装置30のハードウェアと協働することで実現される機能又は手段である。ハード的又はソフト的に実現される機能を明確に区別する必要はなく、これらの機能の一部又は全てがICなどのハードウェア回路により実現されてもよい。
<< Functional configuration of information processing equipment >>
The information processing apparatus 30 includes a communication unit 31, a display control unit 32, an operation reception unit 33, an alarm cause estimation unit 34, and a learning image automatic extraction unit 35. These functions are functions or means realized by the CPU 201 shown in FIG. 4 executing the program 209p and cooperating with the hardware of the information processing apparatus 30. It is not necessary to clearly distinguish functions implemented in hardware or software, and some or all of these functions may be implemented by a hardware circuit such as an IC.

また、情報処理装置30は、図4に示したメモリ202又はHDD209より構築される記憶部39を有している。記憶部39には警報画像DB391及び学習DB392が構築されている。これらDBは、情報処理装置30が直接有していなくてもよく、情報処理装置30がアクセス可能なネットワーク上の任意の場所にあればよい。   In addition, the information processing apparatus 30 includes a storage unit 39 constructed from the memory 202 or the HDD 209 illustrated in FIG. In the storage unit 39, an alarm image DB 391 and a learning DB 392 are constructed. These DBs do not have to be directly held by the information processing apparatus 30 and may be located at any location on the network accessible by the information processing apparatus 30.

通信部31は、カメラ装置10から警報画像6を受信する。受信した警報画像6は警報画像DB391に記憶される。通信部31は図4に示したCPU201がプログラム209pを実行してネットワーク・ドライバ205を制御すること等により実現される。   The communication unit 31 receives the alarm image 6 from the camera device 10. The received alarm image 6 is stored in the alarm image DB 391. The communication unit 31 is realized by the CPU 201 illustrated in FIG. 4 executing the program 209p to control the network driver 205, and the like.

表示制御部32は、警報原因の入力のため監視員7の操作により又は自動的に警報画像DB391に記憶された警報画像6をLCD206に表示する。表示制御部32が表示する警報原因の入力画面の一例を図8に示す。表示制御部32は、例えば図4に示したCPU201がプログラム209pを実行してグラフィックス・ドライバ204を制御すること等により実現される。   The display control unit 32 displays the alarm image 6 stored in the alarm image DB 391 on the LCD 206 by the operation of the monitor 7 for the input of the alarm cause or automatically. An example of the alarm cause input screen displayed by the display control unit 32 is shown in FIG. The display control unit 32 is realized by the CPU 201 illustrated in FIG. 4 executing the program 209p to control the graphics driver 204, for example.

操作受付部33は、情報処理装置30に対する監視員7の操作を受け付ける。本実施形態では、LCD206に表示した警報画像6に対する監視員7の警報原因の入力操作を受け付け、該警報画像6を入力された警報原因と対応付けて警報画像DB391に登録する。操作受付部33は、例えば図4に示したCPU201がプログラム209pを実行して入力装置210を制御すること等により実現される。   The operation accepting unit 33 accepts an operation of the monitor 7 for the information processing apparatus 30. In the present embodiment, an alarm cause input operation of the monitor 7 for the alarm image 6 displayed on the LCD 206 is received, and the alarm image 6 is registered in the alarm image DB 391 in association with the input alarm cause. The operation accepting unit 33 is realized, for example, by the CPU 201 illustrated in FIG. 4 executing the program 209p to control the input device 210.

警報原因推定部34は、警報画像6から検知対象を識別する識別装置である。本実施形態ではこの警報原因推定部34の認識率を向上させることが可能になる。警報原因推定部34は、学習により構築された識別機能により、警報画像6に写っている検知対象の確度を検知対象ごとに算出する。警報原因推定部34は各検知対象の確度を警報画像6に対応付けて警報画像DB391に記憶させる。警報原因推定部34は、例えば図4に示したCPU201がプログラム209pを実行すること等により実現される。   The alarm cause estimation unit 34 is an identification device that identifies a detection target from the alarm image 6. In the present embodiment, the recognition rate of the alarm cause estimating unit 34 can be improved. The alarm cause estimating unit 34 calculates the accuracy of the detection target shown in the alarm image 6 for each detection target by the identification function constructed by learning. The alarm cause estimating unit 34 stores the accuracy of each detection target in the alarm image DB 391 in association with the alarm image 6. The alarm cause estimating unit 34 is realized, for example, by the CPU 201 illustrated in FIG. 4 executing the program 209p.

学習画像自動抽出部35は、警報画像DB391の警報画像6に対応付けて登録された各警報原因とその確度を読み出して、まず、確度が閾値a以上の警報画像6を学習DB392に移動する。また、監視員7が入力した警報原因の確度が閾値b以上の警報画像6を学習DB392に移動させる。学習画像自動抽出部35は、例えば図4に示したCPU201がプログラム209pを実行すること等により実現される。   The learning image automatic extraction unit 35 reads each alarm cause registered in association with the alarm image 6 of the alarm image DB 391 and its accuracy, and first moves the alarm image 6 with the accuracy equal to or higher than the threshold value a to the learning DB 392. Further, the alarm image 6 having the alarm cause accuracy input by the monitor 7 and having a threshold value b or higher is moved to the learning DB 392. The learning image automatic extraction unit 35 is realized, for example, when the CPU 201 illustrated in FIG. 4 executes the program 209p.

Figure 2018173913
表1は、警報画像DB391に記憶されている情報を模式的に示す。表1には警報画像6の画像番号に各警報原因の確度が対応付けられている。警報原因は、例えば、虫、鳥、小動物、及び、人等である。表1(a)は確度が閾値a以上の警報原因が写っている警報画像6を記憶する警報画像DB391を示す。表1(b)は確度が閾値a以上の警報原因が写っている警報画像6を記憶せず、閾値b以上の警報原因が写っている警報画像6を記憶する警報画像DB391を示す。一例として、監視員7が警報原因を入力することなく自動で警報画像6が学習DB392に記憶されるための閾値aを0.7、監視員7が警報原因(例えば、小動物)を入力した場合に警報画像6が学習DB392に記憶されるための閾値bを0.3とする。閾値aは警報原因が写っていることが90〜100%の確度に相当し、ほぼ間違いなく警報原因が写っている確度である。閾値bは警報原因が写っていることが50〜90%の確度に相当し、警報原因が写っていることは概ね当たるが完全ではない場合もある確度である。
Figure 2018173913
Table 1 schematically shows information stored in the alarm image DB 391. In Table 1, the accuracy of each alarm cause is associated with the image number of the alarm image 6. The alarm causes are, for example, insects, birds, small animals, and people. Table 1 (a) shows an alarm image DB 391 that stores an alarm image 6 in which an alarm cause having an accuracy of a threshold value a or higher is shown. Table 1 (b) shows an alarm image DB 391 that stores an alarm image 6 in which an alarm cause with an accuracy greater than or equal to a threshold a is shown, and an alarm image 6 in which an alarm cause with an accuracy greater than or equal to the threshold b is shown. As an example, when the monitor 7 inputs a threshold value a for automatically storing the alarm image 6 in the learning DB 392 without inputting an alarm cause, and the monitor 7 inputs an alarm cause (for example, a small animal) The threshold value b for storing the alarm image 6 in the learning DB 392 is 0.3. The threshold value a corresponds to 90% to 100% accuracy that the cause of the alarm is shown, and is almost certainly the probability that the cause of the alarm is shown. The threshold value b corresponds to the accuracy of 50 to 90% that the cause of the alarm is shown, and the probability that the cause of the alarm is shown is almost correct but may not be perfect.

Figure 2018173913
表2は、学習DB392に記憶されている情報を模式的に示す。学習DB392には画像番号に対応付けて、警報原因とその確度が登録されている。表2(a)は表1(a)に対応し、表2(b)(c)は表1(b)に対応する。表2(a)は、確度が閾値a以上の警報原因が写っている警報画像が格納された学習DB392を示す。表1(a)の警報画像DB391で確度が0.7以上なのは小動物という警報原因である。小動物という警報原因に着目すると閾値b以上の確度を有するのは画像番号が1〜3の警報画像6なので、画像番号が1〜3の警報画像6が学習DB392に記憶されている。
Figure 2018173913
Table 2 schematically shows information stored in the learning DB 392. In the learning DB 392, an alarm cause and its accuracy are registered in association with the image number. Table 2 (a) corresponds to Table 1 (a), and Tables 2 (b) and (c) correspond to Table 1 (b). Table 2 (a) shows the learning DB 392 in which an alarm image in which an alarm cause having an accuracy of the threshold value a or higher is shown is stored. In the alarm image DB 391 of Table 1 (a), the accuracy of 0.7 or more is a cause of alarm of a small animal. Focusing on the alarm cause of the small animal, the alarm image 6 having the image numbers 1 to 3 has the accuracy equal to or higher than the threshold value b. Therefore, the alarm image 6 having the image numbers 1 to 3 is stored in the learning DB 392.

表2(b)は、監視員7が警報原因として小動物を入力し、確度が閾値a未満b以上の警報原因が写っている警報画像6が格納された学習DB392を示す。表1(b)では閾値が0.7以上の警報原因が検出されていないので、監視員7が警報原因を入力する。入力された警報原因が小動物の場合、表1(b)の警報画像DB391で確度が0.3以上(0.7未満)で警報原因が小動物なのは画像番号が1〜3の警報画像6なので、画像番号が1〜3の警報画像6が警報原因「小動物」と対応付けて学習DB392に記憶されている。   Table 2 (b) shows the learning DB 392 in which the monitor 7 inputs a small animal as the cause of the alarm, and stores the alarm image 6 in which the cause of the alarm whose accuracy is less than the threshold a and b or more is shown. In Table 1 (b), since the alarm cause with the threshold value of 0.7 or more is not detected, the supervisor 7 inputs the alarm cause. If the input alarm cause is a small animal, the alarm image DB 391 in Table 1 (b) has an accuracy of 0.3 or more (less than 0.7) and the alarm cause is a small animal because the alarm image 6 has image numbers 1 to 3. The alarm images 6 having image numbers 1 to 3 are stored in the learning DB 392 in association with the alarm cause “small animal”.

表2(c)は、監視員7が警報原因として人を入力したが、警報画像6が格納されなかった学習DB392を示す。表1(b)では閾値が0.7以上の警報原因が検出されていないので、監視員7が警報原因を入力する。入力された警報原因が人の場合、表1(b)の警報画像DB391で確度が0.3以上(0.7未満)で警報原因が人の警報画像6は存在しない。このため、学習DB392には警報画像6が記憶されない。これにより、監視員7が誤入力しても学習にふさわしくない警報画像6が抽出されることを抑制できる。   Table 2 (c) shows the learning DB 392 in which the supervisor 7 inputs a person as the cause of the alarm but the alarm image 6 is not stored. In Table 1 (b), since the alarm cause with the threshold value of 0.7 or more is not detected, the supervisor 7 inputs the alarm cause. When the input alarm cause is a person, the alarm image DB 391 in Table 1 (b) has an accuracy of 0.3 or more (less than 0.7) and the alarm cause 6 is not a person's alarm image. For this reason, the warning image 6 is not stored in the learning DB 392. Thereby, it is possible to suppress the extraction of the alarm image 6 that is not suitable for learning even if the supervisor 7 makes an input error.

<カメラ装置が描画する外接矩形>
図6を用いて、カメラ装置10が動体を検知した場合に警報画像6に描画する外接矩形について説明する。図6は、カメラ装置10が警報画像6に描画した外接矩形301の一例を示す。この警報画像6では動体として人が検知されている。動体を囲むように外接矩形301が描画されている。監視員は外接矩形301に着目することで警報原因を早期に判断できる。
<A circumscribed rectangle drawn by the camera device>
A circumscribed rectangle that is drawn on the alarm image 6 when the camera apparatus 10 detects a moving object will be described with reference to FIG. FIG. 6 shows an example of a circumscribed rectangle 301 drawn on the alarm image 6 by the camera device 10. In this alarm image 6, a person is detected as a moving object. A circumscribed rectangle 301 is drawn so as to surround the moving object. The monitor can determine the cause of the alarm early by paying attention to the circumscribed rectangle 301.

また、情報処理装置30による警報原因の識別ではこの外接矩形301を利用して、外接矩形の301内部でのみ行うことができる。これにより、識別に要する時間を短縮し、負荷を軽減できる。   Further, the cause of alarm by the information processing apparatus 30 can be performed only inside the circumscribed rectangle 301 by using the circumscribed rectangle 301. Thereby, the time required for identification can be shortened and the load can be reduced.

しかしながら、外接矩形301が警報原因を正しく囲んでいるとは限らないので、情報処理装置30が警報画像6の全体を識別することも有効である。外接矩形301は、監視員7が警報原因の場所を把握しやすくためには有効であるが、画像処理による識別では認識率の向上の妨げになる場合がある。このため、情報処理装置30が警報画像6の全体を識別する場合は、警報画像6から外接矩形301を削除することが好ましい。警報画像6に外接矩形301が直接、描画されている場合、外接矩形301の削除により画像の一部が無くなってしまうため、警報画像6とは別のレイヤに外接矩形301が描画されていることが好ましい。   However, since the circumscribed rectangle 301 does not always correctly surround the cause of the alarm, it is also effective for the information processing apparatus 30 to identify the entire alarm image 6. The circumscribed rectangle 301 is effective for the supervisor 7 to easily understand the location of the alarm cause, but the recognition by the image processing may hinder the improvement of the recognition rate. For this reason, when the information processing apparatus 30 identifies the entire warning image 6, it is preferable to delete the circumscribed rectangle 301 from the warning image 6. When the circumscribed rectangle 301 is drawn directly on the alarm image 6, the circumscribed rectangle 301 is drawn on a different layer from the alarm image 6 because deletion of the circumscribed rectangle 301 causes a part of the image to disappear. Is preferred.

<確度について>
図7を用いて、警報画像6の学習と確度について説明する。図7は学習のモデルの一例であるニューラルネットワークにおける多層パーセプトロンと呼ばれるモデルを示す。
<Accuracy>
The learning and accuracy of the alarm image 6 will be described with reference to FIG. FIG. 7 shows a model called a multilayer perceptron in a neural network which is an example of a learning model.

図7(a)では学習フェーズを説明している。入力層501にはメッシュ状に区分された警報画像6の各領域画像が入力され、中間層502と出力層503の間で特徴量が算出されると共に、出力層503から検知対象の確度が出力される。図7では入力層501のノードの数は領域画像の数であり、出力層503のノードの数は検知対象の種類の数である。また、図7では、中間層502の数は1であるが、中間層502の数は適宜設計され、ディープラーニングと呼ばれる学習方法では10〜20以上となる場合もある。   FIG. 7A illustrates the learning phase. Each region image of the alarm image 6 divided into a mesh shape is input to the input layer 501, a feature amount is calculated between the intermediate layer 502 and the output layer 503, and the accuracy of the detection target is output from the output layer 503. Is done. In FIG. 7, the number of nodes in the input layer 501 is the number of area images, and the number of nodes in the output layer 503 is the number of types of detection targets. In FIG. 7, the number of intermediate layers 502 is 1. However, the number of intermediate layers 502 is appropriately designed, and may be 10 to 20 or more in a learning method called deep learning.

入力層501に入力された領域画像はそれぞれ画像フィルタにより特徴抽出され、後段に行くほど領域画像が結合される。これにより、入力層501から出力層503に近づくほど、警報画像6の大域の特徴が抽出されるようになる。   Each region image input to the input layer 501 is feature-extracted by an image filter, and the region images are combined in the later stages. As a result, the global features of the alarm image 6 are extracted as the input layer 501 approaches the output layer 503.

学習フェーズにおいて出力層503の各ノードには、ノードに対応する検知対象が写っている場合に「1」がそれ以外の場合は「0」が教師信号として設定される。例えば、図7ではノードy1の検知対象が虫、ノードy2の検知対象が鳥、及び、ノードy3の検知対象が人である。入力された警報画像6の警報原因が「虫」なので、ノードy1に「1」が設定され、ノードy2とノードy3には「0」が設定されている。   In the learning phase, “1” is set as a teacher signal in each node of the output layer 503 when the detection target corresponding to the node is captured, and “0” is set otherwise. For example, in FIG. 7, the detection target of the node y1 is an insect, the detection target of the node y2 is a bird, and the detection target of the node y3 is a person. Since the alarm cause of the input alarm image 6 is “insect”, “1” is set to the node y1, and “0” is set to the nodes y2 and y3.

出力層503のノードの値と教師信号の差は、誤差逆伝播法に基づき画像フィルタに伝播される。これにより、ディープラーニングでは警報画像の特徴の抽出に適した画像フィルタが自動的に最適化されるという特徴がある。したがって、ディープラーニングでは特徴の抽出を自動的に行うことができる。   The difference between the node value of the output layer 503 and the teacher signal is propagated to the image filter based on the error back propagation method. Thereby, deep learning has a feature that an image filter suitable for extracting a feature of an alarm image is automatically optimized. Therefore, deep learning can automatically extract features.

図7(b)は認識フェーズを説明している。図7(b)のニューラルネットワークは警報画像6から写っている検知対象の確度を出力する。学習がある程度完了すると、入力層501から警報原因が写っている警報画像が入力された場合に、出力層503の各ノードは、警報原因に対応するノードから1に近い確度を出力し、それ以外のノードから0に近い確度を出力する。例えば、図7(b)では入力される警報画像に警報原因として虫が写っているので、ノードy1が0.8を出力し、ノードy2が0.2を出力し、ノードy3が0.1を出力している。このようにして、1つの警報画像6から各検知対象の確度が得られる。   FIG. 7B illustrates the recognition phase. The neural network in FIG. 7B outputs the accuracy of the detection target shown in the alarm image 6. When learning is completed to some extent, when an alarm image showing an alarm cause is input from the input layer 501, each node of the output layer 503 outputs an accuracy close to 1 from the node corresponding to the alarm cause. The accuracy close to 0 is output from the node. For example, in FIG. 7B, since an insect is reflected as an alarm cause in the input alarm image, the node y1 outputs 0.8, the node y2 outputs 0.2, and the node y3 is 0.1. Is output. In this way, the accuracy of each detection target is obtained from one alarm image 6.

なお、図7のような学習方法又は確度の算出方法は一例に過ぎず、前段にディープラーニングを採用して特徴抽出し、後段にSVM(サポートベクターマシン)を採用して警報原因を識別してもよい。また、SIFT(Scale-Invariant Feature Transform)やGISTなどで抽出した特徴量をSVMに入力して警報原因を識別してもよい。   Note that the learning method or the accuracy calculation method shown in FIG. 7 is merely an example, and feature extraction is performed using deep learning in the previous stage, and the cause of the alarm is identified using SVM (support vector machine) in the subsequent stage. Also good. Further, the cause of the alarm may be identified by inputting a feature amount extracted by SIFT (Scale-Invariant Feature Transform), GIST, or the like into the SVM.

また、警報原因推定部34が推定した確度以外に、警報原因の確からしさを算出する方法で確度と同等の情報を算出してもよい。しかし、警報原因推定部34が推定した確度を利用することで、確度と同等の情報を算出する工程を省くことができる。   In addition to the accuracy estimated by the alarm cause estimation unit 34, information equivalent to the accuracy may be calculated by a method of calculating the probability of the alarm cause. However, by using the accuracy estimated by the alarm cause estimation unit 34, a step of calculating information equivalent to the accuracy can be omitted.

<監視員7が入力する警報原因のユーザインタフェース>
続いて、図8を用いて監視員7による警報原因の入力について説明する。図8は、LCD206に表示される警報原因の入力画面401の一例である。警報原因の入力画面401は、カメラ装置10から警報画像6が受信されると自動的に又は監視員7の操作により情報処理装置30のLCD206に表示される。警報原因の入力画面401は、警報画像欄411、戻るボタン412、送るボタン413、画像番号表示欄414、複数の警報原因ボタン415、及び、OKボタン416を有する。
<User interface of cause of alarm input by supervisor 7>
Next, the alarm cause input by the supervisor 7 will be described with reference to FIG. FIG. 8 is an example of the alarm cause input screen 401 displayed on the LCD 206. The alarm cause input screen 401 is displayed on the LCD 206 of the information processing apparatus 30 automatically or upon operation of the monitor 7 when the alarm image 6 is received from the camera apparatus 10. The alarm cause input screen 401 includes an alarm image field 411, a return button 412, a send button 413, an image number display field 414, a plurality of alarm cause buttons 415, and an OK button 416.

警報画像欄411は警報画像6が表示される欄である。検知対象が検知された前後の複数の警報画像6が時系列に表示される。戻るボタン412は監視員7が1つ前の警報画像6を表示させるためのボタンであり、送るボタン413は監視員7が1つ後の警報画像6を表示させるためのボタンである。画像番号表示欄414は、現在、警報画像欄411に表示されている警報画像6が何枚中何枚目かを示す。警報原因ボタン415は、それぞれ虫、鳥、小動物、及び人という表記を有し、監視員7は警報画像欄411を見て警報原因を判断し警報原因ボタン415を押下する。OKボタン416は監視員7の入力結果を確定するためのボタンであり、OKボタン416の押下により学習DB392に抽出される警報画像6の抽出処理が開始される。   The alarm image column 411 is a column in which the alarm image 6 is displayed. A plurality of alarm images 6 before and after the detection target is detected are displayed in time series. The return button 412 is a button for the monitor 7 to display the previous alarm image 6, and the send button 413 is a button for the monitor 7 to display the next alarm image 6. The image number display column 414 indicates how many of the alarm images 6 currently displayed in the alarm image column 411 are. The alarm cause button 415 has a notation of insect, bird, small animal, and person, respectively, and the supervisor 7 looks at the alarm image column 411 to determine the cause of the alarm and presses the alarm cause button 415. The OK button 416 is a button for confirming the input result of the monitor 7, and the extraction process of the alarm image 6 extracted to the learning DB 392 is started when the OK button 416 is pressed.

なお、監視員7は複数の警報画像6に対し1つの警報原因を入力すればよい。こうすることで、監視員7が警報原因を判断する負担を低減できる。   The monitoring staff 7 may input one alarm cause for the plurality of alarm images 6. By doing so, the burden on the supervisor 7 to determine the cause of the alarm can be reduced.

警報原因の入力画面401に閾値a以上の警報画像6が表示される必要はないが、監視員7が念のため確認することは差し支えない。このため、確度が閾値a以上の警報画像6が警報原因の入力画面401に表示されるかどうかは監視員7の設定により切り替え可能であることが好ましい。確度が閾値a以上の警報画像6が表示される場合はその旨(例えば、この画像は虫と判断され学習DBに格納済です)を表示制御部32が表示する。これにより、自分の判断を検証できる。あるいは、警報原因が正しくない場合は学習DBから削除したりすることもできる。   Although it is not necessary to display the alarm image 6 of the threshold value a or higher on the alarm cause input screen 401, the supervisor 7 may confirm it just in case. For this reason, it is preferable that whether the alarm image 6 with the accuracy of the threshold value a or higher is displayed on the alarm cause input screen 401 can be switched by the setting of the monitor 7. When the alarm image 6 with the accuracy of the threshold value a or higher is displayed, the display control unit 32 displays that fact (for example, this image is determined to be an insect and stored in the learning DB). This allows you to verify your judgment. Alternatively, if the cause of alarm is not correct, it can be deleted from the learning DB.

<学習DB392に抽出される警報画像>
図9は、学習に用いられる警報画像6の抽出方法を説明する図の一例である。上記のように監視員7は複数の警報画像6に対し1つの警報原因を入力する。学習画像自動抽出部35は、各警報画像6から監視員7が入力した警報原因の確度が閾値b以上の警報画像6を抽出する。例えば、入力された警報原因が虫の場合を例にして説明する。
<Alarm image extracted in the learning DB 392>
FIG. 9 is an example of a diagram illustrating a method for extracting the alarm image 6 used for learning. As described above, the monitor 7 inputs one alarm cause for the plurality of alarm images 6. The learning image automatic extraction unit 35 extracts the alarm image 6 having the accuracy of the alarm cause input by the monitor 7 from each alarm image 6 and having a threshold value b or more. For example, the case where the input alarm cause is an insect will be described as an example.

警報画像61の虫の確度は閾値b未満、警報画像62の虫の確度は閾値b以上、警報画像63の虫の確度は閾値b未満である。この場合、学習画像自動抽出部35は、警報画像62のみを抽出して学習DB392に格納する。   The accuracy of the insect in the alarm image 61 is less than the threshold value b, the accuracy of the insect in the alarm image 62 is greater than or equal to the threshold value b, and the accuracy of the insect in the alarm image 63 is less than the threshold value b. In this case, the learning image automatic extraction unit 35 extracts only the alarm image 62 and stores it in the learning DB 392.

監視員7が警報画像6に写っている正しい警報原因を入力した場合、この警報原因の確度が高い警報画像6のみが抽出され学習に使用されるので、学習画像自動抽出部35は複数の警報画像6のうち警報原因が写っている警報画像6を抽出できる。したがって、警報画像6と警報原因の関係を学習するために適切な警報画像6を抽出できる。   When the monitor 7 inputs the correct cause of the alarm shown in the alarm image 6, only the alarm image 6 having a high accuracy of the alarm cause is extracted and used for learning. Therefore, the learning image automatic extraction unit 35 has a plurality of alarms. The alarm image 6 in which the cause of the alarm is shown in the image 6 can be extracted. Therefore, an appropriate alarm image 6 can be extracted in order to learn the relationship between the alarm image 6 and the alarm cause.

仮に、監視員7が警報画像6に写っていない誤った警報原因を入力した場合、この警報原因の確度が高い警報画像6は存在しないので、誤った警報原因が対応付けられた警報画像6は抽出されない。したがって、情報処理装置30が警報画像6と警報原因の誤った関係を学習することを抑制できる。換言すると、監視員7の誤入力に対応できる。   If the monitor 7 inputs an incorrect alarm cause that is not shown in the alarm image 6, there is no alarm image 6 with high accuracy of the alarm cause, so the alarm image 6 associated with the incorrect alarm cause is Not extracted. Therefore, it is possible to suppress the information processing device 30 from learning an incorrect relationship between the alarm image 6 and the alarm cause. In other words, it is possible to cope with an erroneous input of the supervisor 7.

具体的には、監視員7が警報画像6に写っている警報原因とは異なる警報原因を入力した場合は以下のように処理される。すなわち、警報画像6に写っている警報原因の確度が閾値a未満であり、監視員7が警報画像6に写っている警報原因とは異なる警報原因を入力した場合、警報画像6に写っている警報原因の確度が閾値b以上でも、監視員7が入力した警報原因の確度は閾値b未満となっていると考えられるので、学習DB392には格納されない。したがって、学習DB392に格納される警報画像は減る可能性があるが、情報処理装置30が警報画像6と警報原因の誤った関係を学習することを抑制できる。   Specifically, when the monitor 7 inputs an alarm cause different from the alarm cause shown in the alarm image 6, the following processing is performed. That is, if the accuracy of the alarm cause shown in the alarm image 6 is less than the threshold value a and the supervisor 7 inputs an alarm cause different from the alarm cause shown in the alarm image 6, the alarm cause 6 is shown in the alarm image 6. Even if the accuracy of the alarm cause is greater than or equal to the threshold value b, the accuracy of the alarm cause input by the monitor 7 is considered to be less than the threshold value b, and thus is not stored in the learning DB 392. Therefore, there is a possibility that the number of alarm images stored in the learning DB 392 may be reduced, but it is possible to suppress the information processing apparatus 30 from learning an incorrect relationship between the alarm image 6 and the alarm cause.

カメラ装置10が撮像する警報画像は、低フレームレートのため、似た画像が存在しにくく、また、警報前後の数秒の画像であるため、警報原因が写っていない画像が多いという特徴がある。このため、警報原因が写っていない警報画像を排除することで学習による精度向上が見込める。   The alarm image captured by the camera device 10 has a feature that a similar image is unlikely to exist because of a low frame rate, and there are many images in which the cause of the alarm is not captured because the image is several seconds before and after the alarm. For this reason, the accuracy improvement by learning can be expected by eliminating the alarm image in which the cause of the alarm is not shown.

<<確度が安定しない警報画像の排除>>
このように警報原因の確度が高い警報画像が学習DB392に格納されることで、情報処理装置30は警報画像6と警報原因の関係を学習できる。しかしながら、確度が高くても学習DB392には入れない方がよい警報画像6もあり得る。
<< Eliminating alarm images with unstable accuracy >>
Thus, by storing the alarm image with high accuracy of the alarm cause in the learning DB 392, the information processing apparatus 30 can learn the relationship between the alarm image 6 and the alarm cause. However, there may be an alarm image 6 that should be not included in the learning DB 392 even if the accuracy is high.

図10は複数の警報画像6から算出された各警報原因の確度のうち監視員7が入力した警報原因の確度を時系列に示す。この一連の警報画像6の確度は閾値a又はbを超える場合があるが、確度が極度に大きく変動している。同じ警報原因の確度が極度に大きく変動することは考えにくく、警報原因推定部34が正しく確度を算出できなかった可能性が高い。このような警報画像6は学習に用いられるべきではないので、学習画像自動抽出部35は学習画像DBに移動しないことが好ましい。   FIG. 10 shows, in a time series, the accuracy of the alarm cause input by the monitor 7 out of the accuracy of each alarm cause calculated from the plurality of alarm images 6. The accuracy of this series of alarm images 6 may exceed the threshold value a or b, but the accuracy fluctuates extremely greatly. It is unlikely that the accuracy of the same alarm cause fluctuates extremely greatly, and there is a high possibility that the alarm cause estimation unit 34 has not correctly calculated the accuracy. Since such an alarm image 6 should not be used for learning, it is preferable that the learning image automatic extraction unit 35 does not move to the learning image DB.

具体的には、各警報画像6の警報原因ごとに確度の分散を算出し、閾値を超えた分散を持つ警報画像6を学習DB392に移動しない。こうすることで、認識率を向上しやすくなる。   Specifically, the variance of the accuracy is calculated for each alarm cause of each alarm image 6, and the alarm image 6 having a variance exceeding the threshold is not moved to the learning DB 392. This makes it easier to improve the recognition rate.

<動作手順>
図11は、情報処理装置30が警報画像6を抽出して学習DB392に格納する処理を説明するフローチャート図の一例である。
<Operation procedure>
FIG. 11 is an example of a flowchart illustrating a process in which the information processing apparatus 30 extracts the alarm image 6 and stores it in the learning DB 392.

まず、情報処理装置30の通信部31は、検知対象が検知されたことによりカメラ装置10から送信された複数の警報画像6を取得する(S10)。複数の警報画像6は警報画像DB391に格納される。   First, the communication unit 31 of the information processing device 30 acquires a plurality of alarm images 6 transmitted from the camera device 10 when a detection target is detected (S10). The plurality of warning images 6 are stored in the warning image DB 391.

次に、情報処理装置30の警報原因推定部34は各警報画像6に画像認識を施し、各警報原因の確度を算出する(S20)。これにより、表1に示したように警報画像DB391には、警報画像6ごとに各警報原因の確度が登録される。   Next, the alarm cause estimating unit 34 of the information processing device 30 performs image recognition on each alarm image 6 and calculates the accuracy of each alarm cause (S20). Thereby, as shown in Table 1, the accuracy of each alarm cause is registered for each alarm image 6 in the alarm image DB 391.

次に、情報処理装置30の学習画像自動抽出部35は、確度が閾値a以上の警報画像6があるか否かを判断する(S30)。この確度は任意の警報原因が有する確度でよい。警報原因に関わらず確度が高い場合は警報原因が検知されていると判断してよいためである。   Next, the learning image automatic extraction unit 35 of the information processing device 30 determines whether or not there is an alarm image 6 having an accuracy of the threshold value a or more (S30). This accuracy may be the accuracy of any alarm cause. This is because when the accuracy is high regardless of the cause of the alarm, it may be determined that the cause of the alarm is detected.

ステップS30の判断がYesの場合、この警報画像6には警報原因が写っている可能性が高いので、学習画像自動抽出部35は確度が閾値a以上であると判断された警報原因に着目してこの警報原因の確度が閾値b以上の警報画像6を抽出し学習DB392に格納する(S40)。例えば表1(a)の警報画像6で閾値a(0.7)以上の確度を有するのは小動物という警報原因である。よって、小動物の確度が閾値b(0.3)以上である警報画像6が抽出される。表1(a)の警報画像6に対し表2(a)の学習DB392が作成され図11の処理は終了する。閾値a以上の確度を有する警報原因は監視員7が確認しなくてもこの警報原因が警報画像6に写っていることがほぼ間違いないので、同じ警報原因の確度が閾値b以上の警報画像6にも同じ警報原因が写っていると判断してよいためである。これにより、より多くの警報画像6を自動的に抽出できる。   If the determination in step S30 is Yes, there is a high possibility that the alarm cause is shown in the alarm image 6, so the learning image automatic extraction unit 35 pays attention to the alarm cause whose accuracy is determined to be greater than or equal to the threshold value a. The alarm image 6 whose accuracy of the alarm cause is equal to or greater than the threshold value b is extracted and stored in the learning DB 392 (S40). For example, the alarm image 6 in Table 1 (a) having an accuracy of the threshold value a (0.7) or more is a cause of alarm of a small animal. Therefore, the alarm image 6 in which the accuracy of the small animal is greater than or equal to the threshold value b (0.3) is extracted. The learning DB 392 in Table 2 (a) is created for the alarm image 6 in Table 1 (a), and the processing in FIG. 11 ends. Even if the alarm cause having the accuracy of the threshold a or higher is not confirmed by the supervisor 7, it is almost certain that the alarm cause is reflected in the alarm image 6. Therefore, the alarm image 6 having the same alarm cause accuracy of the threshold b or higher This is because it may be determined that the cause of the same alarm is shown. Thereby, more alarm images 6 can be automatically extracted.

ステップS30の判断がNoの場合、警報原因の確度が閾値a以上の警報画像6がないので、操作受付部33は監視員7の警報原因の入力を受け付ける(S50)。すなわち、表示制御部32は警報原因の入力画面401を表示して、監視員7が複数の警報画像6に対し1つの警報原因を入力する。   If the determination in step S30 is No, since there is no alarm image 6 with the alarm cause accuracy equal to or greater than the threshold value a, the operation accepting unit 33 accepts the alarm cause input of the monitor 7 (S50). That is, the display control unit 32 displays an alarm cause input screen 401 and the monitor 7 inputs one alarm cause for the plurality of alarm images 6.

情報処理装置30の学習画像自動抽出部35は、監視員7が入力した警報原因の確度が閾値b以上の警報画像6を抽出する(S60)。こうすることで、学習に適切な警報画像6のみを抽出できる。   The learning image automatic extraction unit 35 of the information processing device 30 extracts the alarm image 6 having the alarm cause accuracy input by the monitor 7 and having a threshold value b or more (S60). By doing so, only the alarm image 6 suitable for learning can be extracted.

情報処理装置30の学習画像自動抽出部35は、抽出した警報画像6を学習DB392に格納する(S70)。以上により、学習DB392に学習に適切な警報画像6のみが格納されたことになる。表1(b)の警報画像6に対し監視員7が「小動物」という警報原因を入力した場合、表2(b)の学習DB392が作成される。表1(b)の警報画像6に対し監視員7が「人」という警報原因を入力した場合、表2(c)の学習DB392が作成される。   The learning image automatic extraction unit 35 of the information processing device 30 stores the extracted alarm image 6 in the learning DB 392 (S70). Thus, only the alarm image 6 appropriate for learning is stored in the learning DB 392. When the supervisor 7 inputs the cause of alarm “small animal” to the alarm image 6 in Table 1 (b), the learning DB 392 in Table 2 (b) is created. When the supervisor 7 inputs an alarm cause “person” to the alarm image 6 in Table 1 (b), the learning DB 392 in Table 2 (c) is created.

このように、本実施例の画像処理システム100は、高性能な識別装置を別途用意することなく、1つの識別装置で警報原因が写っている警報画像を自動的に抽出できる。   As described above, the image processing system 100 according to the present embodiment can automatically extract an alarm image in which the cause of an alarm is captured by one identification device without separately preparing a high-performance identification device.

本実施例では学習DB392に格納された警報画像6を用いて学習することで得られた識別装置の更新について説明する。   In this embodiment, the update of the identification device obtained by learning using the alarm image 6 stored in the learning DB 392 will be described.

図12は、情報処理装置30による識別装置の評価の概略を説明する図の一例である。まず、学習DB392には実施例1で抽出された警報画像6が格納されている。また、構成DB393は、現行の識別装置である警報原因推定部34を構築するために利用された警報画像6を格納している。現行の警報原因推定部34を警報原因推定部(現行)34bと称し、新しい警報原因推定部34を警報原因推定部(新)34aと称する。   FIG. 12 is an example of a diagram illustrating an outline of evaluation of the identification device by the information processing device 30. First, the learning DB 392 stores the alarm image 6 extracted in the first embodiment. In addition, the configuration DB 393 stores the alarm image 6 used for constructing the alarm cause estimation unit 34 that is the current identification device. The current alarm cause estimation unit 34 is referred to as an alarm cause estimation unit (current) 34b, and the new alarm cause estimation unit 34 is referred to as an alarm cause estimation unit (new) 34a.

(1)まず、学習部36は構成DB393及び学習DB392の両方の警報画像6を用いて学習する。学習することで新しい警報原因推定部(新)34aを構築できる。   (1) First, the learning unit 36 learns using both alarm images 6 of the configuration DB 393 and the learning DB 392. A new alarm cause estimator (new) 34a can be constructed by learning.

(2)評価部37は、評価用画像DB394の評価用画像を用いて警報原因推定部(新)34aの性能を評価する。   (2) The evaluation unit 37 evaluates the performance of the alarm cause estimation unit (new) 34a using the evaluation image in the evaluation image DB 394.

(3)警報原因推定部(現行)34bが認識できた評価用画像を、警報原因推定部(新)34aが認識できた場合、警報原因推定部(現行)34bは警報原因推定部(新)34aで置き換えられる。   (3) When the alarm cause estimator (new) 34a recognizes the evaluation image that the alarm cause estimator (current) 34b can recognize, the alarm cause estimator (current) 34b becomes the alarm cause estimator (new). 34a is replaced.

(4)置き換えた場合、学習DB392の警報画像6は構成DB393に移動され、置き換えられない場合、学習DB392の警報画像6は削除される。したがって、いずれの場合も学習DB392には警報画像6が残らない。   (4) When replaced, the warning image 6 in the learning DB 392 is moved to the configuration DB 393, and when not replaced, the warning image 6 in the learning DB 392 is deleted. Therefore, in any case, the alarm image 6 does not remain in the learning DB 392.

実施例1のように抽出した警報画像6で学習しても認識率が低下する可能性はゼロでないが、本実施例の更新方法では、警報原因推定部(現行)34bが認識できた評価用画像は、警報原因推定部(新)34aでも認識できることが保証されるため、認識率が向上する場合にだけ警報原因推定部34を更新できる。   The possibility that the recognition rate decreases even if learning is performed with the alarm image 6 extracted as in the first embodiment is not zero. However, in the update method of this embodiment, the alarm cause estimation unit (current) 34b can recognize Since it is guaranteed that the image can be recognized by the alarm cause estimating unit (new) 34a, the alarm cause estimating unit 34 can be updated only when the recognition rate is improved.

<画像処理システムの機能構成例>
図13は、本実施例の画像処理システム100が備える各機能を図示した機能ブロック図の一例である。なお、図13では警報原因推定部34の更新に関する機能を説明する。また、図13の説明において、図5において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する。
<Functional configuration example of image processing system>
FIG. 13 is an example of a functional block diagram illustrating each function provided in the image processing system 100 of the present embodiment. In FIG. 13, functions related to the update of the alarm cause estimating unit 34 will be described. In the description of FIG. 13, the components denoted by the same reference numerals in FIG. 5 perform the same functions, and therefore, only the main components of the present embodiment will be mainly described.

まず、カメラ装置10の機能は図5から変更がない。これに対し、情報処理装置30は学習部36、警報原因推定部(新)34a、評価部37、警報原因推定部(現行)34b、及び、更新部38を有している。また、記憶部39には、学習DB392、構成DB393、及び、評価用画像DB394が構築されている。構成DB393は、警報原因推定部(現行)34bを構築するために使用された警報画像6を記憶している。評価用画像DB394は警報原因推定部34の性能を評価するために用意された評価用画像と、評価用画像に写っていることが検証された警報原因とを対応付けて記憶している。なお、評価用画像は、実際の警報画像6がシーン(監視場所8でどのような画像が撮像されるかに基づいて画像が分類されたもの)ごとに分類されたものであり、発生頻度が高いシーンほど多様な警報画像6が用意されている。したがって、実際の警報画像6の認識率を評価しやすい。   First, the function of the camera device 10 is not changed from FIG. In contrast, the information processing apparatus 30 includes a learning unit 36, an alarm cause estimation unit (new) 34a, an evaluation unit 37, an alarm cause estimation unit (current) 34b, and an update unit 38. In the storage unit 39, a learning DB 392, a configuration DB 393, and an evaluation image DB 394 are built. The configuration DB 393 stores the alarm image 6 used to construct the alarm cause estimation unit (current) 34b. The evaluation image DB 394 stores an evaluation image prepared for evaluating the performance of the alarm cause estimating unit 34 and an alarm cause verified to be reflected in the evaluation image in association with each other. Note that the evaluation images are obtained by classifying the actual alarm image 6 for each scene (the images are classified based on what kind of images are captured at the monitoring place 8), and the occurrence frequency is high. Various alarm images 6 are prepared for higher scenes. Therefore, it is easy to evaluate the recognition rate of the actual alarm image 6.

学習部36は、学習DB392と構成DB393の警報画像6を取得して、ニューラルネットワーク、SVM、ディープラーニングなどの機械学習の手法で、警報画像6に検知対象が写っている確度を算出する算出方法(学習モデルという場合がある)を学習する。教師信号は、閾値a以上の警報画像6では警報原因推定部(現行)34bが推定した警報原因であり、閾値b以上の警報画像6では監視員7が入力した警報原因である。   The learning unit 36 obtains the alarm image 6 of the learning DB 392 and the configuration DB 393, and calculates a probability that the detection target is reflected in the alarm image 6 by a machine learning technique such as neural network, SVM, or deep learning. Learn (sometimes called a learning model). The teacher signal is the alarm cause estimated by the alarm cause estimation unit (current) 34b in the alarm image 6 of the threshold value a or higher, and the alarm cause input by the monitor 7 in the alarm image 6 of the threshold value b or higher.

警報原因推定部(新)34aは、学習部36が学習DB392と構成DB393の警報画像6で学習して生成した識別装置である。警報原因推定部(新)34aは警報画像6の入力に対し、各警報原因の確度を算出する。   The alarm cause estimation unit (new) 34a is an identification device generated by the learning unit 36 learning from the learning DB 392 and the alarm image 6 of the configuration DB 393. The alarm cause estimation unit (new) 34a calculates the accuracy of each alarm cause with respect to the input of the alarm image 6.

警報原因推定部(現行)34bは、現行の警報原因推定部34である。警報原因推定部(現行)34bは図5の警報原因推定部34に相当する。   The alarm cause estimation unit (current) 34 b is the current alarm cause estimation unit 34. The alarm cause estimating unit (current) 34b corresponds to the alarm cause estimating unit 34 of FIG.

評価部37は、警報原因推定部(新)34aの性能を評価して、警報原因推定部(新)34aの性能が警報原因推定部(現行)34bよりも向上したか否かを判断する。例えば、警報原因推定部(新)34aと警報原因推定部(現行)34bのそれぞれで評価用画像DB394の評価用画像から警報原因を識別する処理を行う。   The evaluation unit 37 evaluates the performance of the alarm cause estimation unit (new) 34a, and determines whether or not the performance of the alarm cause estimation unit (new) 34a is improved as compared with the alarm cause estimation unit (current) 34b. For example, each of the alarm cause estimation unit (new) 34a and the alarm cause estimation unit (current) 34b performs processing for identifying the alarm cause from the evaluation image in the evaluation image DB 394.

更新部38は、警報原因推定部(現行)34bを警報原因推定部(新)34aで更新する。   The update unit 38 updates the alarm cause estimation unit (current) 34b with the alarm cause estimation unit (new) 34a.

<識別装置の更新の判断>
警報原因推定部(現行)34bを警報原因推定部(新)34aで更新するか否かの判断方法は2つある。それぞれを説明する。
A.正しく識別できたか否かに基づく判断
図14を用いて警報原因推定部34の性能の評価について説明する。図14は、警報原因推定部(現行)34bと警報原因推定部(新)34aのそれぞれで評価用画像を識別した際の識別結果を示す。図14では、「○」が正しく識別できたことを示し、「×」が正しく識別できないことを示す。正しく識別できるとは、評価用画像に添付された警報原因を閾値1以上で検出できることをいう。また、正しく識別できないとは、評価用画像に添付された警報原因を閾値1未満で検出することをいう。閾値1は例えば閾値aに相当する。
<Determination of identification device update>
There are two methods for determining whether or not the alarm cause estimation unit (current) 34b is updated by the alarm cause estimation unit (new) 34a. Each will be explained.
A. Judgment based on whether or not correctly identified The performance evaluation of the alarm cause estimating unit 34 will be described with reference to FIG. FIG. 14 shows the identification results when the alarm cause estimation unit (current) 34b and the alarm cause estimation unit (new) 34a identify the evaluation images. In FIG. 14, “◯” indicates that it can be correctly identified, and “x” indicates that it cannot be correctly identified. Being able to identify correctly means that the cause of the alarm attached to the evaluation image can be detected with a threshold value of 1 or more. Further, “not correctly identified” means that the cause of the alarm attached to the evaluation image is detected with a threshold value of less than 1. The threshold value 1 corresponds to the threshold value a, for example.

図14(a)は警報原因推定部34が更新される場合の評価結果である。評価用画像1(画像番号1)は、警報原因推定部(現行)34bと警報原因推定部(新)34aのどちらでも正しく識別されている。評価用画像2(画像番号2)は、警報原因推定部(現行)34bでは正しく識別できないが、警報原因推定部(新)34aでは正しく識別されている。評価用画像3(画像番号3)は、警報原因推定部(現行)34bと警報原因推定部(新)34aのどちらでも正しく識別できない。このように、図14(a)では警報原因推定部(現行)34bが正しく識別できた評価用画像を警報原因推定部(新)34aも正しく識別できるため、評価部37は性能が向上したと判断する。   FIG. 14A shows an evaluation result when the alarm cause estimating unit 34 is updated. The evaluation image 1 (image number 1) is correctly identified by both the alarm cause estimation unit (current) 34b and the alarm cause estimation unit (new) 34a. The evaluation image 2 (image number 2) cannot be correctly identified by the alarm cause estimating unit (current) 34b, but is correctly identified by the alarm cause estimating unit (new) 34a. The evaluation image 3 (image number 3) cannot be correctly identified by either the alarm cause estimation unit (current) 34b or the alarm cause estimation unit (new) 34a. In this way, in FIG. 14A, since the alarm cause estimation unit (new) 34a can also correctly identify the evaluation image that the alarm cause estimation unit (current) 34b can correctly identify, the evaluation unit 37 has improved performance. to decide.

なお、本実施例の性能とは主に認識率をいう。この認識率には、警報画像6に写っている警報原因を識別できること、及び、警報画像6に写っていない警報原因を識別しないことが含まれる。   The performance of the present embodiment mainly refers to the recognition rate. This recognition rate includes being able to identify the cause of the alarm shown in the alarm image 6 and not identifying the cause of the alarm not shown in the alarm image 6.

図14(b)は警報原因推定部34が更新されない場合の評価結果である。評価用画像1(画像番号1)は、警報原因推定部(現行)34bで正しく識別できたが、警報原因推定部(新)34aでは正しく識別できない。一方、評価用画像2(画像番号2)と評価用画像3(画像番号3)は、警報原因推定部(現行)34bでは正しく識別できないが、警報原因推定部(新)34aでは正しく識別できる。このように、警報原因推定部(現行)34bが正しく識別できた評価用画像を1つでも警報原因推定部(新)34aが正しく識別できない場合、評価部37は性能が向上したと判断しない。こうすることで、警報原因推定部34の性能が向上したことを保証できる。   FIG. 14B shows an evaluation result when the alarm cause estimating unit 34 is not updated. The evaluation image 1 (image number 1) can be correctly identified by the alarm cause estimating unit (current) 34b, but cannot be correctly identified by the alarm cause estimating unit (new) 34a. On the other hand, the evaluation image 2 (image number 2) and the evaluation image 3 (image number 3) cannot be correctly identified by the alarm cause estimation unit (current) 34b, but can be correctly identified by the alarm cause estimation unit (new) 34a. As described above, if even one alarm cause estimation unit (new) 34a cannot be correctly identified by the alarm cause estimation unit (current) 34b, the evaluation unit 37 does not determine that the performance has improved. By doing so, it can be guaranteed that the performance of the alarm cause estimating unit 34 has been improved.

しかしながら、評価用画像DB394の全体の評価用画像の認識率が向上した場合に、性能が向上したと判断してもよい。   However, when the recognition rate of the entire evaluation image in the evaluation image DB 394 is improved, it may be determined that the performance is improved.

B.確度が向上したか否かに基づく判断
図15を用いて確度に基づく警報原因推定部34の性能の評価について説明する。図15は、警報原因推定部(現行)34bと警報原因推定部(新)34aのそれぞれで評価用画像を識別した際の確度を示す。この確度は、評価用画像に添付されている警報原因の確度である。したがって、警報原因推定部(現行)34bよりも警報原因推定部(新)34aの方が高いことが望まれる。
B. Judgment based on whether or not the accuracy has been improved Evaluation of the performance of the alarm cause estimating unit 34 based on the accuracy will be described with reference to FIG. FIG. 15 shows the accuracy when the alarm cause estimation unit (current) 34b and the alarm cause estimation unit (new) 34a each identify an image for evaluation. This accuracy is the accuracy of the alarm cause attached to the evaluation image. Therefore, it is desirable that the alarm cause estimation unit (new) 34a is higher than the alarm cause estimation unit (current) 34b.

図15(a)は警報原因推定部34が更新される場合の評価結果である。評価用画像1〜3(画像番号1〜3)の全てで、警報原因推定部(現行)34bよりも警報原因推定部(新)34aの確度の方が大きくなっている。このように、図15(a)では全ての評価用画像の警報原因の確度において警報原因推定部(現行)34bよりも警報原因推定部(新)34aの方が高いため、評価部37は性能が向上したと判断する。   FIG. 15A shows an evaluation result when the alarm cause estimating unit 34 is updated. In all of the evaluation images 1 to 3 (image numbers 1 to 3), the accuracy of the alarm cause estimation unit (new) 34a is larger than that of the alarm cause estimation unit (current) 34b. As described above, in FIG. 15A, the alarm cause estimation unit (new) 34a is higher than the alarm cause estimation unit (current) 34b in the accuracy of the alarm cause of all the evaluation images. Is judged to have improved.

図15(b)は警報原因推定部34が更新されない場合の評価結果である。これに対し図15(b)では、評価用画像2、3(画像番号2,3)では警報原因推定部(現行)34bよりも警報原因推定部(新)34aの確度の方が大きくなっているが、評価用画像1(画像番号1)では警報原因推定部(現行)34bよりも警報原因推定部(新)34aの確度の方が低くなっている。   FIG. 15B shows an evaluation result when the alarm cause estimating unit 34 is not updated. On the other hand, in FIG. 15B, the accuracy of the alarm cause estimation unit (new) 34a is larger in the evaluation images 2 and 3 (image numbers 2 and 3) than the alarm cause estimation unit (current) 34b. However, in the evaluation image 1 (image number 1), the accuracy of the alarm cause estimation unit (new) 34a is lower than that of the alarm cause estimation unit (current) 34b.

警報原因推定部(新)34aの確度が警報原因推定部(現行)34bの確度よりも低い評価用画像が1つでも見つかる場合、評価部37は性能が向上したと判断しない。こうすることで、警報原因推定部34の性能が向上したことを保証できる。   If even one evaluation image is found in which the accuracy of the alarm cause estimation unit (new) 34a is lower than the accuracy of the alarm cause estimation unit (current) 34b, the evaluation unit 37 does not determine that the performance has improved. By doing so, it can be guaranteed that the performance of the alarm cause estimating unit 34 has been improved.

しかしながら、警報原因推定部(新)34aの確度の平均と警報原因推定部(新)34aの確度の平均を比較して、警報原因推定部(新)34aの確度の平均の方が高ければ性能が向上したと判断してもよい。   However, if the average accuracy of the alarm cause estimator (new) 34a is compared with the average accuracy of the alarm cause estimator (new) 34a, the average accuracy of the alarm cause estimator (new) 34a is higher. May be determined to have improved.

<動作手順>
図16は、情報処理装置30が警報原因推定部34の性能を評価して更新するか否かを判断する手順を示すフローチャート図の一例である。図16の処理は定期的に実行されてもよいし、一定量の警報画像6が学習DB392に格納された場合に実行されてもよい。
<Operation procedure>
FIG. 16 is an example of a flowchart illustrating a procedure for determining whether or not the information processing apparatus 30 evaluates and updates the performance of the alarm cause estimating unit 34. The process of FIG. 16 may be executed periodically, or may be executed when a certain amount of alarm image 6 is stored in the learning DB 392.

まず、学習部36は、学習DB392と構成DB393の警報画像6を用いて学習することで、警報原因推定部(新)34aを構築する(S110)。   First, the learning unit 36 learns using the alarm image 6 of the learning DB 392 and the configuration DB 393, thereby constructing an alarm cause estimation unit (new) 34a (S110).

次に、評価部37は、警報原因推定部(新)34aを用いて評価用画像の識別を行う(S120)。警報原因推定部(現行)34bを用いた評価用画像の識別を行ってもよいが、警報原因推定部(現行)34bの識別結果は前回の評価時のものを利用すればよい。   Next, the evaluation unit 37 identifies the image for evaluation using the alarm cause estimation unit (new) 34a (S120). Although the image for evaluation may be identified using the alarm cause estimating unit (current) 34b, the identification result of the alarm cause estimating unit (current) 34b may be the same as the previous evaluation.

評価部37は、図14、図15にて説明したように警報原因推定部(新)34aの性能が警報原因推定部(現行)34bよりも向上した否かを判断する(S130)。   The evaluation unit 37 determines whether or not the performance of the alarm cause estimation unit (new) 34a is improved as compared with the alarm cause estimation unit (current) 34b as described with reference to FIGS. 14 and 15 (S130).

ステップS130の判断がYesの場合、更新部38は警報原因推定部(現行)34bを警報原因推定部(新)34aで更新する(S140)。なお、警報原因推定部(現行)34bは破棄してもよいし保存しておいてもよい。   When the determination in step S130 is Yes, the update unit 38 updates the alarm cause estimation unit (current) 34b with the alarm cause estimation unit (new) 34a (S140). The alarm cause estimation unit (current) 34b may be discarded or saved.

そして、更新部38は学習DB392の警報画像6を構成DB393に移動させる(S150)。このように性能向上をもたらす警報画像6を構成DB393に蓄積することができる。   And the update part 38 moves the warning image 6 of learning DB392 to composition DB393 (S150). Thus, the alarm image 6 that brings about the performance improvement can be stored in the configuration DB 393.

ステップS130の判断がNoの場合、更新部38は学習DB392の警報画像6を削除する(S160)。したがって、性能向上をもたらさない警報画像6が学習DB392に残ることを防止できる。   When the determination in step S130 is No, the update unit 38 deletes the alarm image 6 in the learning DB 392 (S160). Therefore, it is possible to prevent the alarm image 6 that does not cause performance improvement from remaining in the learning DB 392.

以上説明したように、本実施例の画像処理システム100は、学習DB392に格納された警報画像6を用いて警報原因推定部(識別装置)の性能を向上させることができる。警報原因推定部(識別装置)の性能を評価するので、学習によって発生しうる認識性能の低下を抑制しながら改善できる。   As described above, the image processing system 100 according to the present embodiment can improve the performance of the alarm cause estimation unit (identification device) using the alarm image 6 stored in the learning DB 392. Since the performance of the alarm cause estimation unit (identification device) is evaluated, it can be improved while suppressing a decrease in recognition performance that may occur due to learning.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

本実施形態では画像を識別して警報原因が判断されたが、情報処理装置30は音を識別して警報原因を判断することも可能である。この場合、カメラ装置10は音を集音するマイク等を有している。検知対象が発する音データは警報画像と共に情報処理装置30に送信される。情報処理装置は音データがどのような音であるか(音原因)識別することができる。例えば、鍵の操作、ドアの開閉、人声、動物の声、ガラスの破壊音、等を識別する。音の認識率を向上させるため、同様に確度が閾値a以上の音データは学習DB392に格納される。それ以外の音データを監視員が聞き取り音の内容を判断し音原因を入力する。入力された音原因の確度が閾値b以上の音データが学習DB392に格納される。したがって、音データに関しても識別される。   In the present embodiment, the cause of the alarm is determined by identifying the image. However, the information processing apparatus 30 can also determine the cause of the alarm by identifying the sound. In this case, the camera device 10 has a microphone or the like that collects sound. The sound data emitted from the detection target is transmitted to the information processing apparatus 30 together with the alarm image. The information processing apparatus can identify what kind of sound the sound data is (sound cause). For example, key operations, door opening / closing, human voice, animal voice, glass breaking sound, etc. are identified. In order to improve the sound recognition rate, the sound data having the accuracy of the threshold value a or higher is similarly stored in the learning DB 392. The supervisor listens to the other sound data, determines the content of the sound, and inputs the cause of the sound. The input sound data having the sound cause accuracy of the threshold value b or more is stored in the learning DB 392. Therefore, the sound data is also identified.

また、図2のシステム構成図ではカメラ装置10と情報処理装置30が別体であるが、カメラ装置10と情報処理装置30は一体でもよい。この場合、カメラ装置10は単体で画像を識別でき、警報原因を出力できる。また、カメラ装置10は単体で性能を向上できる。この場合、カメラ装置10は以下のように動作する。
(1)警報原因が識別できなかった場合は警報画像を監視センター9に送信する。
(2)監視員7が警報原因を入力する。前述と同様の手順で学習DB392に警報画像と警報原因を格納する。
(3)学習の結果性能が向上した警報原因推定部(新)をカメラ装置10に送信し、カメラ装置10が内部の警報原因推定部(現行)を更新する。
In the system configuration diagram of FIG. 2, the camera device 10 and the information processing device 30 are separate bodies, but the camera device 10 and the information processing device 30 may be integrated. In this case, the camera device 10 can identify the image alone and output the cause of the alarm. Moreover, the camera device 10 can improve the performance by itself. In this case, the camera device 10 operates as follows.
(1) When the cause of the alarm cannot be identified, an alarm image is transmitted to the monitoring center 9.
(2) The supervisor 7 inputs the cause of the alarm. The alarm image and the alarm cause are stored in the learning DB 392 in the same procedure as described above.
(3) The alarm cause estimation unit (new) whose performance is improved as a result of learning is transmitted to the camera device 10, and the camera device 10 updates the internal alarm cause estimation unit (current).

また、図2のシステム構成図において、監視センター9はクライアントサーバの構成であってもよい。監視員7はPCなどの端末を操作して情報処理装置30と通信し、警報原因の入力を行う。また、この場合、情報処理装置30は監視センター9になくクラウド上にあってもよい。   In the system configuration diagram of FIG. 2, the monitoring center 9 may be a client server configuration. The supervisor 7 communicates with the information processing apparatus 30 by operating a terminal such as a PC and inputs an alarm cause. In this case, the information processing apparatus 30 may be on the cloud instead of the monitoring center 9.

また、図5、13などの構成例は、カメラ装置10と情報処理装置30による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。カメラ装置10と情報処理装置30の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。   5 and 13 are divided according to main functions in order to facilitate understanding of processing by the camera apparatus 10 and the information processing apparatus 30. The present invention is not limited by the way of dividing the processing unit or the name. The processing of the camera device 10 and the information processing device 30 can be divided into more processing units according to the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes.

また、図5、13では情報処理装置30が一台であるが、同じ情報処理装置30が複数台、存在してもよいし、複数の情報処理装置30に図5、13の機能が分散されていてもよい。   5 and 13, there is one information processing device 30, but there may be a plurality of the same information processing devices 30, and the functions of FIGS. 5 and 13 are distributed to the plurality of information processing devices 30. It may be.

なお、通信部31は画像取得手段の一例であり、警報原因推定部(現行)34bは第一の識別手段の一例であり、表示制御部32は表示処理手段の一例であり、操作受付部33は受付手段の一例であり、学習画像自動抽出部35は画像抽出手段の一例であり、学習部36は識別手段構築手段の一例であり、警報原因推定部(新)34aは第二の識別手段の一例であり、評価部37は評価手段の一例であり、更新部38は更新手段の一例である。学習DB392は画像記憶部の一例である。   The communication unit 31 is an example of an image acquisition unit, the alarm cause estimation unit (current) 34b is an example of a first identification unit, the display control unit 32 is an example of a display processing unit, and the operation receiving unit 33 Is an example of a reception unit, the learning image automatic extraction unit 35 is an example of an image extraction unit, the learning unit 36 is an example of an identification unit construction unit, and the alarm cause estimation unit (new) 34a is a second identification unit. The evaluation unit 37 is an example of an evaluation unit, and the update unit 38 is an example of an update unit. The learning DB 392 is an example of an image storage unit.

6 :警報画像
7 :監視員
10 :カメラ装置
30 :情報処理装置
31 :通信部
32 :表示制御部
33 :操作受付部
34 :警報原因推定部
35 :学習画像自動抽出部
36 :学習部
37 :評価部
38 :更新部
100 :画像処理システム
6: Alarm image 7: Monitor 10: Camera device 30: Information processing device 31: Communication unit 32: Display control unit 33: Operation reception unit 34: Alarm cause estimation unit 35: Automatic learning image extraction unit 36: Learning unit 37: Evaluation unit 38: Update unit 100: Image processing system

Claims (9)

撮像装置が撮像した画像から予め定められた警報原因を識別する画像処理システムであって、
前記撮像装置から前記画像を取得する画像取得手段と、
前記画像に写っている前記警報原因を識別すると共に、前記警報原因が識別される確度を算出する第一の識別手段と、
前記画像を表示装置に表示する表示処理手段と、
前記表示装置に表示された前記画像に写っている前記警報原因の入力を受け付ける受付手段と、
前記第一の識別手段が算出し前記受付手段が受け付けた前記警報原因が識別される確度が第一の閾値以上の場合、前記画像を画像記憶部に格納する画像抽出手段と、
前記画像記憶部に記憶されている前記画像を用いて第二の識別手段を構築する識別手段構築手段と、
を有する画像処理システム。
An image processing system for identifying a predetermined alarm cause from an image captured by an imaging device,
Image acquisition means for acquiring the image from the imaging device;
First identifying means for identifying the cause of the alarm in the image and calculating the accuracy with which the cause of the alarm is identified;
Display processing means for displaying the image on a display device;
Receiving means for receiving an input of the cause of the alarm shown in the image displayed on the display device;
An image extracting means for storing the image in an image storage unit, when the probability that the alarm cause received by the receiving means and calculated by the first identifying means is greater than or equal to a first threshold;
Identifying means constructing means for constructing a second identifying means using the image stored in the image storage unit;
An image processing system.
前記画像取得手段は、異常が検出された時刻の前後を含む複数の前記画像を前記撮像装置から取得し、
前記受付手段は、複数の前記画像に対し1つの前記警報原因の入力を受け付け、
前記画像抽出手段は、複数の前記画像のうち前記受付手段が受け付けた前記警報原因の確度が前記第一の閾値以上の前記画像を全て前記画像記憶部に記憶させる請求項1に記載の画像処理システム。
The image acquisition means acquires a plurality of the images including before and after the time when an abnormality is detected from the imaging device,
The accepting means accepts one alarm cause input for the plurality of images,
2. The image processing according to claim 1, wherein the image extraction unit causes the image storage unit to store all the images having a probability of the alarm cause received by the reception unit that is greater than or equal to the first threshold among the plurality of images. system.
前記画像抽出手段は、前記第一の識別手段が識別した複数の前記画像に前記警報原因の確度が前記第一の閾値より大きい第二の閾値以上の前記画像が含まれる場合、
前記第二の閾値以上の確度を有する前記警報原因の確度が前記第一の閾値以上である前記画像を前記第二の閾値以上の確度を有する前記警報原因と対応付けて前記画像記憶部に記憶させる請求項1又は2に記載の画像処理システム。
The image extraction means, when the image of the plurality of images identified by the first identification means includes the image having a second threshold value greater than the first threshold value, the accuracy of the alarm cause,
The image having the accuracy of the alarm threshold having the accuracy equal to or higher than the second threshold is stored in the image storage unit in association with the alarm cause having the accuracy of the second threshold or higher. The image processing system according to claim 1 or 2.
複数の前記画像に前記確度の変動が極度に大きい前記画像がある場合、前記確度が前記第一の閾値以上でも、前記画像抽出手段は、前記確度の変動が極度に大きい前記画像を前記画像記憶部に記憶させない請求項1〜3のいずれか1項に記載の画像処理システム。   When the plurality of images have the image with extremely large fluctuations in accuracy, the image extracting means stores the image with extremely large fluctuations in accuracy even if the accuracy is not less than the first threshold. The image processing system according to claim 1, wherein the image processing system is not stored in the unit. 前記第二の識別手段と前記第一の識別手段の性能を評価する評価手段と、
前記第二の識別手段の性能が前記第一の識別手段よりも向上していると前記評価手段が評価した場合、前記第一の識別手段を前記第二の識別手段で更新する更新手段と、
を有する請求項1〜4のいずれか1項に記載の画像処理システム。
Evaluation means for evaluating the performance of the second identification means and the first identification means;
When the evaluation unit evaluates that the performance of the second identification unit is higher than that of the first identification unit, the update unit updates the first identification unit with the second identification unit;
The image processing system according to claim 1, comprising:
前記評価手段は、
前記第一の識別手段で識別できた前記画像の全てを前記第二の識別手段で識別できた場合、前記第二の識別手段の性能が前記第一の識別手段よりも向上していると評価する請求項5に記載の画像処理システム。
The evaluation means includes
When all of the images that can be identified by the first identifying means can be identified by the second identifying means, it is evaluated that the performance of the second identifying means is improved compared to the first identifying means. The image processing system according to claim 5.
前記評価手段は、
前記第二の識別手段で前記画像を識別した際の確度が、前記第一の識別手段で前記画像を識別した際の確度よりも全ての前記画像において高い場合、前記第二の識別手段の性能が前記第一の識別手段よりも向上していると評価する請求項5に記載の画像処理システム。
The evaluation means includes
When the accuracy of identifying the image by the second identification unit is higher in all the images than the accuracy of identifying the image by the first identification unit, the performance of the second identification unit The image processing system according to claim 5, wherein the image processing device is evaluated as being improved over the first identification unit.
撮像装置が撮像した画像から予め定められた警報原因を識別する情報処理装置であって、
前記撮像装置から前記画像を取得する画像取得手段と、
前記画像に写っている前記警報原因を識別すると共に、前記警報原因が識別される確度を算出する第一の識別手段と、
前記画像を表示装置に表示する表示処理手段と、
前記表示装置に表示された前記画像に写っている前記警報原因の入力を受け付ける受付手段と、
前記第一の識別手段が算出し前記受付手段が受け付けた前記警報原因が識別される確度が第一の閾値以上の場合、前記画像を画像記憶部に格納する画像抽出手段と、
前記画像記憶部に記憶されている前記画像を用いて第二の識別手段を構築する識別手段構築手段と、を有する情報処理装置。
An information processing apparatus for identifying a predetermined alarm cause from an image captured by an imaging apparatus,
Image acquisition means for acquiring the image from the imaging device;
First identifying means for identifying the cause of the alarm in the image and calculating the accuracy with which the cause of the alarm is identified;
Display processing means for displaying the image on a display device;
Receiving means for receiving an input of the cause of the alarm shown in the image displayed on the display device;
An image extracting means for storing the image in an image storage unit, when the probability that the alarm cause received by the receiving means and calculated by the first identifying means is greater than or equal to a first threshold;
An information processing apparatus comprising: an identification unit construction unit that constructs a second identification unit using the image stored in the image storage unit.
撮像装置が撮像した画像から予め定められた警報原因を識別する情報処理装置を、
前記撮像装置から前記画像を取得する画像取得手段と、
前記画像に写っている前記警報原因を識別すると共に、前記警報原因が識別される確度を算出する第一の識別手段と、
前記画像を表示装置に表示する表示処理手段と、
前記表示装置に表示された前記画像に写っている前記警報原因の入力を受け付ける受付手段と、
前記第一の識別手段が算出し前記受付手段が受け付けた前記警報原因が識別される確度が第一の閾値以上の場合、前記画像を画像記憶部に格納する画像抽出手段と、
前記画像記憶部に記憶されている前記画像を用いて第二の識別手段を構築する識別手段構築手段、として機能させるためのプログラム。
An information processing apparatus for identifying a predetermined alarm cause from an image captured by the imaging apparatus,
Image acquisition means for acquiring the image from the imaging device;
First identifying means for identifying the cause of the alarm in the image and calculating the accuracy with which the cause of the alarm is identified;
Display processing means for displaying the image on a display device;
Receiving means for receiving an input of the cause of the alarm shown in the image displayed on the display device;
An image extracting means for storing the image in an image storage unit, when the probability that the alarm cause received by the receiving means and calculated by the first identifying means is greater than or equal to a first threshold;
A program for functioning as identification means construction means for constructing second identification means using the image stored in the image storage unit.
JP2017073010A 2017-03-31 2017-03-31 Image processing system, information processing device, program Active JP6905849B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017073010A JP6905849B2 (en) 2017-03-31 2017-03-31 Image processing system, information processing device, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017073010A JP6905849B2 (en) 2017-03-31 2017-03-31 Image processing system, information processing device, program

Publications (2)

Publication Number Publication Date
JP2018173913A true JP2018173913A (en) 2018-11-08
JP6905849B2 JP6905849B2 (en) 2021-07-21

Family

ID=64108612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017073010A Active JP6905849B2 (en) 2017-03-31 2017-03-31 Image processing system, information processing device, program

Country Status (1)

Country Link
JP (1) JP6905849B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068197A (en) * 2019-10-24 2021-04-30 株式会社Jvcケンウッド Image recording device, image recording method and image recording program
WO2022254693A1 (en) * 2021-06-04 2022-12-08 日産自動車株式会社 Operation detection device and operation detection method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016191973A (en) * 2015-03-30 2016-11-10 日本電気株式会社 Information transfer device, leaning system, information transfer method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016191973A (en) * 2015-03-30 2016-11-10 日本電気株式会社 Information transfer device, leaning system, information transfer method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068197A (en) * 2019-10-24 2021-04-30 株式会社Jvcケンウッド Image recording device, image recording method and image recording program
JP7463686B2 (en) 2019-10-24 2024-04-09 株式会社Jvcケンウッド IMAGE RECORDING APPARATUS, IMAGE RECORDING METHOD, AND IMAGE RECORDING PROGRAM
WO2022254693A1 (en) * 2021-06-04 2022-12-08 日産自動車株式会社 Operation detection device and operation detection method

Also Published As

Publication number Publication date
JP6905849B2 (en) 2021-07-21

Similar Documents

Publication Publication Date Title
JP7229662B2 (en) How to issue alerts in a video surveillance system
WO2020151084A1 (en) Target object monitoring method, apparatus, and system
KR101607934B1 (en) The method for monitoring communicable disease and system using the method, recording medium for performing the method
EP3163498B1 (en) Alarming method and device
US20170053504A1 (en) Motion detection system based on user feedback
CN108446669B (en) Motion recognition method, motion recognition device and storage medium
WO2017166469A1 (en) Security protection method and apparatus based on smart television set
CN110199316B (en) Camera and image processing method of camera
CN112329504B (en) Door opening and closing state monitoring method, device, equipment and computer readable storage medium
US11631306B2 (en) Methods and system for monitoring an environment
CN113033521B (en) Perimeter dynamic early warning method and system based on target analysis
KR101694946B1 (en) Sensing estrus of poultry method and device for thereof
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
CN114495270A (en) Real-time monitoring and early warning method, device and system and storage medium
JP6905849B2 (en) Image processing system, information processing device, program
CN115346060A (en) Picture abnormity identification method and device, electronic equipment and storage medium
JP6621092B1 (en) Risk determination program and system
KR20200009530A (en) System and method for detecting abnormal object
JP5188840B2 (en) Security device and update method
KR102564300B1 (en) System for Preventing Violence School Using Body Temperature and Behavior Pattern
JP7198052B2 (en) image surveillance system
JP7085925B2 (en) Information registration device, information processing device, control method of information registration device, control method of information processing device, system, and program
JP6767788B2 (en) Information processing equipment, control methods and programs for information processing equipment
JP2020129358A (en) Risk determination program and system
JP7220057B2 (en) image surveillance system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210628

R150 Certificate of patent or registration of utility model

Ref document number: 6905849

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250