JP2018101317A - Abnormality monitoring system - Google Patents
Abnormality monitoring system Download PDFInfo
- Publication number
- JP2018101317A JP2018101317A JP2016247408A JP2016247408A JP2018101317A JP 2018101317 A JP2018101317 A JP 2018101317A JP 2016247408 A JP2016247408 A JP 2016247408A JP 2016247408 A JP2016247408 A JP 2016247408A JP 2018101317 A JP2018101317 A JP 2018101317A
- Authority
- JP
- Japan
- Prior art keywords
- image
- abnormality
- neural network
- fire
- monitoring system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Burglar Alarm Systems (AREA)
- Fire-Detection Mechanisms (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、監視カメラで撮像した監視領域の画像からニューラルネットワークにより火災や盗難を判断して警報させる異常監視システムに関する。 The present invention relates to an anomaly monitoring system that determines whether a fire or theft is detected by a neural network from an image of a monitoring area imaged by a monitoring camera and issues an alarm.
従来、煙感知器や熱感知器など、特定の物理量を監視するセンサを用いて、火災を判定するシステムが実用化されている。 2. Description of the Related Art Conventionally, a system for determining a fire using a sensor that monitors a specific physical quantity such as a smoke sensor or a heat sensor has been put into practical use.
一方、監視カメラで撮像した監視領域の画像に対し画像処理を施すことにより、火災を検知するようにした様々な装置やシステムが提案されている。 On the other hand, various devices and systems have been proposed in which a fire is detected by performing image processing on an image of a monitoring area captured by a monitoring camera.
また、人感センサや監視カメラを用いて侵入や犯罪行為の監視を行うなど、防犯分野に於いても様々な装置やシステムが提案されている。 Various devices and systems have also been proposed in the crime prevention field, such as monitoring intrusions and criminal acts using human sensors and surveillance cameras.
このような防災、防犯に関するシステムにあっては、異常に対する初期対応の観点から異常の早期発見が重要である。 In such disaster prevention and crime prevention systems, early detection of abnormalities is important from the viewpoint of initial response to abnormalities.
このため従来装置(特許文献1)にあっては、画像から火災に伴う煙により起きる現象として、透過率又はコントラストの低下、輝度値の特定値への収束、輝度分布範囲が狭まって輝度の分散の低下、煙による輝度の平均値の変化、エッジの総和量の低下、低周波帯域の強度増加を導出し、これらを総合的に判断して煙の判定を可能としている。 For this reason, in the conventional device (Patent Document 1), as a phenomenon caused by smoke from a fire from an image, a decrease in transmittance or contrast, a convergence of a luminance value to a specific value, a luminance distribution range is narrowed and a luminance distribution is reduced. , A change in average value of brightness due to smoke, a decrease in the total amount of edges, and an increase in intensity in the low frequency band are derived, and these can be comprehensively determined to enable smoke determination.
しかしながら、従来の火災に伴う煙の画像から火災を検知する異常監視システムにあっては、煙の画像における透過率、コントラスト、エッジ等の煙の特徴量を予め定め、監視カメラで撮像した画像を処理することで煙による特徴を生成しなければならず、火災による煙の発生状況は多種多様であり、その中に煙としてどのような特徴があるかを見出すことは極めて困難であり、決め手となる特徴がなかなか見いだせないため、監視画像から火災による煙を精度良く判断して火災警報を出力する異常監視システムは実用化の途上にある。 However, in an abnormal monitoring system that detects a fire from a smoke image associated with a conventional fire, the smoke features such as transmittance, contrast, and edge in the smoke image are determined in advance, and the image captured by the monitoring camera is captured. The characteristics of smoke must be generated by processing, and there are a wide variety of smoke generation situations due to fire, and it is extremely difficult to find out what the characteristics of smoke are in it. Therefore, an abnormality monitoring system that accurately determines smoke from fire from a monitoring image and outputs a fire alarm is on the way to practical use.
また、監視カメラにより侵入や犯罪行為を監視するシステムにあっては、実用化はなされているものの、現場の明暗等の状況により監視精度が左右されるなど、改善の余地がある。 In addition, a system for monitoring intrusions and criminal activities with a monitoring camera has been put into practical use, but there is room for improvement in that the monitoring accuracy depends on the conditions of light and darkness in the field.
一方、近年にあっては、例えば多数の猫と犬の画像にラベル付けをし、それを畳み込みニューラルネットワークを備えた多層式のニューラルネットワークに学習させ、所謂ディープラーニングを行い、新たな画像を学習済みの多層式のニューラルネットワークに提示し、それが猫なのか犬なのかを判定する技術が開示されている。 On the other hand, in recent years, for example, images of many cats and dogs are labeled and learned by a multilayer neural network equipped with a convolutional neural network, so-called deep learning is performed, and new images are learned. A technique for presenting an already-described multi-layered neural network and determining whether it is a cat or a dog is disclosed.
また、ディープラーニングは画像解析のみにとどまらず、自然言語処理や行動解析等に用いることが検討されている。 In addition, deep learning is not only used for image analysis but also for use in natural language processing and behavior analysis.
このような多層式のニューラルネットワークを、監視カメラで撮像した監視領域の画像を入力情報とし、入力情報から異常を判定する異常判定器に設け、学習時においては多数の異常時及び非異常時の入力画像を準備して多層式のニューラルネットワークに学習させ、監視時においては入力画像を学習済みの多層式のニューラルネットワークに入力すれば、その出力から異常か否かを高い精度で推定して警報を出力させる異常監視システムが構築可能となる。 Such a multi-layer neural network is provided in an abnormality determination unit that determines an abnormality from the input information using an image of a monitoring region imaged by a monitoring camera as input information. Prepare an input image and train it in a multi-layer neural network.When monitoring, input the input image to a learned multi-layer neural network. Can be constructed.
ところで、人は監視カメラで撮像された画像を見た場合、それがどのような画面かを簡単に説明し、火災や盗難といった状況を判断することができる能力をもつが、これに相当する能力は、多層式のニューラルネットワークによっても実現可能であり、この技術を火災や盗難等の異常監視に利用すれば、監視カメラから監視画像を入力した場合に十分に高い精度で火災や盗難を推定して警報することが期待できる。 By the way, when a person sees an image captured by a surveillance camera, he / she has the ability to easily explain what kind of screen it is and judge the situation such as a fire or theft. Can also be realized by a multilayer neural network, and if this technology is used for monitoring abnormalities such as fire and theft, it can estimate fire and theft with sufficiently high accuracy when monitoring images are input from a surveillance camera. Can be expected to alarm.
本発明は、監視カメラから入力した画像から画像説明文を生成して火災や盗難等の異常を高精度に判定して警報可能とする異常監視システムを提供することを目的とする。 It is an object of the present invention to provide an abnormality monitoring system that generates an image description from an image input from a surveillance camera and can determine an abnormality such as a fire or theft with high accuracy and can give an alarm.
(異常監視システム1)
本発明は、撮像部により撮像された監視領域の画像を入力して異常を判定する異常監視システムに於いて、
撮像部により撮像された監視領域の画像の中の変化のあった画像部分を抽出する画像抽出部と、
画像抽出部で抽出された画像部分を解析し、画像に含まれる要素を単語として出力する多層式のニューラルネットワークで構成された画像解析部と、
画像解析部から出力された画像に含まれる要素の単語を、辞書に予め記憶した所定の異常を示す単語と比較して異常を判定した場合に異常判定信号を出力して警報させる異常判定部と、
が設けられたことを特徴とする。
(Abnormality monitoring system 1)
The present invention is an abnormality monitoring system for determining an abnormality by inputting an image of a monitoring area imaged by an imaging unit,
An image extraction unit that extracts an image part having a change in the image of the monitoring region imaged by the imaging unit;
An image analysis unit configured by a multilayer neural network that analyzes an image portion extracted by the image extraction unit and outputs elements included in the image as words; and
An abnormality determination unit that outputs an abnormality determination signal and warns when an abnormality is determined by comparing a word of an element included in an image output from the image analysis unit with a word indicating a predetermined abnormality stored in advance in a dictionary; ,
Is provided.
(異常監視システム2)
本発明の別の形態にあっては、撮像部により撮像された監視領域の画像を入力して異常を判定する異常視システムに於いて、
撮像部により撮像された画像を解析し、画像に含まれる要素を単語として出力する多層式のニューラルネットワークで構成された画像解析部と、
画像解析部から出力された画像に含まれる要素の単語を、辞書に予め記憶した所定の異常を示す単語と比較して異常を判定した場合に異常判定信号を出力して警報させる異常判定部と、
が設けられたことを特徴とする。
(Abnormality monitoring system 2)
In another embodiment of the present invention, in an abnormal vision system that determines an abnormality by inputting an image of a monitoring area imaged by an imaging unit,
An image analysis unit configured by a multilayer neural network that analyzes an image captured by the imaging unit and outputs an element included in the image as a word;
An abnormality determination unit that outputs an abnormality determination signal and warns when an abnormality is determined by comparing a word of an element included in an image output from the image analysis unit with a word indicating a predetermined abnormality stored in advance in a dictionary; ,
Is provided.
(SVO形式等による異常の比較判定)
画像解析部は更に、画像に含まれる要素の単語を元に画像説明文を生成し、
異常判定部は、画像解析部から出力された画像説明文を主語(S)、動詞(V)、目的語(O)及び又は補語(C)に分類し、辞書に記憶された所定の異常を示す主語、動詞、目的語及び又は補語と比較して、少なくとも何れかが一致又は類似した場合に異常を判定する異常を判定する。
(Comparative judgment of abnormalities by SVO format etc.)
The image analysis unit further generates an image description based on the word of the element included in the image,
The abnormality determination unit classifies the image description output from the image analysis unit into a subject (S), a verb (V), an object (O), or a complement (C), and stores a predetermined abnormality stored in the dictionary. An anomaly that determines an anomaly is determined when at least one matches or resembles the subject, verb, object, and / or complement that is shown.
(画像説明文による警報)
異常判定部は、異常判定時に、画像説明文を出力する。
(Alarm by image description)
The abnormality determination unit outputs an image explanation at the time of abnormality determination.
(ニューラルネットワークの機能構成)
画像解析部の多層式のニューラルネットワークは、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)と隠れ層にロング・ショートターム・メモリ(LSTM: Long Short−Term Memory)を用いた多層式の再帰型ニューラルネットワーク(RNN: Recurrent Neural Network)で構成され、
畳み込みニューラルネットワークは、入力画像の特徴量を抽出して出力し、
再帰型ニューラルネットワークは、畳み込みニューラルネットワークから出力された特徴量を入力して画像説明文を生成して出力する。
(Functional configuration of neural network)
The multi-layer neural network of the image analysis unit is a multi-layer recursive neural network using a convolutional neural network (CNN) and a long short-term memory (LSTM) in a hidden layer. (RNN: Recurrent Natural Network)
The convolutional neural network extracts and outputs the features of the input image,
The recursive neural network receives the feature amount output from the convolutional neural network, generates an image description, and outputs it.
(畳み込みニューラルネットワークと再帰型ニューラルネットワークの学習)
畳み込みニューラルネットワークは、教師なしの学習画像の入力により学習され、
再帰型ニューラルネットワークは、学習済みの畳み込みニューラルネットワークに学習画像を入力した場合に所定の中間層から出力される特徴量と学習画像に対応した所定の学習画像説明文を入力して学習される。
(Learning convolutional and recurrent neural networks)
A convolutional neural network is learned by inputting an unsupervised learning image,
The recursive neural network is learned by inputting a feature amount output from a predetermined intermediate layer and a predetermined learning image description corresponding to the learning image when a learning image is input to the learned convolutional neural network.
(火災監視)
画像解析部の多層式のニューラルネットワークは所定の火災学習画像と所定の画像説明文を入力して学習されており、撮像部から入力された監視領域の画像の解析により画像説明文を生成して出力し、
異常判定部は、画像解析部から出力された画像説明文の単語を、辞書に予め記憶した所定の火災を示す単語と比較して火災を判定した場合に火災判定信号を出力して警報させる。
(Fire monitoring)
The multilayer neural network of the image analysis unit is learned by inputting a predetermined fire learning image and a predetermined image description, and generates an image description by analyzing the image of the monitoring region input from the imaging unit. Output,
The abnormality determination unit outputs a fire determination signal and gives an alarm when the word of the image description output from the image analysis unit is compared with a word indicating a predetermined fire stored in the dictionary in advance to determine a fire.
(盗難監視)
画像解析部の多層式のニューラルネットワークは所定の盗難学習画像と所定の画像説明文を入力して学習されており、撮像部から入力された監視領域の画像の解析により画像説明文を生成して出力し、
異常判定部は、画像解析部から出力された画像説明文の単語を、辞書に予め記憶した所定の盗難を示す単語と比較して盗難を判定した場合に盗難判定信号を出力して警報させる。
(Theft monitoring)
The multilayer neural network of the image analysis unit is learned by inputting a predetermined theft learning image and a predetermined image description, and generates an image description by analyzing the image of the monitoring area input from the imaging unit. Output,
The abnormality determination unit outputs a theft determination signal and gives an alarm when the word of the image description output from the image analysis unit is compared with a word indicating a predetermined theft stored in the dictionary in advance to determine the theft.
(時間による判定基準の変化)
異常判定器は時間帯によって動作を異ならせる。
(Changes in judgment criteria over time)
The operation of the abnormality determiner varies depending on the time zone.
(異常監視システム1の効果)
本発明は、撮像部により撮像された監視領域の画像を入力して異常を判定する異常監視システムに於いて、撮像部により撮像された監視領域の画像の中の変化のあった画像部分を抽出する画像抽出部と、画像抽出部で抽出された画像部分を解析し、画像に含まれる要素を単語として出力する多層式のニューラルネットワークで構成された画像解析部と、画像解析部から出力された画像に含まれる要素の単語を、辞書に予め記憶した所定の異常を示す単語と比較して異常を判定した場合に異常判定信号を出力して警報させる異常判定部と、が設けられたため、例えば監視カメラで遺産的な価値のある神社を監視する場合、異常の原因となる事象の画像全体に占める割合は多くないことが予想され、このような監視画像を入力して解析した場合、画像全体に占める割合が少ない異常原因となる事象を判定できない恐れがあるが、本発明にあっては、監視カメラにより撮像された監視画像の中の変化のあった画像部分を抽出して解析することで、異常の原因となった事象を示す1又は複数の対象物の特徴が抽出されて単語化され、抽出された単語を辞書の異常を示す所定の単語と比較して一致又は類似した場合に異常判定信号を出力して警報させることができるので、異常の原因となった事象を示す単語を確実に出力することができ、異常の判定精度を向上可能とする。また、単語の組み合わせなどから特徴が異常に該当するかを判定することにより、真の異常と誤報との異常の判定精度を向上可能とする。
(Effect of abnormality monitoring system 1)
The present invention extracts an image portion having a change in an image of a monitoring area imaged by an imaging unit in an abnormality monitoring system that determines an abnormality by inputting an image of the monitoring area imaged by an imaging unit. Output from the image analysis unit, the image analysis unit configured to analyze the image portion extracted by the image extraction unit and output the elements included in the image as words, and the image analysis unit An abnormality determination unit that outputs an abnormality determination signal and alarms when an abnormality is determined by comparing the word of an element included in the image with a word indicating a predetermined abnormality stored in the dictionary in advance, for example, When monitoring a heritage-valued shrine with a surveillance camera, it is expected that the percentage of events that cause anomalies will not be large in the overall image. Although it may not be possible to determine an event that causes an abnormality with a small proportion of the entire image, in the present invention, an image portion having a change in a monitoring image captured by a monitoring camera is extracted and analyzed. If the features of one or more objects that indicate the event that caused the abnormality are extracted and worded, and the extracted word is compared or matched with a predetermined word that indicates an abnormality in the dictionary Since an abnormality determination signal can be output and an alarm can be issued, a word indicating the event that caused the abnormality can be reliably output, and the abnormality determination accuracy can be improved. Further, by determining whether a feature corresponds to an abnormality from a combination of words or the like, it is possible to improve the accuracy of determining an abnormality between a true abnormality and a false alarm.
(異常監視システム2の効果)
本発明の別の形態にあっては、撮像部により撮像された監視領域の画像を入力して異常を判定する異常視システムに於いて、撮像部により撮像された画像を解析し、画像に含まれる要素を単語として出力する多層式のニューラルネットワークで構成された画像解析部と、画像解析部から出力された画像に含まれる要素の単語を、辞書に予め記憶した所定の異常を示す単語と比較して異常を判定した場合に異常判定信号を出力して警報させる異常判定部と、が設けられたため、監視カメラにより撮像された監視領域の画像を多層式のニューラルネットワークで構成された画像解析部に入力すると、画像中に存在する1又は複数の対象物の特徴が抽出されて単語化され、例えば「神社・屋根・異常・ある」といった単語が生成され、この単語を辞書の異常を示す所定の単語と比較して一致又は類似した場合に異常判定信号を出力して警報させることができ、単語の組み合わせなどから特徴が異常に該当するかを判定することにより、真の異常と誤報との異常の判定精度を向上可能とする。
(Effect of abnormality monitoring system 2)
In another embodiment of the present invention, in an abnormal vision system that inputs an image of a monitoring area imaged by an imaging unit and determines an abnormality, the image captured by the imaging unit is analyzed and included in the image Compare the word of the element included in the image output from the image analysis unit, which is output from the image analysis unit, with a word indicating a predetermined abnormality stored in advance in the dictionary And an abnormality determination unit that outputs an abnormality determination signal and issues an alarm when an abnormality is determined, so that an image analysis unit configured by a multi-layer neural network for an image of a monitoring area captured by a monitoring camera is provided. , The characteristics of one or more objects present in the image are extracted and worded, for example, a word such as “Shrine / Roof / Abnormal / Yes” is generated, and the word is resigned. When a word matches or resembles a predetermined word indicating an abnormality of the above, an abnormality determination signal can be output and an alarm can be issued, and by determining whether the feature is abnormal from a combination of words, the true It is possible to improve the determination accuracy of abnormality and abnormality.
(SVO形式による異常の比較判定による効果)
画像解析部は更に、画像に含まれる要素の単語を元に画像説明文を生成し、異常判定部は、画像解析部から出力された画像説明文を主語(S)、動詞(V)、目的語(O)及び又は補語(C)に分類し、辞書に記憶された所定の異常を示す主語、動詞及び又は目的語と比較して、少なくとも何れかが一致又は類似した場合異常を判定するようにしたため、画像説明文を構成する主語(S)、動詞(V)、目的語(O)、保護(C)の各々又はその組み合わせについて辞書に登録された異常を示す主語(S)、動詞(V)、目的語(O)、補語(C)と比較することで、単語間の関係からより詳細な異常判定基準を適用することが可能となり、真の異常と誤報との異常の判定精度を向上させ、確実に異常を判定して警報可能とする。
(Effects of abnormal comparison by SVO format)
The image analysis unit further generates an image description based on the word of the element included in the image, and the abnormality determination unit determines the image description output from the image analysis unit as the subject (S), verb (V), purpose It is classified into words (O) and / or complements (C), and compared with a subject, verb and / or object indicating a predetermined abnormality stored in the dictionary, an abnormality is determined when at least one matches or is similar. Therefore, the subject (S), verb (() indicating the abnormality registered in the dictionary for each of the subject (S), verb (V), object (O), protection (C) or combination thereof constituting the image description V), the object (O), and the complement (C) can be used to apply more detailed abnormality criteria based on the relationship between words. Improve and make it possible to alarm by judging abnormalities.
(画像説明文による警報による効果)
異常判定部は、異常判定時に、画像説明文を出力させるようにしたため、監視者は監視領域で発生した異常を理解することが可能となる。例えば監視室等のモニタで監視員が監視を行うようなシステムの場合、異常判定時に警報が出力されて監視員が当該画面を確認したときに、モニタに撮像部により撮像された監視領域の画像と画像説明文が表示されるため、画像説明文で概要を確認しながら画像を確認可能となり、状況の理解が容易となる。
(Effect of warning by image description)
Since the abnormality determination unit outputs an image description when determining the abnormality, the monitor can understand the abnormality occurring in the monitoring area. For example, in the case of a system in which a monitor is monitored by a monitor such as a monitoring room, an image of the monitoring area captured by the imaging unit on the monitor when an alarm is output when the abnormality is determined and the monitor confirms the screen Since the image description is displayed, it is possible to confirm the image while confirming the outline with the image description so that the situation can be easily understood.
(ニューラルネットワークの機能構成による効果)
また、画像解析部の多層式のニューラルネットワークは、畳み込みニューラルネットワークと隠れ層にロング・ショートターム・メモリを用いた再帰型ニューラルネットワークで構成され、畳み込みニューラルネットワークは、入力画像の特徴量を抽出して出力し、再帰型ニューラルネットワークは、畳み込みニューラルネットワークから出力された特徴量を入力して画像説明文を生成して出力するようにしたため、畳み込みニューラルネットワークにより入力画像の特徴が自動的に抽出されることで、監視領域の入力情報から前処理により火災入力情報の特徴、例えば、画像に於いては輪郭等を抽出するような前処理を必要とすることなく入力情報の特徴が抽出され、引き続いて行う再帰型ニューラルネットワークにより高い精度で画像説明文を推定して生成可能とする。
(Effects of the functional configuration of the neural network)
The multi-layer neural network of the image analysis unit consists of a convolutional neural network and a recursive neural network that uses long / short term memory in the hidden layer. The convolutional neural network extracts the features of the input image. In the recursive neural network, the feature amount output from the convolutional neural network is input and the image description is generated and output, so the features of the input image are automatically extracted by the convolutional neural network. Thus, the features of the fire input information are extracted from the input information of the monitoring area by the preprocessing, for example, the features of the input information are extracted without the need for preprocessing such as extracting an outline in the image, Recursive neural network It can be generated to estimate the statement.
また、畳み込みニューラルネットワークと再帰型ニューラルネットワークで構成される画像解析部は、前述した異常監視システム1のように、監視カメラで撮像した画像の中の変化のあった部分を抽出して入力する代わりに、前述した異常監視システム2のように、監視カメラで撮像した画像をそのまま入力した場合にも、画像の特徴を抽出して高い精度で画像説明文が生成され、画像説明文の単語を辞書単語と比較することで、確実に異常を判定して警報可能とする。
In addition, the image analysis unit configured by the convolutional neural network and the recursive neural network can extract and input a changed part in the image captured by the monitoring camera as in the
(畳み込みニューラルネットワークと再帰型ニューラルネットワークの学習の効果)
また、畳み込みニューラルネットワークは、教師なしの学習画像の入力により学習され、再帰型ニューラルネットワークは、学習済みの畳み込みニューラルネットワークに学習画像を入力した場合に所定の中間層から出力される特徴量と学習画像に対応した所定の学習画像説明文を入力して学習されるため、異常監視に関連する学習画像とその画像説明文をペアとした多数の学習データセットを準備することで、畳み込みニューラルネットワークによる画像の特徴量を抽出するための機能及び再帰型ニューラルネットワークによる画像の特徴量を画像説明文に変換する機能を学習させ、監視カメラで撮像した監視領域の画像の解析により、高い精度で画像説明文を推定して生成可能とする。
(Effects of learning with convolutional neural networks and recurrent neural networks)
In addition, the convolutional neural network is learned by inputting an unsupervised learning image, and the recursive neural network is learned with a feature amount output from a predetermined intermediate layer when a learning image is input to a learned convolutional neural network. Since learning is performed by inputting a predetermined learning image description corresponding to the image, by preparing a large number of learning data sets in which the learning image related to abnormality monitoring and the image description are paired, a convolutional neural network is used. Learn the function for extracting image features and the function to convert image features to image description by recursive neural network, and analyze the image of the surveillance area captured by the surveillance camera with high accuracy. It is possible to estimate and generate a sentence.
(火災監視による効果)
また、画像解析部の多層式のニューラルネットワークは所定の火災学習画像と所定の画像説明文を入力して学習されており、撮像部から入力され監視領域の画像の解析により画像説明文を生成して出力し、異常判定部は、画像解析部から出力された画像説明文の単語を、辞書に予め記憶した所定の火災を示す単語と比較して火災を判定した場合に火災判定信号を出力して警報させるようにしたため、監視カメラで監視している例えば神社から煙の出ている画像が入力された場合、画像解析部の多層式のニューラルネットワークにより例えば「神社の屋根から煙が出ています。」といった画像説明文が出力され、辞書に登録されている「神社」、「屋根」、「煙」といった単語との比較により火災を示す画像説明文であることを判定し、火災判定信号を出力して火災警報を出力させることができる。
(Effects of fire monitoring)
The multilayer neural network of the image analysis unit is learned by inputting a predetermined fire learning image and a predetermined image description, and generates an image description by analyzing the image of the monitoring area input from the imaging unit. The abnormality determination unit outputs a fire determination signal when the word of the image description output from the image analysis unit is compared with a word indicating a predetermined fire stored in the dictionary in advance to determine a fire. For example, when a smoke image from a shrine that is monitored by a surveillance camera is input, a multi-layer neural network in the image analysis unit, for example, “Smoke is coming from the roof of the shrine. Image description such as “Shrine”, “Roof”, and “Smoke” registered in the dictionary is determined to be an image description indicating a fire. It can be output fire alarm and outputs the signal.
また、監視カメラで監視している例えば神社の近くでライターを付けている人の画像が入力された場合、画像解析部のニューラルネットワークにより例えば「神社の近くの人がライターを付けています。」といった画像説明文が出力され、辞書に登録されている「神社」、「ライター」、「付けて」といった単語との比較により放火を示す画像説明文であることを判定し、火災判定信号を出力して火災警報を出力させることができる。 In addition, when an image of a person wearing a lighter near a shrine, for example, monitored by a surveillance camera, is input, for example, "A person near the shrine has a lighter attached" by the neural network of the image analysis unit. Is output, and it is determined that it is an image description that indicates arson by comparing with words such as “shrine”, “writer”, and “attach” registered in the dictionary, and a fire determination signal is output Fire alarm can be output.
(盗難監視による効果)
また、画像解析部の多層式のニューラルネットワークは所定の盗難習画像と所定の画像説明文を入力して学習されており、撮像部から入力された監視領域の画像の解析により画像説明文を生成して出力し、異常判定部は、画像解析部から出力された画像説明文の単語を、辞書に予め記憶した所定の盗難を示す単語と比較して盗難を判定した場合に盗難判定信号を出力して警報させるようにしたため、監視カメラで監視している例えば神社の賽銭箱の近くを行き来する不審者の画像が入力された場合、画像解析部のニューラルネットワークにより例えば「神社の賽銭箱の近くに不審者がいるようです。」といった画像説明文が出力され、辞書に登録されている「神社」、「賽銭箱」、「不審者」といった単語との比較により盗難を示す画像説明文であることを判定し、盗難判定信号を出力して盗難警報を出力させることができる。
(Effect of theft monitoring)
The multilayer neural network of the image analysis unit is learned by inputting a predetermined theft training image and a predetermined image description, and generates an image description by analyzing the image of the monitoring area input from the imaging unit. The abnormality determination unit outputs a theft determination signal when the word of the image description output from the image analysis unit is compared with a word indicating a predetermined theft stored in the dictionary in advance to determine the theft. For example, when an image of a suspicious person who is traveling by a surveillance camera, for example, near a shrine money box, is input by the neural network of the image analysis unit, for example, “near a shrine money box” An image description such as “There seems to be a suspicious person” is output, and an image description that indicates theft by comparing with words such as “Shrine”, “Purchase box”, and “Suspicious person” registered in the dictionary Determines that it can output a theft warning by outputting a theft determination signal.
(時間による判定基準の変化による効果)
異常判定器は、時間帯によって動作を異ならせるようにしたため、時間によっては異常となる事象に対して、当該時間の間のみ異常と判定することが可能となる。また、時間帯によって監視したい対象・行動が変化するような場所において対応が可能となる。
(Effects of changes in judgment criteria over time)
Since the operation of the abnormality determiner is made different depending on the time zone, an event that becomes abnormal depending on the time can be determined to be abnormal only during that time. In addition, it is possible to cope with a place where the target / behavior to be monitored changes depending on the time zone.
[火災監視システムの概要]
図1は監視カメラにより火災を監視する異常監視システムの概略を示した説明図である。
[Outline of fire monitoring system]
FIG. 1 is an explanatory diagram showing an outline of an abnormality monitoring system for monitoring a fire with a monitoring camera.
図1に示すように、監視カメラ12が所定の監視対象、例えば歴史的な遺産としての価値がある神社14を監視するため設置され、神社14を含む監視領域を監視カメラ12により動画撮影している。
As shown in FIG. 1, a
監視カメラ12はRGBのカラー画像を例えば30フレーム/秒で撮像して動画として出力する。また、1フレームは例えば縦横4056×4056ピクセルの画素配置となる。
The monitoring
監視対象となる神社14の管理棟等には、火災検出器10が設置され、監視カメラ12が信号ケーブル15により接続されており、監視カメラ12で撮像された動画画像を入力している。
A
火災検出器10は、画像抽出部16、学習データセット記憶部18、画像解析部20及び火災判定部22を備える。画像解析部20は多層式ニューラルネットワークとして畳み込みニューラルネットワーク24と再帰型ニューラルネットワーク26を備え、また、畳み込みニューラルネットワーク24と再帰型ニューラルネットワーク26を学習するための学習制御部28を備えている。火災判定部22は判定器30とシソーラス辞書32で構成されている。シソーラス辞書32には火災判定単語が大分類から小分類に分けて体系的に整理して記憶されている。
The
ここで、火災検出器20及び火災判定部22の機能は、多層式のニューラルネットワークの処理に対応したコンピュータ回路のCPUによるプログラムの実行により実現される。 Here, the functions of the fire detector 20 and the fire determination unit 22 are realized by executing a program by the CPU of the computer circuit corresponding to the processing of the multilayer neural network.
画像抽出部16は監視カメラ12で撮像された神社14を含む監視領域の画像を入力し、例えばフレーム単位に前フレームとの差分をとることで、監視画像の中の変化のあった画像部分を抽出して画像解析部20に出力する。画像抽出部16による変化のあった画像部分の抽出は、変化のあった画像領域の中心位置を起点に上下左右に所定の画素数の範囲を抽出して出力する。また、画像抽出部16は監視画像を縦横所定サイズのブロック画像に分割し、変化のあった1又は複数のブロック画像を抽出して出力するようにしても良い。
The image extraction unit 16 inputs an image of the monitoring area including the
画像解析部20に設けられた畳み込みニューラルネットワーク24は入力した監視画像の特徴量を抽出して出力する。再帰型ニューラルネットワーク26は畳み込みニューラルネットワーク24から出力された特徴量を入力し、入力画像の概要を説明する画像説明文を生成して出力する。
A convolutional
火災判定部22の判定器30は、画像解析部20の再帰型ニューラルネットワーク26から出力された画像説明文を構成する1又は複数の単語と、シソーラス辞書32に記憶されている複数の火災判定単語とを比較し、画像説明文の単語がシソーラス辞書32の火災判定単語に一致又は類似した場合に火災を判定して火災判定信号を例えば神社14に設置されている火災報知設備の火災受信機に出力して火災予兆警報又は火災警報を出力させる。なお、判定器30における火災判定単語等の異常判定単語は監視者が監視対象や監視行為に応じて適宜変更可能である。
The
画像解析部20に設けられた折り畳みニューラルネットワーク24と再帰型ニューラルネットワーク26は、学習データセット記憶部18に予め記憶された学習画像とその画像説明文のペアからなる多数の学習データセットを使用して学習制御部28により学習されている。
The folding
学習データセット記憶部18に記憶されている学習画像は、例えば、通常監視状態で監視カメラ12により撮像された神社14を含む監視画像を、画像抽出部16による部分画像の抽出サイズで縦及び横方向に所定画素ピッチずつシフトして多数の部分画像を生成し、この部分画像に火災実験等により撮像された火災による炎や煙の画像を合成した画像を学習画像として記憶している。
The learning image stored in the learning data set storage unit 18 is, for example, a monitoring image including the
また、記憶された多数の学習画像に対応して画像説明文を生成し、学習画像と画像説明部のペアからなる多数の学習データセットを記憶している。例えば、神社14の屋根の部分から煙が上がっている学習画像に対しては「神社の屋根から煙が出ている。」といった画像説明文が記憶されている。
In addition, image explanations are generated corresponding to a large number of stored learning images, and a large number of learning data sets including pairs of learning images and image explanation units are stored. For example, for a learning image in which smoke is rising from the roof portion of a
学習制御部28は、まず、学習データセット記憶部18に記憶されている多数の学習画像を読み出し、畳み込みニューラルネットワーク24に教師なしの学習画像として入力し、バックプロパゲーション法(逆伝播法)により学習させる。
The learning control unit 28 first reads a large number of learning images stored in the learning data set storage unit 18, inputs them as unsupervised learning images to the convolutional
続いて、学習制御部28は、学習画像による学習の済んだ畳み込みニューラルネットワーク24に学習画像を入力すると共に、入力した学習画像とペアになっている画像説明文を再帰型ニューラルネットワーク26に入力し、再帰型ニューラルネットワーク26を、学習済みの畳み込みニューラルネットワーク24から出力された特徴量とその画像説明文により学習させる。
Subsequently, the learning control unit 28 inputs the learning image to the convolutional
[画像解析部の多層式ニューラルネットワーク]
図2は図1の画像解析部に設けられた畳み込みニューラルネットワークと再帰型ニューラルネットワークの機能構成を示した説明図である。
[Multilayer neural network in the image analysis section]
FIG. 2 is an explanatory diagram showing a functional configuration of the convolutional neural network and the recursive neural network provided in the image analysis unit of FIG.
(畳み込みニューラルネットワーク)
図2に示すように、畳み込みニューラルネットワーク24は入力層34、複数の中間層36で構成されている。通常の畳み込みニューラルネットワークは最後の中間層36の後に、入力層、複数の中間層及び出力層を全結合して画像の特徴量から出力を推定する多層式ニューラルネットワークを設けているが、本実施形態は、入力画像の特徴量を抽出するだけで良いことから、後段の全結合の多層式ニューラルネットワークは設けていない。
(Convolutional neural network)
As shown in FIG. 2, the convolutional
畳み込みニューラルネットワーク24は、通常のニューラルネットワークとは少し特徴が異なり、視覚野から生物学的な構造を取り入れている。視覚野には、視野の小区域に対し敏感な小さな細胞の集まりとなる受容野が含まれており、受容野の挙動は、行列の形で重み付けを学習することで模倣できる。この行列は重みフィルタ(カーネル)呼ばれ、生物学的に受容野が果たす役割と同様に、ある画像の類似した小区域に対して敏感になる。
The convolutional
畳み込みニューラルネットワーク24は、畳み込み演算により、重みフィルタと小区域との間の類似性を表すことでき、この演算を通して、画像の適切な特徴を抽出することができる。
The convolutional
畳み込みニューラルネットワーク24は、入力層34に入力した入力画像に対し重みフィルタにより畳み込み処理を行う。例えば、重みフィルタは縦横3×3の所定の重み付けがなされた行列フィルタであり、入力画像の各画素にフィルタ中心を位置合わせしながら畳み込み演算を行うことで、入力画像の9画素を次の中間層36の小区域となる特徴マップの1画素に畳み込み、中間層36に特徴マップが生成される。
The convolutional
続いて、畳み込み演算により得られた中間層36の特徴マップに対しプーリングの演算を行う。プーリングの演算は、識別に不必要な特徴量を除去し、識別に必要な特徴量を抽出する処理である。
Subsequently, a pooling operation is performed on the feature map of the
続いて、重みフィルタを使用した畳み込み演算とプーリングの演算を各中間層36毎に繰り返すことで最後の中間層36まで特徴マップが生成され、本実施形態にあっては、任意の中間層36に生成された特徴マップを、入力画像の特徴量として再帰型ニューラルネットワーク26に入力している。
Subsequently, a feature map is generated up to the last
畳込みニューラルネットワーク24は、図1に示した学習制御部28により学習データセット記憶部18に記憶された学習画像を入力して教師なしの学習を行っており、この学習により、良く似た画像をグループ分けするクラスタリングされた特徴量をもつ画像を生成することができる。
The convolutional
(再帰型ニューラルネットワーク)
図2に示す再帰型ニューラルネットワーク26は、畳み込みニューラルネットワーク24を用いて抽出した画像の特徴量を、単語ベクトルと共に入力して画像説明文を予測する。
(Recursive neural network)
The recursive
本実施形態の再帰型ニューラルネットワーク26は、時系列データ対応の深層学習モデルとなるLSTM−LM(Long Short−Term Memory−Langage Model)を使用している。
The recursive
通常の再帰型ニューラルネットワークのモデルは、入力層、隠れ層、出力層で構成され、隠れ層の情報を次時刻の入力とすることで過去の経歴を利用した時系列解析をするモデルである。これに対しLSTMモデルは、過去の文脈となるt−1個の単語からt番目の単語として各単語が選ばれる確率を算出する。即ち、LSTMモデルは1時刻前の隠れ状態となる時刻1〜t−1の単語情報、1時刻前の予測結果となる時刻t−1の単語、及び外部情報の3つを入力とし、逐次的に次の単語の予測を繰り返して文章を生成する。
A normal recursive neural network model is composed of an input layer, a hidden layer, and an output layer, and performs time-series analysis using past history by using hidden layer information as an input at the next time. On the other hand, the LSTM model calculates the probability that each word is selected as the t-th word from t-1 words as the past context. In other words, the LSTM model takes three words, the word information at
図2の再帰型ニューラルネットワーク26は、畳み込みニューラルネットワーク24で抽出された画像の特徴ベクトルをLSTM隠れ層38に入力する行列に変換するLSTM入力層37、レジスタ40に単語単位に格納された単語S0〜SN-1をベクトルWeS0〜WeSN-1に変換するベクトル変換部42、N−1段のLSTM隠れ層38、LSTM隠れ層38の出力を出現確率p1〜pNに変換する確率変換部44、単語を出力する確率からコスト関数logP1(s1)〜logpN(SN)により算出してコストを最小化するコスト算出部46で構成される。
The recursive
(再帰型ニューラルネットワークの学習)
再帰型ニューラルネットワーク26の学習対象は、ベクトル変換部42とLSTM隠れ層38であり、畳み込みニューラルネットワーク24からの特徴量は、学習済みのパラメータをそのまま使用する。
(Recursive neural network learning)
The learning target of the recursive
学習データは、学習画像Iとその画像説明文の単語列{St}(t=0,・・・N)となり、次の手順で行う。
(1) 画像Iを畳み込みニューラルネットワーク24に入力し、特定の中間層36の出力を特徴ベクトルとして取り出す。
(2) 特徴ベクトルをLSTM隠れ層38に入力する。
(3) 単語列Stをt=0からt=N−1まで順に入力し、それぞれのステップで確率pt+1を得る。
(4) 単語St+1を出力する確率pt+1(St+1)から求まるコストを最小化する。
The learning data is a learning image I and a word string {St} (t = 0,... N) of the image description and is performed in the following procedure.
(1) The image I is input to the convolutional
(2) The feature vector is input to the LSTM hidden layer 38.
(3) The word string St is sequentially input from t = 0 to t = N−1, and the probability p t + 1 is obtained at each step.
(4) The cost obtained from the probability pt + 1 (St + 1) of outputting the word St + 1 is minimized.
(画像説明文の生成)
学習済みの畳み込みニューラルネットワーク24と再帰型ニューラルネットワーク26を使用して画像説明文を生成する場合には、畳み込みニューラルネットワーク24に画像を入力して生成した特徴量のベクトルを再帰型ニューラルネットワーク26に入力し、単語の出現確率の積が高い順に単語列を並べて画像説明文を生成させる。この手順は次のようになる。
(1) 画像を畳み込みニューラルネットワーク24に入力し、特定の中間層36の出力を特徴ベクトルとして取り出す。
(2) 特徴ベクトルをLSTM入力層37からLSTM隠れ層38に入力する。
(3) 文の開始記号<S>を、ベクトル変換部42を使用してベクトルに変換し、LSTM隠れ層38に入力する。
(4) LSTM隠れ層38の出力から単語の出現確率が分かるので、上位M個(例えばM=20個)の単語を選ぶ。
(5) 1つ前のステップで出力した単語を、ベクトル変換部42を使用してベクトルに変換し、LSTM隠れ層38に入力する。
(6) LSTM隠れ層38の出力から、これまでに出力した単語の確率の積を求め、上位M個の単語列を選択する。
(7) 前記(5)と前記(6)の処理を、単語の出力が終端記号になるまで繰り返す。
(Generation of image description)
When an image description is generated using the learned convolutional
(1) An image is input to the convolutional
(2) A feature vector is input from the
(3) The sentence start symbol <S> is converted into a vector using the vector conversion unit 42 and input to the LSTM hidden layer 38.
(4) Since the appearance probability of the word is known from the output of the LSTM hidden layer 38, the top M words (for example, M = 20) are selected.
(5) The word output in the previous step is converted into a vector using the vector conversion unit 42 and input to the LSTM hidden layer 38.
(6) From the output of the LSTM hidden layer 38, the product of the probabilities of the words output so far is obtained, and the top M word strings are selected.
(7) The processes (5) and (6) are repeated until the word output becomes a terminal symbol.
[火災監視制御]
図3は監視カメラにより撮像した神社の監視画像の画像解析による火災判定制御を示した説明図である。
[Fire monitoring control]
FIG. 3 is an explanatory view showing fire determination control by image analysis of a monitoring image of a shrine taken by a monitoring camera.
図1に示した火災判定装置10は、監視カメラ12で撮像された監視対象となる神社14を含む監視画像を入力して監視している。この監視中に、例えば落雷等により図3の監視画像48に示すように、神社14の右上の屋根のひさしに近い部分から煙が上がっていたとすると、画像抽出部16が前フレームとの差分から煙の発生部分の画像変化を判定し、煙を含む所定領域の部分画像50を抽出する画像抽出処理52を行い、画像解析部20に入力して画像解析処理54を行わせる。
The
この画像解析処理54にあっては、畳み込みニューラルネットワーク24により部分画像50の特徴量が抽出されて再帰型ニューラルネットワーク26に入力され、例えば「屋根から煙が出ている。」といった画像説明文58が出力される。
In this
画像解析部20から出力された画像説明文58は火災判定部22の判定器30に入力され、判定器30は画像説明文58の主語Sとして「屋根」、動詞Vとして「出ている」、目的語Oとして「煙」となるSVO形式に変換し、シソーラス辞書32に大分類から小分類に分けて体系的に記憶された火災に関連する火災判定単語と比較し、「屋根」、「煙」、「出ている」といった単語の全て、或いは「煙」が火災判定単語に一致又は類似した場合に火災と判定し、火災判定信号を図示しない火災報知設備の火災受信機に出力して火災予兆警報又は火災警報を出力させる。
The
なお、判定器30は、画像説明文をSVO形式以外に、補語Cを加えたSVOC形式に変換してもよいし、単に複数の単語列に変換するだけでも良い。
Note that the
また、火災検出器10にモニタ装置を設け、火災を判定した場合に監視カメラ12により撮像している火災が判定された監視領域の画像を画面表示し、火災受信機からの火災予兆警報や火災警報を知った管理責任者や防災担当者による火災確認ができるようにしても良い。この際、モニタ装置に画像説明文58を表示し、抽出した画像部分を枠で囲み強調表示する。また、複数の監視カメラ12の映像を切り替えてモニタ装置に表示するシステムの場合、異常を判定した監視カメラ12の映像を表示するように切り替える。この場合、火災検出器10の操作部に火災断定スイッチを設け、モニタ画像から火災を確認した場合に火災断定スイッチを操作すると、火災受信機12に発信機を操作した場合と同様に、火災通報信号を出力し、火災受信機から火災警報を出力させるようにしても良い。
In addition, the
図4は図1の火災検出器により火災監視制御を示したフローチャートである。図4に示すように、火災検出器10はステップS1で監視カメラ12により撮像された監視画像を画像抽出部16に読み込み、ステップS3で前フレームとの差分画像から変化のある画像部分を抽出し、ステップS3で画像解析部20に入力し、畳み込みニューラルネットワーク24による部分画像の特徴量を抽出し、抽出した特徴量を再帰型ニューラルネットワーク26に入力して画像説明文を出力する。
FIG. 4 is a flowchart showing fire monitoring control by the fire detector of FIG. As shown in FIG. 4, the
続いて火災検出器10は、ステップS4で画像解析部20で生成された画像説明文を火災判定部22に入力して辞書登録された火災判定単語と比較し、一致又は類似した場合にステップS5で火災と判定し、ステップS6で火災判定信号を火災受信機に出力して火災予兆警報又は火災警報を出力させる。
Subsequently, the
[火災検出器の他の実施形態]
図1に示した火災検出器10は、画像抽出部16により監視画像の中の変化のあった部分を抽出して画像解析部20に入力して画像説明文を生成させているが、火災検出器10の他の実施形態として、画像抽出部16を除いた構成としても良い。
[Other Embodiments of Fire Detector]
The
画像抽出部16を除いた火災検出器10にあっては、監視カメラ12により撮像された監視領域の画像かそのまま画像解析部20に入力されることになるが、図2に示した画像解析部20を構成する畳み込みニューラルネットワーク24と再帰型ニューラルネットワーク26は、火災による煙等の事象変化を一部に含む監視画像が入力された場合、例えば図3に示した監視画像48が入力された場合、畳み込みニューラルネットワーク24と再帰型ニューラルネットワーク26を十分な数の学習画像とその画像説明文のペアとなるデータセットにより学習していれば、例えば「神社の屋根から煙が出ている。」といった画像説明文を高い精度で推定して出力することができ、画像抽出部16を不要とした分、機能機構を簡単にすることができる。
In the
[火災検出器による放火監視]
図1に示した火災検出器10は、監視対象とする神社の火災監視を行っているが、これ以外に、監視対象としている神社の放火監視を行うこともできる。
[Arson monitoring by fire detector]
The
火災検出器10で放火監視を行うためには、図1の学習データセット記憶部18に記憶させる学習画像とその画像説明文のペアからなるデータセットとして、神社の周囲を撮像するように複数台の監視カメラを設置し、火災検出器10に複数台の監視カメラを順番に切り替えて監視画像を入力し、神社に放火しようと不審者がライターを付けた画像が入力された場合、画像解析部20の畳み込みニューラルネットワーク24と再帰型ニューラルネットワーク26により例えば「男がライターを付けている。」といった画像説明文が生成され、辞書登録された「男」、「ライター」、「付ける」といった放火判定単語との比較により放火を判定し、火災受信機に放火判定信号を出力して火災警報を出力させる。
In order to perform arson monitoring with the
ここで、火災検出器10による放火監視は、参拝者が居なくなる出入口が閉鎖された夜間を含む時間帯に動作するように管理されており、参拝者の喫煙場所でのライターの着火は放火とは判定されず、不審者による放火を確実に判定して警報することができる。
Here, the arson monitoring by the
[盗難判定器による盗難監視]
図1に示した火災検出器10は、監視対象とする神社の火災監視を行っているが、これ以外に、監視対象としている神社に置かれている賽銭箱等の盗難監視を行う盗難検出器とすることもできる。
[Theft monitoring with theft detector]
The
盗難検出器で盗難監視を行うためには、図1の学習データセット記憶部18に記憶させる学習画像とその画像説明文のペアからなるデータセットとして、神社に置かれた賽銭箱の周囲を人が行き来するような画像を学習画像として撮像して例えば「不審者が賽銭箱の近くにいます。」といった画像説明分のペアを多数のデータセットとして準備し、畳み込みニューラルネットワーク24と再帰型ニューラルネットワーク26を学習させる。
In order to monitor the theft with a theft detector, a data set consisting of a pair of learning images and image descriptions stored in the learning data set storage unit 18 in FIG. As a learning image, a pair of image explanations such as “A suspicious person is near the money box” is prepared as a large number of data sets, and the convolutional
このような盗難監視のための学習が済んだ盗難検出器に、賽銭箱の周囲を徘徊する男の移った監視画像が入力されると、画像解析部20の畳み込みニューラルネットワーク24と再帰型ニューラルネットワーク26により例えば「人が賽銭箱の近くにいます。」といった画像説明文が生成され、辞書登録された「人」、「賽銭箱」、「いる」といった盗難判定単語との比較により盗難を判定し、盗難受信機に盗難判定信号を出力して盗難警報を出力させる。
When a surveillance image moved by a man who is wandering around the money box is input to such a theft detector that has been learned for theft monitoring, the convolutional
また、盗難検出器による盗難監視は、参拝者が居なくなる出入り口が閉鎖された夜間を含む時間帯に動作するように管理されており、これにより参拝者が賽銭箱ら近づいても盗難として判定されず、不審者による盗難を確実に判定して警報することができる。
〔本発明の変形例〕
(システムの運用形態)
上記の実施形態は、火災報知設備の火災受信機に火災判定信号を出力して火災警報させるようにしているが、火災警報の出力方法は一例であり、火災受信機と接続されずに運用されても良い。この場合、判定器で異常が判定された場合、監視カメラの映像等を監視する監視室に警報を出力する。また、監視カメラ・監視室間はローカルなシステムであっても良いし、監視室が複数の現場の監視カメラの映像をインターネット等により通じて集中的に監視するシステムであっても良い。
In addition, theft monitoring by the theft detector is managed so that it operates in the time zone including the night when the entrance where the worshiper disappears is closed. Therefore, it is possible to reliably determine and alarm theft by a suspicious person.
[Modification of the present invention]
(System operation mode)
In the above embodiment, a fire judgment signal is output to the fire receiver of the fire alarm facility so that a fire alarm is generated. However, the fire alarm output method is an example and is operated without being connected to the fire receiver. May be. In this case, if an abnormality is determined by the determiner, an alarm is output to the monitoring room that monitors the video of the monitoring camera. Further, a local system between the monitoring camera and the monitoring room may be used, or a system in which the monitoring room centrally monitors the images of the monitoring cameras at a plurality of sites through the Internet or the like.
(システムの運用対象)
上記の実施形態では神社を監視対象としているが、監視対象はこれに限らない。例えば、店舗において適用し、昼間は盗難に対して異常判定を行うため誤報を少なくするように異常の判定条件を緩めに設定し、夜間は人の存在に対して異常判定を行うため、確実に警報できるように異常の判定精度を厳しめに設定する。
(System operation target)
In the above embodiment, the shrine is the monitoring target, but the monitoring target is not limited to this. For example, it is applied in a store, and abnormal conditions are determined for theft during the day, so the abnormal conditions are set to be loose so as to reduce false alarms. Strictly set the abnormality determination accuracy so that an alarm can be issued.
また例えば、工事現場に適用し、昼間は安全帯未装着等の不安全行為等の禁止行為を異常判定し、夜間は放火行為の監視を行うようにしても良い。 Further, for example, it may be applied to a construction site, and a prohibited action such as an unsafe action such as wearing a safety belt is abnormally determined during the day, and the arson may be monitored at night.
(ネットワークを通じた学習)
畳み込みニューラルネットワークと再帰型ニューラルネットワークは、他の現場で学習されたニューラルネットワークや防災・防犯分野に限らず総合的な学習を行ったニューラルネットワークを用いるようにしても良い。これは、単語抽出と画像説明文の作成において必要な要素が防災・防犯分野に限られないためである。
(Learning through the network)
The convolutional neural network and the recursive neural network may be a neural network learned in another field or a neural network that performs comprehensive learning without being limited to the disaster prevention / crime prevention field. This is because elements necessary for word extraction and creation of image explanations are not limited to the disaster prevention / crime prevention field.
また、畳み込みニューラルネットワークと再帰型ニューラルネットワークは、他の現場の画像をインターネット等経由して収集して学習するようにしても良い。この場合、学習用のサーバーを設けて各現場の学習画像を収集して学習し、その学習結果を各現場の異常監視システムに適用させることが好適であるが、これに限らない。 The convolutional neural network and the recursive neural network may collect and learn images from other sites via the Internet or the like. In this case, it is preferable to provide a learning server, collect and learn learning images at each site, and apply the learning results to the abnormality monitoring system at each site, but this is not a limitation.
また、シソーラス辞書と判定器についても、他の現場のシステムと共有され、更新されるようにすることが、他の物件で出た異常に対応できるようにするため、好適である。 In addition, it is preferable that the thesaurus dictionary and the determiner are shared and updated with other on-site systems so as to cope with anomalies occurring in other properties.
(赤外線照明と赤外線画像の撮像)
上記の実施形態は、監視カメラにより監視領域の照明を使用した状態及び又は自然光の状態で監視領域を撮像しているが、赤外線照明装置からの赤外線光を監視領域に照射し、赤外線領域に感度のある監視カメラにより赤外線画像を撮像して畳み込みニューラルネットワーク(赤外線画像により学習済み)と再帰型ニューラルネットワーク(赤外線画像の特徴量と画像説明文により学習済み)により構成された画像解析部入力して赤外線画像の画像説明文を生成し、火災や盗難といった異常を判定して警報するようにしても良い。
(Infrared illumination and imaging of infrared images)
In the above-described embodiment, the monitoring area is imaged in a state where the monitoring area is used by the monitoring camera and / or in a natural light state. An infrared image is captured by a certain surveillance camera and input to an image analysis unit composed of a convolutional neural network (learned from an infrared image) and a recursive neural network (learned from infrared image features and image descriptions). An image description of an infrared image may be generated, and an alarm such as a fire or theft may be determined and alarmed.
このように監視領域の赤外線画像を火災検出器や盗難検出器に入力することで、監視領域の照明状態や昼夜の明るさ変化等に影響されることなく、監視画像を用いた火災や盗難の監視が可能となる。 In this way, by inputting the infrared image of the monitoring area to the fire detector or theft detector, it is possible to detect the fire or theft using the monitoring image without being affected by the lighting condition of the monitoring area or the change in brightness of day and night. Monitoring is possible.
(その他)
また、本発明は上記の実施形態に限定されず、その目的と利点を損なうことのない適宜の変形を含み、更に上記の実施形態に示した数値による限定は受けない。
(Other)
The present invention is not limited to the above-described embodiment, includes appropriate modifications without impairing the object and advantages thereof, and is not limited by the numerical values shown in the above-described embodiment.
10:火災検出器
12:監視カメラ
14:神社
16:画像抽出部
18:学習データセット記憶部
20:画像解析部
22:火災判定部
24:畳み込みニューラルネットワーク
26:再帰型ニューラルネットワーク
28:学習制御部
30:判定器
32:シソーラス辞書
34:入力装置
36:中間層
38:特徴抽出部
37:LSTM入力層
38:LSTM隠れ層
40:単語レジスタ
42:単語ベクトル変換部
44:確率変換部
46: コスト算出部
48:監視画像
50:部分画像
52:画像抽出処理
54:画像解析処理
56:画像生成文
60:火災判定処理
10: fire detector 12: surveillance camera 14: shrine 16: image extraction unit 18: learning data set storage unit 20: image analysis unit 22: fire determination unit 24: convolutional neural network 26: recursive neural network 28: learning control unit 30: Determinator 32: Thesaurus dictionary 34: Input device 36: Intermediate layer 38: Feature extraction unit 37: LSTM input layer 38: LSTM hidden layer 40: Word register 42: Word vector conversion unit 44: Probability conversion unit 46: Cost calculation Unit 48: monitoring image 50: partial image 52: image extraction processing 54: image analysis processing 56: image generation sentence 60: fire determination processing
Claims (9)
前記撮像部により撮像された監視領域の画像の中の変化のあった画像部分を抽出する画像抽出部と、
前記画像抽出部で抽出された前記画像部分を解析し、前記画像に含まれる要素を単語として出力する多層式のニューラルネットワークで構成された画像解析部と、
前記画像解析部から出力された前記画像に含まれる要素の単語を、辞書に予め記憶した所定の異常を示す単語と比較して前記異常を判定した場合に異常判定信号を出力して警報させる異常判定部と、
が設けられたことを特徴とする異常監視システム。
In an abnormality monitoring system for determining an abnormality by inputting an image of a monitoring area imaged by an imaging unit,
An image extraction unit that extracts an image part having a change in the image of the monitoring region imaged by the imaging unit;
Analyzing the image portion extracted by the image extraction unit, and an image analysis unit configured with a multilayer neural network that outputs elements included in the image as words,
An abnormality that outputs an abnormality determination signal and gives an alarm when an abnormality is determined by comparing a word of an element included in the image output from the image analysis unit with a word indicating a predetermined abnormality stored in advance in a dictionary A determination unit;
An abnormality monitoring system characterized in that is provided.
前記撮像部により撮像された画像を解析し、前記画像に含まれる要素を単語として出力する多層式のニューラルネットワークで構成された画像解析部と、
前記画像解析部から出力された前記画像に含まれる要素の単語を、辞書に予め記憶した所定の異常を示す単語と比較して前記異常を判定した場合に異常判定信号を出力して警報させる異常判定部と、
が設けられたことを特徴とする異常監視システム。
In an abnormal vision system that determines an abnormality by inputting an image of a monitoring area imaged by an imaging unit,
An image analysis unit configured with a multilayer neural network that analyzes an image captured by the imaging unit and outputs elements included in the image as words;
An abnormality that outputs an abnormality determination signal and gives an alarm when an abnormality is determined by comparing a word of an element included in the image output from the image analysis unit with a word indicating a predetermined abnormality stored in advance in a dictionary A determination unit;
An abnormality monitoring system characterized in that is provided.
前記画像解析部は更に、前記画像に含まれる要素の単語を元に画像説明文を生成し 、
前記異常判定部は、前記画像解析部から出力された前記画像説明文を主語、動詞、目的語及び又は補語に分類し、前記辞書に記憶された所定の異常を示す主語、動詞及、目的語及び又は補語と比較して、一致又は類似した場合に異常を判定する異常を判定することを特徴とする異常監視システム。
In the abnormality monitoring system according to claim 1 or 2,
The image analysis unit further generates an image description based on a word of an element included in the image;
The abnormality determination unit classifies the image description output from the image analysis unit into a subject, a verb, an object and / or a complement, and a subject, a verb and an object indicating a predetermined abnormality stored in the dictionary And an abnormality monitoring system for determining an abnormality for determining an abnormality when matching or similar to a complement.
前記異常判定部は、異常判定時に、前記画像説明文を出力することを特徴とする異常監視システム。
In the abnormality monitoring system according to claim 3,
The abnormality monitoring system, wherein the abnormality determination unit outputs the image explanatory text at the time of abnormality determination.
前記画像解析部の多層式のニューラルネットワークは、畳み込みニューラルネットワークと隠れ層にロング・ショートターム・メモリを用いた再帰型ニューラルネットワークで構成され、
前記畳み込みニューラルネットワークは、入力画像の特徴量を抽出して出力し、
前記再帰型ニューラルネットワークは前記畳み込みニューラルネットワークから出力された前記特徴量を入力して前記画像説明文を生成して出力することを特徴とする異常監視システム。
In the abnormality monitoring system according to claim 3,
The multilayer neural network of the image analysis unit is composed of a convolutional neural network and a recursive neural network using a long / short term memory in a hidden layer,
The convolutional neural network extracts and outputs a feature amount of an input image,
The abnormality monitoring system, wherein the recursive neural network receives the feature amount output from the convolutional neural network, generates and outputs the image description.
前記畳み込みニューラルネットワークは、教師なしの学習画像の入力により学習され、
前記再帰型ニューラルネットワークは、前記学習済みの前記畳み込みニューラルネットワークに前記学習画像を入力した場合に所定の中間層から出力される特徴量と前記学習画像に対応した所定の学習画像説明文を入力して学習されることを特徴とする異常監視システム。
In the abnormality monitoring system according to claim 5,
The convolutional neural network is learned by inputting an unsupervised learning image,
The recursive neural network inputs a feature amount output from a predetermined intermediate layer when the learning image is input to the learned convolutional neural network and a predetermined learning image description corresponding to the learning image. An anomaly monitoring system characterized by learning.
前記画像解析部の前記多層式のニューラルネットワークは所定の火災学習画像と所定の画像説明文を入力して学習されており、前記撮像部から入力された前記監視領域の画像の解析により画像説明文を生成して出力し、
前記異常判定部は、前記画像解析部から出力された前記画像説明文の単語を、辞書に予め記憶した所定の火災を示す単語と比較して前記火災を判定した場合に火災判定信号を出力して警報させることを特徴とする異常監視システム。
In the abnormality monitoring system according to claim 3,
The multilayer neural network of the image analysis unit is learned by inputting a predetermined fire learning image and a predetermined image description, and an image description is obtained by analyzing the image of the monitoring area input from the imaging unit. Is generated and output,
The abnormality determination unit outputs a fire determination signal when the word of the image explanatory text output from the image analysis unit is compared with a word indicating a predetermined fire stored in advance in the dictionary to determine the fire. An abnormality monitoring system characterized by alarming.
前記画像解析部の前記多層式のニューラルネットワークは所定の盗難習画像と所定の画像説明文を入力して学習されており、前記撮像部から入力された前記監視領域の画像の解析により画像説明文を生成して出力し、
前記異常判定部は、前記画像解析部から出力された前記画像説明文の単語を、辞書に予め記憶した所定の盗難を示す単語と比較して前記盗難を判定した場合に盗難判定信号を出力して警報させることを特徴とする異常監視システム。
In the abnormality monitoring system according to claim 3,
The multilayer neural network of the image analysis unit is learned by inputting a predetermined theft learning image and a predetermined image description, and an image description by analyzing the image of the monitoring area input from the imaging unit. Is generated and output,
The abnormality determination unit outputs a theft determination signal when the word of the image description output from the image analysis unit is compared with a word indicating a predetermined theft stored in advance in the dictionary to determine the theft. An abnormality monitoring system characterized by alarming.
前記異常判定器は、時間帯によって動作を異ならせることを特徴とする異常監視システム。 In the abnormality monitoring system according to claims 1 to 3,
The abnormality monitoring system characterized in that the operation of the abnormality determiner varies depending on a time zone.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016247408A JP6867153B2 (en) | 2016-12-21 | 2016-12-21 | Abnormality monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016247408A JP6867153B2 (en) | 2016-12-21 | 2016-12-21 | Abnormality monitoring system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018101317A true JP2018101317A (en) | 2018-06-28 |
JP6867153B2 JP6867153B2 (en) | 2021-04-28 |
Family
ID=62715451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016247408A Active JP6867153B2 (en) | 2016-12-21 | 2016-12-21 | Abnormality monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6867153B2 (en) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110102002A (en) * | 2019-05-15 | 2019-08-09 | 上海荷福人工智能科技(集团)有限公司 | The early warning of fire-fighting robot based on artificial intelligence and fire extinguishing system and method |
JP2020027659A (en) * | 2018-08-10 | 2020-02-20 | ネイバー コーポレーションNAVER Corporation | Method for training convolutional recurrent neural network, and inputted video semantic segmentation method using trained convolutional recurrent neural network |
CN110992642A (en) * | 2019-12-25 | 2020-04-10 | 辽宁石油化工大学 | Fire detection method based on deep learning |
JP2020071166A (en) * | 2018-11-01 | 2020-05-07 | 浜松ホトニクス株式会社 | Spectrum analysis device and spectrum analysis method |
JP2020150692A (en) * | 2019-03-14 | 2020-09-17 | 三菱電機株式会社 | Motor deterioration tendency monitoring system |
JP2020154551A (en) * | 2019-03-19 | 2020-09-24 | 株式会社日立製作所 | Behavior analysis device and behavior analysis method |
WO2020239540A1 (en) * | 2019-05-27 | 2020-12-03 | Robert Bosch Gmbh | Method and apparatus for detecting smoke |
WO2020256152A1 (en) * | 2019-06-21 | 2020-12-24 | トニー シュウ | Information processing device, information processing method, and program |
WO2021161652A1 (en) * | 2020-02-10 | 2021-08-19 | ソニーセミコンダクタソリューションズ株式会社 | Signal processing device, image sensor, imaging device, and signal processing method |
JP2021128705A (en) * | 2020-02-17 | 2021-09-02 | トヨタ自動車株式会社 | Object state identification device |
CN113553232A (en) * | 2021-07-12 | 2021-10-26 | 厦门大学 | Technology for carrying out unsupervised anomaly detection on operation and maintenance data through online matrix portrait |
CN113628401A (en) * | 2020-05-07 | 2021-11-09 | 广东毓秀科技有限公司 | Dense place intelligent escape facility based on smoke detection |
JP2022509299A (en) * | 2019-04-22 | 2022-01-20 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | How to generate video captions, appliances, devices and computer programs |
JPWO2022024245A1 (en) * | 2020-07-29 | 2022-02-03 | ||
JP2022530785A (en) * | 2019-09-16 | 2022-07-01 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Image processing methods, equipment, electronic devices and computer programs |
CN115457485A (en) * | 2022-11-11 | 2022-12-09 | 成都见海科技有限公司 | Drainage monitoring method and system based on 3D convolution and storage medium |
CN115588265A (en) * | 2022-12-12 | 2023-01-10 | 华能酒泉风电有限责任公司 | Intelligent monitoring system of wind power plant |
US11601591B2 (en) | 2020-02-10 | 2023-03-07 | Canon Kabushiki Kaisha | Image processing apparatus for estimating action of subject and adding information indicating the action of the subject to an image, method for controlling the same, and storage medium |
US11685405B2 (en) | 2020-04-06 | 2023-06-27 | Toyota Jidosha Kabushiki Kaisha | Vehicle controller, method, and computer program for vehicle trajectory planning and control based on other vehicle behavior |
CN116567402A (en) * | 2023-06-28 | 2023-08-08 | 东莞锐视光电科技有限公司 | Light source controller trigger delay control method and system |
US11829153B2 (en) | 2020-04-06 | 2023-11-28 | Toyota Jidosha Kabushiki Kaisha | Apparatus, method, and computer program for identifying state of object, and controller |
WO2023228562A1 (en) * | 2022-05-26 | 2023-11-30 | 株式会社シーズ | Information processing system, information processing method, and program |
WO2023243040A1 (en) * | 2022-06-16 | 2023-12-21 | 日本電信電話株式会社 | Image processing device, image processing method, and image processing program |
JP7486652B1 (en) | 2023-09-07 | 2024-05-17 | 日鉄エンジニアリング株式会社 | Smoke image generating device, smoke detection system, smoke image generating method, abnormality image generating device, and program |
JP7491535B2 (en) | 2022-04-28 | 2024-05-28 | 株式会社シーズ | Information processing system, information processing method, and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001086486A (en) * | 1999-09-14 | 2001-03-30 | Matsushita Electric Ind Co Ltd | Monitor camera system and display method for monitor camera |
JP2005328333A (en) * | 2004-05-14 | 2005-11-24 | Hitachi Kokusai Electric Inc | Monitor system |
JP2009205594A (en) * | 2008-02-29 | 2009-09-10 | Sogo Keibi Hosho Co Ltd | Security device and suspicious person determining method |
JP2009252215A (en) * | 2008-04-11 | 2009-10-29 | Sogo Keibi Hosho Co Ltd | Security device and information display method |
JP2012208793A (en) * | 2011-03-30 | 2012-10-25 | Sogo Keibi Hosho Co Ltd | Security system |
JP2016045943A (en) * | 2014-08-20 | 2016-04-04 | 三菱電機株式会社 | Method for semantically labeling scene acquisition image |
JP2016072964A (en) * | 2014-09-30 | 2016-05-09 | キヤノン株式会社 | System and method for subject re-identification |
-
2016
- 2016-12-21 JP JP2016247408A patent/JP6867153B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001086486A (en) * | 1999-09-14 | 2001-03-30 | Matsushita Electric Ind Co Ltd | Monitor camera system and display method for monitor camera |
JP2005328333A (en) * | 2004-05-14 | 2005-11-24 | Hitachi Kokusai Electric Inc | Monitor system |
JP2009205594A (en) * | 2008-02-29 | 2009-09-10 | Sogo Keibi Hosho Co Ltd | Security device and suspicious person determining method |
JP2009252215A (en) * | 2008-04-11 | 2009-10-29 | Sogo Keibi Hosho Co Ltd | Security device and information display method |
JP2012208793A (en) * | 2011-03-30 | 2012-10-25 | Sogo Keibi Hosho Co Ltd | Security system |
JP2016045943A (en) * | 2014-08-20 | 2016-04-04 | 三菱電機株式会社 | Method for semantically labeling scene acquisition image |
JP2016072964A (en) * | 2014-09-30 | 2016-05-09 | キヤノン株式会社 | System and method for subject re-identification |
Non-Patent Citations (2)
Title |
---|
吉井 和輝: "顕著性マップを用いた画像の説明文自動生成", 一般社団法人 人工知能学会 第30回全国大会論文集CD−ROM [CD−ROM] 2016年度 人工, vol. 4K1-5, JPN6020039570, 9 June 2016 (2016-06-09), JP, pages 1 - 4, ISSN: 0004368216 * |
高里 盛良: "ニューラルキャプション生成モデルによる画像説明文の選択", 言語処理学会第22回年次大会 発表論文集, JPN6020039567, 29 February 2016 (2016-02-29), JP, pages 103 - 106, ISSN: 0004368215 * |
Cited By (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020027659A (en) * | 2018-08-10 | 2020-02-20 | ネイバー コーポレーションNAVER Corporation | Method for training convolutional recurrent neural network, and inputted video semantic segmentation method using trained convolutional recurrent neural network |
JP7239300B2 (en) | 2018-11-01 | 2023-03-14 | 浜松ホトニクス株式会社 | Spectrum analysis device and spectrum analysis method |
TWI818101B (en) * | 2018-11-01 | 2023-10-11 | 日商濱松赫德尼古斯股份有限公司 | Spectrum analysis device and spectrum analysis method |
JP2020071166A (en) * | 2018-11-01 | 2020-05-07 | 浜松ホトニクス株式会社 | Spectrum analysis device and spectrum analysis method |
WO2020090336A1 (en) * | 2018-11-01 | 2020-05-07 | 浜松ホトニクス株式会社 | Spectrum analysis device and spectrum analysis method |
JP2020150692A (en) * | 2019-03-14 | 2020-09-17 | 三菱電機株式会社 | Motor deterioration tendency monitoring system |
JP7170564B2 (en) | 2019-03-14 | 2022-11-14 | 三菱電機株式会社 | Motor deterioration trend monitoring system |
JP2020154551A (en) * | 2019-03-19 | 2020-09-24 | 株式会社日立製作所 | Behavior analysis device and behavior analysis method |
JP7179183B2 (en) | 2019-04-22 | 2022-11-28 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | VIDEO CAPTION GENERATION METHOD, APPARATUS, DEVICE AND COMPUTER PROGRAM |
JP2022509299A (en) * | 2019-04-22 | 2022-01-20 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | How to generate video captions, appliances, devices and computer programs |
CN110102002A (en) * | 2019-05-15 | 2019-08-09 | 上海荷福人工智能科技(集团)有限公司 | The early warning of fire-fighting robot based on artificial intelligence and fire extinguishing system and method |
WO2020239540A1 (en) * | 2019-05-27 | 2020-12-03 | Robert Bosch Gmbh | Method and apparatus for detecting smoke |
WO2020256152A1 (en) * | 2019-06-21 | 2020-12-24 | トニー シュウ | Information processing device, information processing method, and program |
JP2021002229A (en) * | 2019-06-21 | 2021-01-07 | 株式会社Polyphonie | Information processor, information processing method, and program |
JP2022530785A (en) * | 2019-09-16 | 2022-07-01 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Image processing methods, equipment, electronic devices and computer programs |
US11907637B2 (en) | 2019-09-16 | 2024-02-20 | Tencent Technology (Shenzhen) Company Limited | Image processing method and apparatus, and storage medium |
JP7164252B2 (en) | 2019-09-16 | 2022-11-01 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Image processing method, device, electronic device and computer program |
CN110992642A (en) * | 2019-12-25 | 2020-04-10 | 辽宁石油化工大学 | Fire detection method based on deep learning |
CN110992642B (en) * | 2019-12-25 | 2021-11-05 | 辽宁石油化工大学 | Fire detection method based on deep learning |
WO2021161652A1 (en) * | 2020-02-10 | 2021-08-19 | ソニーセミコンダクタソリューションズ株式会社 | Signal processing device, image sensor, imaging device, and signal processing method |
US11601591B2 (en) | 2020-02-10 | 2023-03-07 | Canon Kabushiki Kaisha | Image processing apparatus for estimating action of subject and adding information indicating the action of the subject to an image, method for controlling the same, and storage medium |
JP7226368B2 (en) | 2020-02-17 | 2023-02-21 | トヨタ自動車株式会社 | Object state identification device |
JP2021128705A (en) * | 2020-02-17 | 2021-09-02 | トヨタ自動車株式会社 | Object state identification device |
US11685405B2 (en) | 2020-04-06 | 2023-06-27 | Toyota Jidosha Kabushiki Kaisha | Vehicle controller, method, and computer program for vehicle trajectory planning and control based on other vehicle behavior |
US11829153B2 (en) | 2020-04-06 | 2023-11-28 | Toyota Jidosha Kabushiki Kaisha | Apparatus, method, and computer program for identifying state of object, and controller |
CN113628401A (en) * | 2020-05-07 | 2021-11-09 | 广东毓秀科技有限公司 | Dense place intelligent escape facility based on smoke detection |
WO2022024245A1 (en) * | 2020-07-29 | 2022-02-03 | オリンパス株式会社 | Inspection system, learning method, inspection method, and storage medium |
JPWO2022024245A1 (en) * | 2020-07-29 | 2022-02-03 | ||
JP7499337B2 (en) | 2020-07-29 | 2024-06-13 | 株式会社エビデント | Inspection system, learning method, inspection method, and storage medium |
CN113553232A (en) * | 2021-07-12 | 2021-10-26 | 厦门大学 | Technology for carrying out unsupervised anomaly detection on operation and maintenance data through online matrix portrait |
CN113553232B (en) * | 2021-07-12 | 2023-12-05 | 厦门大学 | Technology for carrying out unsupervised anomaly detection on operation and maintenance data through online matrix image |
JP7491535B2 (en) | 2022-04-28 | 2024-05-28 | 株式会社シーズ | Information processing system, information processing method, and program |
WO2023228562A1 (en) * | 2022-05-26 | 2023-11-30 | 株式会社シーズ | Information processing system, information processing method, and program |
WO2023243040A1 (en) * | 2022-06-16 | 2023-12-21 | 日本電信電話株式会社 | Image processing device, image processing method, and image processing program |
CN115457485A (en) * | 2022-11-11 | 2022-12-09 | 成都见海科技有限公司 | Drainage monitoring method and system based on 3D convolution and storage medium |
CN115588265A (en) * | 2022-12-12 | 2023-01-10 | 华能酒泉风电有限责任公司 | Intelligent monitoring system of wind power plant |
CN116567402A (en) * | 2023-06-28 | 2023-08-08 | 东莞锐视光电科技有限公司 | Light source controller trigger delay control method and system |
CN116567402B (en) * | 2023-06-28 | 2023-09-19 | 东莞锐视光电科技有限公司 | Light source controller trigger delay control method and system |
JP7486652B1 (en) | 2023-09-07 | 2024-05-17 | 日鉄エンジニアリング株式会社 | Smoke image generating device, smoke detection system, smoke image generating method, abnormality image generating device, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6867153B2 (en) | 2021-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6867153B2 (en) | Abnormality monitoring system | |
JP7072700B2 (en) | Monitoring system | |
JP6942029B2 (en) | Fire monitoring system | |
WO2018079400A1 (en) | Fire monitoring system | |
WO2018116966A1 (en) | Fire monitoring system | |
JP6849411B2 (en) | Monitoring system | |
US10956753B2 (en) | Image processing system and image processing method | |
US20090195382A1 (en) | Video sensor and alarm system and method with object and event classification | |
JP2019079445A (en) | Fire monitoring system | |
JP2018072881A (en) | Fire disaster monitoring system | |
Nguyen et al. | Multistage real-time fire detection using convolutional neural networks and long short-term memory networks | |
CN106815958A (en) | Warning system, alarm analysis/display device, alarm analysis/display methods | |
KR20200052418A (en) | Automated Violence Detecting System based on Deep Learning | |
KR102233679B1 (en) | Apparatus and method for detecting invader and fire for energy storage system | |
CN116310922A (en) | Petrochemical plant area monitoring video risk identification method, system, electronic equipment and storage medium | |
Manu et al. | Anomaly Alert System using CCTV surveillance | |
Dwivedi et al. | A novel approach for suspicious activity detection with deep learning | |
Rezaee et al. | Intelligent detection of the falls in the elderly using fuzzy inference system and video-based motion estimation method | |
KR102564300B1 (en) | System for Preventing Violence School Using Body Temperature and Behavior Pattern | |
CN116912744A (en) | Intelligent monitoring system and method based on Internet of Things | |
Karthi et al. | Forest fire detection: a comparative analysis of deep learning algorithms | |
KR102647139B1 (en) | Apparatus and method for detecting abnormal behavior through deep learning-based image analysis | |
KR102286229B1 (en) | A feature vector-based fight event recognition method | |
WO2022242827A1 (en) | Information aggregation in a multi-modal entity-feature graph for intervention prediction | |
CN112507925A (en) | Fire detection method based on slow characteristic analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201008 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201021 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210324 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210408 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6867153 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |