JP7162412B2 - detection recognition system - Google Patents
detection recognition system Download PDFInfo
- Publication number
- JP7162412B2 JP7162412B2 JP2016231534A JP2016231534A JP7162412B2 JP 7162412 B2 JP7162412 B2 JP 7162412B2 JP 2016231534 A JP2016231534 A JP 2016231534A JP 2016231534 A JP2016231534 A JP 2016231534A JP 7162412 B2 JP7162412 B2 JP 7162412B2
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- detection
- firmware
- server
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、検知認識システムに関する。 The present invention relates to sensing and recognition systems.
従来、人や物等の物体を検知/認識するカメラが知られている(例えば、特許文献1,2参照)。このようなカメラは、例えば、監視カメラとして防犯の目的に使用され、検知/認識により異常が発見された場合に警報を発したりする。
Conventionally, a camera that detects/recognizes an object such as a person or an object is known (see
また、近年、画像認識等の分野において、機械学習がよく用いられるようになってきている。機械学習の手法としては、例えばディープラーニング等が知られている。ディープラーニングは、多層構造のニューラルネットワークを用いて、データの特徴を学習するものであり、これを用いることで、高精度の画像認識が可能になることが知られている。 In recent years, machine learning has been widely used in fields such as image recognition. Deep learning, for example, is known as a machine learning method. Deep learning uses multi-layered neural networks to learn features of data, and is known to enable highly accurate image recognition.
ところで、監視カメラ等は、設置してから長期間使用する場合も多いが、画像から物体等を検知/認識する技術は日々進歩しているので、長期間使用をしていると、そのカメラに用いられている検知/認識技術が時代遅れのものとなってしまうおそれがある。
また、検知/認識のアルゴリズムは、使用される場所等の環境や、撮影対象等によって、最適なアルゴリズムが変わってくるので、カメラの設置前からカメラにもともと備えられていた検知/認識のファームウェアに用いられている検知/認識アルゴリズムでは、十分な検知/認識が行なえない可能性がある。
By the way, surveillance cameras are often used for a long period of time after installation. Technology for detecting and recognizing objects from images is advancing day by day. The detection/recognition technology used may become obsolete.
In addition, since the optimum algorithm for detection/recognition changes depending on the environment such as the location where it is used and the subject to be photographed, the detection/recognition firmware that was originally installed in the camera was installed before the camera was installed. The detection/recognition algorithms used may not provide sufficient detection/recognition.
本発明は、前記事情に鑑みてなされたもので、画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識する検知/認識の性能を、検知/認識のためのファームウェアを更新して向上させることができる検知認識システムを提供することを目的とする。 The present invention has been made in view of the above-mentioned circumstances, and the detection/recognition performance of detecting a feature included in an image and recognizing a recognition target set from this feature is improved by updating the firmware for detection/recognition. It is an object of the present invention to provide a detection and recognition system that can be improved by
前記目的を達成するために、本発明の検知認識システムは、
撮像をする撮像手段と、検知/認識手段と、サーバと、を備え、
前記検知/認識手段は、検知/認識ファームウェアを備え、前記撮像手段で取得した画像から前記検知/認識ファームウェアによる制御により、前記画像に含まれる特徴を検知して、設定された認識対象を認識するとともに、前記検知/認識ファームウェアを検知/認識ファームウェア生成手段で生成された新たな検知/認識ファームウェアに更新可能であり、
前記サーバは、前記撮像手段で取得した画像を教師データとして機械学習により検知/認識アルゴリズムを生成する機械学習手段と、前記検知/認識アルゴリズムから前記検知/認識手段の新たな検知/認識ファームウェアを生成する前記検知/認識ファームウェア生成手段と、を備えることを特徴とする。
To achieve the above object, the detection and recognition system of the present invention comprises:
Equipped with imaging means for imaging, detection/recognition means, and a server,
The detection/recognition means includes detection/recognition firmware, and detects features included in the image from the image acquired by the imaging means under the control of the detection/recognition firmware, and recognizes a set recognition target. Also, the detection/recognition firmware can be updated to new detection/recognition firmware generated by the detection/recognition firmware generating means,
The server generates machine learning means for generating a detection/recognition algorithm by machine learning using the image acquired by the imaging means as teacher data, and generates new detection/recognition firmware for the detection/recognition means from the detection/recognition algorithm. and the detection/recognition firmware generation means for generating the detection/recognition firmware.
本発明においては、撮像手段は、撮像をする。そして、検知/認識手段は、撮像手段での撮像により得られた画像から、検知/認識ファームウェアによる制御により、画像に含まれる特徴を検知して、設定された認識対象を認識する。また、サーバの機械学習手段は、撮像手段で取得した画像を教師データとして機械学習により検知/認識アルゴリズムを生成する。そして、生成された検知/認識アルゴリズムは、サーバの検知/認識ファームウェア生成手段により、検知/認識手段に適合したファームウェア(検知/認識ファームウェア)に変換される。そして、検知/認識手段の検知/認識ファームウェアは、検知/認識ファームウェア生成手段によって生成された新たな検知/認識ファームウェアに更新される。
したがって、撮像手段で得られた画像から、機械学習により、より高精度な検知および認識が行なえる検知/認識アルゴリズムを生成し、この検知/認識アルゴリズムを、検知/認識手段に適合したファームウェアに変換し、検知/認識手段の検知/認識ファームウェアを更新することができるので、検知/認識の性能を向上させることができる。
In the present invention, the imaging means takes an image. Then, the detection/recognition means detects features included in the image from the image obtained by the image pickup means under the control of the detection/recognition firmware, and recognizes the set recognition target. Also, the machine learning means of the server generates a detection/recognition algorithm by machine learning using the image acquired by the imaging means as teacher data. Then, the detection/recognition firmware generation means of the server converts the generated detection/recognition algorithm into firmware adapted to the detection/recognition means (detection/recognition firmware). Then, the detection/recognition firmware of the detection/recognition means is updated to the new detection/recognition firmware generated by the detection/recognition firmware generating means.
Therefore, a detection/recognition algorithm that enables more accurate detection and recognition is generated by machine learning from the image obtained by the imaging means, and this detection/recognition algorithm is converted into firmware suitable for the detection/recognition means. However, since the detection/recognition firmware of the detection/recognition means can be updated, the performance of detection/recognition can be improved.
また、本発明の前記構成において、前記機械学習手段は、前記検知/認識手段が、前記設定された認識対象の認識を誤った際の画像を教師データとして機械学習をすることが好ましい。 In the configuration of the present invention, it is preferable that the machine learning means perform machine learning using an image obtained when the detection/recognition means incorrectly recognizes the set recognition target as teacher data.
このような構成によれば、機械学習手段は、検知/認識手段が設定された認識対象の認識を誤った際の画像について、認識対象の認識を誤ることがないように、学習し、新たな検知/認識アルゴリズムを生成し、新たな検知/認識ファームウェアを生成することが可能となるので、確実に検知/認識の性能を向上させることができる。 According to such a configuration, the machine learning means learns the image when the detection/recognition means misrecognizes the recognition target so as not to misrecognise the recognition target. Since detection/recognition algorithms can be generated and new detection/recognition firmware can be generated, detection/recognition performance can be reliably improved.
また、本発明の前記構成において、
少なくとも1台のカメラを備え、
前記カメラは、前記撮像手段と前記検知/認識手段とを備えることが好ましい。
Further, in the configuration of the present invention,
with at least one camera,
Preferably, the camera comprises the imaging means and the detection/recognition means.
このような構成によれば、カメラとは別に検知/認識手段を備える端末等を備える必要がないので、システム全体の小型化が行なえる。また、カメラは、検知/認識手段の検知/認識ファームウェアを、サーバでの機械学習の結果作成された新たな検知/認識ファームウェアに、更新することができるので、カメラの検知/認識性能を向上させることができる。したがって、設置後のカメラ等であっても容易にカメラの検知/認識性能を向上させることができる。 According to such a configuration, since it is not necessary to provide a terminal or the like having detection/recognition means in addition to the camera, the size of the entire system can be reduced. Also, the camera can update the detection/recognition firmware of the detection/recognition means with new detection/recognition firmware created as a result of machine learning on the server, thus improving the detection/recognition performance of the camera. be able to. Therefore, it is possible to easily improve the detection/recognition performance of the camera even after installation.
また、本発明の前記構成において、
前記撮像手段による撮像範囲および前記設定された認識対象のうちの少なくとも一部が重複する複数の前記カメラを備えることが好ましい。
Further, in the configuration of the present invention,
It is preferable to provide a plurality of cameras in which at least a part of the imaging range of the imaging means and the set recognition target overlap.
このような構成によれば、所定の範囲について複数のカメラで撮像し、検知/認識を行うことができる。したがって、同一の物体や、同一の現象について、複数のカメラで検知/認識をすることができるので、検知/認識の精度を高めることができる。 According to such a configuration, it is possible to perform detection/recognition by capturing an image of a predetermined range with a plurality of cameras. Therefore, since the same object or the same phenomenon can be detected/recognized by a plurality of cameras, the accuracy of detection/recognition can be improved.
また、本発明の前記構成において、
前記機械学習手段は、前記複数のカメラのうちの、一部のカメラが重複する認識対象を認識した場合に、前記複数のカメラのうちの、他のカメラが前記重複する認識対象を認識しなかった画像を教師データとして、機械学習をすることが好ましい。
Further, in the configuration of the present invention,
The machine learning means, when some cameras among the plurality of cameras recognize overlapping recognition targets, other cameras among the plurality of cameras do not recognize the overlapping recognition targets. Machine learning is preferably performed using the obtained image as teacher data.
このような構成によれば、少なくとも1台のカメラが重複する認識対象を認識した場合に、他のカメラが重複する認識対象を認識することができなかった画像を教師データとして、機械学習をすることができる。したがって、認識対象を認識して欲しかったのに認識することができなかった可能性の高い画像を教師データとして機械学習をすることができ、機械学習の効率を高めることができる。 According to such a configuration, when at least one camera recognizes overlapping recognition targets, machine learning is performed using an image in which the overlapping recognition targets could not be recognized by other cameras as teacher data. be able to. Therefore, it is possible to perform machine learning using an image that is highly likely to have been unable to recognize a recognition target even though the recognition target was desired to be recognized, as training data, thereby improving the efficiency of machine learning.
また、本発明の前記構成において、前記複数のカメラのうちの少なくとも1台は、前記撮像手段が異なるカメラであることが好ましい。 Moreover, in the above configuration of the present invention, it is preferable that at least one of the plurality of cameras is a camera with a different imaging means.
このような構成によれば、ある撮像手段により撮像した画像からでは、検知/認識をすることが困難であり、その撮像手段を備えるカメラでは認識対象を認識することができない場合でも、他の撮像手段を備えるカメラで認識対象を認識することが可能となる。これにより、認識対象を認識することができなかったことを容易に知ることができ、認識することができなかった画像を教師データとして、機械学習をすることができるので、検知/認識をすることが困難な画像からでも認識することができるように機械学習をすることができる。 According to such a configuration, it is difficult to perform detection/recognition from an image captured by a certain image capturing means, and even if the recognition target cannot be recognized by a camera equipped with the image capturing means, the recognition target can be detected by another image capturing means. It becomes possible to recognize a recognition target with a camera provided with means. As a result, it is possible to easily know that the recognition target could not be recognized, and machine learning can be performed using the image that could not be recognized as teacher data, so that detection/recognition can be performed. Machine learning can be performed so that it can recognize even from difficult images.
本発明によれば、画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識する検知/認識の性能を、検知/認識のためのファームウェアを更新して向上させることができる。 According to the present invention, the detection/recognition performance of detecting a feature included in an image and recognizing a recognition target set from this feature can be improved by updating the firmware for detection/recognition.
以下、図面を参照しながら、本発明の実施の形態について説明する。
本実施の形態の検知認識システムは、例えば、カメラで撮像した画像から設定された認識対象を認識した場合に、報知をするのに用いられる。
なお、以下において、単に、画像といった場合、基本的には動画と静止画との両方を含む。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The detection/recognition system of this embodiment is used, for example, to notify when a recognition target set from an image captured by a camera is recognized.
In the following description, simply referring to an image basically includes both a moving image and a still image.
検知認識システム1は、図1に示すように、複数のカメラ2と、サーバ3と、端末4と、を備える。また、複数のカメラ2とサーバ3と端末4とは、それぞれ有線または無線のネットワーク5により繋がれている。
The
検知認識システム1は、例えば、カメラ2が監視用のカメラとしてコンビニエンストア等の建物内あるいは屋外等に設置され、カメラ2が撮影した対象を、その外形や動きから不審者であると認識した場合に、別の場所にある端末4に報知をするといったように使用することができる。また、このように不審者を認識した場合に、検知認識システム1の管理者6が持つ端末やシステム管理用の装置等に知らせるようにしてもよい。
For example, the
カメラ2は、図2に示すように、撮像手段20と、検知/認識手段21と、記録手段22と、通信手段23と、制御手段24と、を備える。
撮像手段20は、例えば、レンズや固体撮像素子を有し、撮像により、画像を取得する。また、検知/認識手段21は、演算処理装置とメモリとを備え、画像認識を行う。具体的には、検知/認識手段21のメモリに備えられた検知/認識ファームウェアによる制御により、撮像手段20によって撮像された画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識する。なお、以下で単に検知/認識といった場合には、基本的に、このように、撮像手段20によって撮像された画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識することをいう。
The
The imaging means 20 has, for example, a lens and a solid-state imaging device, and acquires an image by imaging. Also, the detection/recognition means 21 includes an arithmetic processing unit and a memory, and performs image recognition. Specifically, the detection/recognition firmware provided in the memory of the detection/recognition means 21 detects features included in the image captured by the imaging means 20, and recognizes the set recognition target based on these features. do. It should be noted that hereinafter, when simply referred to as "detection/recognition", basically, it means detecting a feature included in an image captured by the imaging means 20 and recognizing a set recognition target based on this feature. Say.
また、記録手段22は、検知/認識手段21での検知/認識のための参照画像その他の情報や、異常時(例えば、検知/認識手段21が設定された認識対象を認識したとき)の画像その他の情報(例えば、音声等)の記録をする。また、通信手段23は、ネットワーク5を介してサーバ3と通信し、異常時の画像その他の情報のサーバ3への送信と、サーバ3からの命令や検知認識ファームウェアの受信をする。また、通信手段23は、ネットワーク5を介して端末4や管理者6の持つ端末とも接続をし、異常時に、これらの端末やサーバ3にアラーム信号等を送信する。また、端末4や管理者6の持つ端末は、このアラーム信号を受信して、あるいは、アラーム信号を受信したサーバ3からのアラームを鳴らす旨の命令を受けてアラームを鳴らす等する。
The recording means 22 also stores reference images and other information for detection/recognition by the detection/recognition means 21, and images at the time of abnormality (for example, when the detection/recognition means 21 recognizes a set recognition target). Other information (eg, voice, etc.) is recorded. Further, the communication means 23 communicates with the
また、制御手段24は、演算処理装置およびメモリを備え、撮像手段20、検知/認識手段21、記録手段22および通信手段23を制御する。なお、制御手段24は、検知/認識手段21と演算処理装置またはメモリを共有することとしてもよい。 Also, the control means 24 has an arithmetic processing unit and a memory, and controls the imaging means 20 , the detection/recognition means 21 , the recording means 22 and the communication means 23 . Note that the control means 24 may share an arithmetic processing unit or memory with the detection/recognition means 21 .
なお、撮像手段20、検知/認識手段21、記録手段22、通信手段23および制御手段24の全てをカメラ2が備える構成としなくてもよい。例えば、検知認識システム1は、カメラ2と有線または無線により接続され、カメラ2の制御やカメラ2で撮影した画像の表示等ができる端末をカメラ2の外部に備え、撮像手段20をカメラ2に配置し、検知/認識手段21、記録手段22、通信手段23および制御手段24を当該端末に設け、カメラ2に備えられた撮像手段20で撮影した画像に対して当該端末で検知/認識をするようにしてもよい。
Note that the
カメラ2は、例えば、一般的な監視カメラと同様の構成を有するもので、例えば、カメラ2の向きに応じて、撮像手段20が設定された画角に対応する撮像範囲を撮像する。検知認識システム1が備える複数のカメラ2には、それぞれ同種のカメラを用いてもよく、種類の異なるカメラを用いてもよい。また、それぞれのカメラ2の撮像範囲は重複していてもよく、全く異なるものであってもよい。
本実施の形態においては、カメラ2として、2台のステレオカメラ2aと、1台の赤外線カメラ2bと、1台の単眼カメラ2cと、の計4台の種類の異なるカメラ2を用いるようになっており、4台のカメラ2の撮像範囲は互いに重複しているものとする。
カメラ2として、視差から距離、サイズまたは3D構造等を算出可能なステレオカメラ2aを用いることで、視差から距離、サイズまたは3D構造等を算出できるので、検知/認識をするための演算処理装置等に必要な性能を低減させることができ、カメラが高性能な演算処理装置等を備えていなくても、検知/認識を容易に行うことができる。
The
In this embodiment, as the
By using a
また、カメラ2として、赤外線カメラ(近赤外線カメラまたは遠赤外線カメラ)2bを用いることで、近赤外または遠赤外の画像を撮影することができ、人の目では見ることができないものも検知/認識することができる。また、夜間等、暗い環境における検知/認識も容易になる。
In addition, by using an infrared camera (near-infrared camera or far-infrared camera) 2b as the
また、カメラ2の種類は、これらに限られるものではない。例えば、カメラ2として、距離画像センサを用いてもよい。距離画像センサとしては、例えば、TOF(Time Of Flight)を用いることができる。TOFは、投射したレーザーが対象まで往復するのにかかる時間から、距離を計測する。
Also, the types of
つまり、カメラ2は、撮像手段20が1つの2次元画像を撮像し、この画像より、検知/認識を行うものでもよく、撮像手段20が2つの画像を撮像し、これらの画像の視差より、距離、サイズ、3D構造等を算出し、検知/認識を行うものでもよく、撮像手段20がTOFセンサ等により、3D距離画像を撮像し、この3D距離画像より、検知/認識を行うものでもよく、撮像手段20が近赤外や遠赤外の画像を撮像し、これらの画像より、検知/認識を行うものでもよい。また、1台のカメラ2が、上記の撮像手段20を複数備えていてもよい。すなわち、1台のカメラ2が、例えば、ステレオカメラおよび赤外線カメラの撮像機能を備えており、これらの機能により得られた画像から検知/認識を行ってもよい。
In other words, the
検知/認識手段21は、設定された認識対象を認識するものであり、認識対象は、具体的な物体(人および人以外の物も含む)の場合もあれば、抽象的な現象の場合も考えられる。つまり、認識対象が強盗犯、窃盗犯、放火犯のような人や拳銃のような物といった物体の場合もあれば、犯罪や火災といった現象等の場合もある。
例えば、認識対象として強盗犯が設定されている状態において、コンビニエンスストア内に設置されたカメラ2の撮像手段20により、包丁や拳銃を持った人の画像が撮影された場合に、検知/認識手段21は、この画像から、包丁や拳銃を持った人を検知したり、この人の動きを検知したりして、この人を強盗犯と認識することが考えられる。また、例えば、認識対象として火災が設定されている状態において、赤外線カメラにより得られた画像から、ある場所の温度が異常に高いことを検知し、火災が発生していると認識したりすることが考えられる。また、例えば、赤外線カメラが遠赤外線を使ったものであれば、温度を検知することができ、拳銃、ナイフ等の武器と体温との温度差により、服のポケット等に隠し持った拳銃、ナイフ等の武器を画像認識して検知することも考えられる。ただし、検知/認識手段21の検知/認識ファームウェアは、後述する機械学習手段30での機械学習により生成されるので、実際には、検知/認識手段21が、このような人に理解しやすい(理解可能な)認識の仕方をするとは限らない。
つまり、検知/認識手段21は、検知/認識ファームウェアによる制御により、撮像手段20によって撮像された画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識するものである。
なお、検知/認識手段21は、画像だけでなく、音声も使用して検知/認識を行ってもよい。例えば、カメラ2がマイク等の音声入力手段を備えており、この音声入力手段で取得された音声を使用して検知/認識を行うことで、検知/認識の精度を高めることができる。また、後述するサーバ側検知/認識手段32での検知/認識においても、同様に、音声を使用してもよい。
The detection/recognition means 21 recognizes a set recognition target, and the recognition target may be a concrete object (including humans and objects other than humans) or an abstract phenomenon. Conceivable. In other words, the recognition target may be a person such as a robber, a thief, or an arsonist, or an object such as a handgun, or a phenomenon such as a crime or fire.
For example, in a state where a robbery is set as a recognition target, when an image of a person holding a kitchen knife or a pistol is captured by the imaging means 20 of the
In other words, the detection/recognition means 21 detects features included in the image captured by the imaging means 20 under the control of the detection/recognition firmware, and recognizes the set recognition target based on these features.
Note that the detection/recognition means 21 may perform detection/recognition using not only images but also sounds. For example, the
なお、検知/認識手段21の検知/認識ファームウェアは、後述する機械学習手段30および検知/認識ファームウェア生成手段31で生成された新たな検知/認識ファームウェアによって更新されるが、更新される前の、最初に検知/認識手段21に備えられる検知/認識ファームウェアは、機械学習手段30および検知/認識ファームウェア生成手段31により生成されたものでもよく、他の機械学習ができる機器によって生成されたものを検知/認識手段21に組み込んだものであってもよい。また、機械学習以外の方法により生成された検知/認識ファームウェアを最初に検知/認識手段21に備えることとしてもよい。 The detection/recognition firmware of the detection/recognition means 21 is updated by new detection/recognition firmware generated by the machine learning means 30 and the detection/recognition firmware generation means 31, which will be described later. The detection/recognition firmware initially provided in the detection/recognition means 21 may be generated by the machine learning means 30 and the detection/recognition firmware generation means 31, or may be generated by other equipment capable of machine learning. / It may be one incorporated in the recognition means 21 . Alternatively, detection/recognition firmware generated by a method other than machine learning may be provided in the detection/recognition means 21 first.
また、検知/認識手段21で認識する対象の設定は、検知/認識ファームウェアに含まれているものとする。例えば、検知/認識ファームウェアを機械学習手段30および検知/認識ファームウェア生成手段31により生成する場合において、認識する対象をコンビニエンスストアでの強盗犯としたい場合、機械学習の教師データとして、例えば、コンビニエンスストアで強盗をした強盗犯が写っている複数の画像と、これらの画像が強盗犯を示す画像だという情報とを教師データとして(画像に強盗犯というタグ付けをして)機械学習手段30に与える。すると、機械学習により、与えられた画像(教師データ)のどこに注目すれば強盗犯を認識することができるかが学習される。そして、機械学習の結果、画像から強盗犯を認識することができる確率の高い検知/認識アルゴリズムが生成される。そして、この検知/認識アルゴリズムが検知/認識ファームウェア生成手段31により変換され、検知/認識ファームウェアが生成される。つまり、この学習により得られた検知/認識ファームウェア(検知/認識アルゴリズム)は、画像のどこに注目すれば、画像に強盗犯が含まれているかを認識することができるものであり、認識する対象として、強盗犯が設定されているといえるということである。なお、この機械学習を行う際に画像に対するタグ付けは必ずしも必要ではない。例えば、教師データとして、強盗犯が写っている画像しか与えないのであれば、それが強盗犯を示す画像だという情報がなくても、教師データとして与えられた画像と特徴が近い画像を認識するアルゴリズムを生成することで、強盗犯を認識するアルゴリズムを生成することは可能である。
なお、検知/認識ファームウェアに設定されている認識対象(検知/認識ファームウェアが認識する対象)は、1つとは限らず、複数設定されていてもよい。
It is also assumed that the detection/recognition firmware includes settings for objects to be recognized by the detection/recognition means 21 . For example, in the case where the detection/recognition firmware is generated by the machine learning means 30 and the detection/recognition firmware generation means 31, if the object to be recognized is a robbery at a convenience store, the teacher data for machine learning may be, for example, a convenience store Provide a machine learning means 30 with a plurality of images showing a robbery who committed a robbery and information that these images are images showing the robbery as training data (tag the image with the robbery). . Then, machine learning learns where to focus in the given image (teaching data) to recognize the robbery. Machine learning then produces a detection/recognition algorithm with a high probability of recognizing the burglar from the image. Then, this detection/recognition algorithm is converted by the detection/recognition firmware generating means 31 to generate detection/recognition firmware. In other words, the detection/recognition firmware (detection/recognition algorithm) obtained through this learning can recognize whether or not a robbery is included in an image by focusing on where in the image. , it can be said that the robbery is set. Note that it is not always necessary to tag images when performing this machine learning. For example, if only an image of a robbery is given as training data, an image with features similar to those given as training data will be recognized even if there is no information that the image shows the robbery. By creating an algorithm, it is possible to create an algorithm that recognizes robbers.
Note that the number of recognition targets (targets recognized by the detection/recognition firmware) set in the detection/recognition firmware is not limited to one, and a plurality of targets may be set.
以上のように、検知/認識ファームウェアは、特定の対象を認識するものであり、検知/認識手段21は、検知/認識ファームウェアによりこの特定の対象を認識した場合に、認識をした旨の信号等(例えば、アラーム信号)を出力する。また、この認識をした旨の信号等は、通信手段23を介してサーバ3や端末4、管理者6の持つ端末等に送られ、これらの端末等に設定対象を認識した旨の通知がなされる。なお、この認識をした旨の信号等は、サーバ3のみに送られ、サーバ3において各カメラ2からの情報を総合的に判断した上で、サーバ3から端末4等に、認識対象を認識した旨のメールやアラームを鳴らす旨の命令等のアラーム情報等を送るようにしてもよい。
As described above, the detection/recognition firmware recognizes a specific target, and when the detection/recognition firmware recognizes the specific target, the detection/recognition means 21 sends a signal or the like indicating recognition. (for example, an alarm signal). A signal or the like indicating that the setting object has been recognized is sent to the
また、4台のカメラ2は、撮像範囲が互いに重複しており、検知/認識ファームウェアに設定されている認識対象のうち重複する部分について、4台のカメラ2で同時に認識することが可能となっている。つまり、重複する認識対象として、例えば強盗犯が設定されている場合、4台のカメラで同時に、特定の強盗を行う特定の強盗犯を認識することが可能となっている。
In addition, the imaging ranges of the four
サーバ3は、図3に示すように、機械学習手段30と、検知/認識ファームウェア生成手段31と、サーバ側検知/認識手段32と、サーバ側記録手段33と、サーバ側通信手段34と、サーバ側制御手段35と、を備える。また、機械学習手段30、検知/認識ファームウェア生成手段31、サーバ側検知/認識手段32およびサーバ側制御手段35は、演算処理装置とメモリとを有するが、それぞれが個別の演算処理装置またはメモリを有していてもよく、演算処理装置またはメモリを共有するものであってもよい。
The
機械学習手段30は、例えば、ディープラーニング等の機械学習を行い検知/認識アルゴリズムを生成する。ここで、検知/認識アルゴリズムとは、カメラ2の撮像手段20で撮像された画像から、設定された認識対象を認識するためのアルゴリズムである。
Machine learning means 30 performs machine learning such as deep learning to generate a detection/recognition algorithm. Here, the detection/recognition algorithm is an algorithm for recognizing a set recognition target from an image captured by the imaging means 20 of the
検知/認識ファームウェア生成手段31は、機械学習手段30が生成した検知/認識アルゴリズムを各カメラ2で実行可能なファームウェアに変換し、検知/認識ファームウェアを生成する。各カメラ2は、撮像手段20により取得できる画像の解像度や、検知/認識手段21の演算処理装置の性能、検知/認識手段21用のGPU(Graphics Processing Unit)の有無、マイク等の音声入力手段の有無、カメラの種類(ステレオカメラか、TOFセンサか等)等が異なるので、各カメラ2で実行可能なファームウェアも異なる。検知/認識ファームウェア生成手段31により、機械学習により生成した検知/認識アルゴリズムを各カメラ2で実行可能なファームウェアに変換することで、各カメラ2に新しい検知/認識用のプログラムを実装することが可能となる。
The detection/recognition firmware generating means 31 converts the detection/recognition algorithm generated by the machine learning means 30 into firmware executable by each
サーバ側検知/認識手段32は、各カメラ2の画像や情報から総合的に状況を判断して検知/認識をする。例えば、各カメラ2の検知/認識手段21は、そのカメラ2の撮像手段20により取得した画像を使用して検知/認識を行うが、サーバ側検知/認識手段32は、複数のカメラ2で取得した画像を使用して検知/認識を行う。また、各カメラ2で行うには重い処理である場合に、サーバ側検知/認識手段32が処理の一部を行うようにしてもよい。また、サーバ側検知/認識手段32の検知/認識ファームウェアは、サーバ側検知/認識手段32のメモリに備えられている。また、サーバ側検知/認識手段32の検知/認識ファームウェアも機械学習手段30および検知/認識ファームウェア生成手段31により生成された検知/認識ファームウェアによって、更新することが可能となっている。
The server-side detection/recognition means 32 performs detection/recognition by comprehensively judging the situation from the images and information of each
また、サーバ側検知/認識手段32は、4台のカメラ2(カメラ2a,2b,2c)の検知/認識手段21の認識結果から、各カメラ2における認識対象の認識が正しいものか、あるいは、各カメラ2における認識対象の認識が正しい確率等を判断してもよい。そして、この判断結果から、端末4等にアラーム情報等を送るようにしてもよい。例えば、4台のカメラ全てから設定対象(例えば強盗)を認識した旨の通知があった場合に、サーバ側検知/認識手段32は、設定対象の認識が正しいと判断し、端末4等にアラームを鳴らすように命令してもよい。また、設定対象を認識したカメラの台数によって、アラーム情報の内容を変える等してもよい。例えば、4台のカメラ全てが設定対象を認識した場合には、認識が正しいと判断して、サーバ側検知/認識手段32は、端末4に大きなアラーム音を鳴らすように命令するが、3台以下のカメラしか設定対象を認識しなかった場合には、認識が正しい可能性があると判断して、サーバ側検知/認識手段32は、端末4に小さなアラーム音を鳴らすように命令するといったようにしてもよい。
In addition, the server-side detection/recognition means 32 determines whether the recognition of the recognition target in each
また、サーバ側検知/認識手段32は、複数のカメラ2の検知/認識手段21の認識結果から、カメラ2の誤認識(認識ミス)の判断を行う。例えば、4台のカメラ2のうち、3台のカメラ2から検知/認識手段21により設定対象を認識した旨の通知があり、1台のカメラ2からは通知がなかった場合に、この1台のカメラ2は誤認識(認識ミス)をしたと判断をしたりする。また、逆に4台のカメラ2のうち、3台のカメラ2からは検知/認識手段21により設定対象を認識した旨の通知がなかったが、1台のカメラ2からは通知があった場合に、この1台のカメラ2は誤認識(認識ミス)をしたと判断をすることとしてもよい。
なお、サーバ側検知/認識手段32での検知/認識の結果と、各カメラ2での検知/認識の結果とを比較して、各カメラ2の誤認識(認識ミス)の判断をしてもよい。
Further, the server-side detection/recognition means 32 determines erroneous recognition (recognition error) of the
Even if the result of detection/recognition by the server-side detection/recognition means 32 and the result of detection/recognition by each
サーバ側記録手段33は、機械学習手段30で行う機械学習の教師データ等を記録する。また、サーバ側通信手段34は、ネットワーク5を介して各カメラ2と通信をし、各カメラ2からの画像その他の情報の受信、各カメラ2への命令や検知/認識ファームウェアの送信、異常時(設定対象を認識したとき)のアラーム情報の端末4や管理者6への送信をする。
The server-side recording means 33 records teacher data and the like for machine learning performed by the machine learning means 30 . In addition, the server-side communication means 34 communicates with each
次に、このような検知認識システム1の検知認識ファームウェアの更新方法について、図4のフローチャートを参照して説明する。
カメラ2は、撮像手段20により画像を取得し、検知/認識手段21の検知/認識ファームウェアによる制御により設定された認識対象の認識(検知/認識)を行う。そして、認識を誤った場合に、認識を誤った時の画像を、サーバ3に送信する(ステップS1)。なお、認識を誤った時の画像と同時に、認識を誤った時の音声データ等も送信してもよい。
なお、認識を誤ったかどうかの判断は、上述のように、複数のカメラ2の認識結果からサーバ側検知/認識手段32が判断する。例えば、カメラ2が設定された認識対象(例えば、強盗犯)を認識したときは、サーバ3に認識した旨(例えば、強盗犯を認識した旨)を通知するシステムにおいて、カメラ2aおよびカメラ2bからは認識した旨の通知がサーバ3にあったが、カメラ2cからは認識した旨の通知がなかった場合、サーバ側検知/認識手段32はこれらの通知結果から、カメラ2cは認識を誤った(認識をすることができなかった)と判断する。この際、サーバ3の制御手段は、カメラ2cに対して、カメラ2aおよびカメラ2bが認識対象を認識した画像を取得した時刻と同じ時刻またはこの前後の時刻(例えば、前後数秒から数分)にカメラ2cが取得した画像を、認識を誤った時の画像として、サーバ3に送信するように、カメラ2cに対して命令する。この命令を受けてカメラ2cは、認識を誤った時の画像をサーバ3に送信する。
なお、認識を誤ったかどうかは、人が判断してもよい。例えば、検知認識システム1は、カメラ2で撮影した画像を表示する表示手段とポインティングデバイスやキーボード等の入力手段を備えた端末とを備えており、カメラ2が、強盗犯を認識することができなかった場合に、人が、この端末の表示手段からカメラ2で撮影した画像を確認して、強盗犯を認識して欲しかった画像をこの端末の入力手段を用いて人が選択し、認識を誤った時の画像としてサーバ3に送信することとしてもよい。
Next, a method for updating the detection recognition firmware of the
The
It should be noted that the server-side detection/recognition means 32 determines whether or not recognition is erroneous based on the recognition results of the plurality of
It should be noted that a person may judge whether or not the recognition is erroneous. For example, the detection/
サーバ側制御手段35は、カメラ2から送られた認識を誤った時の画像を、教師データ(教育データ)としてサーバ側記録手段33に記録する。また、認識を誤った時の画像の記録と共に、検知/認識手段21に出して欲しかった認識結果(例えば、画像から強盗犯を認識して欲しかった旨)を教師データとしてサーバ側記録手段33に記録する。
なお、この教師データとして記録する検知/認識手段21に出して欲しかった認識結果は、サーバ3で作り出すものであってもよく、カメラ2から送られてくるものであってもよい。例えば、認識を誤ったかどうかの判断を、複数のカメラ2の認識結果からサーバ側検知/認識手段32がする場合、サーバ側検知/認識手段32は、正しいであろう認識結果(検知/認識手段21に出して欲しかった認識結果)を教師データとして作成し、この教師データをサーバ側記録手段33に記録することとしてもよい。また、例えば、人がカメラ2で撮影した画像を確認して、認識を誤ったかどうかの判断をする場合、人が上述の端末から、強盗犯を認識して欲しかった画像を選択する際に、強盗犯を認識して欲しかった旨(画像が強盗犯を示すものである旨)もこの端末の入力手段を用いて入力し、認識を誤った時の画像と共にサーバ3に送信し、この送信されたデータを教師データとして、サーバ側制御手段35がサーバ側記録手段33に記録するものとしてもよい。
The server-side control means 35 records the image sent from the
Note that the recognition result desired to be output by the detection/recognition means 21 to be recorded as teacher data may be generated by the
機械学習手段30は、サーバ側記録手段33に記録された教師データを読み出す(ステップS2)。そして、機械学習手段30は、この読み出した教師データに含まれる認識を誤った際の画像から、畳み込み演算により、特徴点を抽出する(ステップS3)。機械学習手段30は、抽出された特徴点と、検知/認識手段21に出して欲しかった認識結果との情報から、機械学習を行う(ステップS4)。そして、機械学習の結果、検知認識処理を行うニューラルネットワークである検知/認識アルゴリズムが生成される(ステップS5)。 The machine learning means 30 reads the teacher data recorded in the server-side recording means 33 (step S2). Then, the machine learning means 30 extracts feature points from the misrecognized image contained in the read teacher data by convolution operation (step S3). The machine learning means 30 performs machine learning based on the information of the extracted feature points and the recognition results that the detection/recognition means 21 wanted to output (step S4). As a result of machine learning, a detection/recognition algorithm, which is a neural network for performing detection/recognition processing, is generated (step S5).
機械学習手段30での機械学習は、カメラ2毎に検知/認識アルゴリズム(検知/認識ファームウェア)が最適化されるように行われる。各カメラ2は、カメラの種類等が違う場合もあれば、まったく同じ特性を持つカメラであっても、設置場所や使用される環境が違う場合もあるので、これらの違いによって最適なアルゴリズムが異なってくる場合もあるからである。機械学習手段30は、元の検知/認識アルゴリズムと教師データとを基に、教師データに含まれる認識を誤った際の画像から、教師データに含まれる検知/認識手段21に出して欲しかった認識結果を出すことができる新たな検知/認識アルゴリズムを生成する。なお、機械学習に使う元の検知/認識アルゴリズムはサーバ側記録手段33に記録しておくものとしてもよく、カメラ2から検知/認識ファームウェアを送信してもらい、この検知/認識ファームウェアを検知/認識アルゴリズムに変換して使用してもよい。つまり、機械学習手段30は、検知/認識を誤ったカメラ2の検知/認識ファームウェアに用いられている検知/認識アルゴリズムと教師データとから、新たな検知/認識アルゴリズムを生成する。
Machine learning by the machine learning means 30 is performed so that the detection/recognition algorithm (detection/recognition firmware) is optimized for each
検知/認識ファームウェア生成手段31は、機械学習手段30で生成された検知/認識アルゴリズムを各カメラ用の検知/認識ソフトである検知/認識ファームウェアに変換する(ステップS6)。つまり、検知/認識アルゴリズムは、検知/認識ファームウェア生成手段31により、各カメラで実行可能な形式のソフトウェアに変換される。
サーバ側通信手段34は、検知/認識ファームウェア生成手段31で生成された検知/認識ソフトである検知/認識ファームウェアをカメラ2に送信する(ステップS7)。そして、カメラ2が検知/認識ファームウェアを受け取ると、カメラ2の制御手段24は、検知/認識手段21のファームウェアを、新しい検知/認識ファームウェアに更新する。
The detection/recognition firmware generating means 31 converts the detection/recognition algorithm generated by the machine learning means 30 into detection/recognition firmware, which is detection/recognition software for each camera (step S6). That is, the detection/recognition algorithm is converted by the detection/recognition firmware generating means 31 into software in a format executable by each camera.
The server-side communication means 34 transmits the detection/recognition firmware, which is the detection/recognition software generated by the detection/recognition firmware generating means 31, to the camera 2 (step S7). Then, when the
本実施の形態の検知認識システムによれば、カメラ2の検知/認識手段21の検知認識ファームウェアは、サーバ3の機械学習手段30および検知/認識ファームウェア生成手段31により生成された新しい検知/認識ファームウェアに更新することができる。
機械学習手段30による機械学習は、カメラ2の検知/認識手段21が、設定された認識対象の認識を誤った際の画像を教師データとして行われるので、この教師データを用いた機械学習では、その画像について設定された認識対象の認識を誤らないように検知/認識アルゴリズムが改善される。したがって、カメラ2の検知/認識の性能を向上させることができる。
According to the detection/recognition system of the present embodiment, the detection/recognition firmware of the detection/recognition means 21 of the
The machine learning by the machine learning means 30 is performed using an image when the detection/recognition means 21 of the
また、機械学習はサーバ3で行い、カメラ2は、サーバ3で生成された検知認識ファームウェアの実行をすればよいので、カメラ2の演算能力等がそれほど高くなくても、検知認識ファームウェアを更新して、精度の高い検知/認識を行えるようにすることができる。また、カメラが年数の経過とともに、他のカメラに比べて相対的に性能の低いものになることもなく、むしろ、使用とともに徐々に性能を向上させることが可能となる。また、カメラ2が使用される環境に適した検知/認識ができるように、カメラ2の性能を改善させていくことが可能となる。
Machine learning is performed by the
また、機械が自ら学習することで、人であれば気づくことができないような場合でも、設定された認識対象を認識することが可能となる。例えば、教育データとして、強盗犯が実際に強盗をしているときの画像を与えるのではなく、実際に強盗が行なわれたときよりも前の、強盗犯が写っている画像等を与えることで、実際に強盗が行なわれている場合に強盗犯を認識するようなアルゴリズムではなく、コンビニエンスストア内やコンビニエンスストアの周囲をうろつく人の挙動等から、将来的に強盗におよぶ可能性の高い人の特徴を見出し、このような人を強盗犯(強盗犯となる可能性が高い人)として認識するような検知/認識アルゴリズムを生成することも可能になる。なお、実際にどのような特徴に注目して認識を行うかは、機械学習手段30が判断するので、挙動から強盗におよぶ可能性の高い人を認識するとは限らない。 In addition, by allowing the machine to learn by itself, it becomes possible to recognize the set recognition target even when a human cannot notice it. For example, as educational data, instead of giving an image of the robber actually doing the robbery, giving an image of the robber before the actual robbery was given. , rather than an algorithm that recognizes robbers when a robbery is actually taking place, the behavior of people loitering in and around convenience stores is used to identify people who are likely to commit robberies in the future. It would also be possible to generate a detection/recognition algorithm that would find the features and recognize such a person as a burglar (a likely burglar). It should be noted that the machine learning means 30 determines what features are actually focused on for recognition, so it is not always possible to recognize a person who is highly likely to commit robbery based on behavior.
また、本実施の形態の検知認識システムによれば、4台のカメラ2は、撮像範囲が互いに重複しているので、検知/認識ファームウェアに設定されている認識対象のうち重複する部分について、4台のカメラ2で同時に認識することができる。したがって、4台のカメラ2のうち、数台が認識対象を認識することができなくても、4台のカメラ2のうちの他のカメラが認識対象を認識することが可能となるので、検知/認識をすることができる可能性を高め、システム全体としての検知/認識の精度を高めることができる。
また、4台のカメラ2は、ステレオカメラ2a、赤外線カメラ2b、単眼カメラ2cという、撮像手段20の種類の異なるカメラを含む。したがって、例えば、ステレオカメラ2aでは検知/認識をすることが困難な場合でも、赤外線カメラ2bで検知/認識をすることができる等して、同一種類のカメラ2を用いた場合に比べ、システム全体としての検知/認識の精度を高めることができる。
なお、複数のカメラ2は、それぞれ撮像範囲が全く異なる場所に設置されていたり、全く異なる認識対象を認識するものであったりしてもよい。
Further, according to the detection/recognition system of the present embodiment, the imaging ranges of the four
The four
Note that the plurality of
また、サーバ側検知/認識手段32は、4台のカメラ2の検知/認識手段21の認識結果から、各カメラ2における認識対象の認識が正しいものかを判断したり、各カメラ2における認識対象の認識が正しい確率等を判断したり、カメラ2の誤認識(認識ミス)の判断をしたりすることができる。したがって、個々のカメラ2における検知/認識の結果から、サーバ側検知/認識手段32で認識が正しいと判断した場合にのみ、端末4等からアラーム音を発するようにしたりすることができる。
また、カメラ2の誤認識を自動で判断し、誤認識をしたカメラ2について、検知/認識の能力を改善するよう、自動で機械学習を行うようにすることができる。そして、このときに機械学習の教師データとして用いる画像には、誤認識をした際の画像を用いることができるので、この誤認識をした際の画像について認識を誤ることがないように、学習することが可能となる。したがって、誤認識を自動で判断し、カメラ2の使用とともに検知/認識の精度を高めていくことができる。
Further, the server-side detection/recognition means 32 judges whether the recognition of the recognition target in each
In addition, it is possible to automatically determine erroneous recognition of the
なお、機械学習を行うタイミングは、必要に応じて適宜調整してもよい。例えば、教師データを記録手段22やサーバ側記録手段33に溜めておき、一定数以上溜まった場合や、一定期間経過したときに機械学習を行ってもよい。
また、機械学習は、撮像手段20により撮像された画像以外の画像を用いて行ってもよい。撮像手段20で撮像される画像だけでは、教師データの数や質が十分でない場合に、機械学習手段30に、他の画像を与えることで機械学習の効果を向上させることができる。
Note that the timing of performing machine learning may be adjusted as appropriate. For example, training data may be stored in the recording means 22 or the server-side recording means 33, and machine learning may be performed when a certain number or more of training data are accumulated or after a certain period of time has elapsed.
Also, machine learning may be performed using images other than the images captured by the imaging means 20 . If only the images captured by the imaging means 20 are insufficient in the number and quality of teacher data, other images can be given to the machine learning means 30 to improve the effect of machine learning.
なお、カメラ2で認識する認識対象は、上述のものに限られず、撮像手段20により撮像した画像から、検知/認識可能なものであれば何でもよい。
Note that the object to be recognized by the
1 検知認識システム
2 カメラ
2a ステレオカメラ(カメラ)
2b 赤外線カメラ(カメラ)
2c 単眼カメラ(カメラ)
3 サーバ
20 撮像手段
21 検知/認識手段
30 機械学習手段
31 認識ファームウェア生成手段
1
2b infrared camera (camera)
2c monocular camera (camera)
3
Claims (6)
前記カメラは、撮像をする撮像手段と、検知/認識手段と、を備え、
前記サーバは、サーバ側検知/認識手段と、機械学習手段と、検知/認識ファームウェア生成手段と、を備え、
前記検知/認識手段は、検知/認識ファームウェアを備え、前記撮像手段で取得した画像から前記検知/認識ファームウェアによる制御により、画像に含まれる特徴を検知して、設定された認識対象を認識するとともに、前記検知/認識ファームウェアを前記検知/認識ファームウェア生成手段で生成された新たな検知/認識ファームウェアに更新可能であり、
前記サーバ側検知/認識手段は、サーバ側検知/認識ファームウェアを備え、前記撮像手段で取得した画像から前記サーバ側検知/認識ファームウェアによる制御により、画像に含まれる特徴を検知して、設定された認識対象を認識するとともに、前記サーバ側検知/認識ファームウェアを検知/認識ファームウェア生成手段で生成された新たなサーバ側検知/認識ファームウェアに更新可能であり、
前記機械学習手段は、前記撮像手段で取得した画像を教師データとして機械学習により検知/認識アルゴリズムを生成する処理を実行し、
前記検知/認識ファームウェア生成手段は、前記検知/認識アルゴリズムから前記検知/認識手段の新たな検知/認識ファームウェアを生成する処理と、前記検知/認識アルゴリズムから前記サーバ側検知/認識手段の新たなサーバ側検知/認識ファームウェアを生成する処理と、を実行し、
前記複数のカメラは、前記撮像手段による撮像範囲および設定された認識対象のうちの少なくとも一部が重複し、
前記サーバは、前記サーバ側検知/認識手段での認識対象の認識に基づいて、所定の端末が当該端末のユーザへ認識対象を認識した旨の報知を行うための情報を、当該端末に対して出力することを特徴とする検知認識システム。 comprising a plurality of cameras and a server,
The camera comprises imaging means for imaging and detection/recognition means,
the server comprises server-side detection/recognition means, machine learning means, and detection/recognition firmware generation means;
The detection/recognition means includes detection/recognition firmware, and detects features included in the image from the image acquired by the imaging means under the control of the detection/recognition firmware, and recognizes a set recognition target. , the detection/recognition firmware can be updated to new detection/recognition firmware generated by the detection/recognition firmware generating means;
The server-side detection/recognition means includes server-side detection/recognition firmware, and detects features included in the image from the image acquired by the imaging means under the control of the server-side detection/recognition firmware, and sets The recognition target can be recognized and the server-side detection/recognition firmware can be updated to new server-side detection/recognition firmware generated by the detection/recognition firmware generating means,
The machine learning means performs a process of generating a detection/recognition algorithm by machine learning using the image acquired by the imaging means as teacher data,
The detection/recognition firmware generation means generates new detection/recognition firmware for the detection/recognition means from the detection/recognition algorithm, and a new server for the server-side detection/recognition means from the detection/recognition algorithm. performing a process of generating side detection/recognition firmware;
at least a part of the imaging range of the imaging means and the set recognition targets of the plurality of cameras overlap;
Based on the recognition of the recognition target by the server-side detection/recognition means, the server transmits to the terminal information for notifying the user of the terminal that the recognition target has been recognized. A detection recognition system characterized by outputting .
検知/認識手段または前記サーバ側検知/認識手段は、前記音声入力手段で取得された音声を使用して、設定された認識対象の認識を行うことを特徴とする請求項1または2に記載の検知認識システム。 at least one of the plurality of cameras includes audio input means;
3. The detection/recognition means or the server-side detection/recognition means according to claim 1 or 2, which recognizes a set recognition target using the voice obtained by the voice input means. detection recognition system.
前記カメラは、撮像をする撮像手段と、検知/認識手段と、を備え、
前記サーバは、機械学習手段と、検知/認識ファームウェア生成手段と、を備え、
前記検知/認識手段は、検知/認識ファームウェアを備え、前記撮像手段で取得した画像から前記検知/認識ファームウェアによる制御により、画像に含まれる特徴を検知して、設定された認識対象を認識するとともに、前記検知/認識ファームウェアを前記検知/認識ファームウェア生成手段で生成された新たな検知/認識ファームウェアに更新可能であり、
前記機械学習手段は、前記撮像手段で取得した画像を教師データとして機械学習により検知/認識アルゴリズムを生成する処理を実行し、
前記検知/認識ファームウェア生成手段は、前記検知/認識アルゴリズムから前記検知/認識手段の新たな検知/認識ファームウェアを生成する処理を実行し、
前記複数のカメラは、前記撮像手段による撮像範囲および設定された認識対象のうちの少なくとも一部が重複し、
前記機械学習手段は、前記複数のカメラのうちの、一部のカメラが重複する認識対象を認識した場合に、前記複数のカメラのうちの、他のカメラが前記重複する認識対象を認識しなかった画像を教師データとして、機械学習をすることを特徴とする検知認識システム。 comprising a plurality of cameras and a server,
The camera comprises imaging means for imaging and detection/recognition means,
the server comprises machine learning means and detection/recognition firmware generation means;
The detection/recognition means includes detection/recognition firmware, and detects features included in the image from the image acquired by the imaging means under the control of the detection/recognition firmware, and recognizes a set recognition target. , the detection/recognition firmware can be updated to new detection/recognition firmware generated by the detection/recognition firmware generating means;
The machine learning means performs a process of generating a detection/recognition algorithm by machine learning using the image acquired by the imaging means as teacher data,
The detection/recognition firmware generation means executes processing for generating new detection/recognition firmware for the detection/recognition means from the detection/recognition algorithm,
at least a part of the imaging range of the imaging means and the set recognition targets of the plurality of cameras overlap;
The machine learning means, when some cameras among the plurality of cameras recognize overlapping recognition targets, other cameras among the plurality of cameras do not recognize the overlapping recognition targets. A detection and recognition system characterized by performing machine learning using images as training data.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016231534A JP7162412B2 (en) | 2016-11-29 | 2016-11-29 | detection recognition system |
PCT/JP2017/042578 WO2018101247A1 (en) | 2016-11-29 | 2017-11-28 | Image recognition imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016231534A JP7162412B2 (en) | 2016-11-29 | 2016-11-29 | detection recognition system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018088157A JP2018088157A (en) | 2018-06-07 |
JP7162412B2 true JP7162412B2 (en) | 2022-10-28 |
Family
ID=62493674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016231534A Active JP7162412B2 (en) | 2016-11-29 | 2016-11-29 | detection recognition system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7162412B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7106997B2 (en) * | 2018-06-04 | 2022-07-27 | 日本電信電話株式会社 | Data analysis system and data analysis method |
CN109146947B (en) * | 2018-09-04 | 2021-09-28 | 清华-伯克利深圳学院筹备办公室 | Marine fish three-dimensional image acquisition and processing method, device, equipment and medium |
JP7157330B2 (en) | 2018-11-27 | 2022-10-20 | 富士通株式会社 | Monitoring device, monitoring method and monitoring program |
JP7020438B2 (en) * | 2019-01-18 | 2022-02-16 | オムロン株式会社 | Model generator, model generation method, model generation program, model generation system, inspection system, and monitoring system |
CN113557172A (en) * | 2019-03-11 | 2021-10-26 | 株式会社小糸制作所 | Gated camera, automobile, vehicle lamp, object recognition system, arithmetic processing device, object recognition method, image display system, inspection method, imaging device, and image processing device |
JP6721221B1 (en) * | 2019-05-27 | 2020-07-08 | 株式会社Lightblue Technology | Teacher data creation system, learned model creation system, and teacher data creation method |
JP7353875B2 (en) | 2019-09-04 | 2023-10-02 | 株式会社東芝 | Sensor system and sensing method |
CN111294563B (en) * | 2020-02-24 | 2021-06-18 | 浙江大华技术股份有限公司 | Video monitoring method and device, storage medium and electronic device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012252507A (en) | 2011-06-02 | 2012-12-20 | Panasonic Corp | Personal attribute estimation system, personal attribute estimation device and personal attribute estimation method |
WO2013157265A1 (en) | 2012-04-18 | 2013-10-24 | パナソニック株式会社 | Image processing system, server device, image pickup device and image evaluation method |
JP2013242825A (en) | 2012-05-23 | 2013-12-05 | Panasonic Corp | Personal attribute estimation system and learning data creation device |
JP2016191973A (en) | 2015-03-30 | 2016-11-10 | 日本電気株式会社 | Information transfer device, leaning system, information transfer method, and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008050134A (en) * | 2006-08-25 | 2008-03-06 | Toshiba Elevator Co Ltd | Crime prevention camera of elevator |
US20150022666A1 (en) * | 2013-07-22 | 2015-01-22 | Intellivision Technologies Corp. | System and method for scalable video cloud services |
-
2016
- 2016-11-29 JP JP2016231534A patent/JP7162412B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012252507A (en) | 2011-06-02 | 2012-12-20 | Panasonic Corp | Personal attribute estimation system, personal attribute estimation device and personal attribute estimation method |
WO2013157265A1 (en) | 2012-04-18 | 2013-10-24 | パナソニック株式会社 | Image processing system, server device, image pickup device and image evaluation method |
JP2013242825A (en) | 2012-05-23 | 2013-12-05 | Panasonic Corp | Personal attribute estimation system and learning data creation device |
JP2016191973A (en) | 2015-03-30 | 2016-11-10 | 日本電気株式会社 | Information transfer device, leaning system, information transfer method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2018088157A (en) | 2018-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7162412B2 (en) | detection recognition system | |
US11735018B2 (en) | Security system with face recognition | |
CN104137118B (en) | The face recognition of enhancing in video | |
US10424175B2 (en) | Motion detection system based on user feedback | |
US8606316B2 (en) | Portable blind aid device | |
KR101485022B1 (en) | Object tracking system for behavioral pattern analysis and method thereof | |
WO2016150045A1 (en) | Housebreaking alarm method and device | |
EP3583485A1 (en) | Computationally-efficient human-identifying smart assistant computer | |
KR101464344B1 (en) | Surveillance camera and image managing system, and method for detecting abnormal state by training normal state of surveillance image | |
KR102390405B1 (en) | Doorbell | |
US9704361B1 (en) | Projecting content within an environment | |
JP6568224B2 (en) | surveillance | |
US9578261B1 (en) | Portable security surveillance device | |
WO2021095351A1 (en) | Monitoring device, monitoring method, and program | |
US11450098B2 (en) | Firearm detection system and method | |
US11093757B2 (en) | Firearm detection system and method | |
KR102069270B1 (en) | CCTV system with fire detection | |
US20190206230A1 (en) | System and Method of Managing Personal Security | |
KR101321447B1 (en) | Site monitoring method in network, and managing server used therein | |
KR102233679B1 (en) | Apparatus and method for detecting invader and fire for energy storage system | |
KR101483614B1 (en) | Outdoor security apparatus using motion detection | |
JP2010218039A (en) | System and method for authenticating face | |
JP6980379B2 (en) | Information processing equipment, information processing methods and programs | |
JP5981015B1 (en) | Shoplifting crime scene recording device | |
JP5188840B2 (en) | Security device and update method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20171110 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200820 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210107 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210107 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210119 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210126 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20210212 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20210216 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20211019 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20211022 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20220517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220713 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20220816 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20220920 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20220920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221018 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7162412 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |