JP7162412B2 - detection recognition system - Google Patents

detection recognition system Download PDF

Info

Publication number
JP7162412B2
JP7162412B2 JP2016231534A JP2016231534A JP7162412B2 JP 7162412 B2 JP7162412 B2 JP 7162412B2 JP 2016231534 A JP2016231534 A JP 2016231534A JP 2016231534 A JP2016231534 A JP 2016231534A JP 7162412 B2 JP7162412 B2 JP 7162412B2
Authority
JP
Japan
Prior art keywords
recognition
detection
firmware
server
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016231534A
Other languages
Japanese (ja)
Other versions
JP2018088157A (en
Inventor
宏安 大坪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2016231534A priority Critical patent/JP7162412B2/en
Priority to PCT/JP2017/042578 priority patent/WO2018101247A1/en
Publication of JP2018088157A publication Critical patent/JP2018088157A/en
Application granted granted Critical
Publication of JP7162412B2 publication Critical patent/JP7162412B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、検知認識システムに関する。 The present invention relates to sensing and recognition systems.

従来、人や物等の物体を検知/認識するカメラが知られている(例えば、特許文献1,2参照)。このようなカメラは、例えば、監視カメラとして防犯の目的に使用され、検知/認識により異常が発見された場合に警報を発したりする。 Conventionally, a camera that detects/recognizes an object such as a person or an object is known (see Patent Documents 1 and 2, for example). Such a camera is used, for example, as a surveillance camera for the purpose of crime prevention, and issues an alarm when an abnormality is detected through detection/recognition.

また、近年、画像認識等の分野において、機械学習がよく用いられるようになってきている。機械学習の手法としては、例えばディープラーニング等が知られている。ディープラーニングは、多層構造のニューラルネットワークを用いて、データの特徴を学習するものであり、これを用いることで、高精度の画像認識が可能になることが知られている。 In recent years, machine learning has been widely used in fields such as image recognition. Deep learning, for example, is known as a machine learning method. Deep learning uses multi-layered neural networks to learn features of data, and is known to enable highly accurate image recognition.

特開2012-208851号公報JP 2012-208851 A 特開2010-160743号公報JP 2010-160743 A

ところで、監視カメラ等は、設置してから長期間使用する場合も多いが、画像から物体等を検知/認識する技術は日々進歩しているので、長期間使用をしていると、そのカメラに用いられている検知/認識技術が時代遅れのものとなってしまうおそれがある。
また、検知/認識のアルゴリズムは、使用される場所等の環境や、撮影対象等によって、最適なアルゴリズムが変わってくるので、カメラの設置前からカメラにもともと備えられていた検知/認識のファームウェアに用いられている検知/認識アルゴリズムでは、十分な検知/認識が行なえない可能性がある。
By the way, surveillance cameras are often used for a long period of time after installation. Technology for detecting and recognizing objects from images is advancing day by day. The detection/recognition technology used may become obsolete.
In addition, since the optimum algorithm for detection/recognition changes depending on the environment such as the location where it is used and the subject to be photographed, the detection/recognition firmware that was originally installed in the camera was installed before the camera was installed. The detection/recognition algorithms used may not provide sufficient detection/recognition.

本発明は、前記事情に鑑みてなされたもので、画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識する検知/認識の性能を、検知/認識のためのファームウェアを更新して向上させることができる検知認識システムを提供することを目的とする。 The present invention has been made in view of the above-mentioned circumstances, and the detection/recognition performance of detecting a feature included in an image and recognizing a recognition target set from this feature is improved by updating the firmware for detection/recognition. It is an object of the present invention to provide a detection and recognition system that can be improved by

前記目的を達成するために、本発明の検知認識システムは、
撮像をする撮像手段と、検知/認識手段と、サーバと、を備え、
前記検知/認識手段は、検知/認識ファームウェアを備え、前記撮像手段で取得した画像から前記検知/認識ファームウェアによる制御により、前記画像に含まれる特徴を検知して、設定された認識対象を認識するとともに、前記検知/認識ファームウェアを検知/認識ファームウェア生成手段で生成された新たな検知/認識ファームウェアに更新可能であり、
前記サーバは、前記撮像手段で取得した画像を教師データとして機械学習により検知/認識アルゴリズムを生成する機械学習手段と、前記検知/認識アルゴリズムから前記検知/認識手段の新たな検知/認識ファームウェアを生成する前記検知/認識ファームウェア生成手段と、を備えることを特徴とする。
To achieve the above object, the detection and recognition system of the present invention comprises:
Equipped with imaging means for imaging, detection/recognition means, and a server,
The detection/recognition means includes detection/recognition firmware, and detects features included in the image from the image acquired by the imaging means under the control of the detection/recognition firmware, and recognizes a set recognition target. Also, the detection/recognition firmware can be updated to new detection/recognition firmware generated by the detection/recognition firmware generating means,
The server generates machine learning means for generating a detection/recognition algorithm by machine learning using the image acquired by the imaging means as teacher data, and generates new detection/recognition firmware for the detection/recognition means from the detection/recognition algorithm. and the detection/recognition firmware generation means for generating the detection/recognition firmware.

本発明においては、撮像手段は、撮像をする。そして、検知/認識手段は、撮像手段での撮像により得られた画像から、検知/認識ファームウェアによる制御により、画像に含まれる特徴を検知して、設定された認識対象を認識する。また、サーバの機械学習手段は、撮像手段で取得した画像を教師データとして機械学習により検知/認識アルゴリズムを生成する。そして、生成された検知/認識アルゴリズムは、サーバの検知/認識ファームウェア生成手段により、検知/認識手段に適合したファームウェア(検知/認識ファームウェア)に変換される。そして、検知/認識手段の検知/認識ファームウェアは、検知/認識ファームウェア生成手段によって生成された新たな検知/認識ファームウェアに更新される。
したがって、撮像手段で得られた画像から、機械学習により、より高精度な検知および認識が行なえる検知/認識アルゴリズムを生成し、この検知/認識アルゴリズムを、検知/認識手段に適合したファームウェアに変換し、検知/認識手段の検知/認識ファームウェアを更新することができるので、検知/認識の性能を向上させることができる。
In the present invention, the imaging means takes an image. Then, the detection/recognition means detects features included in the image from the image obtained by the image pickup means under the control of the detection/recognition firmware, and recognizes the set recognition target. Also, the machine learning means of the server generates a detection/recognition algorithm by machine learning using the image acquired by the imaging means as teacher data. Then, the detection/recognition firmware generation means of the server converts the generated detection/recognition algorithm into firmware adapted to the detection/recognition means (detection/recognition firmware). Then, the detection/recognition firmware of the detection/recognition means is updated to the new detection/recognition firmware generated by the detection/recognition firmware generating means.
Therefore, a detection/recognition algorithm that enables more accurate detection and recognition is generated by machine learning from the image obtained by the imaging means, and this detection/recognition algorithm is converted into firmware suitable for the detection/recognition means. However, since the detection/recognition firmware of the detection/recognition means can be updated, the performance of detection/recognition can be improved.

また、本発明の前記構成において、前記機械学習手段は、前記検知/認識手段が、前記設定された認識対象の認識を誤った際の画像を教師データとして機械学習をすることが好ましい。 In the configuration of the present invention, it is preferable that the machine learning means perform machine learning using an image obtained when the detection/recognition means incorrectly recognizes the set recognition target as teacher data.

このような構成によれば、機械学習手段は、検知/認識手段が設定された認識対象の認識を誤った際の画像について、認識対象の認識を誤ることがないように、学習し、新たな検知/認識アルゴリズムを生成し、新たな検知/認識ファームウェアを生成することが可能となるので、確実に検知/認識の性能を向上させることができる。 According to such a configuration, the machine learning means learns the image when the detection/recognition means misrecognizes the recognition target so as not to misrecognise the recognition target. Since detection/recognition algorithms can be generated and new detection/recognition firmware can be generated, detection/recognition performance can be reliably improved.

また、本発明の前記構成において、
少なくとも1台のカメラを備え、
前記カメラは、前記撮像手段と前記検知/認識手段とを備えることが好ましい。
Further, in the configuration of the present invention,
with at least one camera,
Preferably, the camera comprises the imaging means and the detection/recognition means.

このような構成によれば、カメラとは別に検知/認識手段を備える端末等を備える必要がないので、システム全体の小型化が行なえる。また、カメラは、検知/認識手段の検知/認識ファームウェアを、サーバでの機械学習の結果作成された新たな検知/認識ファームウェアに、更新することができるので、カメラの検知/認識性能を向上させることができる。したがって、設置後のカメラ等であっても容易にカメラの検知/認識性能を向上させることができる。 According to such a configuration, since it is not necessary to provide a terminal or the like having detection/recognition means in addition to the camera, the size of the entire system can be reduced. Also, the camera can update the detection/recognition firmware of the detection/recognition means with new detection/recognition firmware created as a result of machine learning on the server, thus improving the detection/recognition performance of the camera. be able to. Therefore, it is possible to easily improve the detection/recognition performance of the camera even after installation.

また、本発明の前記構成において、
前記撮像手段による撮像範囲および前記設定された認識対象のうちの少なくとも一部が重複する複数の前記カメラを備えることが好ましい。
Further, in the configuration of the present invention,
It is preferable to provide a plurality of cameras in which at least a part of the imaging range of the imaging means and the set recognition target overlap.

このような構成によれば、所定の範囲について複数のカメラで撮像し、検知/認識を行うことができる。したがって、同一の物体や、同一の現象について、複数のカメラで検知/認識をすることができるので、検知/認識の精度を高めることができる。 According to such a configuration, it is possible to perform detection/recognition by capturing an image of a predetermined range with a plurality of cameras. Therefore, since the same object or the same phenomenon can be detected/recognized by a plurality of cameras, the accuracy of detection/recognition can be improved.

また、本発明の前記構成において、
前記機械学習手段は、前記複数のカメラのうちの、一部のカメラが重複する認識対象を認識した場合に、前記複数のカメラのうちの、他のカメラが前記重複する認識対象を認識しなかった画像を教師データとして、機械学習をすることが好ましい。
Further, in the configuration of the present invention,
The machine learning means, when some cameras among the plurality of cameras recognize overlapping recognition targets, other cameras among the plurality of cameras do not recognize the overlapping recognition targets. Machine learning is preferably performed using the obtained image as teacher data.

このような構成によれば、少なくとも1台のカメラが重複する認識対象を認識した場合に、他のカメラが重複する認識対象を認識することができなかった画像を教師データとして、機械学習をすることができる。したがって、認識対象を認識して欲しかったのに認識することができなかった可能性の高い画像を教師データとして機械学習をすることができ、機械学習の効率を高めることができる。 According to such a configuration, when at least one camera recognizes overlapping recognition targets, machine learning is performed using an image in which the overlapping recognition targets could not be recognized by other cameras as teacher data. be able to. Therefore, it is possible to perform machine learning using an image that is highly likely to have been unable to recognize a recognition target even though the recognition target was desired to be recognized, as training data, thereby improving the efficiency of machine learning.

また、本発明の前記構成において、前記複数のカメラのうちの少なくとも1台は、前記撮像手段が異なるカメラであることが好ましい。 Moreover, in the above configuration of the present invention, it is preferable that at least one of the plurality of cameras is a camera with a different imaging means.

このような構成によれば、ある撮像手段により撮像した画像からでは、検知/認識をすることが困難であり、その撮像手段を備えるカメラでは認識対象を認識することができない場合でも、他の撮像手段を備えるカメラで認識対象を認識することが可能となる。これにより、認識対象を認識することができなかったことを容易に知ることができ、認識することができなかった画像を教師データとして、機械学習をすることができるので、検知/認識をすることが困難な画像からでも認識することができるように機械学習をすることができる。 According to such a configuration, it is difficult to perform detection/recognition from an image captured by a certain image capturing means, and even if the recognition target cannot be recognized by a camera equipped with the image capturing means, the recognition target can be detected by another image capturing means. It becomes possible to recognize a recognition target with a camera provided with means. As a result, it is possible to easily know that the recognition target could not be recognized, and machine learning can be performed using the image that could not be recognized as teacher data, so that detection/recognition can be performed. Machine learning can be performed so that it can recognize even from difficult images.

本発明によれば、画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識する検知/認識の性能を、検知/認識のためのファームウェアを更新して向上させることができる。 According to the present invention, the detection/recognition performance of detecting a feature included in an image and recognizing a recognition target set from this feature can be improved by updating the firmware for detection/recognition.

本発明の実施の形態を示すもので、検知認識システムを示すブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows embodiment of this invention and which shows a detection recognition system. 同、検知認識システムのカメラを示すブロック図である。It is a block diagram showing a camera of the detection recognition system. 同、検知認識システムのサーバを示すブロック図である。It is a block diagram which shows the server of a detection recognition system same. 同、検知認識システムによる検知認識ファームウェアの更新方法を説明するためのフローチャートである。10 is a flowchart for explaining a method of updating detection recognition firmware by the detection recognition system.

以下、図面を参照しながら、本発明の実施の形態について説明する。
本実施の形態の検知認識システムは、例えば、カメラで撮像した画像から設定された認識対象を認識した場合に、報知をするのに用いられる。
なお、以下において、単に、画像といった場合、基本的には動画と静止画との両方を含む。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The detection/recognition system of this embodiment is used, for example, to notify when a recognition target set from an image captured by a camera is recognized.
In the following description, simply referring to an image basically includes both a moving image and a still image.

検知認識システム1は、図1に示すように、複数のカメラ2と、サーバ3と、端末4と、を備える。また、複数のカメラ2とサーバ3と端末4とは、それぞれ有線または無線のネットワーク5により繋がれている。 The detection recognition system 1 includes a plurality of cameras 2, a server 3, and a terminal 4, as shown in FIG. Also, the plurality of cameras 2, the server 3, and the terminal 4 are connected by a wired or wireless network 5, respectively.

検知認識システム1は、例えば、カメラ2が監視用のカメラとしてコンビニエンストア等の建物内あるいは屋外等に設置され、カメラ2が撮影した対象を、その外形や動きから不審者であると認識した場合に、別の場所にある端末4に報知をするといったように使用することができる。また、このように不審者を認識した場合に、検知認識システム1の管理者6が持つ端末やシステム管理用の装置等に知らせるようにしてもよい。 For example, the detection recognition system 1 is installed in a building such as a convenience store or outdoors as a surveillance camera, and recognizes an object photographed by the camera 2 as a suspicious person based on its appearance and movement. In addition, it can be used to notify a terminal 4 at another location. Further, when a suspicious person is recognized in this way, the terminal or system management device owned by the administrator 6 of the detection and recognition system 1 may be informed.

カメラ2は、図2に示すように、撮像手段20と、検知/認識手段21と、記録手段22と、通信手段23と、制御手段24と、を備える。
撮像手段20は、例えば、レンズや固体撮像素子を有し、撮像により、画像を取得する。また、検知/認識手段21は、演算処理装置とメモリとを備え、画像認識を行う。具体的には、検知/認識手段21のメモリに備えられた検知/認識ファームウェアによる制御により、撮像手段20によって撮像された画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識する。なお、以下で単に検知/認識といった場合には、基本的に、このように、撮像手段20によって撮像された画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識することをいう。
The camera 2 includes an imaging means 20, a detection/recognition means 21, a recording means 22, a communication means 23, and a control means 24, as shown in FIG.
The imaging means 20 has, for example, a lens and a solid-state imaging device, and acquires an image by imaging. Also, the detection/recognition means 21 includes an arithmetic processing unit and a memory, and performs image recognition. Specifically, the detection/recognition firmware provided in the memory of the detection/recognition means 21 detects features included in the image captured by the imaging means 20, and recognizes the set recognition target based on these features. do. It should be noted that hereinafter, when simply referred to as "detection/recognition", basically, it means detecting a feature included in an image captured by the imaging means 20 and recognizing a set recognition target based on this feature. Say.

また、記録手段22は、検知/認識手段21での検知/認識のための参照画像その他の情報や、異常時(例えば、検知/認識手段21が設定された認識対象を認識したとき)の画像その他の情報(例えば、音声等)の記録をする。また、通信手段23は、ネットワーク5を介してサーバ3と通信し、異常時の画像その他の情報のサーバ3への送信と、サーバ3からの命令や検知認識ファームウェアの受信をする。また、通信手段23は、ネットワーク5を介して端末4や管理者6の持つ端末とも接続をし、異常時に、これらの端末やサーバ3にアラーム信号等を送信する。また、端末4や管理者6の持つ端末は、このアラーム信号を受信して、あるいは、アラーム信号を受信したサーバ3からのアラームを鳴らす旨の命令を受けてアラームを鳴らす等する。 The recording means 22 also stores reference images and other information for detection/recognition by the detection/recognition means 21, and images at the time of abnormality (for example, when the detection/recognition means 21 recognizes a set recognition target). Other information (eg, voice, etc.) is recorded. Further, the communication means 23 communicates with the server 3 via the network 5 to transmit images and other information at the time of abnormality to the server 3 and receive commands and detection recognition firmware from the server 3 . The communication means 23 is also connected to the terminal 4 and a terminal owned by the administrator 6 via the network 5, and transmits an alarm signal or the like to these terminals and the server 3 in the event of an abnormality. Also, the terminal 4 or a terminal held by the manager 6 receives this alarm signal or sounds an alarm in response to an instruction to sound an alarm from the server 3 that has received the alarm signal.

また、制御手段24は、演算処理装置およびメモリを備え、撮像手段20、検知/認識手段21、記録手段22および通信手段23を制御する。なお、制御手段24は、検知/認識手段21と演算処理装置またはメモリを共有することとしてもよい。 Also, the control means 24 has an arithmetic processing unit and a memory, and controls the imaging means 20 , the detection/recognition means 21 , the recording means 22 and the communication means 23 . Note that the control means 24 may share an arithmetic processing unit or memory with the detection/recognition means 21 .

なお、撮像手段20、検知/認識手段21、記録手段22、通信手段23および制御手段24の全てをカメラ2が備える構成としなくてもよい。例えば、検知認識システム1は、カメラ2と有線または無線により接続され、カメラ2の制御やカメラ2で撮影した画像の表示等ができる端末をカメラ2の外部に備え、撮像手段20をカメラ2に配置し、検知/認識手段21、記録手段22、通信手段23および制御手段24を当該端末に設け、カメラ2に備えられた撮像手段20で撮影した画像に対して当該端末で検知/認識をするようにしてもよい。 Note that the camera 2 does not have to include all of the imaging means 20 , the detection/recognition means 21 , the recording means 22 , the communication means 23 and the control means 24 . For example, the detection and recognition system 1 is connected to the camera 2 by wire or wirelessly, and has a terminal outside the camera 2 that can control the camera 2 and display images taken by the camera 2. The terminal is provided with detection/recognition means 21, recording means 22, communication means 23, and control means 24, and the terminal detects/recognizes an image taken by an imaging means 20 provided in the camera 2. You may do so.

カメラ2は、例えば、一般的な監視カメラと同様の構成を有するもので、例えば、カメラ2の向きに応じて、撮像手段20が設定された画角に対応する撮像範囲を撮像する。検知認識システム1が備える複数のカメラ2には、それぞれ同種のカメラを用いてもよく、種類の異なるカメラを用いてもよい。また、それぞれのカメラ2の撮像範囲は重複していてもよく、全く異なるものであってもよい。
本実施の形態においては、カメラ2として、2台のステレオカメラ2aと、1台の赤外線カメラ2bと、1台の単眼カメラ2cと、の計4台の種類の異なるカメラ2を用いるようになっており、4台のカメラ2の撮像範囲は互いに重複しているものとする。
カメラ2として、視差から距離、サイズまたは3D構造等を算出可能なステレオカメラ2aを用いることで、視差から距離、サイズまたは3D構造等を算出できるので、検知/認識をするための演算処理装置等に必要な性能を低減させることができ、カメラが高性能な演算処理装置等を備えていなくても、検知/認識を容易に行うことができる。
The camera 2 has, for example, a configuration similar to that of a general monitoring camera. The cameras 2 of the detection and recognition system 1 may be of the same type or may be of different types. Also, the imaging ranges of the respective cameras 2 may overlap or may be completely different.
In this embodiment, as the cameras 2, a total of four cameras 2 of different types are used: two stereo cameras 2a, one infrared camera 2b, and one monocular camera 2c. , and the imaging ranges of the four cameras 2 overlap each other.
By using a stereo camera 2a capable of calculating distance, size, 3D structure, etc. from parallax as camera 2, it is possible to calculate distance, size, 3D structure, etc. from parallax. Therefore, detection/recognition can be easily performed even if the camera does not have a high-performance processor or the like.

また、カメラ2として、赤外線カメラ(近赤外線カメラまたは遠赤外線カメラ)2bを用いることで、近赤外または遠赤外の画像を撮影することができ、人の目では見ることができないものも検知/認識することができる。また、夜間等、暗い環境における検知/認識も容易になる。 In addition, by using an infrared camera (near-infrared camera or far-infrared camera) 2b as the camera 2, it is possible to capture near-infrared or far-infrared images, and detect things that cannot be seen by the human eye. / can be recognized. It also facilitates detection/recognition in a dark environment such as at night.

また、カメラ2の種類は、これらに限られるものではない。例えば、カメラ2として、距離画像センサを用いてもよい。距離画像センサとしては、例えば、TOF(Time Of Flight)を用いることができる。TOFは、投射したレーザーが対象まで往復するのにかかる時間から、距離を計測する。 Also, the types of cameras 2 are not limited to these. For example, a distance image sensor may be used as the camera 2 . For example, a TOF (Time Of Flight) can be used as the distance image sensor. TOF measures distance from the time it takes a projected laser to make a round trip to the target.

つまり、カメラ2は、撮像手段20が1つの2次元画像を撮像し、この画像より、検知/認識を行うものでもよく、撮像手段20が2つの画像を撮像し、これらの画像の視差より、距離、サイズ、3D構造等を算出し、検知/認識を行うものでもよく、撮像手段20がTOFセンサ等により、3D距離画像を撮像し、この3D距離画像より、検知/認識を行うものでもよく、撮像手段20が近赤外や遠赤外の画像を撮像し、これらの画像より、検知/認識を行うものでもよい。また、1台のカメラ2が、上記の撮像手段20を複数備えていてもよい。すなわち、1台のカメラ2が、例えば、ステレオカメラおよび赤外線カメラの撮像機能を備えており、これらの機能により得られた画像から検知/認識を行ってもよい。 In other words, the camera 2 may be one in which the image pickup means 20 picks up one two-dimensional image and performs detection/recognition from this image. The detection/recognition may be performed by calculating the distance, size, 3D structure, etc., or the imaging means 20 may capture a 3D distance image using a TOF sensor or the like, and the detection/recognition may be performed from this 3D distance image. Alternatively, the imaging means 20 may capture near-infrared or far-infrared images, and detection/recognition may be performed from these images. Moreover, one camera 2 may be provided with a plurality of the imaging means 20 described above. That is, one camera 2 may have imaging functions of, for example, a stereo camera and an infrared camera, and detection/recognition may be performed from images obtained by these functions.

検知/認識手段21は、設定された認識対象を認識するものであり、認識対象は、具体的な物体(人および人以外の物も含む)の場合もあれば、抽象的な現象の場合も考えられる。つまり、認識対象が強盗犯、窃盗犯、放火犯のような人や拳銃のような物といった物体の場合もあれば、犯罪や火災といった現象等の場合もある。
例えば、認識対象として強盗犯が設定されている状態において、コンビニエンスストア内に設置されたカメラ2の撮像手段20により、包丁や拳銃を持った人の画像が撮影された場合に、検知/認識手段21は、この画像から、包丁や拳銃を持った人を検知したり、この人の動きを検知したりして、この人を強盗犯と認識することが考えられる。また、例えば、認識対象として火災が設定されている状態において、赤外線カメラにより得られた画像から、ある場所の温度が異常に高いことを検知し、火災が発生していると認識したりすることが考えられる。また、例えば、赤外線カメラが遠赤外線を使ったものであれば、温度を検知することができ、拳銃、ナイフ等の武器と体温との温度差により、服のポケット等に隠し持った拳銃、ナイフ等の武器を画像認識して検知することも考えられる。ただし、検知/認識手段21の検知/認識ファームウェアは、後述する機械学習手段30での機械学習により生成されるので、実際には、検知/認識手段21が、このような人に理解しやすい(理解可能な)認識の仕方をするとは限らない。
つまり、検知/認識手段21は、検知/認識ファームウェアによる制御により、撮像手段20によって撮像された画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識するものである。
なお、検知/認識手段21は、画像だけでなく、音声も使用して検知/認識を行ってもよい。例えば、カメラ2がマイク等の音声入力手段を備えており、この音声入力手段で取得された音声を使用して検知/認識を行うことで、検知/認識の精度を高めることができる。また、後述するサーバ側検知/認識手段32での検知/認識においても、同様に、音声を使用してもよい。
The detection/recognition means 21 recognizes a set recognition target, and the recognition target may be a concrete object (including humans and objects other than humans) or an abstract phenomenon. Conceivable. In other words, the recognition target may be a person such as a robber, a thief, or an arsonist, or an object such as a handgun, or a phenomenon such as a crime or fire.
For example, in a state where a robbery is set as a recognition target, when an image of a person holding a kitchen knife or a pistol is captured by the imaging means 20 of the camera 2 installed in the convenience store, the detection/recognition means It is conceivable that 21 detects a person holding a kitchen knife or a pistol from this image, or detects the person's movement, and recognizes this person as a robbery. Also, for example, in a state where a fire is set as a recognition target, it is possible to detect that the temperature in a certain place is abnormally high from the image obtained by the infrared camera, and to recognize that a fire is occurring. can be considered. Also, for example, if the infrared camera uses far infrared rays, it can detect the temperature. It is also conceivable to detect weapons by image recognition. However, since the detection/recognition firmware of the detection/recognition means 21 is generated by machine learning in the machine learning means 30 described later, the detection/recognition means 21 is actually easy for such people to understand ( comprehensible) way of recognition.
In other words, the detection/recognition means 21 detects features included in the image captured by the imaging means 20 under the control of the detection/recognition firmware, and recognizes the set recognition target based on these features.
Note that the detection/recognition means 21 may perform detection/recognition using not only images but also sounds. For example, the camera 2 has an audio input means such as a microphone, and the accuracy of detection/recognition can be improved by performing detection/recognition using audio acquired by this audio input means. Also, the detection/recognition by the server-side detection/recognition means 32, which will be described later, may similarly use voice.

なお、検知/認識手段21の検知/認識ファームウェアは、後述する機械学習手段30および検知/認識ファームウェア生成手段31で生成された新たな検知/認識ファームウェアによって更新されるが、更新される前の、最初に検知/認識手段21に備えられる検知/認識ファームウェアは、機械学習手段30および検知/認識ファームウェア生成手段31により生成されたものでもよく、他の機械学習ができる機器によって生成されたものを検知/認識手段21に組み込んだものであってもよい。また、機械学習以外の方法により生成された検知/認識ファームウェアを最初に検知/認識手段21に備えることとしてもよい。 The detection/recognition firmware of the detection/recognition means 21 is updated by new detection/recognition firmware generated by the machine learning means 30 and the detection/recognition firmware generation means 31, which will be described later. The detection/recognition firmware initially provided in the detection/recognition means 21 may be generated by the machine learning means 30 and the detection/recognition firmware generation means 31, or may be generated by other equipment capable of machine learning. / It may be one incorporated in the recognition means 21 . Alternatively, detection/recognition firmware generated by a method other than machine learning may be provided in the detection/recognition means 21 first.

また、検知/認識手段21で認識する対象の設定は、検知/認識ファームウェアに含まれているものとする。例えば、検知/認識ファームウェアを機械学習手段30および検知/認識ファームウェア生成手段31により生成する場合において、認識する対象をコンビニエンスストアでの強盗犯としたい場合、機械学習の教師データとして、例えば、コンビニエンスストアで強盗をした強盗犯が写っている複数の画像と、これらの画像が強盗犯を示す画像だという情報とを教師データとして(画像に強盗犯というタグ付けをして)機械学習手段30に与える。すると、機械学習により、与えられた画像(教師データ)のどこに注目すれば強盗犯を認識することができるかが学習される。そして、機械学習の結果、画像から強盗犯を認識することができる確率の高い検知/認識アルゴリズムが生成される。そして、この検知/認識アルゴリズムが検知/認識ファームウェア生成手段31により変換され、検知/認識ファームウェアが生成される。つまり、この学習により得られた検知/認識ファームウェア(検知/認識アルゴリズム)は、画像のどこに注目すれば、画像に強盗犯が含まれているかを認識することができるものであり、認識する対象として、強盗犯が設定されているといえるということである。なお、この機械学習を行う際に画像に対するタグ付けは必ずしも必要ではない。例えば、教師データとして、強盗犯が写っている画像しか与えないのであれば、それが強盗犯を示す画像だという情報がなくても、教師データとして与えられた画像と特徴が近い画像を認識するアルゴリズムを生成することで、強盗犯を認識するアルゴリズムを生成することは可能である。
なお、検知/認識ファームウェアに設定されている認識対象(検知/認識ファームウェアが認識する対象)は、1つとは限らず、複数設定されていてもよい。
It is also assumed that the detection/recognition firmware includes settings for objects to be recognized by the detection/recognition means 21 . For example, in the case where the detection/recognition firmware is generated by the machine learning means 30 and the detection/recognition firmware generation means 31, if the object to be recognized is a robbery at a convenience store, the teacher data for machine learning may be, for example, a convenience store Provide a machine learning means 30 with a plurality of images showing a robbery who committed a robbery and information that these images are images showing the robbery as training data (tag the image with the robbery). . Then, machine learning learns where to focus in the given image (teaching data) to recognize the robbery. Machine learning then produces a detection/recognition algorithm with a high probability of recognizing the burglar from the image. Then, this detection/recognition algorithm is converted by the detection/recognition firmware generating means 31 to generate detection/recognition firmware. In other words, the detection/recognition firmware (detection/recognition algorithm) obtained through this learning can recognize whether or not a robbery is included in an image by focusing on where in the image. , it can be said that the robbery is set. Note that it is not always necessary to tag images when performing this machine learning. For example, if only an image of a robbery is given as training data, an image with features similar to those given as training data will be recognized even if there is no information that the image shows the robbery. By creating an algorithm, it is possible to create an algorithm that recognizes robbers.
Note that the number of recognition targets (targets recognized by the detection/recognition firmware) set in the detection/recognition firmware is not limited to one, and a plurality of targets may be set.

以上のように、検知/認識ファームウェアは、特定の対象を認識するものであり、検知/認識手段21は、検知/認識ファームウェアによりこの特定の対象を認識した場合に、認識をした旨の信号等(例えば、アラーム信号)を出力する。また、この認識をした旨の信号等は、通信手段23を介してサーバ3や端末4、管理者6の持つ端末等に送られ、これらの端末等に設定対象を認識した旨の通知がなされる。なお、この認識をした旨の信号等は、サーバ3のみに送られ、サーバ3において各カメラ2からの情報を総合的に判断した上で、サーバ3から端末4等に、認識対象を認識した旨のメールやアラームを鳴らす旨の命令等のアラーム情報等を送るようにしてもよい。 As described above, the detection/recognition firmware recognizes a specific target, and when the detection/recognition firmware recognizes the specific target, the detection/recognition means 21 sends a signal or the like indicating recognition. (for example, an alarm signal). A signal or the like indicating that the setting object has been recognized is sent to the server 3, the terminal 4, the terminal owned by the administrator 6, or the like via the communication means 23, and the terminal or the like is notified that the setting object has been recognized. be. A signal or the like indicating that this recognition has been performed is sent only to the server 3, and after comprehensively judging the information from each camera 2 in the server 3, the recognition target is sent from the server 3 to the terminal 4 or the like. An e-mail to that effect or alarm information such as an instruction to sound an alarm may be sent.

また、4台のカメラ2は、撮像範囲が互いに重複しており、検知/認識ファームウェアに設定されている認識対象のうち重複する部分について、4台のカメラ2で同時に認識することが可能となっている。つまり、重複する認識対象として、例えば強盗犯が設定されている場合、4台のカメラで同時に、特定の強盗を行う特定の強盗犯を認識することが可能となっている。 In addition, the imaging ranges of the four cameras 2 overlap with each other, and it is possible for the four cameras 2 to simultaneously recognize overlapping portions of the recognition targets set in the detection/recognition firmware. ing. In other words, if, for example, a robbery is set as an overlapping recognition target, four cameras can simultaneously recognize a specific robbery who commits a specific robbery.

サーバ3は、図3に示すように、機械学習手段30と、検知/認識ファームウェア生成手段31と、サーバ側検知/認識手段32と、サーバ側記録手段33と、サーバ側通信手段34と、サーバ側制御手段35と、を備える。また、機械学習手段30、検知/認識ファームウェア生成手段31、サーバ側検知/認識手段32およびサーバ側制御手段35は、演算処理装置とメモリとを有するが、それぞれが個別の演算処理装置またはメモリを有していてもよく、演算処理装置またはメモリを共有するものであってもよい。 The server 3, as shown in FIG. A side control means 35 is provided. The machine learning means 30, the detection/recognition firmware generation means 31, the server-side detection/recognition means 32, and the server-side control means 35 each have an arithmetic processing unit and a memory. may have one or may share a processor or memory.

機械学習手段30は、例えば、ディープラーニング等の機械学習を行い検知/認識アルゴリズムを生成する。ここで、検知/認識アルゴリズムとは、カメラ2の撮像手段20で撮像された画像から、設定された認識対象を認識するためのアルゴリズムである。 Machine learning means 30 performs machine learning such as deep learning to generate a detection/recognition algorithm. Here, the detection/recognition algorithm is an algorithm for recognizing a set recognition target from an image captured by the imaging means 20 of the camera 2 .

検知/認識ファームウェア生成手段31は、機械学習手段30が生成した検知/認識アルゴリズムを各カメラ2で実行可能なファームウェアに変換し、検知/認識ファームウェアを生成する。各カメラ2は、撮像手段20により取得できる画像の解像度や、検知/認識手段21の演算処理装置の性能、検知/認識手段21用のGPU(Graphics Processing Unit)の有無、マイク等の音声入力手段の有無、カメラの種類(ステレオカメラか、TOFセンサか等)等が異なるので、各カメラ2で実行可能なファームウェアも異なる。検知/認識ファームウェア生成手段31により、機械学習により生成した検知/認識アルゴリズムを各カメラ2で実行可能なファームウェアに変換することで、各カメラ2に新しい検知/認識用のプログラムを実装することが可能となる。 The detection/recognition firmware generating means 31 converts the detection/recognition algorithm generated by the machine learning means 30 into firmware executable by each camera 2, and generates detection/recognition firmware. Each camera 2 has the resolution of an image that can be acquired by the imaging means 20, the performance of the arithmetic processing unit of the detection / recognition means 21, the presence or absence of a GPU (Graphics Processing Unit) for the detection / recognition means 21, and the voice input means such as a microphone. , the type of camera (stereo camera, TOF sensor, etc.), etc., the firmware that can be executed by each camera 2 is also different. A detection/recognition firmware generating means 31 converts a detection/recognition algorithm generated by machine learning into firmware that can be executed by each camera 2, enabling each camera 2 to implement a new detection/recognition program. becomes.

サーバ側検知/認識手段32は、各カメラ2の画像や情報から総合的に状況を判断して検知/認識をする。例えば、各カメラ2の検知/認識手段21は、そのカメラ2の撮像手段20により取得した画像を使用して検知/認識を行うが、サーバ側検知/認識手段32は、複数のカメラ2で取得した画像を使用して検知/認識を行う。また、各カメラ2で行うには重い処理である場合に、サーバ側検知/認識手段32が処理の一部を行うようにしてもよい。また、サーバ側検知/認識手段32の検知/認識ファームウェアは、サーバ側検知/認識手段32のメモリに備えられている。また、サーバ側検知/認識手段32の検知/認識ファームウェアも機械学習手段30および検知/認識ファームウェア生成手段31により生成された検知/認識ファームウェアによって、更新することが可能となっている。 The server-side detection/recognition means 32 performs detection/recognition by comprehensively judging the situation from the images and information of each camera 2 . For example, the detection/recognition means 21 of each camera 2 performs detection/recognition using the image acquired by the imaging means 20 of that camera 2, while the server-side detection/recognition means 32 acquires images with a plurality of cameras 2. Detection/recognition is performed using the captured image. If the processing is too heavy for each camera 2 to perform, the server-side detection/recognition means 32 may perform part of the processing. Detection/recognition firmware for the server-side detection/recognition means 32 is stored in the memory of the server-side detection/recognition means 32 . The detection/recognition firmware of the server-side detection/recognition means 32 can also be updated by the detection/recognition firmware generated by the machine learning means 30 and detection/recognition firmware generation means 31 .

また、サーバ側検知/認識手段32は、4台のカメラ2(カメラ2a,2b,2c)の検知/認識手段21の認識結果から、各カメラ2における認識対象の認識が正しいものか、あるいは、各カメラ2における認識対象の認識が正しい確率等を判断してもよい。そして、この判断結果から、端末4等にアラーム情報等を送るようにしてもよい。例えば、4台のカメラ全てから設定対象(例えば強盗)を認識した旨の通知があった場合に、サーバ側検知/認識手段32は、設定対象の認識が正しいと判断し、端末4等にアラームを鳴らすように命令してもよい。また、設定対象を認識したカメラの台数によって、アラーム情報の内容を変える等してもよい。例えば、4台のカメラ全てが設定対象を認識した場合には、認識が正しいと判断して、サーバ側検知/認識手段32は、端末4に大きなアラーム音を鳴らすように命令するが、3台以下のカメラしか設定対象を認識しなかった場合には、認識が正しい可能性があると判断して、サーバ側検知/認識手段32は、端末4に小さなアラーム音を鳴らすように命令するといったようにしてもよい。 In addition, the server-side detection/recognition means 32 determines whether the recognition of the recognition target in each camera 2 is correct, or The probability that the recognition of the recognition target in each camera 2 is correct may be determined. Then, based on this determination result, alarm information or the like may be sent to the terminal 4 or the like. For example, when there is a notification that a setting target (for example, a robbery) has been recognized from all four cameras, the server-side detection/recognition means 32 determines that the recognition of the setting target is correct, and an alarm is sent to the terminal 4 or the like. may be ordered to ring. Also, the content of the alarm information may be changed depending on the number of cameras that recognize the setting target. For example, when all four cameras recognize the setting target, it is determined that the recognition is correct, and the server-side detection/recognition means 32 commands the terminal 4 to sound a loud alarm sound. If only the following cameras recognize the setting target, it is determined that the recognition may be correct, and the server-side detection/recognition means 32 instructs the terminal 4 to sound a small alarm sound. can be

また、サーバ側検知/認識手段32は、複数のカメラ2の検知/認識手段21の認識結果から、カメラ2の誤認識(認識ミス)の判断を行う。例えば、4台のカメラ2のうち、3台のカメラ2から検知/認識手段21により設定対象を認識した旨の通知があり、1台のカメラ2からは通知がなかった場合に、この1台のカメラ2は誤認識(認識ミス)をしたと判断をしたりする。また、逆に4台のカメラ2のうち、3台のカメラ2からは検知/認識手段21により設定対象を認識した旨の通知がなかったが、1台のカメラ2からは通知があった場合に、この1台のカメラ2は誤認識(認識ミス)をしたと判断をすることとしてもよい。
なお、サーバ側検知/認識手段32での検知/認識の結果と、各カメラ2での検知/認識の結果とを比較して、各カメラ2の誤認識(認識ミス)の判断をしてもよい。
Further, the server-side detection/recognition means 32 determines erroneous recognition (recognition error) of the camera 2 from the recognition results of the detection/recognition means 21 of the plurality of cameras 2 . For example, out of four cameras 2, if three cameras 2 notify that the detection/recognition means 21 has recognized a setting target, and one camera 2 does not notify, this one camera The camera 2 of 1 judges that erroneous recognition (recognition error) has occurred. Conversely, when three cameras 2 out of four cameras 2 did not notify that the detection/recognition means 21 recognized the setting target, but one camera 2 did. Alternatively, it may be determined that this one camera 2 made an erroneous recognition (recognition error).
Even if the result of detection/recognition by the server-side detection/recognition means 32 and the result of detection/recognition by each camera 2 are compared to determine misrecognition (recognition error) of each camera 2, good.

サーバ側記録手段33は、機械学習手段30で行う機械学習の教師データ等を記録する。また、サーバ側通信手段34は、ネットワーク5を介して各カメラ2と通信をし、各カメラ2からの画像その他の情報の受信、各カメラ2への命令や検知/認識ファームウェアの送信、異常時(設定対象を認識したとき)のアラーム情報の端末4や管理者6への送信をする。 The server-side recording means 33 records teacher data and the like for machine learning performed by the machine learning means 30 . In addition, the server-side communication means 34 communicates with each camera 2 via the network 5, receives images and other information from each camera 2, transmits commands and detection/recognition firmware to each camera 2, (when the setting target is recognized) is transmitted to the terminal 4 and the administrator 6.

次に、このような検知認識システム1の検知認識ファームウェアの更新方法について、図4のフローチャートを参照して説明する。
カメラ2は、撮像手段20により画像を取得し、検知/認識手段21の検知/認識ファームウェアによる制御により設定された認識対象の認識(検知/認識)を行う。そして、認識を誤った場合に、認識を誤った時の画像を、サーバ3に送信する(ステップS1)。なお、認識を誤った時の画像と同時に、認識を誤った時の音声データ等も送信してもよい。
なお、認識を誤ったかどうかの判断は、上述のように、複数のカメラ2の認識結果からサーバ側検知/認識手段32が判断する。例えば、カメラ2が設定された認識対象(例えば、強盗犯)を認識したときは、サーバ3に認識した旨(例えば、強盗犯を認識した旨)を通知するシステムにおいて、カメラ2aおよびカメラ2bからは認識した旨の通知がサーバ3にあったが、カメラ2cからは認識した旨の通知がなかった場合、サーバ側検知/認識手段32はこれらの通知結果から、カメラ2cは認識を誤った(認識をすることができなかった)と判断する。この際、サーバ3の制御手段は、カメラ2cに対して、カメラ2aおよびカメラ2bが認識対象を認識した画像を取得した時刻と同じ時刻またはこの前後の時刻(例えば、前後数秒から数分)にカメラ2cが取得した画像を、認識を誤った時の画像として、サーバ3に送信するように、カメラ2cに対して命令する。この命令を受けてカメラ2cは、認識を誤った時の画像をサーバ3に送信する。
なお、認識を誤ったかどうかは、人が判断してもよい。例えば、検知認識システム1は、カメラ2で撮影した画像を表示する表示手段とポインティングデバイスやキーボード等の入力手段を備えた端末とを備えており、カメラ2が、強盗犯を認識することができなかった場合に、人が、この端末の表示手段からカメラ2で撮影した画像を確認して、強盗犯を認識して欲しかった画像をこの端末の入力手段を用いて人が選択し、認識を誤った時の画像としてサーバ3に送信することとしてもよい。
Next, a method for updating the detection recognition firmware of the detection recognition system 1 will be described with reference to the flowchart of FIG.
The camera 2 acquires an image by the imaging means 20 and performs recognition (detection/recognition) of a recognition target set by control by the detection/recognition firmware of the detection/recognition means 21 . Then, when the recognition is erroneous, the image at the time of the erroneous recognition is transmitted to the server 3 (step S1). It should be noted that audio data or the like at the time of the recognition error may be transmitted together with the image at the time of the recognition error.
It should be noted that the server-side detection/recognition means 32 determines whether or not recognition is erroneous based on the recognition results of the plurality of cameras 2, as described above. For example, in a system that notifies the server 3 of recognition (for example, recognition of a robbery) when the camera 2 recognizes a set recognition target (for example, a robbery), cameras 2a and 2b If the server 3 receives a notification of recognition, but does not receive a notification of recognition from the camera 2c, the server-side detection/recognition means 32 recognizes the camera 2c incorrectly based on these notification results ( I could not recognize it). At this time, the control means of the server 3 instructs the camera 2c at the same time as the time when the camera 2a and the camera 2b acquire the image in which the recognition target is recognized, or at a time before or after this time (for example, several seconds to several minutes before or after). The camera 2c is instructed to transmit the image acquired by the camera 2c to the server 3 as the image obtained when the recognition is erroneous. In response to this command, the camera 2c transmits to the server 3 the image of the time when the recognition was erroneous.
It should be noted that a person may judge whether or not the recognition is erroneous. For example, the detection/recognition system 1 includes display means for displaying an image taken by the camera 2 and a terminal equipped with input means such as a pointing device and a keyboard. If not, the person checks the image taken by the camera 2 from the display means of this terminal, selects the image that the person wants the robbery to be recognized using the input means of this terminal, and recognizes it. It may be transmitted to the server 3 as an image at the time of error.

サーバ側制御手段35は、カメラ2から送られた認識を誤った時の画像を、教師データ(教育データ)としてサーバ側記録手段33に記録する。また、認識を誤った時の画像の記録と共に、検知/認識手段21に出して欲しかった認識結果(例えば、画像から強盗犯を認識して欲しかった旨)を教師データとしてサーバ側記録手段33に記録する。
なお、この教師データとして記録する検知/認識手段21に出して欲しかった認識結果は、サーバ3で作り出すものであってもよく、カメラ2から送られてくるものであってもよい。例えば、認識を誤ったかどうかの判断を、複数のカメラ2の認識結果からサーバ側検知/認識手段32がする場合、サーバ側検知/認識手段32は、正しいであろう認識結果(検知/認識手段21に出して欲しかった認識結果)を教師データとして作成し、この教師データをサーバ側記録手段33に記録することとしてもよい。また、例えば、人がカメラ2で撮影した画像を確認して、認識を誤ったかどうかの判断をする場合、人が上述の端末から、強盗犯を認識して欲しかった画像を選択する際に、強盗犯を認識して欲しかった旨(画像が強盗犯を示すものである旨)もこの端末の入力手段を用いて入力し、認識を誤った時の画像と共にサーバ3に送信し、この送信されたデータを教師データとして、サーバ側制御手段35がサーバ側記録手段33に記録するものとしてもよい。
The server-side control means 35 records the image sent from the camera 2 when the recognition is erroneous in the server-side recording means 33 as teacher data (education data). In addition to the recording of the image when the recognition is erroneous, the server-side recording means 33 stores the recognition result (for example, the request that the detection/recognition means 21 should recognize the robbery from the image) as teaching data. Record.
Note that the recognition result desired to be output by the detection/recognition means 21 to be recorded as teacher data may be generated by the server 3 or may be sent from the camera 2 . For example, when the server-side detection/recognition means 32 determines whether or not recognition is erroneous based on the recognition results of a plurality of cameras 2, the server-side detection/recognition means 32 determines the likely correct recognition results (detection/recognition means 21) is created as teacher data, and this teacher data may be recorded in the server-side recording means 33. FIG. Further, for example, when a person checks an image taken by the camera 2 and determines whether or not the recognition is incorrect, when the person selects an image from the above-mentioned terminal that the person wants to recognize the robbery, A request to recognize the robbery (that the image shows the robbery) is also input using the input means of this terminal, and is transmitted to the server 3 together with the image when the recognition is erroneous. The obtained data may be recorded in the server-side recording means 33 by the server-side control means 35 as teacher data.

機械学習手段30は、サーバ側記録手段33に記録された教師データを読み出す(ステップS2)。そして、機械学習手段30は、この読み出した教師データに含まれる認識を誤った際の画像から、畳み込み演算により、特徴点を抽出する(ステップS3)。機械学習手段30は、抽出された特徴点と、検知/認識手段21に出して欲しかった認識結果との情報から、機械学習を行う(ステップS4)。そして、機械学習の結果、検知認識処理を行うニューラルネットワークである検知/認識アルゴリズムが生成される(ステップS5)。 The machine learning means 30 reads the teacher data recorded in the server-side recording means 33 (step S2). Then, the machine learning means 30 extracts feature points from the misrecognized image contained in the read teacher data by convolution operation (step S3). The machine learning means 30 performs machine learning based on the information of the extracted feature points and the recognition results that the detection/recognition means 21 wanted to output (step S4). As a result of machine learning, a detection/recognition algorithm, which is a neural network for performing detection/recognition processing, is generated (step S5).

機械学習手段30での機械学習は、カメラ2毎に検知/認識アルゴリズム(検知/認識ファームウェア)が最適化されるように行われる。各カメラ2は、カメラの種類等が違う場合もあれば、まったく同じ特性を持つカメラであっても、設置場所や使用される環境が違う場合もあるので、これらの違いによって最適なアルゴリズムが異なってくる場合もあるからである。機械学習手段30は、元の検知/認識アルゴリズムと教師データとを基に、教師データに含まれる認識を誤った際の画像から、教師データに含まれる検知/認識手段21に出して欲しかった認識結果を出すことができる新たな検知/認識アルゴリズムを生成する。なお、機械学習に使う元の検知/認識アルゴリズムはサーバ側記録手段33に記録しておくものとしてもよく、カメラ2から検知/認識ファームウェアを送信してもらい、この検知/認識ファームウェアを検知/認識アルゴリズムに変換して使用してもよい。つまり、機械学習手段30は、検知/認識を誤ったカメラ2の検知/認識ファームウェアに用いられている検知/認識アルゴリズムと教師データとから、新たな検知/認識アルゴリズムを生成する。 Machine learning by the machine learning means 30 is performed so that the detection/recognition algorithm (detection/recognition firmware) is optimized for each camera 2 . Each camera 2 may be of a different type, or even cameras with exactly the same characteristics may differ in installation location or usage environment. Because it may come. Based on the original detection/recognition algorithm and the teacher data, the machine learning means 30 recognizes the recognition desired by the detection/recognition means 21 contained in the teacher data from the image in which the recognition was erroneously included in the teacher data. Generate new detection/recognition algorithms that can produce results. Note that the original detection/recognition algorithm used for machine learning may be recorded in the server-side recording means 33, and detection/recognition firmware is transmitted from the camera 2, and this detection/recognition firmware is detected/recognised. You may convert it into an algorithm and use it. In other words, the machine learning means 30 generates a new detection/recognition algorithm from the detection/recognition algorithm used in the detection/recognition firmware of the camera 2 that made a detection/recognition error and the teacher data.

検知/認識ファームウェア生成手段31は、機械学習手段30で生成された検知/認識アルゴリズムを各カメラ用の検知/認識ソフトである検知/認識ファームウェアに変換する(ステップS6)。つまり、検知/認識アルゴリズムは、検知/認識ファームウェア生成手段31により、各カメラで実行可能な形式のソフトウェアに変換される。
サーバ側通信手段34は、検知/認識ファームウェア生成手段31で生成された検知/認識ソフトである検知/認識ファームウェアをカメラ2に送信する(ステップS7)。そして、カメラ2が検知/認識ファームウェアを受け取ると、カメラ2の制御手段24は、検知/認識手段21のファームウェアを、新しい検知/認識ファームウェアに更新する。
The detection/recognition firmware generating means 31 converts the detection/recognition algorithm generated by the machine learning means 30 into detection/recognition firmware, which is detection/recognition software for each camera (step S6). That is, the detection/recognition algorithm is converted by the detection/recognition firmware generating means 31 into software in a format executable by each camera.
The server-side communication means 34 transmits the detection/recognition firmware, which is the detection/recognition software generated by the detection/recognition firmware generating means 31, to the camera 2 (step S7). Then, when the camera 2 receives the detection/recognition firmware, the control means 24 of the camera 2 updates the firmware of the detection/recognition means 21 to new detection/recognition firmware.

本実施の形態の検知認識システムによれば、カメラ2の検知/認識手段21の検知認識ファームウェアは、サーバ3の機械学習手段30および検知/認識ファームウェア生成手段31により生成された新しい検知/認識ファームウェアに更新することができる。
機械学習手段30による機械学習は、カメラ2の検知/認識手段21が、設定された認識対象の認識を誤った際の画像を教師データとして行われるので、この教師データを用いた機械学習では、その画像について設定された認識対象の認識を誤らないように検知/認識アルゴリズムが改善される。したがって、カメラ2の検知/認識の性能を向上させることができる。
According to the detection/recognition system of the present embodiment, the detection/recognition firmware of the detection/recognition means 21 of the camera 2 is new detection/recognition firmware generated by the machine learning means 30 and the detection/recognition firmware generation means 31 of the server 3. can be updated to
The machine learning by the machine learning means 30 is performed using an image when the detection/recognition means 21 of the camera 2 misrecognizes the set recognition target as teacher data. Therefore, in machine learning using this teacher data, The detection/recognition algorithm is improved so as not to misrecognise the recognition target set for the image. Therefore, the detection/recognition performance of the camera 2 can be improved.

また、機械学習はサーバ3で行い、カメラ2は、サーバ3で生成された検知認識ファームウェアの実行をすればよいので、カメラ2の演算能力等がそれほど高くなくても、検知認識ファームウェアを更新して、精度の高い検知/認識を行えるようにすることができる。また、カメラが年数の経過とともに、他のカメラに比べて相対的に性能の低いものになることもなく、むしろ、使用とともに徐々に性能を向上させることが可能となる。また、カメラ2が使用される環境に適した検知/認識ができるように、カメラ2の性能を改善させていくことが可能となる。 Machine learning is performed by the server 3, and the camera 2 only needs to execute the detection recognition firmware generated by the server 3. Therefore, even if the computing power of the camera 2 is not so high, the detection recognition firmware can be updated. can be used to perform highly accurate detection/recognition. Also, as the camera ages, the performance of the camera does not become relatively lower than that of other cameras. Also, the performance of the camera 2 can be improved so that detection/recognition suitable for the environment in which the camera 2 is used can be performed.

また、機械が自ら学習することで、人であれば気づくことができないような場合でも、設定された認識対象を認識することが可能となる。例えば、教育データとして、強盗犯が実際に強盗をしているときの画像を与えるのではなく、実際に強盗が行なわれたときよりも前の、強盗犯が写っている画像等を与えることで、実際に強盗が行なわれている場合に強盗犯を認識するようなアルゴリズムではなく、コンビニエンスストア内やコンビニエンスストアの周囲をうろつく人の挙動等から、将来的に強盗におよぶ可能性の高い人の特徴を見出し、このような人を強盗犯(強盗犯となる可能性が高い人)として認識するような検知/認識アルゴリズムを生成することも可能になる。なお、実際にどのような特徴に注目して認識を行うかは、機械学習手段30が判断するので、挙動から強盗におよぶ可能性の高い人を認識するとは限らない。 In addition, by allowing the machine to learn by itself, it becomes possible to recognize the set recognition target even when a human cannot notice it. For example, as educational data, instead of giving an image of the robber actually doing the robbery, giving an image of the robber before the actual robbery was given. , rather than an algorithm that recognizes robbers when a robbery is actually taking place, the behavior of people loitering in and around convenience stores is used to identify people who are likely to commit robberies in the future. It would also be possible to generate a detection/recognition algorithm that would find the features and recognize such a person as a burglar (a likely burglar). It should be noted that the machine learning means 30 determines what features are actually focused on for recognition, so it is not always possible to recognize a person who is highly likely to commit robbery based on behavior.

また、本実施の形態の検知認識システムによれば、4台のカメラ2は、撮像範囲が互いに重複しているので、検知/認識ファームウェアに設定されている認識対象のうち重複する部分について、4台のカメラ2で同時に認識することができる。したがって、4台のカメラ2のうち、数台が認識対象を認識することができなくても、4台のカメラ2のうちの他のカメラが認識対象を認識することが可能となるので、検知/認識をすることができる可能性を高め、システム全体としての検知/認識の精度を高めることができる。
また、4台のカメラ2は、ステレオカメラ2a、赤外線カメラ2b、単眼カメラ2cという、撮像手段20の種類の異なるカメラを含む。したがって、例えば、ステレオカメラ2aでは検知/認識をすることが困難な場合でも、赤外線カメラ2bで検知/認識をすることができる等して、同一種類のカメラ2を用いた場合に比べ、システム全体としての検知/認識の精度を高めることができる。
なお、複数のカメラ2は、それぞれ撮像範囲が全く異なる場所に設置されていたり、全く異なる認識対象を認識するものであったりしてもよい。
Further, according to the detection/recognition system of the present embodiment, the imaging ranges of the four cameras 2 overlap each other. They can be simultaneously recognized by the camera 2 on the stand. Therefore, even if some of the four cameras 2 cannot recognize the recognition target, other cameras out of the four cameras 2 can recognize the recognition target. / It is possible to increase the possibility of being able to recognize, and to improve the accuracy of detection / recognition as the whole system.
The four cameras 2 include cameras with different types of imaging means 20, such as a stereo camera 2a, an infrared camera 2b, and a monocular camera 2c. Therefore, for example, even if it is difficult to detect/recognize with the stereo camera 2a, the infrared camera 2b can detect/recognize. It is possible to improve the accuracy of detection/recognition as.
Note that the plurality of cameras 2 may be installed in locations with completely different imaging ranges, or may recognize completely different recognition targets.

また、サーバ側検知/認識手段32は、4台のカメラ2の検知/認識手段21の認識結果から、各カメラ2における認識対象の認識が正しいものかを判断したり、各カメラ2における認識対象の認識が正しい確率等を判断したり、カメラ2の誤認識(認識ミス)の判断をしたりすることができる。したがって、個々のカメラ2における検知/認識の結果から、サーバ側検知/認識手段32で認識が正しいと判断した場合にのみ、端末4等からアラーム音を発するようにしたりすることができる。
また、カメラ2の誤認識を自動で判断し、誤認識をしたカメラ2について、検知/認識の能力を改善するよう、自動で機械学習を行うようにすることができる。そして、このときに機械学習の教師データとして用いる画像には、誤認識をした際の画像を用いることができるので、この誤認識をした際の画像について認識を誤ることがないように、学習することが可能となる。したがって、誤認識を自動で判断し、カメラ2の使用とともに検知/認識の精度を高めていくことができる。
Further, the server-side detection/recognition means 32 judges whether the recognition of the recognition target in each camera 2 is correct from the recognition results of the detection/recognition means 21 of the four cameras 2, and determines whether the recognition target in each camera 2 is correct. It is possible to determine the probability that the recognition of the camera 2 is correct, or to determine the erroneous recognition (recognition error) of the camera 2 . Therefore, only when the server-side detection/recognition means 32 determines that the recognition is correct based on the detection/recognition results of the individual cameras 2, the terminal 4 or the like can sound an alarm.
In addition, it is possible to automatically determine erroneous recognition of the camera 2 and automatically perform machine learning so as to improve the detection/recognition capability of the erroneously recognized camera 2 . At this time, the image used as teacher data for machine learning can be the image at the time of erroneous recognition. becomes possible. Therefore, erroneous recognition can be determined automatically, and the accuracy of detection/recognition can be improved as the camera 2 is used.

なお、機械学習を行うタイミングは、必要に応じて適宜調整してもよい。例えば、教師データを記録手段22やサーバ側記録手段33に溜めておき、一定数以上溜まった場合や、一定期間経過したときに機械学習を行ってもよい。
また、機械学習は、撮像手段20により撮像された画像以外の画像を用いて行ってもよい。撮像手段20で撮像される画像だけでは、教師データの数や質が十分でない場合に、機械学習手段30に、他の画像を与えることで機械学習の効果を向上させることができる。
Note that the timing of performing machine learning may be adjusted as appropriate. For example, training data may be stored in the recording means 22 or the server-side recording means 33, and machine learning may be performed when a certain number or more of training data are accumulated or after a certain period of time has elapsed.
Also, machine learning may be performed using images other than the images captured by the imaging means 20 . If only the images captured by the imaging means 20 are insufficient in the number and quality of teacher data, other images can be given to the machine learning means 30 to improve the effect of machine learning.

なお、カメラ2で認識する認識対象は、上述のものに限られず、撮像手段20により撮像した画像から、検知/認識可能なものであれば何でもよい。 Note that the object to be recognized by the camera 2 is not limited to those described above, and may be anything as long as it can be detected/recognized from the image captured by the imaging means 20 .

1 検知認識システム
2 カメラ
2a ステレオカメラ(カメラ)
2b 赤外線カメラ(カメラ)
2c 単眼カメラ(カメラ)
3 サーバ
20 撮像手段
21 検知/認識手段
30 機械学習手段
31 認識ファームウェア生成手段
1 detection recognition system 2 camera 2a stereo camera (camera)
2b infrared camera (camera)
2c monocular camera (camera)
3 server 20 imaging means 21 detection/recognition means 30 machine learning means 31 recognition firmware generation means

Claims (6)

複数のカメラと、サーバと、を備え、
前記カメラは、撮像をする撮像手段と、検知/認識手段と、を備え、
前記サーバは、サーバ側検知/認識手段と、機械学習手段と、検知/認識ファームウェア生成手段と、を備え、
前記検知/認識手段は、検知/認識ファームウェアを備え、前記撮像手段で取得した画像から前記検知/認識ファームウェアによる制御により、画像に含まれる特徴を検知して、設定された認識対象を認識するとともに、前記検知/認識ファームウェアを前記検知/認識ファームウェア生成手段で生成された新たな検知/認識ファームウェアに更新可能であり、
前記サーバ側検知/認識手段は、サーバ側検知/認識ファームウェアを備え、前記撮像手段で取得した画像から前記サーバ側検知/認識ファームウェアによる制御により、画像に含まれる特徴を検知して、設定された認識対象を認識するとともに、前記サーバ側検知/認識ファームウェアを検知/認識ファームウェア生成手段で生成された新たなサーバ側検知/認識ファームウェアに更新可能であり、
前記機械学習手段は、前記撮像手段で取得した画像を教師データとして機械学習により検知/認識アルゴリズムを生成する処理を実行し、
前記検知/認識ファームウェア生成手段は、前記検知/認識アルゴリズムから前記検知/認識手段の新たな検知/認識ファームウェアを生成する処理と、前記検知/認識アルゴリズムから前記サーバ側検知/認識手段の新たなサーバ側検知/認識ファームウェアを生成する処理と、を実行し、
前記複数のカメラは、前記撮像手段による撮像範囲および設定された認識対象のうちの少なくとも一部が重複し、
前記サーバは、前記サーバ側検知/認識手段での認識対象の認識に基づいて、所定の端末が当該端末のユーザへ認識対象を認識した旨の報知を行うための情報を、当該端末に対して出力することを特徴とする検知認識システム。
comprising a plurality of cameras and a server,
The camera comprises imaging means for imaging and detection/recognition means,
the server comprises server-side detection/recognition means, machine learning means, and detection/recognition firmware generation means;
The detection/recognition means includes detection/recognition firmware, and detects features included in the image from the image acquired by the imaging means under the control of the detection/recognition firmware, and recognizes a set recognition target. , the detection/recognition firmware can be updated to new detection/recognition firmware generated by the detection/recognition firmware generating means;
The server-side detection/recognition means includes server-side detection/recognition firmware, and detects features included in the image from the image acquired by the imaging means under the control of the server-side detection/recognition firmware, and sets The recognition target can be recognized and the server-side detection/recognition firmware can be updated to new server-side detection/recognition firmware generated by the detection/recognition firmware generating means,
The machine learning means performs a process of generating a detection/recognition algorithm by machine learning using the image acquired by the imaging means as teacher data,
The detection/recognition firmware generation means generates new detection/recognition firmware for the detection/recognition means from the detection/recognition algorithm, and a new server for the server-side detection/recognition means from the detection/recognition algorithm. performing a process of generating side detection/recognition firmware;
at least a part of the imaging range of the imaging means and the set recognition targets of the plurality of cameras overlap;
Based on the recognition of the recognition target by the server-side detection/recognition means, the server transmits to the terminal information for notifying the user of the terminal that the recognition target has been recognized. A detection recognition system characterized by outputting .
前記サーバ側検知/認識手段は、前記検知/認識手段における認識対象の認識の正誤に関する判断を行うことを特徴とする請求項1に記載の検知認識システム。 2. The detection/recognition system according to claim 1, wherein said server-side detection/recognition means judges whether recognition of a recognition target by said detection/recognition means is correct or wrong. 前記複数のカメラのうちの少なくとも1台は、音声入力手段を備え、
検知/認識手段または前記サーバ側検知/認識手段は、前記音声入力手段で取得された音声を使用して、設定された認識対象の認識を行うことを特徴とする請求項1または2に記載の検知認識システム。
at least one of the plurality of cameras includes audio input means;
3. The detection/recognition means or the server-side detection/recognition means according to claim 1 or 2, which recognizes a set recognition target using the voice obtained by the voice input means. detection recognition system.
前記機械学習手段は、前記複数のカメラのうちの、一部のカメラが重複する認識対象を認識した場合に、前記複数のカメラのうちの、他のカメラが前記重複する認識対象を認識しなかった画像を教師データとして、機械学習をすることを特徴とする請求項1~3のいずれか1項に記載の検知認識システム。 The machine learning means, when some cameras among the plurality of cameras recognize overlapping recognition targets, other cameras among the plurality of cameras do not recognize the overlapping recognition targets. 4. The detection and recognition system according to any one of claims 1 to 3, wherein machine learning is performed using the image obtained as teacher data. 複数のカメラと、サーバと、を備え、
前記カメラは、撮像をする撮像手段と、検知/認識手段と、を備え、
前記サーバは、機械学習手段と、検知/認識ファームウェア生成手段と、を備え、
前記検知/認識手段は、検知/認識ファームウェアを備え、前記撮像手段で取得した画像から前記検知/認識ファームウェアによる制御により、画像に含まれる特徴を検知して、設定された認識対象を認識するとともに、前記検知/認識ファームウェアを前記検知/認識ファームウェア生成手段で生成された新たな検知/認識ファームウェアに更新可能であり、
前記機械学習手段は、前記撮像手段で取得した画像を教師データとして機械学習により検知/認識アルゴリズムを生成する処理を実行し、
前記検知/認識ファームウェア生成手段は、前記検知/認識アルゴリズムから前記検知/認識手段の新たな検知/認識ファームウェアを生成する処理を実行し、
前記複数のカメラは、前記撮像手段による撮像範囲および設定された認識対象のうちの少なくとも一部が重複し、
前記機械学習手段は、前記複数のカメラのうちの、一部のカメラが重複する認識対象を認識した場合に、前記複数のカメラのうちの、他のカメラが前記重複する認識対象を認識しなかった画像を教師データとして、機械学習をすることを特徴とする検知認識システム。
comprising a plurality of cameras and a server,
The camera comprises imaging means for imaging and detection/recognition means,
the server comprises machine learning means and detection/recognition firmware generation means;
The detection/recognition means includes detection/recognition firmware, and detects features included in the image from the image acquired by the imaging means under the control of the detection/recognition firmware, and recognizes a set recognition target. , the detection/recognition firmware can be updated to new detection/recognition firmware generated by the detection/recognition firmware generating means;
The machine learning means performs a process of generating a detection/recognition algorithm by machine learning using the image acquired by the imaging means as teacher data,
The detection/recognition firmware generation means executes processing for generating new detection/recognition firmware for the detection/recognition means from the detection/recognition algorithm,
at least a part of the imaging range of the imaging means and the set recognition targets of the plurality of cameras overlap;
The machine learning means, when some cameras among the plurality of cameras recognize overlapping recognition targets, other cameras among the plurality of cameras do not recognize the overlapping recognition targets. A detection and recognition system characterized by performing machine learning using images as training data.
前記複数のカメラのうちの少なくとも1台は、前記撮像手段の異なるカメラであることを特徴とする請求項1~5のいずれか1項に記載の検知認識システム。 6. The detection and recognition system according to any one of claims 1 to 5, wherein at least one of said plurality of cameras is a camera having a different imaging means.
JP2016231534A 2016-11-29 2016-11-29 detection recognition system Active JP7162412B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016231534A JP7162412B2 (en) 2016-11-29 2016-11-29 detection recognition system
PCT/JP2017/042578 WO2018101247A1 (en) 2016-11-29 2017-11-28 Image recognition imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016231534A JP7162412B2 (en) 2016-11-29 2016-11-29 detection recognition system

Publications (2)

Publication Number Publication Date
JP2018088157A JP2018088157A (en) 2018-06-07
JP7162412B2 true JP7162412B2 (en) 2022-10-28

Family

ID=62493674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016231534A Active JP7162412B2 (en) 2016-11-29 2016-11-29 detection recognition system

Country Status (1)

Country Link
JP (1) JP7162412B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7106997B2 (en) * 2018-06-04 2022-07-27 日本電信電話株式会社 Data analysis system and data analysis method
CN109146947B (en) * 2018-09-04 2021-09-28 清华-伯克利深圳学院筹备办公室 Marine fish three-dimensional image acquisition and processing method, device, equipment and medium
JP7157330B2 (en) 2018-11-27 2022-10-20 富士通株式会社 Monitoring device, monitoring method and monitoring program
JP7020438B2 (en) * 2019-01-18 2022-02-16 オムロン株式会社 Model generator, model generation method, model generation program, model generation system, inspection system, and monitoring system
CN113557172A (en) * 2019-03-11 2021-10-26 株式会社小糸制作所 Gated camera, automobile, vehicle lamp, object recognition system, arithmetic processing device, object recognition method, image display system, inspection method, imaging device, and image processing device
JP6721221B1 (en) * 2019-05-27 2020-07-08 株式会社Lightblue Technology Teacher data creation system, learned model creation system, and teacher data creation method
JP7353875B2 (en) 2019-09-04 2023-10-02 株式会社東芝 Sensor system and sensing method
CN111294563B (en) * 2020-02-24 2021-06-18 浙江大华技术股份有限公司 Video monitoring method and device, storage medium and electronic device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012252507A (en) 2011-06-02 2012-12-20 Panasonic Corp Personal attribute estimation system, personal attribute estimation device and personal attribute estimation method
WO2013157265A1 (en) 2012-04-18 2013-10-24 パナソニック株式会社 Image processing system, server device, image pickup device and image evaluation method
JP2013242825A (en) 2012-05-23 2013-12-05 Panasonic Corp Personal attribute estimation system and learning data creation device
JP2016191973A (en) 2015-03-30 2016-11-10 日本電気株式会社 Information transfer device, leaning system, information transfer method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008050134A (en) * 2006-08-25 2008-03-06 Toshiba Elevator Co Ltd Crime prevention camera of elevator
US20150022666A1 (en) * 2013-07-22 2015-01-22 Intellivision Technologies Corp. System and method for scalable video cloud services

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012252507A (en) 2011-06-02 2012-12-20 Panasonic Corp Personal attribute estimation system, personal attribute estimation device and personal attribute estimation method
WO2013157265A1 (en) 2012-04-18 2013-10-24 パナソニック株式会社 Image processing system, server device, image pickup device and image evaluation method
JP2013242825A (en) 2012-05-23 2013-12-05 Panasonic Corp Personal attribute estimation system and learning data creation device
JP2016191973A (en) 2015-03-30 2016-11-10 日本電気株式会社 Information transfer device, leaning system, information transfer method, and program

Also Published As

Publication number Publication date
JP2018088157A (en) 2018-06-07

Similar Documents

Publication Publication Date Title
JP7162412B2 (en) detection recognition system
US11735018B2 (en) Security system with face recognition
CN104137118B (en) The face recognition of enhancing in video
US10424175B2 (en) Motion detection system based on user feedback
US8606316B2 (en) Portable blind aid device
KR101485022B1 (en) Object tracking system for behavioral pattern analysis and method thereof
WO2016150045A1 (en) Housebreaking alarm method and device
EP3583485A1 (en) Computationally-efficient human-identifying smart assistant computer
KR101464344B1 (en) Surveillance camera and image managing system, and method for detecting abnormal state by training normal state of surveillance image
KR102390405B1 (en) Doorbell
US9704361B1 (en) Projecting content within an environment
JP6568224B2 (en) surveillance
US9578261B1 (en) Portable security surveillance device
WO2021095351A1 (en) Monitoring device, monitoring method, and program
US11450098B2 (en) Firearm detection system and method
US11093757B2 (en) Firearm detection system and method
KR102069270B1 (en) CCTV system with fire detection
US20190206230A1 (en) System and Method of Managing Personal Security
KR101321447B1 (en) Site monitoring method in network, and managing server used therein
KR102233679B1 (en) Apparatus and method for detecting invader and fire for energy storage system
KR101483614B1 (en) Outdoor security apparatus using motion detection
JP2010218039A (en) System and method for authenticating face
JP6980379B2 (en) Information processing equipment, information processing methods and programs
JP5981015B1 (en) Shoplifting crime scene recording device
JP5188840B2 (en) Security device and update method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20171110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200820

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210107

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210107

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210119

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210126

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210212

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210216

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20211019

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211022

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220713

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220816

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220920

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221018

R150 Certificate of patent or registration of utility model

Ref document number: 7162412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150