JP2018173913A - Image processing system, information processing device, and program - Google Patents
Image processing system, information processing device, and program Download PDFInfo
- Publication number
- JP2018173913A JP2018173913A JP2017073010A JP2017073010A JP2018173913A JP 2018173913 A JP2018173913 A JP 2018173913A JP 2017073010 A JP2017073010 A JP 2017073010A JP 2017073010 A JP2017073010 A JP 2017073010A JP 2018173913 A JP2018173913 A JP 2018173913A
- Authority
- JP
- Japan
- Prior art keywords
- image
- alarm
- cause
- accuracy
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 63
- 230000010365 information processing Effects 0.000 title claims description 65
- 238000000605 extraction Methods 0.000 claims abstract description 22
- 238000003384 imaging method Methods 0.000 claims abstract description 20
- 238000010276 construction Methods 0.000 claims abstract description 4
- 238000011156 evaluation Methods 0.000 claims description 57
- 230000005856 abnormality Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 26
- 230000008569 process Effects 0.000 abstract description 7
- 238000001514 detection method Methods 0.000 description 30
- 230000006870 function Effects 0.000 description 25
- 241001465754 Metazoa Species 0.000 description 19
- 238000010586 diagram Methods 0.000 description 15
- 238000012544 monitoring process Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 241000238631 Hexapoda Species 0.000 description 11
- 239000000284 extract Substances 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 5
- 230000006872 improvement Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241000270322 Lepidosauria Species 0.000 description 1
- 241000555745 Sciuridae Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 201000011243 gastrointestinal stromal tumor Diseases 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理システム、情報処理装置、及び、プログラムに関する。 The present invention relates to an image processing system, an information processing apparatus, and a program.
カメラが撮像した画像を識別装置が認識し、画像に写っている警報原因を検出する画像処理が知られている。人間と同様の作業をコンピュータで実現できるため、識別装置の機能を人工知能(AI:Artificial Intelligence)と呼ぶ場合がある。人工知能とは、人間の脳が行っている知的な作業をコンピュータで模倣したソフトウェアやコンピュータをいう。 Image processing is known in which an identification device recognizes an image captured by a camera and detects the cause of an alarm reflected in the image. Since a task similar to that of a human being can be realized by a computer, the function of the identification device may be called artificial intelligence (AI). Artificial intelligence refers to software or a computer that mimics the intellectual work performed by the human brain.
しかしながら、識別が困難な画像もあるため識別装置が警報原因を誤認識又は未認識する場合があり、従来から認識率を向上させる技術が考案されている(例えば、特許文献1参照。)。特許文献1には、車載された識別装置が誤認識又は未認識した画像を人が確認し、数秒間の動画をより高性能な識別装置に送信し、高性能な識別装置が動画から学習すべき画像を抽出する学習方法が開示されている。高性能な識別装置で抽出された画像を車両の識別装置が学習し、シミュレーションで学習の効果を評価して、改善している場合に学習結果を更新する。このような処理によれば、車両の識別装置の認識率を徐々に向上させることができる。
However, since there are images that are difficult to identify, the identification device may misrecognize or unrecognize the cause of the alarm, and a technique for improving the recognition rate has been devised (see, for example, Patent Document 1). In
しかしながら、特許文献1に開示された方法では、車載された識別装置よりも高性能な識別装置を用意する必要があるという問題がある。一般に、高性能な識別装置は大量の学習画像が必要であるため、人手により又は適切な情報処理で大量の学習画像を収集しなければならない。また、学習する画像の量が多いほど学習に時間がかかってしまう。
However, the method disclosed in
本発明は、上記課題に鑑み、高性能な識別装置を使わずに認識率を向上させることができる画像処理システムを提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an image processing system capable of improving the recognition rate without using a high-performance identification device.
本発明は、撮像装置が撮像した画像から予め定められた警報原因を識別する画像処理システムであって、前記撮像装置から前記画像を取得する画像取得手段と、前記画像に写っている前記警報原因を識別すると共に、前記警報原因が識別される確度を算出する第一の識別手段と、前記画像を表示装置に表示する表示処理手段と、前記表示装置に表示された前記画像に写っている前記警報原因の入力を受け付ける受付手段と、前記第一の識別手段が算出し前記受付手段が受け付けた前記警報原因が識別される確度が第一の閾値以上の場合、前記画像を画像記憶部に格納する画像抽出手段と、前記画像記憶部に記憶されている前記画像を用いて第二の識別手段を構築する識別手段構築手段と、を有する。 The present invention is an image processing system for identifying a predetermined alarm cause from an image captured by an imaging device, the image acquisition means for acquiring the image from the imaging device, and the alarm cause reflected in the image And a first identification means for calculating the probability that the cause of the alarm is identified, a display processing means for displaying the image on a display device, and the image displayed on the display device An accepting means for accepting an input of an alarm cause, and an image storage unit storing the image when the accuracy of identifying the cause of the alarm calculated by the first identifying means and accepted by the accepting means is greater than or equal to a first threshold value Image extracting means for performing the identification, and identifying means constructing means for constructing a second identifying means using the image stored in the image storage unit.
本発明によれば、高性能な識別装置を使わずに認識率を向上させることができる画像処理システムを提供することができる。 According to the present invention, it is possible to provide an image processing system capable of improving the recognition rate without using a high-performance identification device.
以下、本発明を実施するための形態について図面を参照しながら説明する。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
<画像処理システムの動作の概略>
図1は、画像処理システム100が学習対象の警報画像6を抽出する動作の概略を説明する図である。本実施例の画像処理システム100は、画像に写った対象を画像処理により検出する技術に関する。この対象は警報の原因となるため警報原因と称される。
<Outline of operation of image processing system>
FIG. 1 is a diagram for explaining an outline of an operation in which the
監視場所8のカメラ装置10は異常を検出すると警報画像6を監視センター9に送信する。従来、監視センター9の監視員7は、警報画像6を1枚1枚目視し、例えば侵入者が検出されたのかどうかを判断していた。警報画像6は、異常が検出された時刻の前後の少なくとも数秒の画像を含むため、監視員7が1枚1枚目視することが負担となっている。
When the
そこで、監視センター9で機械的な識別装置を採用して警報原因を特定することで、監視員7の負担を低減することが検討されている。
Therefore, it has been studied to reduce the burden on the supervisor 7 by adopting a mechanical identification device at the
このためには、識別装置の認識率が高いことが望ましいため、本実施形態では認識率を向上させる技術について説明される。識別装置が警報原因を識別した警報画像6に確度が閾値a(第二の閾値)以上の警報画像6が含まれない場合、監視員7は警報画像6を目視して警報原因を入力する。そして、この警報原因の確度が閾値b(第一の閾値)以上の警報画像6を新たな学習データとして学習する。したがって、警報画像6の中に、警報原因の確度が十分高いものがなく識別装置が警報原因を推定又は判断できない場合であっても、監視員7が推定又は判断した警報原因の確度が一定以上である場合に、警報画像6が学習されるので認識率を向上することができる。
For this purpose, since the recognition rate of the identification device is desirably high, a technique for improving the recognition rate will be described in this embodiment. When the
図1を用いて画像処理システム100の動作の概略を説明する。
(1)まず、カメラ装置10は動体かつ/又は遠赤外線を放射する動物などを検出する。動物等を以下、検知対象という。
(2)カメラ装置10は検知対象が検知された時刻の前後数秒の警報画像6を監視センター9に送信する。
(3)警報原因推定部34は、警報原因と画像の関係を予め学習してある識別装置である。警報原因推定部34が警報画像6を識別することで、1枚の警報画像6ごとに各警報原因とその確度を算出する。
(4)確度が十分に高い場合(確度が閾値a以上)、確度が閾値a以上の警報原因が警報画像6に写っている可能性が高いと判断してよいので、閾値a以上の確度を有する警報原因に着目して確度が閾値b以上の警報画像6が学習DB392(Data Base)に認識結果(警報原因)と共に格納される。
(5)一方、確度が閾値a未満の警報画像6が存在しない場合、監視員7は確度が閾値a未満の警報画像6を目視して警報原因を入力する。警報画像6が複数枚でも、1回の警報では同じ警報原因が写っているため、監視員7は複数の警報画像6を確認して1つの警報原因を入力するだけでよい。
(6)学習画像自動抽出部35は監視員7が入力した警報原因の確度が閾値b以上の警報画像6のみを学習DB392に該入力した警報原因と共に格納する。
An outline of the operation of the
(1) First, the
(2) The
(3) The alarm cause
(4) If the accuracy is sufficiently high (accuracy is greater than or equal to threshold a), it may be determined that there is a high possibility that the cause of the alarm with accuracy greater than or equal to the threshold a is reflected in the
(5) On the other hand, when there is no
(6) The learning image
この結果、学習DB392には警報原因の確度が高い(閾値a又はb以上)警報画像6が警報原因と共に格納されたことになる。後述する学習部は警報原因を教師信号に警報画像6を学習するので、認識率が向上した識別装置を作成できる。また、認識率が向上するほど、監視員7による警報原因の入力負担を低減できる。
As a result, the
<用語について>
警報原因とは、警報の原因となった対象をいう。例えば、警報画像に写っている動体、遠赤外線が検知された動物などの検知対象である。
<Terminology>
An alarm cause refers to an object that causes an alarm. For example, it is a detection target such as a moving object shown in an alarm image or an animal in which far infrared rays are detected.
また、識別とは、画像に写っている警報原因を見分けることであるが、特定すること、判断すること、又は、認識すること等と表現してもよい。 Moreover, although identification is identifying the cause of the alarm shown in the image, it may be expressed as specifying, judging, or recognizing.
確度とは、確実さの程度又はたしかさである。本実施形態では、主に警報原因が識別された場合、それがどのくらい確かかを示す。尤度や確率と称してもよい。 The accuracy is the degree or method of certainty. In the present embodiment, when an alarm cause is identified, how much it is sure is shown. It may be referred to as likelihood or probability.
<システム構成例>
図2は、画像処理システム100のシステム構成図の一例を示す。画像処理システム100は、ネットワークNを介して接続されたカメラ装置10と情報処理装置30とを主に有する。カメラ装置10は監視場所8に設置され、毎秒数枚の画像を撮像する撮像装置である。監視場所8は、例えば、オフィス、個人邸宅、ホテル、店舗、研究所、倉庫、工場など第三者の出入りが監視されうる場所である。屋内に限られず、駐車場、競技施設、山林、臨海地域、立ち入り禁止区域などの屋外に設置される場合もある。
<System configuration example>
FIG. 2 shows an example of a system configuration diagram of the
カメラ装置10は撮像する機能だけでなく動体を検出する画像処理機能及び対象から放出される遠赤外線を検知する機能を有している。カメラ装置10は画像に動体が写っている場合、かつ/又は、遠赤外線を検出した場合、その前後の画像を警報画像6として監視センター9に送信する。監視中のカメラ装置10に撮像されうる検知対象は様々であり監視場所8によって異なるが、例えば虫、鳥、小動物(ねずみ、猫、犬、りす、とかげ等)、及び、人等である。多くの監視場所8でカメラ装置10が検知すべきは人であるが、人だけを検出しようとすると画像処理が複雑になったり、人が存在しても未検知となったりする場合が生じうるので、動体かつ/又は遠赤外線を放射する動物などの検知対象を検知している。
The
ネットワークNは、カメラ装置10が設置されている監視場所8に構築されているLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等により構築されている。ネットワークNが複数のLANを有する場合、ネットワークNはWANと呼ばれ、インターネットが含まれる場合がある。ネットワークNは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。また、カメラ装置10が、3G、4G、5G、LTE(Long Term Revolution)などの無線の公衆回線網に接続する場合は、LANを介さずにプロバイダネットワークに接続することができる。
The network N is constructed by a LAN constructed in the
監視センター9は、監視員7が警報画像6を確認して検知対象が警報の対象か否かを判断する場所である。情報処理装置30は本実施例で説明するように認識率が向上される識別装置を有している。情報処理装置30は検知対象を識別して、人である場合は警報の対象であると確定したり、監視員7が最終的な確認を行ったりして、警備員を監視場所8に派遣する。
The
情報処理装置30は、一般的なコンピュータ、PC(Personal Computer)、サーバなどとよばれる装置である。図2では説明の便宜上、一台の情報処理装置30を示したが、情報処理装置30は一台とは限らず、図1で説明した機能を複数の情報処理装置30が分担して有していてもよい。
The
<ハードウェア構成例>
図3は、カメラ装置10のハードウェア構成図の一例である。カメラ装置10は、撮像部101、画像処理IC103、遠赤外線センサ102、信号処理IC104、ROM105、CPU106、RAM107、及び、通信装置108を有している。
<Hardware configuration example>
FIG. 3 is an example of a hardware configuration diagram of the
撮像部101は、レンズ、絞り、シャッター(メカ・電子)、CMOSやCCDなどの固体撮像素子、及び、メモリ等を有するカメラである。画像は白黒でもカラーでもよい。撮像部101はCPU106からの制御により定期的に所定範囲を撮像し、画像を画像処理IC103に送出する。画像処理IC103は、画像に動体を検出する画像処理を施す集積回路である。
The
遠赤外線センサ102は、物体から放射される遠赤外線を検知して温度変化を検知するセンサである。具体的には焦電素子又はサーモパイルセンサが知られている。レンズを有しており、レンズの画角に入る遠赤外線を焦電素子又はサーモパイルセンサに誘導し、主に恒温動物が放射する遠赤外線を電気信号に変換する。信号処理IC104は、電気信号を監視して温度変化の有無を判断する集積回路である。
The far-
CPU106は、RAM107を作業メモリにしてROM105に記憶されたプログラムを実行し、カメラ装置10の全体を制御する。すなわち、撮像部101による撮像を制御したり、遠赤外線センサ102による遠赤外線の検出を制御したりする。また、通信装置108を制御して監視センター9に警報画像6を送信したりする。
The
通信装置108は、ネットワークインタフェースやイーサネット(登録商標)カードと呼ばれ、ネットワークに接続する機能を提供する。無線LANのアクセスポイントや携帯電話網の基地局に接続してもよい。
The
図4は、情報処理装置30の概略的なハードウェア構成を示したブロック図である。情報処理装置30は、概ねパーソナル・コンピュータ、ワークステーション又はアプライアンス・サーバとして実装することができる。情報処理装置30は、CPU201と、CPU201が使用するデータの高速アクセスを可能とするメモリ202とを備える。CPU201及びメモリ202は、システム・バス203を介して、情報処理装置30の他のデバイス又はドライバ、例えば、グラフィックス・ドライバ204及びネットワーク・ドライバ(NIC)205へと接続されている。
FIG. 4 is a block diagram illustrating a schematic hardware configuration of the
LCD(表示装置)206はグラフィックス・ドライバ204に接続されて、CPU201による表示指示を実行し画面を表示する。LCD206にはタッチパネルが一体に配置されていてもよい。この場合、監視員7は操作手段として指を使って情報処理装置30を操作できる。
An LCD (display device) 206 is connected to the
また、ネットワーク・ドライバ205は、トランスポート層レベル及び物理層レベルで情報処理装置30をネットワークNへと接続して、カメラ装置10等とのセッションを確立させている。
The
システム・バス203には、更にI/Oバス・ブリッジ207が接続されている。I/Oバス・ブリッジ207の下流側には、PCIなどのI/Oバス208を介して、IDE、ATA、ATAPI、シリアルATA、SCSI、USBなどにより、HDD209などの記憶装置が接続されている。HDD209の代わりに又はHDD209と共にSSD(Solid State Drive)を有していてもよい。
An I /
HDD209は情報処理装置30の全体を制御するプログラム209pを記憶している。情報処理装置30はプログラム209pを実行することで、監視員の操作を受け付けたり学習したりする。プログラム209pは、プログラムを配信するサーバから配信される他、USBメモリや光記憶媒体などの可搬性の記憶媒体に記憶された状態で配布されてもよい。
The
また、I/Oバス208には、USBなどのバスを介して、キーボード及びマウス(ポインティング・デバイスと呼ばれる)などの入力装置210が接続され、監視員7などのオペレータによる入力及び指令を受け付けている。
Also, an
情報処理装置30はクラウドコンピューティングに対応していてもよい。クラウドコンピューティングとは、特定ハードウェア資源が意識されずにネットワーク上のリソースが利用される利用形態をいう。この場合、図4に示したハードウェア構成は、1つの筐体に収納されていたり一まとまりの装置として備えられていたりする必要はなく、情報処理装置30が備えていることが好ましいハード的な要素を示す。
The
<画像処理システムの機能構成例>
図5は、画像処理システム100が備える各機能を図示した機能ブロック図の一例である。なお、本実施形態では認識率の向上に関する機能について主に説明する。
<Functional configuration example of image processing system>
FIG. 5 is an example of a functional block diagram illustrating each function provided in the
<<カメラ装置の機能構成>>
カメラ装置10は、画像取得部11、画像処理部12、遠赤外線検知部13、温度変化判断部14、及び通信部15を有している。これらの各機能は図3に示したCPU106がプログラムを実行してカメラ装置10のハードウェアと協働することで実現される機能又は手段である。ハード的又はソフト的に実現される機能を明確に区別する必要はなく、これらの機能の一部又は全てがICなどのハードウェア回路により実現されてもよい。
<< Functional configuration of camera device >>
The
また、カメラ装置10は、図3に示したROM105又はRAM107により構築される記憶部19を有している。記憶部19には画像DB191が構築されている。画像DB191は、カメラ装置10が直接有していなくてもよく、カメラ装置10がアクセス可能なネットワーク上の任意の場所にあればよい。
In addition, the
画像取得部11は、検知対象の有無に関係なく定期的に画像を取得する(撮像する)。検知対象が検知されるまでは撮像の間隔を長くし、検知対象が検知されたら撮像の間隔を短くしてもよい。画像取得部11は、図3のCPU106が撮像部101を制御すること等により実現される。
The
画像処理部12は、時系列の画像から動体を検出する。例えば時刻tの画像を記憶部19に記憶しておき、時刻t+1の画像と画素又は画素ブロックごとに比較することで、変化の有無を判断する。画素値が変化する画素には動体が写っていると判断し、変化した画素に外接矩形を描画する。画像処理部12は、動体がないと判断した画像と共に動体があると判断した画像にフラグなどを付与して画像DB191に記憶する。画像DB191では古い画像から上書きされ常に一定枚数の新しい画像が保持されている。
The
遠赤外線検知部13は、遠赤外線の波長域の電磁波を定期的に収集してA/D変換を行うことで電気信号を生成する。遠赤外線検知部13は、図3のCPU106が遠赤外線センサ102を制御すること等により実現される。
The far-
温度変化判断部14は、遠赤外線検知部13が生成した電気信号を監視して温度変化があったか否かを判断する。温度変化があると判断した場合、画像に動体が写っている可能性があるため、最も新しく撮像された画像にフラグなどを付与する。この画像は画像処理により動体が検出されているものであることが好ましい(例えば、遠赤外線を検知した時刻に撮像した画像から動体を検出した場合、該画像にフラグを付与することで可能になる)。しかし、遠赤外線の検知で付与されたフラグの前後の複数の画像が警報画像6となるので、画像処理により動体が検出されていない画像にフラグが付されても、動体が検出された画像を含めてカメラ装置10が警報画像6を情報処理装置30に送信できる。
The temperature
通信部15は、フラグが付された画像を画像DB191から検出して警報画像6として情報処理装置30に送信する。例えば、フラグが付された画像の時間的に前後の数枚〜数十枚を送信する。通信部15は、図3のCPU106が通信装置108を制御すること等により実現される。
The
<<情報処理装置の機能構成>>
情報処理装置30は、通信部31、表示制御部32、操作受付部33、警報原因推定部34、及び学習画像自動抽出部35を有している。これらの各機能は図4に示したCPU201がプログラム209pを実行して情報処理装置30のハードウェアと協働することで実現される機能又は手段である。ハード的又はソフト的に実現される機能を明確に区別する必要はなく、これらの機能の一部又は全てがICなどのハードウェア回路により実現されてもよい。
<< Functional configuration of information processing equipment >>
The
また、情報処理装置30は、図4に示したメモリ202又はHDD209より構築される記憶部39を有している。記憶部39には警報画像DB391及び学習DB392が構築されている。これらDBは、情報処理装置30が直接有していなくてもよく、情報処理装置30がアクセス可能なネットワーク上の任意の場所にあればよい。
In addition, the
通信部31は、カメラ装置10から警報画像6を受信する。受信した警報画像6は警報画像DB391に記憶される。通信部31は図4に示したCPU201がプログラム209pを実行してネットワーク・ドライバ205を制御すること等により実現される。
The
表示制御部32は、警報原因の入力のため監視員7の操作により又は自動的に警報画像DB391に記憶された警報画像6をLCD206に表示する。表示制御部32が表示する警報原因の入力画面の一例を図8に示す。表示制御部32は、例えば図4に示したCPU201がプログラム209pを実行してグラフィックス・ドライバ204を制御すること等により実現される。
The
操作受付部33は、情報処理装置30に対する監視員7の操作を受け付ける。本実施形態では、LCD206に表示した警報画像6に対する監視員7の警報原因の入力操作を受け付け、該警報画像6を入力された警報原因と対応付けて警報画像DB391に登録する。操作受付部33は、例えば図4に示したCPU201がプログラム209pを実行して入力装置210を制御すること等により実現される。
The
警報原因推定部34は、警報画像6から検知対象を識別する識別装置である。本実施形態ではこの警報原因推定部34の認識率を向上させることが可能になる。警報原因推定部34は、学習により構築された識別機能により、警報画像6に写っている検知対象の確度を検知対象ごとに算出する。警報原因推定部34は各検知対象の確度を警報画像6に対応付けて警報画像DB391に記憶させる。警報原因推定部34は、例えば図4に示したCPU201がプログラム209pを実行すること等により実現される。
The alarm cause
学習画像自動抽出部35は、警報画像DB391の警報画像6に対応付けて登録された各警報原因とその確度を読み出して、まず、確度が閾値a以上の警報画像6を学習DB392に移動する。また、監視員7が入力した警報原因の確度が閾値b以上の警報画像6を学習DB392に移動させる。学習画像自動抽出部35は、例えば図4に示したCPU201がプログラム209pを実行すること等により実現される。
The learning image
表2(b)は、監視員7が警報原因として小動物を入力し、確度が閾値a未満b以上の警報原因が写っている警報画像6が格納された学習DB392を示す。表1(b)では閾値が0.7以上の警報原因が検出されていないので、監視員7が警報原因を入力する。入力された警報原因が小動物の場合、表1(b)の警報画像DB391で確度が0.3以上(0.7未満)で警報原因が小動物なのは画像番号が1〜3の警報画像6なので、画像番号が1〜3の警報画像6が警報原因「小動物」と対応付けて学習DB392に記憶されている。
Table 2 (b) shows the
表2(c)は、監視員7が警報原因として人を入力したが、警報画像6が格納されなかった学習DB392を示す。表1(b)では閾値が0.7以上の警報原因が検出されていないので、監視員7が警報原因を入力する。入力された警報原因が人の場合、表1(b)の警報画像DB391で確度が0.3以上(0.7未満)で警報原因が人の警報画像6は存在しない。このため、学習DB392には警報画像6が記憶されない。これにより、監視員7が誤入力しても学習にふさわしくない警報画像6が抽出されることを抑制できる。
Table 2 (c) shows the
<カメラ装置が描画する外接矩形>
図6を用いて、カメラ装置10が動体を検知した場合に警報画像6に描画する外接矩形について説明する。図6は、カメラ装置10が警報画像6に描画した外接矩形301の一例を示す。この警報画像6では動体として人が検知されている。動体を囲むように外接矩形301が描画されている。監視員は外接矩形301に着目することで警報原因を早期に判断できる。
<A circumscribed rectangle drawn by the camera device>
A circumscribed rectangle that is drawn on the
また、情報処理装置30による警報原因の識別ではこの外接矩形301を利用して、外接矩形の301内部でのみ行うことができる。これにより、識別に要する時間を短縮し、負荷を軽減できる。
Further, the cause of alarm by the
しかしながら、外接矩形301が警報原因を正しく囲んでいるとは限らないので、情報処理装置30が警報画像6の全体を識別することも有効である。外接矩形301は、監視員7が警報原因の場所を把握しやすくためには有効であるが、画像処理による識別では認識率の向上の妨げになる場合がある。このため、情報処理装置30が警報画像6の全体を識別する場合は、警報画像6から外接矩形301を削除することが好ましい。警報画像6に外接矩形301が直接、描画されている場合、外接矩形301の削除により画像の一部が無くなってしまうため、警報画像6とは別のレイヤに外接矩形301が描画されていることが好ましい。
However, since the circumscribed
<確度について>
図7を用いて、警報画像6の学習と確度について説明する。図7は学習のモデルの一例であるニューラルネットワークにおける多層パーセプトロンと呼ばれるモデルを示す。
<Accuracy>
The learning and accuracy of the
図7(a)では学習フェーズを説明している。入力層501にはメッシュ状に区分された警報画像6の各領域画像が入力され、中間層502と出力層503の間で特徴量が算出されると共に、出力層503から検知対象の確度が出力される。図7では入力層501のノードの数は領域画像の数であり、出力層503のノードの数は検知対象の種類の数である。また、図7では、中間層502の数は1であるが、中間層502の数は適宜設計され、ディープラーニングと呼ばれる学習方法では10〜20以上となる場合もある。
FIG. 7A illustrates the learning phase. Each region image of the
入力層501に入力された領域画像はそれぞれ画像フィルタにより特徴抽出され、後段に行くほど領域画像が結合される。これにより、入力層501から出力層503に近づくほど、警報画像6の大域の特徴が抽出されるようになる。
Each region image input to the
学習フェーズにおいて出力層503の各ノードには、ノードに対応する検知対象が写っている場合に「1」がそれ以外の場合は「0」が教師信号として設定される。例えば、図7ではノードy1の検知対象が虫、ノードy2の検知対象が鳥、及び、ノードy3の検知対象が人である。入力された警報画像6の警報原因が「虫」なので、ノードy1に「1」が設定され、ノードy2とノードy3には「0」が設定されている。
In the learning phase, “1” is set as a teacher signal in each node of the
出力層503のノードの値と教師信号の差は、誤差逆伝播法に基づき画像フィルタに伝播される。これにより、ディープラーニングでは警報画像の特徴の抽出に適した画像フィルタが自動的に最適化されるという特徴がある。したがって、ディープラーニングでは特徴の抽出を自動的に行うことができる。
The difference between the node value of the
図7(b)は認識フェーズを説明している。図7(b)のニューラルネットワークは警報画像6から写っている検知対象の確度を出力する。学習がある程度完了すると、入力層501から警報原因が写っている警報画像が入力された場合に、出力層503の各ノードは、警報原因に対応するノードから1に近い確度を出力し、それ以外のノードから0に近い確度を出力する。例えば、図7(b)では入力される警報画像に警報原因として虫が写っているので、ノードy1が0.8を出力し、ノードy2が0.2を出力し、ノードy3が0.1を出力している。このようにして、1つの警報画像6から各検知対象の確度が得られる。
FIG. 7B illustrates the recognition phase. The neural network in FIG. 7B outputs the accuracy of the detection target shown in the
なお、図7のような学習方法又は確度の算出方法は一例に過ぎず、前段にディープラーニングを採用して特徴抽出し、後段にSVM(サポートベクターマシン)を採用して警報原因を識別してもよい。また、SIFT(Scale-Invariant Feature Transform)やGISTなどで抽出した特徴量をSVMに入力して警報原因を識別してもよい。 Note that the learning method or the accuracy calculation method shown in FIG. 7 is merely an example, and feature extraction is performed using deep learning in the previous stage, and the cause of the alarm is identified using SVM (support vector machine) in the subsequent stage. Also good. Further, the cause of the alarm may be identified by inputting a feature amount extracted by SIFT (Scale-Invariant Feature Transform), GIST, or the like into the SVM.
また、警報原因推定部34が推定した確度以外に、警報原因の確からしさを算出する方法で確度と同等の情報を算出してもよい。しかし、警報原因推定部34が推定した確度を利用することで、確度と同等の情報を算出する工程を省くことができる。
In addition to the accuracy estimated by the alarm
<監視員7が入力する警報原因のユーザインタフェース>
続いて、図8を用いて監視員7による警報原因の入力について説明する。図8は、LCD206に表示される警報原因の入力画面401の一例である。警報原因の入力画面401は、カメラ装置10から警報画像6が受信されると自動的に又は監視員7の操作により情報処理装置30のLCD206に表示される。警報原因の入力画面401は、警報画像欄411、戻るボタン412、送るボタン413、画像番号表示欄414、複数の警報原因ボタン415、及び、OKボタン416を有する。
<User interface of cause of alarm input by supervisor 7>
Next, the alarm cause input by the supervisor 7 will be described with reference to FIG. FIG. 8 is an example of the alarm
警報画像欄411は警報画像6が表示される欄である。検知対象が検知された前後の複数の警報画像6が時系列に表示される。戻るボタン412は監視員7が1つ前の警報画像6を表示させるためのボタンであり、送るボタン413は監視員7が1つ後の警報画像6を表示させるためのボタンである。画像番号表示欄414は、現在、警報画像欄411に表示されている警報画像6が何枚中何枚目かを示す。警報原因ボタン415は、それぞれ虫、鳥、小動物、及び人という表記を有し、監視員7は警報画像欄411を見て警報原因を判断し警報原因ボタン415を押下する。OKボタン416は監視員7の入力結果を確定するためのボタンであり、OKボタン416の押下により学習DB392に抽出される警報画像6の抽出処理が開始される。
The
なお、監視員7は複数の警報画像6に対し1つの警報原因を入力すればよい。こうすることで、監視員7が警報原因を判断する負担を低減できる。
The monitoring staff 7 may input one alarm cause for the plurality of
警報原因の入力画面401に閾値a以上の警報画像6が表示される必要はないが、監視員7が念のため確認することは差し支えない。このため、確度が閾値a以上の警報画像6が警報原因の入力画面401に表示されるかどうかは監視員7の設定により切り替え可能であることが好ましい。確度が閾値a以上の警報画像6が表示される場合はその旨(例えば、この画像は虫と判断され学習DBに格納済です)を表示制御部32が表示する。これにより、自分の判断を検証できる。あるいは、警報原因が正しくない場合は学習DBから削除したりすることもできる。
Although it is not necessary to display the
<学習DB392に抽出される警報画像>
図9は、学習に用いられる警報画像6の抽出方法を説明する図の一例である。上記のように監視員7は複数の警報画像6に対し1つの警報原因を入力する。学習画像自動抽出部35は、各警報画像6から監視員7が入力した警報原因の確度が閾値b以上の警報画像6を抽出する。例えば、入力された警報原因が虫の場合を例にして説明する。
<Alarm image extracted in the
FIG. 9 is an example of a diagram illustrating a method for extracting the
警報画像61の虫の確度は閾値b未満、警報画像62の虫の確度は閾値b以上、警報画像63の虫の確度は閾値b未満である。この場合、学習画像自動抽出部35は、警報画像62のみを抽出して学習DB392に格納する。
The accuracy of the insect in the
監視員7が警報画像6に写っている正しい警報原因を入力した場合、この警報原因の確度が高い警報画像6のみが抽出され学習に使用されるので、学習画像自動抽出部35は複数の警報画像6のうち警報原因が写っている警報画像6を抽出できる。したがって、警報画像6と警報原因の関係を学習するために適切な警報画像6を抽出できる。
When the monitor 7 inputs the correct cause of the alarm shown in the
仮に、監視員7が警報画像6に写っていない誤った警報原因を入力した場合、この警報原因の確度が高い警報画像6は存在しないので、誤った警報原因が対応付けられた警報画像6は抽出されない。したがって、情報処理装置30が警報画像6と警報原因の誤った関係を学習することを抑制できる。換言すると、監視員7の誤入力に対応できる。
If the monitor 7 inputs an incorrect alarm cause that is not shown in the
具体的には、監視員7が警報画像6に写っている警報原因とは異なる警報原因を入力した場合は以下のように処理される。すなわち、警報画像6に写っている警報原因の確度が閾値a未満であり、監視員7が警報画像6に写っている警報原因とは異なる警報原因を入力した場合、警報画像6に写っている警報原因の確度が閾値b以上でも、監視員7が入力した警報原因の確度は閾値b未満となっていると考えられるので、学習DB392には格納されない。したがって、学習DB392に格納される警報画像は減る可能性があるが、情報処理装置30が警報画像6と警報原因の誤った関係を学習することを抑制できる。
Specifically, when the monitor 7 inputs an alarm cause different from the alarm cause shown in the
カメラ装置10が撮像する警報画像は、低フレームレートのため、似た画像が存在しにくく、また、警報前後の数秒の画像であるため、警報原因が写っていない画像が多いという特徴がある。このため、警報原因が写っていない警報画像を排除することで学習による精度向上が見込める。
The alarm image captured by the
<<確度が安定しない警報画像の排除>>
このように警報原因の確度が高い警報画像が学習DB392に格納されることで、情報処理装置30は警報画像6と警報原因の関係を学習できる。しかしながら、確度が高くても学習DB392には入れない方がよい警報画像6もあり得る。
<< Eliminating alarm images with unstable accuracy >>
Thus, by storing the alarm image with high accuracy of the alarm cause in the
図10は複数の警報画像6から算出された各警報原因の確度のうち監視員7が入力した警報原因の確度を時系列に示す。この一連の警報画像6の確度は閾値a又はbを超える場合があるが、確度が極度に大きく変動している。同じ警報原因の確度が極度に大きく変動することは考えにくく、警報原因推定部34が正しく確度を算出できなかった可能性が高い。このような警報画像6は学習に用いられるべきではないので、学習画像自動抽出部35は学習画像DBに移動しないことが好ましい。
FIG. 10 shows, in a time series, the accuracy of the alarm cause input by the monitor 7 out of the accuracy of each alarm cause calculated from the plurality of
具体的には、各警報画像6の警報原因ごとに確度の分散を算出し、閾値を超えた分散を持つ警報画像6を学習DB392に移動しない。こうすることで、認識率を向上しやすくなる。
Specifically, the variance of the accuracy is calculated for each alarm cause of each
<動作手順>
図11は、情報処理装置30が警報画像6を抽出して学習DB392に格納する処理を説明するフローチャート図の一例である。
<Operation procedure>
FIG. 11 is an example of a flowchart illustrating a process in which the
まず、情報処理装置30の通信部31は、検知対象が検知されたことによりカメラ装置10から送信された複数の警報画像6を取得する(S10)。複数の警報画像6は警報画像DB391に格納される。
First, the
次に、情報処理装置30の警報原因推定部34は各警報画像6に画像認識を施し、各警報原因の確度を算出する(S20)。これにより、表1に示したように警報画像DB391には、警報画像6ごとに各警報原因の確度が登録される。
Next, the alarm
次に、情報処理装置30の学習画像自動抽出部35は、確度が閾値a以上の警報画像6があるか否かを判断する(S30)。この確度は任意の警報原因が有する確度でよい。警報原因に関わらず確度が高い場合は警報原因が検知されていると判断してよいためである。
Next, the learning image
ステップS30の判断がYesの場合、この警報画像6には警報原因が写っている可能性が高いので、学習画像自動抽出部35は確度が閾値a以上であると判断された警報原因に着目してこの警報原因の確度が閾値b以上の警報画像6を抽出し学習DB392に格納する(S40)。例えば表1(a)の警報画像6で閾値a(0.7)以上の確度を有するのは小動物という警報原因である。よって、小動物の確度が閾値b(0.3)以上である警報画像6が抽出される。表1(a)の警報画像6に対し表2(a)の学習DB392が作成され図11の処理は終了する。閾値a以上の確度を有する警報原因は監視員7が確認しなくてもこの警報原因が警報画像6に写っていることがほぼ間違いないので、同じ警報原因の確度が閾値b以上の警報画像6にも同じ警報原因が写っていると判断してよいためである。これにより、より多くの警報画像6を自動的に抽出できる。
If the determination in step S30 is Yes, there is a high possibility that the alarm cause is shown in the
ステップS30の判断がNoの場合、警報原因の確度が閾値a以上の警報画像6がないので、操作受付部33は監視員7の警報原因の入力を受け付ける(S50)。すなわち、表示制御部32は警報原因の入力画面401を表示して、監視員7が複数の警報画像6に対し1つの警報原因を入力する。
If the determination in step S30 is No, since there is no
情報処理装置30の学習画像自動抽出部35は、監視員7が入力した警報原因の確度が閾値b以上の警報画像6を抽出する(S60)。こうすることで、学習に適切な警報画像6のみを抽出できる。
The learning image
情報処理装置30の学習画像自動抽出部35は、抽出した警報画像6を学習DB392に格納する(S70)。以上により、学習DB392に学習に適切な警報画像6のみが格納されたことになる。表1(b)の警報画像6に対し監視員7が「小動物」という警報原因を入力した場合、表2(b)の学習DB392が作成される。表1(b)の警報画像6に対し監視員7が「人」という警報原因を入力した場合、表2(c)の学習DB392が作成される。
The learning image
このように、本実施例の画像処理システム100は、高性能な識別装置を別途用意することなく、1つの識別装置で警報原因が写っている警報画像を自動的に抽出できる。
As described above, the
本実施例では学習DB392に格納された警報画像6を用いて学習することで得られた識別装置の更新について説明する。
In this embodiment, the update of the identification device obtained by learning using the
図12は、情報処理装置30による識別装置の評価の概略を説明する図の一例である。まず、学習DB392には実施例1で抽出された警報画像6が格納されている。また、構成DB393は、現行の識別装置である警報原因推定部34を構築するために利用された警報画像6を格納している。現行の警報原因推定部34を警報原因推定部(現行)34bと称し、新しい警報原因推定部34を警報原因推定部(新)34aと称する。
FIG. 12 is an example of a diagram illustrating an outline of evaluation of the identification device by the
(1)まず、学習部36は構成DB393及び学習DB392の両方の警報画像6を用いて学習する。学習することで新しい警報原因推定部(新)34aを構築できる。
(1) First, the
(2)評価部37は、評価用画像DB394の評価用画像を用いて警報原因推定部(新)34aの性能を評価する。
(2) The
(3)警報原因推定部(現行)34bが認識できた評価用画像を、警報原因推定部(新)34aが認識できた場合、警報原因推定部(現行)34bは警報原因推定部(新)34aで置き換えられる。 (3) When the alarm cause estimator (new) 34a recognizes the evaluation image that the alarm cause estimator (current) 34b can recognize, the alarm cause estimator (current) 34b becomes the alarm cause estimator (new). 34a is replaced.
(4)置き換えた場合、学習DB392の警報画像6は構成DB393に移動され、置き換えられない場合、学習DB392の警報画像6は削除される。したがって、いずれの場合も学習DB392には警報画像6が残らない。
(4) When replaced, the
実施例1のように抽出した警報画像6で学習しても認識率が低下する可能性はゼロでないが、本実施例の更新方法では、警報原因推定部(現行)34bが認識できた評価用画像は、警報原因推定部(新)34aでも認識できることが保証されるため、認識率が向上する場合にだけ警報原因推定部34を更新できる。
The possibility that the recognition rate decreases even if learning is performed with the
<画像処理システムの機能構成例>
図13は、本実施例の画像処理システム100が備える各機能を図示した機能ブロック図の一例である。なお、図13では警報原因推定部34の更新に関する機能を説明する。また、図13の説明において、図5において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する。
<Functional configuration example of image processing system>
FIG. 13 is an example of a functional block diagram illustrating each function provided in the
まず、カメラ装置10の機能は図5から変更がない。これに対し、情報処理装置30は学習部36、警報原因推定部(新)34a、評価部37、警報原因推定部(現行)34b、及び、更新部38を有している。また、記憶部39には、学習DB392、構成DB393、及び、評価用画像DB394が構築されている。構成DB393は、警報原因推定部(現行)34bを構築するために使用された警報画像6を記憶している。評価用画像DB394は警報原因推定部34の性能を評価するために用意された評価用画像と、評価用画像に写っていることが検証された警報原因とを対応付けて記憶している。なお、評価用画像は、実際の警報画像6がシーン(監視場所8でどのような画像が撮像されるかに基づいて画像が分類されたもの)ごとに分類されたものであり、発生頻度が高いシーンほど多様な警報画像6が用意されている。したがって、実際の警報画像6の認識率を評価しやすい。
First, the function of the
学習部36は、学習DB392と構成DB393の警報画像6を取得して、ニューラルネットワーク、SVM、ディープラーニングなどの機械学習の手法で、警報画像6に検知対象が写っている確度を算出する算出方法(学習モデルという場合がある)を学習する。教師信号は、閾値a以上の警報画像6では警報原因推定部(現行)34bが推定した警報原因であり、閾値b以上の警報画像6では監視員7が入力した警報原因である。
The
警報原因推定部(新)34aは、学習部36が学習DB392と構成DB393の警報画像6で学習して生成した識別装置である。警報原因推定部(新)34aは警報画像6の入力に対し、各警報原因の確度を算出する。
The alarm cause estimation unit (new) 34a is an identification device generated by the
警報原因推定部(現行)34bは、現行の警報原因推定部34である。警報原因推定部(現行)34bは図5の警報原因推定部34に相当する。
The alarm cause estimation unit (current) 34 b is the current alarm
評価部37は、警報原因推定部(新)34aの性能を評価して、警報原因推定部(新)34aの性能が警報原因推定部(現行)34bよりも向上したか否かを判断する。例えば、警報原因推定部(新)34aと警報原因推定部(現行)34bのそれぞれで評価用画像DB394の評価用画像から警報原因を識別する処理を行う。
The
更新部38は、警報原因推定部(現行)34bを警報原因推定部(新)34aで更新する。
The
<識別装置の更新の判断>
警報原因推定部(現行)34bを警報原因推定部(新)34aで更新するか否かの判断方法は2つある。それぞれを説明する。
A.正しく識別できたか否かに基づく判断
図14を用いて警報原因推定部34の性能の評価について説明する。図14は、警報原因推定部(現行)34bと警報原因推定部(新)34aのそれぞれで評価用画像を識別した際の識別結果を示す。図14では、「○」が正しく識別できたことを示し、「×」が正しく識別できないことを示す。正しく識別できるとは、評価用画像に添付された警報原因を閾値1以上で検出できることをいう。また、正しく識別できないとは、評価用画像に添付された警報原因を閾値1未満で検出することをいう。閾値1は例えば閾値aに相当する。
<Determination of identification device update>
There are two methods for determining whether or not the alarm cause estimation unit (current) 34b is updated by the alarm cause estimation unit (new) 34a. Each will be explained.
A. Judgment based on whether or not correctly identified The performance evaluation of the alarm
図14(a)は警報原因推定部34が更新される場合の評価結果である。評価用画像1(画像番号1)は、警報原因推定部(現行)34bと警報原因推定部(新)34aのどちらでも正しく識別されている。評価用画像2(画像番号2)は、警報原因推定部(現行)34bでは正しく識別できないが、警報原因推定部(新)34aでは正しく識別されている。評価用画像3(画像番号3)は、警報原因推定部(現行)34bと警報原因推定部(新)34aのどちらでも正しく識別できない。このように、図14(a)では警報原因推定部(現行)34bが正しく識別できた評価用画像を警報原因推定部(新)34aも正しく識別できるため、評価部37は性能が向上したと判断する。
FIG. 14A shows an evaluation result when the alarm
なお、本実施例の性能とは主に認識率をいう。この認識率には、警報画像6に写っている警報原因を識別できること、及び、警報画像6に写っていない警報原因を識別しないことが含まれる。
The performance of the present embodiment mainly refers to the recognition rate. This recognition rate includes being able to identify the cause of the alarm shown in the
図14(b)は警報原因推定部34が更新されない場合の評価結果である。評価用画像1(画像番号1)は、警報原因推定部(現行)34bで正しく識別できたが、警報原因推定部(新)34aでは正しく識別できない。一方、評価用画像2(画像番号2)と評価用画像3(画像番号3)は、警報原因推定部(現行)34bでは正しく識別できないが、警報原因推定部(新)34aでは正しく識別できる。このように、警報原因推定部(現行)34bが正しく識別できた評価用画像を1つでも警報原因推定部(新)34aが正しく識別できない場合、評価部37は性能が向上したと判断しない。こうすることで、警報原因推定部34の性能が向上したことを保証できる。
FIG. 14B shows an evaluation result when the alarm
しかしながら、評価用画像DB394の全体の評価用画像の認識率が向上した場合に、性能が向上したと判断してもよい。
However, when the recognition rate of the entire evaluation image in the
B.確度が向上したか否かに基づく判断
図15を用いて確度に基づく警報原因推定部34の性能の評価について説明する。図15は、警報原因推定部(現行)34bと警報原因推定部(新)34aのそれぞれで評価用画像を識別した際の確度を示す。この確度は、評価用画像に添付されている警報原因の確度である。したがって、警報原因推定部(現行)34bよりも警報原因推定部(新)34aの方が高いことが望まれる。
B. Judgment based on whether or not the accuracy has been improved Evaluation of the performance of the alarm
図15(a)は警報原因推定部34が更新される場合の評価結果である。評価用画像1〜3(画像番号1〜3)の全てで、警報原因推定部(現行)34bよりも警報原因推定部(新)34aの確度の方が大きくなっている。このように、図15(a)では全ての評価用画像の警報原因の確度において警報原因推定部(現行)34bよりも警報原因推定部(新)34aの方が高いため、評価部37は性能が向上したと判断する。
FIG. 15A shows an evaluation result when the alarm
図15(b)は警報原因推定部34が更新されない場合の評価結果である。これに対し図15(b)では、評価用画像2、3(画像番号2,3)では警報原因推定部(現行)34bよりも警報原因推定部(新)34aの確度の方が大きくなっているが、評価用画像1(画像番号1)では警報原因推定部(現行)34bよりも警報原因推定部(新)34aの確度の方が低くなっている。
FIG. 15B shows an evaluation result when the alarm
警報原因推定部(新)34aの確度が警報原因推定部(現行)34bの確度よりも低い評価用画像が1つでも見つかる場合、評価部37は性能が向上したと判断しない。こうすることで、警報原因推定部34の性能が向上したことを保証できる。
If even one evaluation image is found in which the accuracy of the alarm cause estimation unit (new) 34a is lower than the accuracy of the alarm cause estimation unit (current) 34b, the
しかしながら、警報原因推定部(新)34aの確度の平均と警報原因推定部(新)34aの確度の平均を比較して、警報原因推定部(新)34aの確度の平均の方が高ければ性能が向上したと判断してもよい。 However, if the average accuracy of the alarm cause estimator (new) 34a is compared with the average accuracy of the alarm cause estimator (new) 34a, the average accuracy of the alarm cause estimator (new) 34a is higher. May be determined to have improved.
<動作手順>
図16は、情報処理装置30が警報原因推定部34の性能を評価して更新するか否かを判断する手順を示すフローチャート図の一例である。図16の処理は定期的に実行されてもよいし、一定量の警報画像6が学習DB392に格納された場合に実行されてもよい。
<Operation procedure>
FIG. 16 is an example of a flowchart illustrating a procedure for determining whether or not the
まず、学習部36は、学習DB392と構成DB393の警報画像6を用いて学習することで、警報原因推定部(新)34aを構築する(S110)。
First, the
次に、評価部37は、警報原因推定部(新)34aを用いて評価用画像の識別を行う(S120)。警報原因推定部(現行)34bを用いた評価用画像の識別を行ってもよいが、警報原因推定部(現行)34bの識別結果は前回の評価時のものを利用すればよい。
Next, the
評価部37は、図14、図15にて説明したように警報原因推定部(新)34aの性能が警報原因推定部(現行)34bよりも向上した否かを判断する(S130)。
The
ステップS130の判断がYesの場合、更新部38は警報原因推定部(現行)34bを警報原因推定部(新)34aで更新する(S140)。なお、警報原因推定部(現行)34bは破棄してもよいし保存しておいてもよい。
When the determination in step S130 is Yes, the
そして、更新部38は学習DB392の警報画像6を構成DB393に移動させる(S150)。このように性能向上をもたらす警報画像6を構成DB393に蓄積することができる。
And the
ステップS130の判断がNoの場合、更新部38は学習DB392の警報画像6を削除する(S160)。したがって、性能向上をもたらさない警報画像6が学習DB392に残ることを防止できる。
When the determination in step S130 is No, the
以上説明したように、本実施例の画像処理システム100は、学習DB392に格納された警報画像6を用いて警報原因推定部(識別装置)の性能を向上させることができる。警報原因推定部(識別装置)の性能を評価するので、学習によって発生しうる認識性能の低下を抑制しながら改善できる。
As described above, the
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.
本実施形態では画像を識別して警報原因が判断されたが、情報処理装置30は音を識別して警報原因を判断することも可能である。この場合、カメラ装置10は音を集音するマイク等を有している。検知対象が発する音データは警報画像と共に情報処理装置30に送信される。情報処理装置は音データがどのような音であるか(音原因)識別することができる。例えば、鍵の操作、ドアの開閉、人声、動物の声、ガラスの破壊音、等を識別する。音の認識率を向上させるため、同様に確度が閾値a以上の音データは学習DB392に格納される。それ以外の音データを監視員が聞き取り音の内容を判断し音原因を入力する。入力された音原因の確度が閾値b以上の音データが学習DB392に格納される。したがって、音データに関しても識別される。
In the present embodiment, the cause of the alarm is determined by identifying the image. However, the
また、図2のシステム構成図ではカメラ装置10と情報処理装置30が別体であるが、カメラ装置10と情報処理装置30は一体でもよい。この場合、カメラ装置10は単体で画像を識別でき、警報原因を出力できる。また、カメラ装置10は単体で性能を向上できる。この場合、カメラ装置10は以下のように動作する。
(1)警報原因が識別できなかった場合は警報画像を監視センター9に送信する。
(2)監視員7が警報原因を入力する。前述と同様の手順で学習DB392に警報画像と警報原因を格納する。
(3)学習の結果性能が向上した警報原因推定部(新)をカメラ装置10に送信し、カメラ装置10が内部の警報原因推定部(現行)を更新する。
In the system configuration diagram of FIG. 2, the
(1) When the cause of the alarm cannot be identified, an alarm image is transmitted to the
(2) The supervisor 7 inputs the cause of the alarm. The alarm image and the alarm cause are stored in the
(3) The alarm cause estimation unit (new) whose performance is improved as a result of learning is transmitted to the
また、図2のシステム構成図において、監視センター9はクライアントサーバの構成であってもよい。監視員7はPCなどの端末を操作して情報処理装置30と通信し、警報原因の入力を行う。また、この場合、情報処理装置30は監視センター9になくクラウド上にあってもよい。
In the system configuration diagram of FIG. 2, the
また、図5、13などの構成例は、カメラ装置10と情報処理装置30による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。カメラ装置10と情報処理装置30の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
5 and 13 are divided according to main functions in order to facilitate understanding of processing by the
また、図5、13では情報処理装置30が一台であるが、同じ情報処理装置30が複数台、存在してもよいし、複数の情報処理装置30に図5、13の機能が分散されていてもよい。
5 and 13, there is one
なお、通信部31は画像取得手段の一例であり、警報原因推定部(現行)34bは第一の識別手段の一例であり、表示制御部32は表示処理手段の一例であり、操作受付部33は受付手段の一例であり、学習画像自動抽出部35は画像抽出手段の一例であり、学習部36は識別手段構築手段の一例であり、警報原因推定部(新)34aは第二の識別手段の一例であり、評価部37は評価手段の一例であり、更新部38は更新手段の一例である。学習DB392は画像記憶部の一例である。
The
6 :警報画像
7 :監視員
10 :カメラ装置
30 :情報処理装置
31 :通信部
32 :表示制御部
33 :操作受付部
34 :警報原因推定部
35 :学習画像自動抽出部
36 :学習部
37 :評価部
38 :更新部
100 :画像処理システム
6: Alarm image 7: Monitor 10: Camera device 30: Information processing device 31: Communication unit 32: Display control unit 33: Operation reception unit 34: Alarm cause estimation unit 35: Automatic learning image extraction unit 36: Learning unit 37: Evaluation unit 38: Update unit 100: Image processing system
Claims (9)
前記撮像装置から前記画像を取得する画像取得手段と、
前記画像に写っている前記警報原因を識別すると共に、前記警報原因が識別される確度を算出する第一の識別手段と、
前記画像を表示装置に表示する表示処理手段と、
前記表示装置に表示された前記画像に写っている前記警報原因の入力を受け付ける受付手段と、
前記第一の識別手段が算出し前記受付手段が受け付けた前記警報原因が識別される確度が第一の閾値以上の場合、前記画像を画像記憶部に格納する画像抽出手段と、
前記画像記憶部に記憶されている前記画像を用いて第二の識別手段を構築する識別手段構築手段と、
を有する画像処理システム。 An image processing system for identifying a predetermined alarm cause from an image captured by an imaging device,
Image acquisition means for acquiring the image from the imaging device;
First identifying means for identifying the cause of the alarm in the image and calculating the accuracy with which the cause of the alarm is identified;
Display processing means for displaying the image on a display device;
Receiving means for receiving an input of the cause of the alarm shown in the image displayed on the display device;
An image extracting means for storing the image in an image storage unit, when the probability that the alarm cause received by the receiving means and calculated by the first identifying means is greater than or equal to a first threshold;
Identifying means constructing means for constructing a second identifying means using the image stored in the image storage unit;
An image processing system.
前記受付手段は、複数の前記画像に対し1つの前記警報原因の入力を受け付け、
前記画像抽出手段は、複数の前記画像のうち前記受付手段が受け付けた前記警報原因の確度が前記第一の閾値以上の前記画像を全て前記画像記憶部に記憶させる請求項1に記載の画像処理システム。 The image acquisition means acquires a plurality of the images including before and after the time when an abnormality is detected from the imaging device,
The accepting means accepts one alarm cause input for the plurality of images,
2. The image processing according to claim 1, wherein the image extraction unit causes the image storage unit to store all the images having a probability of the alarm cause received by the reception unit that is greater than or equal to the first threshold among the plurality of images. system.
前記第二の閾値以上の確度を有する前記警報原因の確度が前記第一の閾値以上である前記画像を前記第二の閾値以上の確度を有する前記警報原因と対応付けて前記画像記憶部に記憶させる請求項1又は2に記載の画像処理システム。 The image extraction means, when the image of the plurality of images identified by the first identification means includes the image having a second threshold value greater than the first threshold value, the accuracy of the alarm cause,
The image having the accuracy of the alarm threshold having the accuracy equal to or higher than the second threshold is stored in the image storage unit in association with the alarm cause having the accuracy of the second threshold or higher. The image processing system according to claim 1 or 2.
前記第二の識別手段の性能が前記第一の識別手段よりも向上していると前記評価手段が評価した場合、前記第一の識別手段を前記第二の識別手段で更新する更新手段と、
を有する請求項1〜4のいずれか1項に記載の画像処理システム。 Evaluation means for evaluating the performance of the second identification means and the first identification means;
When the evaluation unit evaluates that the performance of the second identification unit is higher than that of the first identification unit, the update unit updates the first identification unit with the second identification unit;
The image processing system according to claim 1, comprising:
前記第一の識別手段で識別できた前記画像の全てを前記第二の識別手段で識別できた場合、前記第二の識別手段の性能が前記第一の識別手段よりも向上していると評価する請求項5に記載の画像処理システム。 The evaluation means includes
When all of the images that can be identified by the first identifying means can be identified by the second identifying means, it is evaluated that the performance of the second identifying means is improved compared to the first identifying means. The image processing system according to claim 5.
前記第二の識別手段で前記画像を識別した際の確度が、前記第一の識別手段で前記画像を識別した際の確度よりも全ての前記画像において高い場合、前記第二の識別手段の性能が前記第一の識別手段よりも向上していると評価する請求項5に記載の画像処理システム。 The evaluation means includes
When the accuracy of identifying the image by the second identification unit is higher in all the images than the accuracy of identifying the image by the first identification unit, the performance of the second identification unit The image processing system according to claim 5, wherein the image processing device is evaluated as being improved over the first identification unit.
前記撮像装置から前記画像を取得する画像取得手段と、
前記画像に写っている前記警報原因を識別すると共に、前記警報原因が識別される確度を算出する第一の識別手段と、
前記画像を表示装置に表示する表示処理手段と、
前記表示装置に表示された前記画像に写っている前記警報原因の入力を受け付ける受付手段と、
前記第一の識別手段が算出し前記受付手段が受け付けた前記警報原因が識別される確度が第一の閾値以上の場合、前記画像を画像記憶部に格納する画像抽出手段と、
前記画像記憶部に記憶されている前記画像を用いて第二の識別手段を構築する識別手段構築手段と、を有する情報処理装置。 An information processing apparatus for identifying a predetermined alarm cause from an image captured by an imaging apparatus,
Image acquisition means for acquiring the image from the imaging device;
First identifying means for identifying the cause of the alarm in the image and calculating the accuracy with which the cause of the alarm is identified;
Display processing means for displaying the image on a display device;
Receiving means for receiving an input of the cause of the alarm shown in the image displayed on the display device;
An image extracting means for storing the image in an image storage unit, when the probability that the alarm cause received by the receiving means and calculated by the first identifying means is greater than or equal to a first threshold;
An information processing apparatus comprising: an identification unit construction unit that constructs a second identification unit using the image stored in the image storage unit.
前記撮像装置から前記画像を取得する画像取得手段と、
前記画像に写っている前記警報原因を識別すると共に、前記警報原因が識別される確度を算出する第一の識別手段と、
前記画像を表示装置に表示する表示処理手段と、
前記表示装置に表示された前記画像に写っている前記警報原因の入力を受け付ける受付手段と、
前記第一の識別手段が算出し前記受付手段が受け付けた前記警報原因が識別される確度が第一の閾値以上の場合、前記画像を画像記憶部に格納する画像抽出手段と、
前記画像記憶部に記憶されている前記画像を用いて第二の識別手段を構築する識別手段構築手段、として機能させるためのプログラム。 An information processing apparatus for identifying a predetermined alarm cause from an image captured by the imaging apparatus,
Image acquisition means for acquiring the image from the imaging device;
First identifying means for identifying the cause of the alarm in the image and calculating the accuracy with which the cause of the alarm is identified;
Display processing means for displaying the image on a display device;
Receiving means for receiving an input of the cause of the alarm shown in the image displayed on the display device;
An image extracting means for storing the image in an image storage unit, when the probability that the alarm cause received by the receiving means and calculated by the first identifying means is greater than or equal to a first threshold;
A program for functioning as identification means construction means for constructing second identification means using the image stored in the image storage unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017073010A JP6905849B2 (en) | 2017-03-31 | 2017-03-31 | Image processing system, information processing device, program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017073010A JP6905849B2 (en) | 2017-03-31 | 2017-03-31 | Image processing system, information processing device, program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018173913A true JP2018173913A (en) | 2018-11-08 |
JP6905849B2 JP6905849B2 (en) | 2021-07-21 |
Family
ID=64108612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017073010A Active JP6905849B2 (en) | 2017-03-31 | 2017-03-31 | Image processing system, information processing device, program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6905849B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021068197A (en) * | 2019-10-24 | 2021-04-30 | 株式会社Jvcケンウッド | Image recording device, image recording method and image recording program |
WO2022254693A1 (en) * | 2021-06-04 | 2022-12-08 | 日産自動車株式会社 | Operation detection device and operation detection method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016191973A (en) * | 2015-03-30 | 2016-11-10 | 日本電気株式会社 | Information transfer device, leaning system, information transfer method, and program |
-
2017
- 2017-03-31 JP JP2017073010A patent/JP6905849B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016191973A (en) * | 2015-03-30 | 2016-11-10 | 日本電気株式会社 | Information transfer device, leaning system, information transfer method, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021068197A (en) * | 2019-10-24 | 2021-04-30 | 株式会社Jvcケンウッド | Image recording device, image recording method and image recording program |
JP7463686B2 (en) | 2019-10-24 | 2024-04-09 | 株式会社Jvcケンウッド | IMAGE RECORDING APPARATUS, IMAGE RECORDING METHOD, AND IMAGE RECORDING PROGRAM |
WO2022254693A1 (en) * | 2021-06-04 | 2022-12-08 | 日産自動車株式会社 | Operation detection device and operation detection method |
Also Published As
Publication number | Publication date |
---|---|
JP6905849B2 (en) | 2021-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7229662B2 (en) | How to issue alerts in a video surveillance system | |
WO2020151084A1 (en) | Target object monitoring method, apparatus, and system | |
KR101607934B1 (en) | The method for monitoring communicable disease and system using the method, recording medium for performing the method | |
EP3163498B1 (en) | Alarming method and device | |
US20170053504A1 (en) | Motion detection system based on user feedback | |
CN108446669B (en) | Motion recognition method, motion recognition device and storage medium | |
WO2017166469A1 (en) | Security protection method and apparatus based on smart television set | |
CN110199316B (en) | Camera and image processing method of camera | |
CN112329504B (en) | Door opening and closing state monitoring method, device, equipment and computer readable storage medium | |
US11631306B2 (en) | Methods and system for monitoring an environment | |
CN113033521B (en) | Perimeter dynamic early warning method and system based on target analysis | |
KR101694946B1 (en) | Sensing estrus of poultry method and device for thereof | |
KR101454644B1 (en) | Loitering Detection Using a Pedestrian Tracker | |
CN114495270A (en) | Real-time monitoring and early warning method, device and system and storage medium | |
JP6905849B2 (en) | Image processing system, information processing device, program | |
CN115346060A (en) | Picture abnormity identification method and device, electronic equipment and storage medium | |
JP6621092B1 (en) | Risk determination program and system | |
KR20200009530A (en) | System and method for detecting abnormal object | |
JP5188840B2 (en) | Security device and update method | |
KR102564300B1 (en) | System for Preventing Violence School Using Body Temperature and Behavior Pattern | |
JP7198052B2 (en) | image surveillance system | |
JP7085925B2 (en) | Information registration device, information processing device, control method of information registration device, control method of information processing device, system, and program | |
JP6767788B2 (en) | Information processing equipment, control methods and programs for information processing equipment | |
JP2020129358A (en) | Risk determination program and system | |
JP7220057B2 (en) | image surveillance system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210517 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210601 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210628 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6905849 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |