JP6905849B2 - 画像処理システム、情報処理装置、プログラム - Google Patents

画像処理システム、情報処理装置、プログラム Download PDF

Info

Publication number
JP6905849B2
JP6905849B2 JP2017073010A JP2017073010A JP6905849B2 JP 6905849 B2 JP6905849 B2 JP 6905849B2 JP 2017073010 A JP2017073010 A JP 2017073010A JP 2017073010 A JP2017073010 A JP 2017073010A JP 6905849 B2 JP6905849 B2 JP 6905849B2
Authority
JP
Japan
Prior art keywords
image
alarm
accuracy
cause
alarm cause
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017073010A
Other languages
English (en)
Other versions
JP2018173913A (ja
Inventor
広大 畑中
広大 畑中
央智 牛島
央智 牛島
二見 聡
聡 二見
徹 加沢
徹 加沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOHGO SECURITY SERVICES CO.,LTD.
Original Assignee
SOHGO SECURITY SERVICES CO.,LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOHGO SECURITY SERVICES CO.,LTD. filed Critical SOHGO SECURITY SERVICES CO.,LTD.
Priority to JP2017073010A priority Critical patent/JP6905849B2/ja
Publication of JP2018173913A publication Critical patent/JP2018173913A/ja
Application granted granted Critical
Publication of JP6905849B2 publication Critical patent/JP6905849B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像処理システム、情報処理装置、及び、プログラムに関する。
カメラが撮像した画像を識別装置が認識し、画像に写っている警報原因を検出する画像処理が知られている。人間と同様の作業をコンピュータで実現できるため、識別装置の機能を人工知能(AI:Artificial Intelligence)と呼ぶ場合がある。人工知能とは、人間の脳が行っている知的な作業をコンピュータで模倣したソフトウェアやコンピュータをいう。
しかしながら、識別が困難な画像もあるため識別装置が警報原因を誤認識又は未認識する場合があり、従来から認識率を向上させる技術が考案されている(例えば、特許文献1参照。)。特許文献1には、車載された識別装置が誤認識又は未認識した画像を人が確認し、数秒間の動画をより高性能な識別装置に送信し、高性能な識別装置が動画から学習すべき画像を抽出する学習方法が開示されている。高性能な識別装置で抽出された画像を車両の識別装置が学習し、シミュレーションで学習の効果を評価して、改善している場合に学習結果を更新する。このような処理によれば、車両の識別装置の認識率を徐々に向上させることができる。
特開2011−59810号公報
しかしながら、特許文献1に開示された方法では、車載された識別装置よりも高性能な識別装置を用意する必要があるという問題がある。一般に、高性能な識別装置は大量の学習画像が必要であるため、人手により又は適切な情報処理で大量の学習画像を収集しなければならない。また、学習する画像の量が多いほど学習に時間がかかってしまう。
本発明は、上記課題に鑑み、高性能な識別装置を使わずに認識率を向上させることができる画像処理システムを提供することを目的とする。
本発明は、撮像装置が撮像した画像から予め定められた警報原因を識別する画像処理システムであって、前記撮像装置から前記画像を取得する画像取得手段と、前記画像に写っている、警報原因である検知対象の確度を検知対象ごとに算出し、前記画像に写っている前記警報原因を識別する第一の識別手段と、前記画像を表示装置に表示する表示処理手段と、前記表示装置に表示された前記警報原因のリストから前記画像に写っている前記警報原因の入力を受け付ける受付手段と、記受付手段が入力を受け付けた前記警報原因について前記第一の識別手段が算出した該警報原因が識別される確度が第一の閾値以上の場合、前記画像を画像記憶部に格納する画像抽出手段と、前記画像記憶部に記憶されている前記画像を用いて第二の識別手段を構築する識別手段構築手段と、を有する。
本発明によれば、高性能な識別装置を使わずに認識率を向上させることができる画像処理システムを提供することができる。
画像処理システムが学習対象の警報画像を抽出する動作の概略を説明する図である。 画像処理システムのシステム構成図の一例である。 カメラ装置の概略的なハードウェア構成図の一例である。 情報処理装置の概略的なハードウェア構成を示したブロック図の一例である。 画像処理システムが備える各機能を図示した機能ブロック図の一例である。 カメラ装置が警報画像に描画した外接矩形の一例を示す図である。 学習のモデルの一例であるニューラルネットワークにおける多層パーセプトロンと呼ばれるモデルを示す図である。 LCDに表示される警報原因の入力画面の一例である。 学習に用いられる警報画像の抽出方法を説明する図の一例である。 複数の警報画像から算出された各警報原因の確度のうち監視員が入力した警報原因の確度を時系列に示す図である。 情報処理装置が警報画像を抽出して学習DBに格納する処理を説明するフローチャート図の一例である。 情報処理装置による識別装置の評価の概略を説明する図の一例である。 画像処理システムが備える各機能を図示した機能ブロック図の一例である(実施例2)。 警報原因推定部(現行)と警報原因推定部(新)のそれぞれで評価用画像を識別した際の識別結果を示す図の一例である。 警報原因推定部(現行)と警報原因推定部(新)のそれぞれで評価用画像を識別した際の確度を示す図の一例である。 情報処理装置が警報原因推定部の性能を評価して更新するか否かを判断する手順を示すフローチャート図の一例である。
以下、本発明を実施するための形態について図面を参照しながら説明する。
<画像処理システムの動作の概略>
図1は、画像処理システム100が学習対象の警報画像6を抽出する動作の概略を説明する図である。本実施例の画像処理システム100は、画像に写った対象を画像処理により検出する技術に関する。この対象は警報の原因となるため警報原因と称される。
監視場所8のカメラ装置10は異常を検出すると警報画像6を監視センター9に送信する。従来、監視センター9の監視員7は、警報画像6を1枚1枚目視し、例えば侵入者が検出されたのかどうかを判断していた。警報画像6は、異常が検出された時刻の前後の少なくとも数秒の画像を含むため、監視員7が1枚1枚目視することが負担となっている。
そこで、監視センター9で機械的な識別装置を採用して警報原因を特定することで、監視員7の負担を低減することが検討されている。
このためには、識別装置の認識率が高いことが望ましいため、本実施形態では認識率を向上させる技術について説明される。識別装置が警報原因を識別した警報画像6に確度が閾値a(第二の閾値)以上の警報画像6が含まれない場合、監視員7は警報画像6を目視して警報原因を入力する。そして、この警報原因の確度が閾値b(第一の閾値)以上の警報画像6を新たな学習データとして学習する。したがって、警報画像6の中に、警報原因の確度が十分高いものがなく識別装置が警報原因を推定又は判断できない場合であっても、監視員7が推定又は判断した警報原因の確度が一定以上である場合に、警報画像6が学習されるので認識率を向上することができる。
図1を用いて画像処理システム100の動作の概略を説明する。
(1) まず、カメラ装置10は動体かつ/又は遠赤外線を放射する動物などを検出する。
動物等を以下、検知対象という。
(2) カメラ装置10は検知対象が検知された時刻の前後数秒の警報画像6を監視センター9に送信する。
(3) 警報原因推定部34は、警報原因と画像の関係を予め学習してある識別装置である。警報原因推定部34が警報画像6を識別することで、1枚の警報画像6ごとに各警報原因とその確度を算出する。
(4) 確度が十分に高い場合(確度が閾値a以上)、確度が閾値a以上の警報原因が警報画像6に写っている可能性が高いと判断してよいので、閾値a以上の確度を有する警報原因に着目して確度が閾値b以上の警報画像6が学習DB392(Data Base)に認識結果(警報原因)と共に格納される。
(5) 一方、確度が閾値a以上の警報画像6が存在しない場合、監視員7は確度が閾値a未満の警報画像6を目視して警報原因を入力する。警報画像6が複数枚でも、1回の警報では同じ警報原因が写っているため、監視員7は複数の警報画像6を確認して1つの警報原因を入力するだけでよい。
(6) 学習画像自動抽出部35は監視員7が入力した警報原因の確度が閾値b以上の警報画像6のみを学習DB392に該入力した警報原因と共に格納する。
この結果、学習DB392には警報原因の確度が高い(閾値a又はb以上)警報画像6が警報原因と共に格納されたことになる。後述する学習部は警報原因を教師信号に警報画像6を学習するので、認識率が向上した識別装置を作成できる。また、認識率が向上するほど、監視員7による警報原因の入力負担を低減できる。
<用語について>
警報原因とは、警報の原因となった対象をいう。例えば、警報画像に写っている動体、遠赤外線が検知された動物などの検知対象である。
また、識別とは、画像に写っている警報原因を見分けることであるが、特定すること、判断すること、又は、認識すること等と表現してもよい。
確度とは、確実さの程度又はたしかさである。本実施形態では、主に警報原因が識別された場合、それがどのくらい確かかを示す。尤度や確率と称してもよい。
<システム構成例>
図2は、画像処理システム100のシステム構成図の一例を示す。画像処理システム100は、ネットワークNを介して接続されたカメラ装置10と情報処理装置30とを主に有する。カメラ装置10は監視場所8に設置され、毎秒数枚の画像を撮像する撮像装置である。監視場所8は、例えば、オフィス、個人邸宅、ホテル、店舗、研究所、倉庫、工場など第三者の出入りが監視されうる場所である。屋内に限られず、駐車場、競技施設、山林、臨海地域、立ち入り禁止区域などの屋外に設置される場合もある。
カメラ装置10は撮像する機能だけでなく動体を検出する画像処理機能及び対象から放出される遠赤外線を検知する機能を有している。カメラ装置10は画像に動体が写っている場合、かつ/又は、遠赤外線を検出した場合、その前後の画像を警報画像6として監視センター9に送信する。監視中のカメラ装置10に撮像されうる検知対象は様々であり監視場所8によって異なるが、例えば虫、鳥、小動物(ねずみ、猫、犬、りす、とかげ等)、及び、人等である。多くの監視場所8でカメラ装置10が検知すべきは人であるが、人だけを検出しようとすると画像処理が複雑になったり、人が存在しても未検知となったりする場合が生じうるので、動体かつ/又は遠赤外線を放射する動物などの検知対象を検知している。
ネットワークNは、カメラ装置10が設置されている監視場所8に構築されているLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等により構築されている。ネットワークNが複数のLANを有する場合、ネットワークNはWANと呼ばれ、インターネットが含まれる場合がある。ネットワークNは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。また、カメラ装置10が、3G、4G、5G、LTE(Long Term Revolution)などの無線の公衆回線網に接続する場合は、LANを介さずにプロバイダネットワークに接続することができる。
監視センター9は、監視員7が警報画像6を確認して検知対象が警報の対象か否かを判断する場所である。情報処理装置30は本実施例で説明するように認識率が向上される識別装置を有している。情報処理装置30は検知対象を識別して、人である場合は警報の対象であると確定したり、監視員7が最終的な確認を行ったりして、警備員を監視場所8に派遣する。
情報処理装置30は、一般的なコンピュータ、PC(Personal Computer)、サーバなどとよばれる装置である。図2では説明の便宜上、一台の情報処理装置30を示したが、情報処理装置30は一台とは限らず、図1で説明した機能を複数の情報処理装置30が分担して有していてもよい。
<ハードウェア構成例>
図3は、カメラ装置10のハードウェア構成図の一例である。カメラ装置10は、撮像部101、画像処理IC103、遠赤外線センサ102、信号処理IC104、ROM105、CPU106、RAM107、及び、通信装置108を有している。
撮像部101は、レンズ、絞り、シャッター(メカ・電子)、CMOSやCCDなどの固体撮像素子、及び、メモリ等を有するカメラである。画像は白黒でもカラーでもよい。撮像部101はCPU106からの制御により定期的に所定範囲を撮像し、画像を画像処理IC103に送出する。画像処理IC103は、画像に動体を検出する画像処理を施す集積回路である。
遠赤外線センサ102は、物体から放射される遠赤外線を検知して温度変化を検知するセンサである。具体的には焦電素子又はサーモパイルセンサが知られている。レンズを有しており、レンズの画角に入る遠赤外線を焦電素子又はサーモパイルセンサに誘導し、主に恒温動物が放射する遠赤外線を電気信号に変換する。信号処理IC104は、電気信号を監視して温度変化の有無を判断する集積回路である。
CPU106は、RAM107を作業メモリにしてROM105に記憶されたプログラムを実行し、カメラ装置10の全体を制御する。すなわち、撮像部101による撮像を制御したり、遠赤外線センサ102による遠赤外線の検出を制御したりする。また、通信装置108を制御して監視センター9に警報画像6を送信したりする。
通信装置108は、ネットワークインタフェースやイーサネット(登録商標)カードと呼ばれ、ネットワークに接続する機能を提供する。無線LANのアクセスポイントや携帯電話網の基地局に接続してもよい。
図4は、情報処理装置30の概略的なハードウェア構成を示したブロック図である。情報処理装置30は、概ねパーソナル・コンピュータ、ワークステーション又はアプライアンス・サーバとして実装することができる。情報処理装置30は、CPU201と、CPU201が使用するデータの高速アクセスを可能とするメモリ202とを備える。CPU201及びメモリ202は、システム・バス203を介して、情報処理装置30の他のデバイス又はドライバ、例えば、グラフィックス・ドライバ204及びネットワーク・ドライバ(NIC)205へと接続されている。
LCD(表示装置)206はグラフィックス・ドライバ204に接続されて、CPU201による表示指示を実行し画面を表示する。LCD206にはタッチパネルが一体に配置されていてもよい。この場合、監視員7は操作手段として指を使って情報処理装置30を操作できる。
また、ネットワーク・ドライバ205は、トランスポート層レベル及び物理層レベルで情報処理装置30をネットワークNへと接続して、カメラ装置10等とのセッションを確立させている。
システム・バス203には、更にI/Oバス・ブリッジ207が接続されている。I/Oバス・ブリッジ207の下流側には、PCIなどのI/Oバス208を介して、IDE、ATA、ATAPI、シリアルATA、SCSI、USBなどにより、HDD209などの記憶装置が接続されている。HDD209の代わりに又はHDD209と共にSSD(Solid State Drive)を有していてもよい。
HDD209は情報処理装置30の全体を制御するプログラム209pを記憶している。情報処理装置30はプログラム209pを実行することで、監視員の操作を受け付けたり学習したりする。プログラム209pは、プログラムを配信するサーバから配信される他、USBメモリや光記憶媒体などの可搬性の記憶媒体に記憶された状態で配布されてもよい。
また、I/Oバス208には、USBなどのバスを介して、キーボード及びマウス(ポインティング・デバイスと呼ばれる)などの入力装置210が接続され、監視員7などのオペレータによる入力及び指令を受け付けている。
情報処理装置30はクラウドコンピューティングに対応していてもよい。クラウドコンピューティングとは、特定ハードウェア資源が意識されずにネットワーク上のリソースが利用される利用形態をいう。この場合、図4に示したハードウェア構成は、1つの筐体に収納されていたり一まとまりの装置として備えられていたりする必要はなく、情報処理装置30が備えていることが好ましいハード的な要素を示す。
<画像処理システムの機能構成例>
図5は、画像処理システム100が備える各機能を図示した機能ブロック図の一例である。なお、本実施形態では認識率の向上に関する機能について主に説明する。
<<カメラ装置の機能構成>>
カメラ装置10は、画像取得部11、画像処理部12、遠赤外線検知部13、温度変化判断部14、及び通信部15を有している。これらの各機能は図3に示したCPU106がプログラムを実行してカメラ装置10のハードウェアと協働することで実現される機能又は手段である。ハード的又はソフト的に実現される機能を明確に区別する必要はなく、これらの機能の一部又は全てがICなどのハードウェア回路により実現されてもよい。
また、カメラ装置10は、図3に示したROM105又はRAM107により構築される記憶部19を有している。記憶部19には画像DB191が構築されている。画像DB191は、カメラ装置10が直接有していなくてもよく、カメラ装置10がアクセス可能なネットワーク上の任意の場所にあればよい。
画像取得部11は、検知対象の有無に関係なく定期的に画像を取得する(撮像する)。検知対象が検知されるまでは撮像の間隔を長くし、検知対象が検知されたら撮像の間隔を短くしてもよい。画像取得部11は、図3のCPU106が撮像部101を制御すること等により実現される。
画像処理部12は、時系列の画像から動体を検出する。例えば時刻tの画像を記憶部19に記憶しておき、時刻t+1の画像と画素又は画素ブロックごとに比較することで、変化の有無を判断する。画素値が変化する画素には動体が写っていると判断し、変化した画素に外接矩形を描画する。画像処理部12は、動体がないと判断した画像と共に動体があると判断した画像にフラグなどを付与して画像DB191に記憶する。画像DB191では古い画像から上書きされ常に一定枚数の新しい画像が保持されている。
遠赤外線検知部13は、遠赤外線の波長域の電磁波を定期的に収集してA/D変換を行うことで電気信号を生成する。遠赤外線検知部13は、図3のCPU106が遠赤外線センサ102を制御すること等により実現される。
温度変化判断部14は、遠赤外線検知部13が生成した電気信号を監視して温度変化があったか否かを判断する。温度変化があると判断した場合、画像に動体が写っている可能性があるため、最も新しく撮像された画像にフラグなどを付与する。この画像は画像処理により動体が検出されているものであることが好ましい(例えば、遠赤外線を検知した時刻に撮像した画像から動体を検出した場合、該画像にフラグを付与することで可能になる)。しかし、遠赤外線の検知で付与されたフラグの前後の複数の画像が警報画像6となるので、画像処理により動体が検出されていない画像にフラグが付されても、動体が検出された画像を含めてカメラ装置10が警報画像6を情報処理装置30に送信できる。
通信部15は、フラグが付された画像を画像DB191から検出して警報画像6として情報処理装置30に送信する。例えば、フラグが付された画像の時間的に前後の数枚〜数十枚を送信する。通信部15は、図3のCPU106が通信装置108を制御すること等により実現される。
<<情報処理装置の機能構成>>
情報処理装置30は、通信部31、表示制御部32、操作受付部33、警報原因推定部34、及び学習画像自動抽出部35を有している。これらの各機能は図4に示したCPU201がプログラム209pを実行して情報処理装置30のハードウェアと協働することで実現される機能又は手段である。ハード的又はソフト的に実現される機能を明確に区別する必要はなく、これらの機能の一部又は全てがICなどのハードウェア回路により実現されてもよい。
また、情報処理装置30は、図4に示したメモリ202又はHDD209より構築される記憶部39を有している。記憶部39には警報画像DB391及び学習DB392が構築されている。これらDBは、情報処理装置30が直接有していなくてもよく、情報処理装置30がアクセス可能なネットワーク上の任意の場所にあればよい。
通信部31は、カメラ装置10から警報画像6を受信する。受信した警報画像6は警報画像DB391に記憶される。通信部31は図4に示したCPU201がプログラム209pを実行してネットワーク・ドライバ205を制御すること等により実現される。
表示制御部32は、警報原因の入力のため監視員7の操作により又は自動的に警報画像DB391に記憶された警報画像6をLCD206に表示する。表示制御部32が表示する警報原因の入力画面の一例を図8に示す。表示制御部32は、例えば図4に示したCPU201がプログラム209pを実行してグラフィックス・ドライバ204を制御すること等により実現される。
操作受付部33は、情報処理装置30に対する監視員7の操作を受け付ける。本実施形態では、LCD206に表示した警報画像6に対する監視員7の警報原因の入力操作を受け付け、該警報画像6を入力された警報原因と対応付けて警報画像DB391に登録する。操作受付部33は、例えば図4に示したCPU201がプログラム209pを実行して入力装置210を制御すること等により実現される。
警報原因推定部34は、警報画像6から検知対象を識別する識別装置である。本実施形態ではこの警報原因推定部34の認識率を向上させることが可能になる。警報原因推定部34は、学習により構築された識別機能により、警報画像6に写っている検知対象の確度を検知対象ごとに算出する。警報原因推定部34は各検知対象の確度を警報画像6に対応付けて警報画像DB391に記憶させる。警報原因推定部34は、例えば図4に示したCPU201がプログラム209pを実行すること等により実現される。
学習画像自動抽出部35は、警報画像DB391の警報画像6に対応付けて登録された各警報原因とその確度を読み出して、まず、確度が閾値a以上の警報画像6を学習DB392に移動する。また、監視員7が入力した警報原因の確度が閾値b以上の警報画像6を学習DB392に移動させる。学習画像自動抽出部35は、例えば図4に示したCPU201がプログラム209pを実行すること等により実現される。
Figure 0006905849
表1は、警報画像DB391に記憶されている情報を模式的に示す。表1には警報画像6の画像番号に各警報原因の確度が対応付けられている。警報原因は、例えば、虫、鳥、小動物、及び、人等である。表1(a)は確度が閾値a以上の警報原因が写っている警報画像6を記憶する警報画像DB391を示す。表1(b)は確度が閾値a以上の警報原因が写っている警報画像6を記憶せず、閾値b以上の警報原因が写っている警報画像6を記憶する警報画像DB391を示す。一例として、監視員7が警報原因を入力することなく自動で警報画像6が学習DB392に記憶されるための閾値aを0.7、監視員7が警報原因(例えば、小動物)を入力した場合に警報画像6が学習DB392に記憶されるための閾値bを0.3とする。閾値aは警報原因が写っていることが90〜100%の確度に相当し、ほぼ間違いなく警報原因が写っている確度である。閾値bは警報原因が写っていることが50〜90%の確度に相当し、警報原因が写っていることは概ね当たるが完全ではない場合もある確度である。
Figure 0006905849
表2は、学習DB392に記憶されている情報を模式的に示す。学習DB392には画像番号に対応付けて、警報原因とその確度が登録されている。表2(a)は表1(a)に対応し、表2(b)(c)は表1(b)に対応する。表2(a)は、確度が閾値a以上の警報原因が写っている警報画像が格納された学習DB392を示す。表1(a)の警報画像DB391で確度が0.7以上なのは小動物という警報原因である。小動物という警報原因に着目すると閾値b以上の確度を有するのは画像番号が1〜3の警報画像6なので、画像番号が1〜3の警報画像6が学習DB392に記憶されている。
表2(b)は、監視員7が警報原因として小動物を入力し、確度が閾値a未満b以上の警報原因が写っている警報画像6が格納された学習DB392を示す。表1(b)では閾値が0.7以上の警報原因が検出されていないので、監視員7が警報原因を入力する。入力された警報原因が小動物の場合、表1(b)の警報画像DB391で確度が0.3以上(0.7未満)で警報原因が小動物なのは画像番号が1〜3の警報画像6なので、画像番号が1〜3の警報画像6が警報原因「小動物」と対応付けて学習DB392に記憶されている。
表2(c)は、監視員7が警報原因として人を入力したが、警報画像6が格納されなかった学習DB392を示す。表1(b)では閾値が0.7以上の警報原因が検出されていないので、監視員7が警報原因を入力する。入力された警報原因が人の場合、表1(b)の警報画像DB391で確度が0.3以上(0.7未満)で警報原因が人の警報画像6は存在しない。このため、学習DB392には警報画像6が記憶されない。これにより、監視員7が誤入力しても学習にふさわしくない警報画像6が抽出されることを抑制できる。
<カメラ装置が描画する外接矩形>
図6を用いて、カメラ装置10が動体を検知した場合に警報画像6に描画する外接矩形について説明する。図6は、カメラ装置10が警報画像6に描画した外接矩形301の一例を示す。この警報画像6では動体として人が検知されている。動体を囲むように外接矩形301が描画されている。監視員は外接矩形301に着目することで警報原因を早期に判断できる。
また、情報処理装置30による警報原因の識別ではこの外接矩形301を利用して、外接矩形の301内部でのみ行うことができる。これにより、識別に要する時間を短縮し、負荷を軽減できる。
しかしながら、外接矩形301が警報原因を正しく囲んでいるとは限らないので、情報処理装置30が警報画像6の全体を識別することも有効である。外接矩形301は、監視員7が警報原因の場所を把握しやすくためには有効であるが、画像処理による識別では認識率の向上の妨げになる場合がある。このため、情報処理装置30が警報画像6の全体を識別する場合は、警報画像6から外接矩形301を削除することが好ましい。警報画像6に外接矩形301が直接、描画されている場合、外接矩形301の削除により画像の一部が無くなってしまうため、警報画像6とは別のレイヤに外接矩形301が描画されていることが好ましい。
<確度について>
図7を用いて、警報画像6の学習と確度について説明する。図7は学習のモデルの一例であるニューラルネットワークにおける多層パーセプトロンと呼ばれるモデルを示す。
図7(a)では学習フェーズを説明している。入力層501にはメッシュ状に区分された警報画像6の各領域画像が入力され、中間層502と出力層503の間で特徴量が算出されると共に、出力層503から検知対象の確度が出力される。図7では入力層501のノードの数は領域画像の数であり、出力層503のノードの数は検知対象の種類の数である。また、図7では、中間層502の数は1であるが、中間層502の数は適宜設計され、ディープラーニングと呼ばれる学習方法では10〜20以上となる場合もある。
入力層501に入力された領域画像はそれぞれ画像フィルタにより特徴抽出され、後段に行くほど領域画像が結合される。これにより、入力層501から出力層503に近づくほど、警報画像6の大域の特徴が抽出されるようになる。
学習フェーズにおいて出力層503の各ノードには、ノードに対応する検知対象が写っている場合に「1」がそれ以外の場合は「0」が教師信号として設定される。例えば、図7ではノードy1の検知対象が虫、ノードy2の検知対象が鳥、及び、ノードy3の検知対象が人である。入力された警報画像6の警報原因が「虫」なので、ノードy1に「1」が設定され、ノードy2とノードy3には「0」が設定されている。
出力層503のノードの値と教師信号の差は、誤差逆伝播法に基づき画像フィルタに伝播される。これにより、ディープラーニングでは警報画像の特徴の抽出に適した画像フィルタが自動的に最適化されるという特徴がある。したがって、ディープラーニングでは特徴の抽出を自動的に行うことができる。
図7(b)は認識フェーズを説明している。図7(b)のニューラルネットワークは警報画像6から写っている検知対象の確度を出力する。学習がある程度完了すると、入力層501から警報原因が写っている警報画像が入力された場合に、出力層503の各ノードは、警報原因に対応するノードから1に近い確度を出力し、それ以外のノードから0に近い確度を出力する。例えば、図7(b)では入力される警報画像に警報原因として虫が写っているので、ノードy1が0.8を出力し、ノードy2が0.2を出力し、ノードy3が0.1を出力している。このようにして、1つの警報画像6から各検知対象の確度が得られる。
なお、図7のような学習方法又は確度の算出方法は一例に過ぎず、前段にディープラーニングを採用して特徴抽出し、後段にSVM(サポートベクターマシン)を採用して警報原因を識別してもよい。また、SIFT(Scale-Invariant Feature Transform)やGISTなどで抽出した特徴量をSVMに入力して警報原因を識別してもよい。
また、警報原因推定部34が推定した確度以外に、警報原因の確からしさを算出する方法で確度と同等の情報を算出してもよい。しかし、警報原因推定部34が推定した確度を利用することで、確度と同等の情報を算出する工程を省くことができる。
<監視員7が入力する警報原因のユーザインタフェース>
続いて、図8を用いて監視員7による警報原因の入力について説明する。図8は、LCD206に表示される警報原因の入力画面401の一例である。警報原因の入力画面401は、カメラ装置10から警報画像6が受信されると自動的に又は監視員7の操作により情報処理装置30のLCD206に表示される。警報原因の入力画面401は、警報画像欄411、戻るボタン412、送るボタン413、画像番号表示欄414、複数の警報原因ボタン415、及び、OKボタン416を有する。
警報画像欄411は警報画像6が表示される欄である。検知対象が検知された前後の複数の警報画像6が時系列に表示される。戻るボタン412は監視員7が1つ前の警報画像6を表示させるためのボタンであり、送るボタン413は監視員7が1つ後の警報画像6を表示させるためのボタンである。画像番号表示欄414は、現在、警報画像欄411に表示されている警報画像6が何枚中何枚目かを示す。警報原因ボタン415は、それぞれ虫、鳥、小動物、及び人という表記を有し、監視員7は警報画像欄411を見て警報原因を判断し警報原因ボタン415を押下する。OKボタン416は監視員7の入力結果を確定するためのボタンであり、OKボタン416の押下により学習DB392に抽出される警報画像6の抽出処理が開始される。
なお、監視員7は複数の警報画像6に対し1つの警報原因を入力すればよい。こうすることで、監視員7が警報原因を判断する負担を低減できる。
警報原因の入力画面401に閾値a以上の警報画像6が表示される必要はないが、監視員7が念のため確認することは差し支えない。このため、確度が閾値a以上の警報画像6が警報原因の入力画面401に表示されるかどうかは監視員7の設定により切り替え可能であることが好ましい。確度が閾値a以上の警報画像6が表示される場合はその旨(例えば、この画像は虫と判断され学習DBに格納済です)を表示制御部32が表示する。これにより、自分の判断を検証できる。あるいは、警報原因が正しくない場合は学習DBから削除したりすることもできる。
<学習DB392に抽出される警報画像>
図9は、学習に用いられる警報画像6の抽出方法を説明する図の一例である。上記のように監視員7は複数の警報画像6に対し1つの警報原因を入力する。学習画像自動抽出部35は、各警報画像6から監視員7が入力した警報原因の確度が閾値b以上の警報画像6を抽出する。例えば、入力された警報原因が虫の場合を例にして説明する。
警報画像61の虫の確度は閾値b未満、警報画像62の虫の確度は閾値b以上、警報画像63の虫の確度は閾値b未満である。この場合、学習画像自動抽出部35は、警報画像62のみを抽出して学習DB392に格納する。
監視員7が警報画像6に写っている正しい警報原因を入力した場合、この警報原因の確度が高い警報画像6のみが抽出され学習に使用されるので、学習画像自動抽出部35は複数の警報画像6のうち警報原因が写っている警報画像6を抽出できる。したがって、警報画像6と警報原因の関係を学習するために適切な警報画像6を抽出できる。
仮に、監視員7が警報画像6に写っていない誤った警報原因を入力した場合、この警報原因の確度が高い警報画像6は存在しないので、誤った警報原因が対応付けられた警報画像6は抽出されない。したがって、情報処理装置30が警報画像6と警報原因の誤った関係を学習することを抑制できる。換言すると、監視員7の誤入力に対応できる。
具体的には、監視員7が警報画像6に写っている警報原因とは異なる警報原因を入力した場合は以下のように処理される。すなわち、警報画像6に写っている警報原因の確度が閾値a未満であり、監視員7が警報画像6に写っている警報原因とは異なる警報原因を入力した場合、警報画像6に写っている警報原因の確度が閾値b以上でも、監視員7が入力した警報原因の確度は閾値b未満となっていると考えられるので、学習DB392には格納されない。したがって、学習DB392に格納される警報画像は減る可能性があるが、情報処理装置30が警報画像6と警報原因の誤った関係を学習することを抑制できる。
カメラ装置10が撮像する警報画像は、低フレームレートのため、似た画像が存在しにくく、また、警報前後の数秒の画像であるため、警報原因が写っていない画像が多いという特徴がある。このため、警報原因が写っていない警報画像を排除することで学習による精度向上が見込める。
<<確度が安定しない警報画像の排除>>
このように警報原因の確度が高い警報画像が学習DB392に格納されることで、情報処理装置30は警報画像6と警報原因の関係を学習できる。しかしながら、確度が高くても学習DB392には入れない方がよい警報画像6もあり得る。
図10は複数の警報画像6から算出された各警報原因の確度のうち監視員7が入力した警報原因の確度を時系列に示す。この一連の警報画像6の確度は閾値a又はbを超える場合があるが、確度が極度に大きく変動している。同じ警報原因の確度が極度に大きく変動することは考えにくく、警報原因推定部34が正しく確度を算出できなかった可能性が高い。このような警報画像6は学習に用いられるべきではないので、学習画像自動抽出部35は学習画像DBに移動しないことが好ましい。
具体的には、各警報画像6の警報原因ごとに確度の分散を算出し、閾値を超えた分散を持つ警報画像6を学習DB392に移動しない。こうすることで、認識率を向上しやすくなる。
<動作手順>
図11は、情報処理装置30が警報画像6を抽出して学習DB392に格納する処理を説明するフローチャート図の一例である。
まず、情報処理装置30の通信部31は、検知対象が検知されたことによりカメラ装置10から送信された複数の警報画像6を取得する(S10)。複数の警報画像6は警報画像DB391に格納される。
次に、情報処理装置30の警報原因推定部34は各警報画像6に画像認識を施し、各警報原因の確度を算出する(S20)。これにより、表1に示したように警報画像DB391には、警報画像6ごとに各警報原因の確度が登録される。
次に、情報処理装置30の学習画像自動抽出部35は、確度が閾値a以上の警報画像6があるか否かを判断する(S30)。この確度は任意の警報原因が有する確度でよい。警報原因に関わらず確度が高い場合は警報原因が検知されていると判断してよいためである。
ステップS30の判断がYesの場合、この警報画像6には警報原因が写っている可能性が高いので、学習画像自動抽出部35は確度が閾値a以上であると判断された警報原因に着目してこの警報原因の確度が閾値b以上の警報画像6を抽出し学習DB392に格納する(S40)。例えば表1(a)の警報画像6で閾値a(0.7)以上の確度を有するのは小動物という警報原因である。よって、小動物の確度が閾値b(0.3)以上である警報画像6が抽出される。表1(a)の警報画像6に対し表2(a)の学習DB392が作成され図11の処理は終了する。閾値a以上の確度を有する警報原因は監視員7が確認しなくてもこの警報原因が警報画像6に写っていることがほぼ間違いないので、同じ警報原因の確度が閾値b以上の警報画像6にも同じ警報原因が写っていると判断してよいためである。これにより、より多くの警報画像6を自動的に抽出できる。
ステップS30の判断がNoの場合、警報原因の確度が閾値a以上の警報画像6がないので、操作受付部33は監視員7の警報原因の入力を受け付ける(S50)。すなわち、表示制御部32は警報原因の入力画面401を表示して、監視員7が複数の警報画像6に対し1つの警報原因を入力する。
情報処理装置30の学習画像自動抽出部35は、監視員7が入力した警報原因の確度が閾値b以上の警報画像6を抽出する(S60)。こうすることで、学習に適切な警報画像6のみを抽出できる。
情報処理装置30の学習画像自動抽出部35は、抽出した警報画像6を学習DB392に格納する(S70)。以上により、学習DB392に学習に適切な警報画像6のみが格納されたことになる。表1(b)の警報画像6に対し監視員7が「小動物」という警報原因を入力した場合、表2(b)の学習DB392が作成される。表1(b)の警報画像6に対し監視員7が「人」という警報原因を入力した場合、表2(c)の学習DB392が作成される。
このように、本実施例の画像処理システム100は、高性能な識別装置を別途用意することなく、1つの識別装置で警報原因が写っている警報画像を自動的に抽出できる。
本実施例では学習DB392に格納された警報画像6を用いて学習することで得られた識別装置の更新について説明する。
図12は、情報処理装置30による識別装置の評価の概略を説明する図の一例である。まず、学習DB392には実施例1で抽出された警報画像6が格納されている。また、構成DB393は、現行の識別装置である警報原因推定部34を構築するために利用された警報画像6を格納している。現行の警報原因推定部34を警報原因推定部(現行)34bと称し、新しい警報原因推定部34を警報原因推定部(新)34aと称する。
(1)まず、学習部36は構成DB393及び学習DB392の両方の警報画像6を用いて学習する。学習することで新しい警報原因推定部(新)34aを構築できる。
(2)評価部37は、評価用画像DB394の評価用画像を用いて警報原因推定部(新)34aの性能を評価する。
(3)警報原因推定部(現行)34bが認識できた評価用画像を、警報原因推定部(新)34aが認識できた場合、警報原因推定部(現行)34bは警報原因推定部(新)34aで置き換えられる。
(4)置き換えた場合、学習DB392の警報画像6は構成DB393に移動され、置き換えられない場合、学習DB392の警報画像6は削除される。したがって、いずれの場合も学習DB392には警報画像6が残らない。
実施例1のように抽出した警報画像6で学習しても認識率が低下する可能性はゼロでないが、本実施例の更新方法では、警報原因推定部(現行)34bが認識できた評価用画像は、警報原因推定部(新)34aでも認識できることが保証されるため、認識率が向上する場合にだけ警報原因推定部34を更新できる。
<画像処理システムの機能構成例>
図13は、本実施例の画像処理システム100が備える各機能を図示した機能ブロック図の一例である。なお、図13では警報原因推定部34の更新に関する機能を説明する。また、図13の説明において、図5において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する。
まず、カメラ装置10の機能は図5から変更がない。これに対し、情報処理装置30は学習部36、警報原因推定部(新)34a、評価部37、警報原因推定部(現行)34b、及び、更新部38を有している。また、記憶部39には、学習DB392、構成DB393、及び、評価用画像DB394が構築されている。構成DB393は、警報原因推定部(現行)34bを構築するために使用された警報画像6を記憶している。評価用画像DB394は警報原因推定部34の性能を評価するために用意された評価用画像と、評価用画像に写っていることが検証された警報原因とを対応付けて記憶している。なお、評価用画像は、実際の警報画像6がシーン(監視場所8でどのような画像が撮像されるかに基づいて画像が分類されたもの)ごとに分類されたものであり、発生頻度が高いシーンほど多様な警報画像6が用意されている。したがって、実際の警報画像6の認識率を評価しやすい。
学習部36は、学習DB392と構成DB393の警報画像6を取得して、ニューラルネットワーク、SVM、ディープラーニングなどの機械学習の手法で、警報画像6に検知対象が写っている確度を算出する算出方法(学習モデルという場合がある)を学習する。教師信号は、閾値a以上の警報画像6では警報原因推定部(現行)34bが推定した警報原因であり、閾値a以上の確度がない警報画像6では監視員7が入力した警報原因である。
警報原因推定部(新)34aは、学習部36が学習DB392と構成DB393の警報画像6で学習して生成した識別装置である。警報原因推定部(新)34aは警報画像6の入力に対し、各警報原因の確度を算出する。
警報原因推定部(現行)34bは、現行の警報原因推定部34である。警報原因推定部(現行)34bは図5の警報原因推定部34に相当する。
評価部37は、警報原因推定部(新)34aの性能を評価して、警報原因推定部(新)34aの性能が警報原因推定部(現行)34bよりも向上したか否かを判断する。例えば、警報原因推定部(新)34aと警報原因推定部(現行)34bのそれぞれで評価用画像DB394の評価用画像から警報原因を識別する処理を行う。
更新部38は、警報原因推定部(現行)34bを警報原因推定部(新)34aで更新する。
<識別装置の更新の判断>
警報原因推定部(現行)34bを警報原因推定部(新)34aで更新するか否かの判断方法は2つある。それぞれを説明する。
A.正しく識別できたか否かに基づく判断
図14を用いて警報原因推定部34の性能の評価について説明する。図14は、警報原因推定部(現行)34bと警報原因推定部(新)34aのそれぞれで評価用画像を識別した際の識別結果を示す。図14では、「○」が正しく識別できたことを示し、「×」が正しく識別できないことを示す。正しく識別できるとは、評価用画像に添付された警報原因を閾値1以上で検出できることをいう。また、正しく識別できないとは、評価用画像に添付された警報原因を閾値1未満で検出することをいう。閾値1は例えば閾値aに相当する。
図14(a)は警報原因推定部34が更新される場合の評価結果である。評価用画像1(画像番号1)は、警報原因推定部(現行)34bと警報原因推定部(新)34aのどちらでも正しく識別されている。評価用画像2(画像番号2)は、警報原因推定部(現行)34bでは正しく識別できないが、警報原因推定部(新)34aでは正しく識別されている。評価用画像3(画像番号3)は、警報原因推定部(現行)34bと警報原因推定部(新)34aのどちらでも正しく識別できない。このように、図14(a)では警報原因推定部(現行)34bが正しく識別できた評価用画像を警報原因推定部(新)34aも正しく識別できるため、評価部37は性能が向上したと判断する。
なお、本実施例の性能とは主に認識率をいう。この認識率には、警報画像6に写っている警報原因を識別できること、及び、警報画像6に写っていない警報原因を識別しないことが含まれる。
図14(b)は警報原因推定部34が更新されない場合の評価結果である。評価用画像1(画像番号1)は、警報原因推定部(現行)34bで正しく識別できたが、警報原因推定部(新)34aでは正しく識別できない。一方、評価用画像2(画像番号2)と評価用画像3(画像番号3)は、警報原因推定部(現行)34bでは正しく識別できないが、警報原因推定部(新)34aでは正しく識別できる。このように、警報原因推定部(現行)34bが正しく識別できた評価用画像を1つでも警報原因推定部(新)34aが正しく識別できない場合、評価部37は性能が向上したと判断しない。こうすることで、警報原因推定部34の性能が向上したことを保証できる。
しかしながら、評価用画像DB394の全体の評価用画像の認識率が向上した場合に、性能が向上したと判断してもよい。
B.確度が向上したか否かに基づく判断
図15を用いて確度に基づく警報原因推定部34の性能の評価について説明する。図15は、警報原因推定部(現行)34bと警報原因推定部(新)34aのそれぞれで評価用画像を識別した際の確度を示す。この確度は、評価用画像に添付されている警報原因の確度である。したがって、警報原因推定部(現行)34bよりも警報原因推定部(新)34aの方が高いことが望まれる。
図15(a)は警報原因推定部34が更新される場合の評価結果である。評価用画像1〜3(画像番号1〜3)の全てで、警報原因推定部(現行)34bよりも警報原因推定部(新)34aの確度の方が大きくなっている。このように、図15(a)では全ての評価用画像の警報原因の確度において警報原因推定部(現行)34bよりも警報原因推定部(新)34aの方が高いため、評価部37は性能が向上したと判断する。
図15(b)は警報原因推定部34が更新されない場合の評価結果である。これに対し図15(b)では、評価用画像2、3(画像番号2,3)では警報原因推定部(現行)34bよりも警報原因推定部(新)34aの確度の方が大きくなっているが、評価用画像1(画像番号1)では警報原因推定部(現行)34bよりも警報原因推定部(新)34aの確度の方が低くなっている。
警報原因推定部(新)34aの確度が警報原因推定部(現行)34bの確度よりも低い評価用画像が1つでも見つかる場合、評価部37は性能が向上したと判断しない。こうすることで、警報原因推定部34の性能が向上したことを保証できる。
しかしながら、警報原因推定部(新)34aの確度の平均と警報原因推定部(新)34aの確度の平均を比較して、警報原因推定部(新)34aの確度の平均の方が高ければ性能が向上したと判断してもよい。
<動作手順>
図16は、情報処理装置30が警報原因推定部34の性能を評価して更新するか否かを判断する手順を示すフローチャート図の一例である。図16の処理は定期的に実行されてもよいし、一定量の警報画像6が学習DB392に格納された場合に実行されてもよい。
まず、学習部36は、学習DB392と構成DB393の警報画像6を用いて学習することで、警報原因推定部(新)34aを構築する(S110)。
次に、評価部37は、警報原因推定部(新)34aを用いて評価用画像の識別を行う(S120)。警報原因推定部(現行)34bを用いた評価用画像の識別を行ってもよいが、警報原因推定部(現行)34bの識別結果は前回の評価時のものを利用すればよい。
評価部37は、図14、図15にて説明したように警報原因推定部(新)34aの性能が警報原因推定部(現行)34bよりも向上した否かを判断する(S130)。
ステップS130の判断がYesの場合、更新部38は警報原因推定部(現行)34bを警報原因推定部(新)34aで更新する(S140)。なお、警報原因推定部(現行)34bは破棄してもよいし保存しておいてもよい。
そして、更新部38は学習DB392の警報画像6を構成DB393に移動させる(S150)。このように性能向上をもたらす警報画像6を構成DB393に蓄積することができる。
ステップS130の判断がNoの場合、更新部38は学習DB392の警報画像6を削除する(S160)。したがって、性能向上をもたらさない警報画像6が学習DB392に残ることを防止できる。
以上説明したように、本実施例の画像処理システム100は、学習DB392に格納された警報画像6を用いて警報原因推定部(識別装置)の性能を向上させることができる。警報原因推定部(識別装置)の性能を評価するので、学習によって発生しうる認識性能の低下を抑制しながら改善できる。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
本実施形態では画像を識別して警報原因が判断されたが、情報処理装置30は音を識別して警報原因を判断することも可能である。この場合、カメラ装置10は音を集音するマイク等を有している。検知対象が発する音データは警報画像と共に情報処理装置30に送信される。情報処理装置は音データがどのような音であるか(音原因)識別することができる。例えば、鍵の操作、ドアの開閉、人声、動物の声、ガラスの破壊音、等を識別する。音の認識率を向上させるため、同様に確度が閾値a以上の音データは学習DB392に格納される。それ以外の音データを監視員が聞き取り音の内容を判断し音原因を入力する。入力された音原因の確度が閾値b以上の音データが学習DB392に格納される。したがって、音データに関しても識別される。
また、図2のシステム構成図ではカメラ装置10と情報処理装置30が別体であるが、カメラ装置10と情報処理装置30は一体でもよい。この場合、カメラ装置10は単体で画像を識別でき、警報原因を出力できる。また、カメラ装置10は単体で性能を向上できる。この場合、カメラ装置10は以下のように動作する。
(1)警報原因が識別できなかった場合は警報画像を監視センター9に送信する。
(2)監視員7が警報原因を入力する。前述と同様の手順で学習DB392に警報画像と警報原因を格納する。
(3)学習の結果性能が向上した警報原因推定部(新)をカメラ装置10に送信し、カメラ装置10が内部の警報原因推定部(現行)を更新する。
また、図2のシステム構成図において、監視センター9はクライアントサーバの構成であってもよい。監視員7はPCなどの端末を操作して情報処理装置30と通信し、警報原因の入力を行う。また、この場合、情報処理装置30は監視センター9になくクラウド上にあってもよい。
また、図5、13などの構成例は、カメラ装置10と情報処理装置30による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。カメラ装置10と情報処理装置30の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
また、図5、13では情報処理装置30が一台であるが、同じ情報処理装置30が複数台、存在してもよいし、複数の情報処理装置30に図5、13の機能が分散されていてもよい。
なお、通信部31は画像取得手段の一例であり、警報原因推定部(現行)34bは第一の識別手段の一例であり、表示制御部32は表示処理手段の一例であり、操作受付部33は受付手段の一例であり、学習画像自動抽出部35は画像抽出手段の一例であり、学習部36は識別手段構築手段の一例であり、警報原因推定部(新)34aは第二の識別手段の一例であり、評価部37は評価手段の一例であり、更新部38は更新手段の一例である。学習DB392は画像記憶部の一例である。
6 :警報画像
7 :監視員
10 :カメラ装置
30 :情報処理装置
31 :通信部
32 :表示制御部
33 :操作受付部
34 :警報原因推定部
35 :学習画像自動抽出部
36 :学習部
37 :評価部
38 :更新部
100 :画像処理システム

Claims (9)

  1. 撮像装置が撮像した画像から予め定められた警報原因を識別する画像処理システムであって、
    前記撮像装置から前記画像を取得する画像取得手段と、
    前記画像に写っている、警報原因である検知対象の確度を検知対象ごとに算出し、前記画像に写っている前記警報原因を識別する第一の識別手段と、
    前記画像を表示装置に表示する表示処理手段と、
    前記表示装置に表示された前記警報原因のリストから前記画像に写っている前記警報原因の入力を受け付ける受付手段と、
    記受付手段が入力を受け付けた前記警報原因について前記第一の識別手段が算出した該警報原因が識別される確度が第一の閾値以上の場合、前記画像を画像記憶部に格納する画像抽出手段と、
    前記画像記憶部に記憶されている前記画像を用いて第二の識別手段を構築する識別手段構築手段と、
    を有する画像処理システム。
  2. 前記画像取得手段は、異常が検出された時刻の前後を含む複数の前記画像を前記撮像装置から取得し、
    前記受付手段は、複数の前記画像に対し1つの前記警報原因の入力を受け付け、
    前記画像抽出手段は、複数の前記画像のうち前記受付手段が受け付けた前記警報原因の確度が前記第一の閾値以上の前記画像を全て前記画像記憶部に記憶させる請求項1に記載の画像処理システム。
  3. 前記画像抽出手段は、前記第一の識別手段が識別した複数の前記画像に前記警報原因の確度が前記第一の閾値より大きい第二の閾値以上の前記画像が含まれる場合、
    前記第二の閾値以上の確度を有する前記警報原因の確度が前記第一の閾値以上である前記画像を前記第二の閾値以上の確度を有する前記警報原因と対応付けて前記画像記憶部に記憶させる請求項1又は2に記載の画像処理システム。
  4. 複数の前記画像に前記確度の変動が極度に大きい前記画像がある場合、前記確度が前記第一の閾値以上でも、前記画像抽出手段は、前記確度の変動が極度に大きい前記画像を前記画像記憶部に記憶させない請求項1〜3のいずれか1項に記載の画像処理システム。
  5. 前記第二の識別手段と前記第一の識別手段の性能を評価する評価手段と、
    前記第二の識別手段の性能が前記第一の識別手段よりも向上していると前記評価手段が評価した場合、前記第一の識別手段を前記第二の識別手段で更新する更新手段と、
    を有する請求項1〜4のいずれか1項に記載の画像処理システム。
  6. 前記評価手段は、
    前記第一の識別手段で識別できた前記画像の全てを前記第二の識別手段で識別できた場合、前記第二の識別手段の性能が前記第一の識別手段よりも向上していると評価する請求項5に記載の画像処理システム。
  7. 前記評価手段は、
    前記第二の識別手段で前記画像を識別した際の確度が、前記第一の識別手段で前記画像を識別した際の確度よりも全ての前記画像において高い場合、前記第二の識別手段の性能が前記第一の識別手段よりも向上していると評価する請求項5に記載の画像処理システム。
  8. 撮像装置が撮像した画像から予め定められた警報原因を識別する情報処理装置であって

    前記撮像装置から前記画像を取得する画像取得手段と、
    前記画像に写っている、警報原因である検知対象の確度を検知対象ごとに算出し、前記画像に写っている前記警報原因を識別する第一の識別手段と、
    前記画像を表示装置に表示する表示処理手段と、
    前記表示装置に表示された前記警報原因のリストから前記画像に写っている前記警報原因の入力を受け付ける受付手段と、
    記受付手段が入力を受け付けた前記警報原因について前記第一の識別手段が算出した該警報原因が識別される確度が第一の閾値以上の場合、前記画像を画像記憶部に格納する画像抽出手段と、
    前記画像記憶部に記憶されている前記画像を用いて第二の識別手段を構築する識別手段構築手段と、を有する情報処理装置。
  9. 撮像装置が撮像した画像から予め定められた警報原因を識別する情報処理装置を、
    前記撮像装置から前記画像を取得する画像取得手段と、
    前記画像に写っている、警報原因である検知対象の確度を検知対象ごとに算出し、前記画像に写っている前記警報原因を識別する第一の識別手段と、
    前記画像を表示装置に表示する表示処理手段と、
    前記表示装置に表示された前記警報原因のリストから前記画像に写っている前記警報原因の入力を受け付ける受付手段と、
    記受付手段が入力を受け付けた前記警報原因について前記第一の識別手段が算出した該警報原因が識別される確度が第一の閾値以上の場合、前記画像を画像記憶部に格納する画像抽出手段と、
    前記画像記憶部に記憶されている前記画像を用いて第二の識別手段を構築する識別手段構築手段、として機能させるためのプログラム。
JP2017073010A 2017-03-31 2017-03-31 画像処理システム、情報処理装置、プログラム Active JP6905849B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017073010A JP6905849B2 (ja) 2017-03-31 2017-03-31 画像処理システム、情報処理装置、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017073010A JP6905849B2 (ja) 2017-03-31 2017-03-31 画像処理システム、情報処理装置、プログラム

Publications (2)

Publication Number Publication Date
JP2018173913A JP2018173913A (ja) 2018-11-08
JP6905849B2 true JP6905849B2 (ja) 2021-07-21

Family

ID=64108612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017073010A Active JP6905849B2 (ja) 2017-03-31 2017-03-31 画像処理システム、情報処理装置、プログラム

Country Status (1)

Country Link
JP (1) JP6905849B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7463686B2 (ja) * 2019-10-24 2024-04-09 株式会社Jvcケンウッド 画像記録装置、画像記録方法及び画像記録プログラム
CN117396829A (zh) * 2021-06-04 2024-01-12 日产自动车株式会社 操作检测装置和操作检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016191973A (ja) * 2015-03-30 2016-11-10 日本電気株式会社 情報転送装置、学習システム、情報転送方法及びプログラム

Also Published As

Publication number Publication date
JP2018173913A (ja) 2018-11-08

Similar Documents

Publication Publication Date Title
US11410415B2 (en) Processing method for augmented reality scene, terminal device, system, and computer storage medium
KR101607934B1 (ko) 전염병 모니터링 방법 및 이를 이용한 시스템, 이를 수행하기 위한 기록매체
JP5590728B2 (ja) パターン分類システムと集団学習法
CN108446669B (zh) 运动识别方法、装置及存储介质
US11631306B2 (en) Methods and system for monitoring an environment
US10567642B2 (en) Managing camera usage with warnings and/or disablement
JP6905849B2 (ja) 画像処理システム、情報処理装置、プログラム
CN107122743A (zh) 安防监控方法、装置和电子设备
KR101454644B1 (ko) 보행자 추적기를 이용한 서성거림을 탐지하는 방법
CN114495270A (zh) 一种实时监控预警方法、装置、系统及存储介质
CN110909691B (zh) 动作检测方法、装置、计算机可读存储介质和计算机设备
CN115346060A (zh) 画面异常识别方法、装置、电子设备和存储介质
KR20200031884A (ko) 병충해 감지 장치 및 방법
CN111814665A (zh) 基于宠物情绪识别的陪护方法、装置、服务器及存储介质
JP5188840B2 (ja) 警備装置および更新方法
JP7257765B2 (ja) 情報処理装置、認証システムおよびそれらの制御方法、プログラム
CN116308955A (zh) 一种基于ai人工智能进行康养管理的智慧社区
JP6739115B6 (ja) 危険度判別プログラム及びシステム
KR20210062238A (ko) 영상정보 분석 기반 방역 시스템 및 그 이용 방법
US11908143B2 (en) Activity zones for camera video
JP7220057B2 (ja) 画像監視システム
JP6905363B2 (ja) 物体検出装置
JP7487735B2 (ja) 情報を表示する方法、プログラム、および情報処理装置
JP7161920B2 (ja) 店舗装置
JP7197334B2 (ja) 画像監視システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210628

R150 Certificate of patent or registration of utility model

Ref document number: 6905849

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250