JP6678706B2 - 種別判定プログラム、種別判定装置及び種別判定方法 - Google Patents

種別判定プログラム、種別判定装置及び種別判定方法 Download PDF

Info

Publication number
JP6678706B2
JP6678706B2 JP2018142130A JP2018142130A JP6678706B2 JP 6678706 B2 JP6678706 B2 JP 6678706B2 JP 2018142130 A JP2018142130 A JP 2018142130A JP 2018142130 A JP2018142130 A JP 2018142130A JP 6678706 B2 JP6678706 B2 JP 6678706B2
Authority
JP
Japan
Prior art keywords
type
rectangular area
history information
movement
type determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018142130A
Other languages
English (en)
Other versions
JP2020021111A (ja
Inventor
由裕 水野
由裕 水野
Original Assignee
株式会社トヨタシステムズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トヨタシステムズ filed Critical 株式会社トヨタシステムズ
Priority to JP2018142130A priority Critical patent/JP6678706B2/ja
Publication of JP2020021111A publication Critical patent/JP2020021111A/ja
Application granted granted Critical
Publication of JP6678706B2 publication Critical patent/JP6678706B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、入力画像に含まれる物体に係る画素数が少ない場合に、該物体の種別を迅速かつ正確に判定することができる種別判定プログラム、種別判定装置及び種別判定方法に関する。
従来、車両のテストコースでは、外柵を越えてテストコース内に侵入する動物等を検知する必要がある。テストコース内に侵入した動物等と、テストコースを走行する試験車両とが衝突するトラブルを防止するためである。このため、車両のテストコースには、テストコース内を監視するための複数の監視カメラが設けられる。そして、監視員は、監視カメラにより撮像された映像を視認し、異常の検知を行う。
ところが、このような監視員による目視チェックを採用したならば、監視員による監視漏れが起きる可能性がある。このため、監視を自動化する場合には、テンプレートマッチング等の画像処理技術や、深層学習等の機械学習(特許文献1、特許文献2を参照)を用いて動物を学習し、入力画像に動物が含まれているか否かが判定される。
特開2015−210824号公報 特開2017−187954号公報
しかし、上記のテンプレートマッチングにより動物の存在を検知するためには、入力画像内に動物の姿が十分に含まれていなければならない。同様に、機械学習を用いて動物の存在を検知する場合にも、入力画像内に動物の姿が十分に含まれていなければならない。
ところが、監視カメラで撮像した実際の画像には、動物の姿が十分に含まれていない場合が多い。テストコースに設置できる監視カメラの台数には制限があり、遠距離からテストコースを撮影せざるを得ない場合が多いからである。その結果、入力画像に含まれる動物の画素数が少ない場合には、テンプレートマッチング又は機械学習を用いたとしても動物を検知できないという問題が生ずる。
これらのことから、入力画像に含まれる物体に係る画素数が少ない場合に、いかにして該物体の種別を迅速かつ正確に判定するかが重要な課題となっている。なお、この課題は、テストコースだけの課題ではなく、警備地域や各種施設の場合にも同様に生ずる課題である。
本発明は、上記従来技術の問題点(課題)を解決するためになされたものであって、入力画像に含まれる物体に係る画素数が少ない場合に、該物体の種別を迅速かつ正確に判定することができる種別判定プログラム、種別判定装置及び種別判定方法を提供することを目的とする。
上記の課題を解決するため、本発明は、所定の撮像装置により撮像された画像に含まれる物体を検知する検知手順と、前記検知手順により検知された物体を形成する画素の移動ベクトルと所定の尤度に基づいて、物体を含む矩形領域を特定し、特定した矩形領域の移動履歴に係る情報を移動履歴情報として取得する移動履歴情報取得手順と、少なくとも前記移動履歴情報に基づいて、前記検知手順により検知された物体の種別を判定する種別判定手順とをコンピュータに実行させることを特徴とする。
また、本発明は、上記の発明において、前記検知手順は、複数の画像間の画素の移動ベクトルに基づいて、前記所定の撮像装置により撮像された画像に含まれる物体を検知することを特徴とする。
また、本発明は、上記の発明において、前記種別判定手順は、教師データをなす物体の移動履歴情報及び該物体の種別を所定の多層ニューラルネットワークに適用した学習済モデルに基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする。
また、本発明は、上記の発明において、前記種別判定手順は、前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の水平方向の移動量及び垂直方向の移動量を前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする。
また、本発明は、上記の発明において、前記種別判定手順は、前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の幅、前記矩形領域の高さ、前記矩形領域の水平方向の移動量、前記矩形領域の垂直方向の移動量、前記矩形領域との幅差及び前記矩形領域との高さ差を前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする。
また、本発明は、上記の発明において、前記種別判定手順は、前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の幅、前記矩形領域の高さ、前記矩形領域の水平方向の移動量、前記矩形領域の垂直方向の移動量、前記矩形領域との幅差及び前記矩形領域との高さ差と、前記矩形領域の部分画像とを前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする。
また、本発明は、上記の発明において、前記種別判定手順は、前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の水平方向の移動量及び垂直方向の移動量を画像化したパラメータ画像を前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする。
また、本発明は、上記の発明において、前記種別判定手順は、前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の水平方向の移動量及び垂直方向の移動量を画像化したパラメータ画像と、前記矩形領域の部分画像とを前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする。
また、本発明は、上記の発明において、前記学習済モデルは、少なくとも動物、人又は車両に係る移動履歴情報が入力された場合に、前記物体が動物、人又は車両である確率を出力することを特徴とする。
また、本発明は、上記の発明において、前記種別判定手順により前記物体の種別が動物であると判定されたならば、所定の警報灯による警報を発するよう制御し、該物体の種別が人又は車両であると判定されたならば、前記所定の警報灯による警報を発しないよう制御する警報制御手順をさらにコンピュータに実行させることを特徴とする。
また、本発明は、所定の撮像装置により撮像された画像に含まれる物体を検知する検知部と、前記検知部により検知された物体を形成する画素の移動ベクトルと所定の尤度に基づいて、物体を含む矩形領域を特定し、特定した矩形領域の移動履歴に係る情報を移動履歴情報として取得する移動履歴情報取得部と、少なくとも前記移動履歴情報に基づいて、前記検知部により検知された物体の種別を判定する種別判定部とを備えたことを特徴とする。
また、本発明は、所定の撮像装置により撮像された画像に含まれる物体を検知する検知工程と、前記検知工程により検知された物体を形成する画素の移動ベクトルと所定の尤度に基づいて、物体を含む矩形領域を特定し、特定した矩形領域の移動履歴に係る情報を移動履歴情報として取得する移動履歴情報取得工程と、少なくとも前記移動履歴情報に基づいて、前記検知工程により検知された物体の種別を判定する種別判定工程とを含んだことを特徴とする。
本発明によれば、入力画像に含まれる物体に係る画素数が少ない場合であっても、物体の種別を迅速かつ正確に判定することが可能となる。
図1は、本実施例1に係る種別判定プログラムの概要を説明するための説明図である。 図2は、図1に示した入力画像の一例を示す図である。 図3は、車両の走行試験を行うテストコースに設置された警報システムのシステム構成を示す図である。 図4は、図3に示した警報制御装置の構成を示す機能ブロック図である。 図5は、図4に示した種別判定部による学習済モデルを用いた種別判定の一例を示す図である。 図6は、学習データとしての移動履歴情報の一例を示す図である。 図7は、図5に示した学習済モデルの層構造の一例を示す図である。 図8は、図4に示した警報制御装置の処理手順を示すフローチャートである。 図9は、図8のステップS102に示した物体検知及び移動履歴情報の取得に関する処理手順を示すフローチャートである。 図10は、本実施例2に係る学習済モデルを用いた種別判定の一例を示す図である。 図11は、図10に示した学習済モデルの層構造の一例を示す図である。 図12は、本実施例3に係る学習済モデルを用いた種別判定の一例を示す図である。 図13は、図12に示したパラメータ画像を説明するための説明図である。 図14は、学習済モデルを用いた種別判定の変形例を示す図である。 図15は、図4に示した警報制御装置のハードウエア構成の一例を示す図である。
以下、添付図面を参照して、本実施例に係る種別判定プログラム、種別判定装置及び種別判定方法について説明する。本実施例では、車両の走行試験を行うテストコースに本発明を適用した場合について示すこととする。以下では、プログラムからなるCNN(Convolutional Neural Network)の学習済モデルを用いる場合を中心に説明する。
<種別判定プログラムの概要>
まず、本実施例1に係る種別判定プログラムの概要について説明する。図1は、本実施例1に係る種別判定プログラムの概要を説明するための説明図であり、図2は、図1に示した入力画像Aの一例を示す図である。
図1に示す種別判定プログラムは、警報制御装置40にインストールされるプログラムである。その詳細な説明は後述するが、警報制御装置40は、監視カメラ10から複数の画像を受け付けたならば、各画像から物体が存在する領域を切り出して入力画像Aとし、この入力画像Aに含まれる物体A1の種別を判定する装置である。
ここで、図2に示す物体A2のように、この物体A2を形成する画素数が多く、該物体A2が車両であることが明らかである場合には、既存のテンプレートマッチング等の画像処理又は機械学習を用いて物体A2の種別を判定することができる。これに対して、図2に示す物体A1のように、この物体A1を形成する画素数が少なく、該物体A1の種別が明らかでない場合には、既存のテンプレートマッチング等の画像処理又は機械学習を用いて物体A2の種別を判定することが難しい。
このため、本実施例1に係る種別判定プログラムでは、監視カメラ10から受け付けた各画像に含まれる物体A1の移動履歴情報Bを学習済モデル50に入力する。そして、この学習済モデル50から出力される物体A1の種別毎の確率(動物である確率、車両である確率、人である確率)と所定の閾値に基づいて、物体A1の種別を判定する。これにより、物体A1を形成する画素数が少ない場合であっても、物体A1の種別を判定することができる。
次に、図1に示す種別判定プログラムの具体的な処理内容について説明する。図1に示すように、この種別判定プログラムは、監視カメラ10から受け付けた各画像に含まれる物体A1をそれぞれ検知したならば、この物体A1を含む部分画像をそれぞれ入力画像Aとし、各入力画像Aに含まれる物体A1を検知する(S11)。具体的には、複数の入力画像A間の画素の移動ベクトルを用いて各入力画像Aに含まれる物体A1を検知する。
そして、該物体A1の移動履歴情報Bを取得する(S12)。具体的には、検知された物体A1を形成する画素の移動ベクトルと所定の尤度に基づいて、物体A1を含む矩形領域を特定し、特定した矩形領域の移動履歴に係る情報を移動履歴情報Bとして取得する。なお、この移動履歴情報Bには、所定の時間ごとの矩形領域の幅、矩形領域の高さ、矩形領域の水平方向の移動量、矩形領域の垂直方向の移動量、形領域との幅差及び形領域との高さ差が含まれる。
その後、この移動履歴情報Bを学習済モデル50に入力したならば(S13)、物体の種別毎の確率が学習済モデル50から出力される(S14)。この学習済モデル50は、教師データをなす物体の移動履歴情報及び該物体の種別を所定の多層ニューラルネットワーク(CNN)に適用して深層学習を行った学習済モデルである。ここでは、この学習済モデル50がプログラムである場合を示すが、FPGA(Field-Programmable Gate Array)等のロジック回路で構成することもできる。
この学習済モデル50は、移動履歴情報Bが入力されたことを条件として、物体の種別毎の確率を出力する。例えば、図1に図示したように、物体の種別が「車両」である確率「0.1(10%)」、物体の種別が「人」である確率「0.1(10%)」、物体の種別が「動物」である確率「0.8(80%)」が出力される。
種別判定プログラムは、この物体の種別毎の確率に基づいて、入力画像Aに含まれる物体A1の種別を判定する(S15)。例えば、物体の種別毎の確率のいずれか一つが、所定の閾値(例えば、0.8(80%))を超えたならば、閾値を超えた確率に対応する種別を物体の種別であると判定する。
このように、本実施例1に係る種別判定プログラムは、監視カメラにより撮像された画像に含まれる物体A1を検知し、検知された物体A1を追跡して該物体A1の移動履歴情報Bを取得し、移動履歴情報Bに基づいて検知された物体の種別を判定する処理をコンピュータに実行させるプログラムである。
なお、この種別判定プログラムは、物体A1の種別が「動物」であると判定されたならば、所定の警報灯による警報を発するよう制御し、該物体A1の種別が「人」又は「車両」であると判定されたならば、所定の警報灯による警報を発しないよう制御する。これにより、テストコース内に動物が侵入した場合に、試験車両の走行テストを中止させ、試験車両と動物の衝突事故を回避することができる。
<警報システムの構成>
次に、車両の走行試験を行うテストコースTに設置された警報システムのシステム構成について説明する。図3は、車両の走行試験を行うテストコースTに設置された警報システムのシステム構成を示す図である。同図に示すように、この警報システムは、監視カメラ10と、警報灯20と、スピーカ30とを、それぞれ警報制御装置40と通信可能に接続した構成となる。ここでは、各装置間を無線により接続した場合を示している。なお、上記の種別判定プログラムは、警報制御装置40にインストールされる。
監視カメラ10は、テストコースTの外部からテストコースTに侵入する物体A1の画像を撮像する撮像装置であり、テストコースTの外柵周辺に一定間隔(例えば、数百mごと)で配設されている。この監視カメラ10は、無線LAN(Local Area Network)等のIPネットワークを介して、警報制御装置40に画像を送信する。なお、ここでは監視カメラ10から警報制御装置40に対して画像を送信する場合を示したが、監視カメラ10から警報制御装置40に対して動画像を送信することもできる。動画像を送信する場合には、警報制御装置40が、動画像からフレーム毎に画像を切り出す処理を行うことになる。
警報灯20は、試験車両を運転するドライバー及びテストコースTの監視を行う監視員等に対して、テストコースTでの異常発生を視覚的に報知するための表示デバイスである。この警報灯20は、テストコースTを走行する試験車両のドライバーが視認できるように、一定間隔(例えば、数百mごと)で配設され、警報制御装置40により表示制御される。例えば、試験車両の走行試験を行っている間は警報灯20を緑色表示し、走行試験を中止すべき事象が発生したならば警報灯20を赤色点滅させる。このため、例えば試験車両のドライバーが、走行路を走行している状況で警報灯20の赤色点滅を視認したならば、直ちに試験中止と判断して所定の位置に移動する。
スピーカ30は、試験車両を運転するドライバー及びテストコースTの監視を行う監視員等に対して、テストコースTでの試験状況を音響的に報知するための報知デバイスである。走行試験を中止すべき事象が発生したならば、警報制御装置40の指示に応じて所定の警報音を出力する。このため、例えば試験車両のドライバーが、走行路を走行している状況で警報音を確認したならば、直ちに試験中止と判断して所定の位置に移動する。
警報制御装置40は、一種のコンピュータであり、図1を用いて説明した種別判定プログラムをインストールすることにより、本発明に係る種別判定処理を行う。具体的には、画像に含まれる物体A1の種別を判定し、この物体A1の種別が「動物」であると判定した場合に、警報灯20の表示制御及びスピーカ30からの警報音の出力制御により試験車両のドライバー等に警報を行う。なお、物体A1の種別が「人」又は「車両」であると判定した場合には、警報灯20の表示制御及びスピーカ30からの警報音の出力制御は行わない。なお、かかる警報制御装置40に関する詳細な説明については後述する。
<警報制御装置40の構成>
次に、図3に示した警報制御装置40の構成について説明する。図4は、図3に示した警報制御装置40の構成を示す機能ブロック図である。同図に示すように、この警報制御装置40は、入力部41、表示部42、通信インターフェース部(以下、単に「通信I/F部」と言う)43、記憶部44及び制御部45を有する。
入力部41は、キーボード又はマウス等の入力デバイスであり、表示部42は、液晶パネル又はディスプレイ装置等の表示デバイスである。通信I/F部43は、無線LAN等を介して監視カメラ10、警報灯20及びスピーカ30と通信するためのインターフェース部である。
記憶部44は、不揮発性メモリ又はハードディスク装置等の記憶デバイスであり、学習データ44a及び移動履歴情報44b等を記憶する。学習データ44aは、CNNが教師有り学習を行う場合に用いる学習用の画像データである。移動履歴情報44bは、物体A1の移動履歴を示す情報である。
制御部45は、警報制御装置40の全体制御を行う制御部であり、検知部45aと、移動履歴情報取得部45bと、種別判定部45cと、警報指示部45dとを有する。なお、その詳細な説明は後述するが、警報制御装置40のCPU(Central Processing Unit)が、本発明に係る種別判定プログラムを不揮発性メモリ等から主記憶装置であるRAM(Random Access Memory)上にロードして実行することにより、検知部45a、移動履歴情報取得部45b、種別判定部45c及び警報指示部45dに対応するプロセスが形成される。
検知部45aは、連続する複数のフレームの画像間の画素の移動ベクトルに基づいて、監視カメラ10により撮像された画像に含まれる物体A1を検知する処理部である。具体的には、複数の画像で動きのある画素が存在するならば、動きのある画素に基づいて物体A1を検知する。なお、画素の移動ベクトルとは、物体A1の同じ箇所を示す画素間のベクトル(例えば、オプティカルフロー)である。
移動履歴情報取得部45bは、検知部45aにより検知された物体A1を形成する画素の移動ベクトルと所定の尤度に基づいて、物体A1を含む矩形領域を特定し、特定した矩形領域の移動履歴に係る情報を移動履歴情報として取得する処理部である。具体的には、画像を形成する画素ごとにオプティカルフローと尤度を算出し、オプティカルフローに基づき過去の物体抽出結果を移動させて動きのある画素を抽出し、パーティクルとしての矩形領域を画像上に配置し、矩形領域内の物体抽出結果位置のオプティカルフローに基づいて矩形領域を移動させ、矩形領域内外の物体抽出結果に基づいて矩形領域ごとに算出した尤度を用いてリサンプリングさせたパーティクルフィルタを用いて物体A1を検知し、矩形領域内外の物体抽出結果位置の色のヒストグラムに基づいて矩形領域ごとに算出した尤度を用いてリサンプリングさせたパーティカルフィルタを用いて物体A1を追跡して移動履歴情報Bを取得する。具体的な処理については、特願2018−046582号と同様のものとなる。
種別判定部45cは、検知部45aにより検知された物体A1の種別を判定する処理部であり、CNNの学習済モデル50を用いて物体A1の種別毎の確率を出力する。そして、物体A1の種別毎の確率のうち、所定の閾値(例えば、80%)を超える確率が存在する場合に、該確率に対応する種別が物体A1の種別であると判定する。このCNNには、オープンソース製品として提供される「caffe」、「TensorFlow」、「Chainer」、「CNTK」などを用いることができる。
警報指示部45dは、物体A1の種別が「動物」であると判定された場合に、警報灯20及びスピーカ30に対して警報指示を行う処理部である。物体A1の種別が「車両」又は「人」であると判定された場合には、警報灯20及びスピーカ30に対する警報指示を行わない。警報灯20には、あらかじめ警告指示のデータパターンに対応付けて警告灯の表示態様が記憶されており、警報指示部45dの警告指示に含まれるデータパターンに対応する表示態様で表示を行う。同様に、スピーカ30には、あらかじめ警告指示のデータパターンに対応付けて出力音のパターンが記憶されており、警報指示部45dの警告指示に含まれるデータパターンに対応する出力音を出力する。スピーカ30は、警報指示部45dから出力される警告指示に含まれる出力音を出力することもできる。
ここで、上記のCNNの学習済モデル50を用いた種別判定についてさらに説明する。図5は、図4に示した種別判定部45cによる学習済モデル50を用いた種別判定の一例を示す図である。図6は、学習データとしての移動履歴情報の一例を示す図である。図7は、図5に示した学習済モデル50の層構造の一例を示す図である。
CNNに教師有り学習を行わせる場合には、図6に示した学習データとしての移動履歴情報と正解データをCNNに付与し、バックプロパゲーション等により教師有り学習を行わせる。なお、バックプロパゲーションは深層学習に関する周知技術であるため、ここではその説明を省略する。例えば、CNNに「動物」を学習させる場合には、CNNに図6(a)に示す移動履歴情報を入力し、正解データ(P1,P2,P3)=(1,0,0)を付与し、バックプロパゲーションを行わせる。また、CNNに「車両」を学習させる場合には、CNNに図6(b)に示す移動履歴情報を入力し、正解データ(P1,P2,P3)=(0,1,0)を付与し、バックプロパゲーションを行わせる。さらに、CNNに「人」を学習させる場合には、CNNに図6(c)に示す移動履歴情報を入力し、正解データ(P1,P2,P3)=(0,0,1)を付与し、バックプロパゲーションを行わせる。このようにして、学習済モデル50のニューロン間のパスの重み等のパラメータが決定される。
ここで、図6(a)〜図6(c)に示した各移動履歴情報は、それぞれ所定の時間ごとの矩形領域の幅(第1行目)、矩形領域の高さ(第2行目)、矩形領域の水平方向の移動量(第3行目)、矩形領域の垂直方向の移動量(第4行目)、前矩形領域との幅差(第5行目)及び前矩形領域との高さ差(第6行目)からなる。なお、所定の時間ごとの矩形領域の水平方向の移動量(第3行目)及び垂直方向の移動量(第4行目)のみを入力することもできる。また、ここでは学習データとしての移動履歴情報の一例を示したが、物体A1の種別判定を行う場合にも、同様の構造を有する移動履歴情報が学習済モデル50に入力される。
次に、学習済モデル50の層構造について説明する。図7に示す学習済モデル50は、コンボリューション層(Convolution)51、コンボリューション層(Convolution)52、アベレージプーリング層(Average Pooling)53、コンボリューション層(Convolution)54、アベレージプーリング層(Average Pooling)55、全結合層(Fully Connect)56、全結合層(Fully Connect)57及び出力層(Softmax)58を有する。
コンボリューション層51,52,54は、局所的な特徴を抽出するために、前層で近くにあるノードにフィルタを畳み込んで特徴マップを生成する。アベレージプーリング層53,55は、局所的な特徴をまとめあげるために、前層であるコンボリューション層から出力された特徴マップをさらに縮小して新たな特徴マップとする。このように、CNNの隠れ層は、コンボリューション層とアベレージプーリング層により形成される。全結合層56,57は、特徴部分が取り出された特徴マップを一つのノードに結合し、所定の活性化関数によって変換された値を出力する。この活性化関数には、周知技術であるReLU(Rectified Linear Unit)等を用いることができる。出力層58は、全結合層57からの出力(特徴変数)を元に、ソフトマックス関数を用いて確率に変換し、それぞれ正しく分類される確率を出力する。なお、オーバーフィッティングを避けるためにドロップアウト層を追加することもできる。なお、CNNの基本構造は公知技術であるため、ここではその詳細な説明を省略する。
<警報制御装置40の処理手順>
次に、図4に示した警報制御装置40の処理手順について説明する。図8は、図4に示した警報制御装置40の処理手順を示すフローチャートである。同図に示すように、警報制御装置40は、監視カメラ10から複数の画像を受信する(ステップS101)。かかる複数の画像は、時系列的に連続するフレームの画像である。なお、監視カメラ10から動画を入力し、動画から各フレームに対応する画像を切り出しても良い。
その後、警報制御装置40は、複数の画像を用いた物体検知及び移動履歴情報の取得を行い(ステップS102)、各画像内の物体A1の種別判定を行う(ステップS103)。この種別判定において、移動履歴情報Bを学習済モデル50に入力したならば、学習済モデル50は、物体A1の種別が「動物」である確率P1、物体A1の種別が「車両」である確率P2、物体A1の種別が「人」である確率P3が出力される。ここで、いずれか一つの確率が所定の閾値(例えば、「0.8」)を超える場合に、該確率に対応する種別が物体A1の種別と判定される。
その後、警報制御装置40は、物体A1の種別が「動物」であると判定されたならば(ステップS104;Yes)、警報灯20及びスピーカ30に対して警報指示を行う(ステップS105)。これに対して、物体A1の種別が「動物」でないと判定されたならば(ステップS104;No)、警報灯20及びスピーカ30に対して警報指示を行わない。なお、ここでは説明の便宜上、物体A1の種別が「動物」ではない場合に警報指示を行わないこととしたが、物体A1の種別が「車両」又は「人」であると判定された場合に警報指示を行わず、物体A1の種別が「UNKNOWN(不明)」と判定された場合に警報指示を行うこともできる。
次に、図8のステップS102に示した物体検知及び移動履歴情報の取得に関する手順について説明する。図9は、図8のステップS102に示した物体検知及び移動履歴情報の取得に関する手順を示すフローチャートである。
図9に示すように、警報制御装置40は、画像の画素毎にオプティカルフローと尤度を算出し(ステップS201)、オプティカルフローに基づいて動きのある画素を抽出する(ステップS202)。その後、画像上にパーティクルとしての矩形を配置し(ステップS203)、オプティカルフローに基づいて矩形を移動させる(ステップS204)。その後、矩形の中心の移動ベクトルの履歴を移動履歴情報44bとして記憶部44に記憶する(ステップS205)。これにより、移動履歴情報44bを学習済モデル50に入力して種別判定を行うことができる。
上述してきたように、本実施例1では、監視カメラ10により撮像された画像に含まれる物体A1を検知し、検知した物体A1を追跡して該物体A1の移動履歴情報Bを取得し、少なくとも移動履歴情報Bに基づいて物体A1の種別を判定するよう構成したので、画像に含まれる物体A1を形成する画素数が少ない場合であっても、物体A1の移動履歴情報Bを活用しつつ該物体A1の種別を判定することができる。
ところで、上記の実施例1では、学習済モデル50を用いて種別判定を行う際に、物体A1の移動履歴情報Bのみを学習済モデル50に入力する場合を示したが、本発明はこれに限定されるものではない。本実施例2では、物体A1の移動履歴情報Bと物体A1を含む入力画像Aを学習済モデル60に入力して種別判定を行う場合について説明する。なお、システム構成及び警報制御装置の構成については、実施例1とほぼ同様であるため、ここではその説明を省略する。
図10は、本実施例2に係る学習済モデル60を用いた種別判定の一例を示す図である。図10に示すように、本実施例2では、物体A1の移動履歴情報Bと物体の画像Cを学習済モデル60に入力する。この画像Cは、図2に示した物体A1を含む入力画像A等の画像であることが望ましい。なお、移動履歴情報Bは、図6を用いて説明したデータ列である。
図11は、図10に示した学習済モデル60の層構造の一例を示す図である。図11に示すように、学習済モデル60は、画像Cを処理するために、コンボリューション層(Convolution)61a、コンボリューション層(Convolution)61b、マックスプーリング層(Max Pooling)61c、コンボリューション層(Convolution)61d、マックスプーリング層(Max Pooling)61e及び全結合層(Fully Connect)61fを有する。
また、移動履歴情報Bを処理するために、コンボリューション層(Convolution)62a、コンボリューション層(Convolution)62b、アベレージプーリング層(Average Pooling)62c、コンボリューション層(Convolution)62d、アベレージプーリング層(Average Pooling)62e及び全結合層(Fully Connect)62fを有する。さらに、全結合層(Fully Connect)63、全結合層(Fully Connect)64、出力層(Softmax)65を有する。なお、各層の説明については省略する。
このように、この学習済モデル60は、物体A1を含む画像Cと物体A1の移動履歴情報Bとが入力されたならば、物体A1の種別が「動物」である確率P1、物体A1の種別が「車両」である確率P2、物体A1の種別が「人」である確率P3を出力する。
このように、本実施例2では、物体A1を含む画像Cと物体A1の移動履歴情報Bとを学習済モデル60に入力して、物体A1の種別毎の確率を出力するよう構成したので、物体A1の画像の特徴及び移動履歴の特徴の両面から物体A1の種別を精度良く判定することができる。
ところで、上記の実施例1では、図6に示した移動履歴情報Bを学習済モデル50に入力する場合を示したが、CNNを用いた深層学習は画像との親和性が高いため、この移動履歴情報Bを一種のパラメータ画像として取り扱うこともできる。
図12は、本実施例3に係る学習済モデル70を用いた種別判定の一例を示す図である。図12に示すように、本実施例3では、物体A1の移動履歴情報Bから生成されるパラメータ画像Dを学習済モデル70に入力する。そして、学習済モデル70は、物体A1の種別が「動物」である確率P1、物体A1の種別が「車両」である確率P2、物体A1の種別が「人」である確率P3を出力する。なお、学習済モデル70の層構造は、図7に示した学習済モデル50と同一のものとすることができる。
図13は、図12に示したパラメータ画像Dを説明するための説明図である。図13(a)に示すように、パラメータ画像Dは、横軸を時間とし、縦軸のプラス側をx移動距離とし、縦軸のマイナス側をy移動距離とした疑似画像である。
図13(b)は車両のパラメータ画像であり、図13(c)は動物のパラメータ画像であり、図13(d)は人のパラメータ画像である。図13(c)に示す動物のパラメータ画像は、車両のパラメータ画像又は人のパラメータ画像に比べてx移動距離及びy移動距離が大きい。このため、このパラメータ画像を学習済モデル70に入力すると、物体A1が動物である確率を精度良く求めることができる。
なお、図14に示すように、物体A1の移動履歴情報Bから生成されるパラメータ画像Dと物体A1を含む画像Cとを学習済モデル80に入力して、学習済モデル70から、物体A1の種別が「動物」である確率P1、物体A1の種別が「車両」である確率P2、物体A1の種別が「人」である確率P3を出力することもできる。学習済モデル80の層構造は、図11に示した学習済モデル60と同一のものとすることができる。
<ハードウエアとの関係>
次に、本実施例1〜3に係る警報制御装置40と、コンピュータの主たるハードウエア構成の対応関係について説明する。図15は、ハードウエア構成の一例を示す図である。
一般的なコンピュータは、CPU91、ROM(Read Only Memory)92、RAM93及び不揮発性メモリ94などがバス95により接続された構成となる。不揮発性メモリ94の代わりにハードディスク装置が設けられていても良い。説明の便宜上、基本的なハードウエア構成のみを示している。
ここで、ROM92又は不揮発性メモリ94には、オペレーティングシステム(Operating System;以下、単に「OS」と言う)の起動に必要となるプログラム等が記憶されており、CPU91は、電源投入時にROM92又は不揮発性メモリ94からOSのプログラムをリードして実行する。
一方、OS上で実行される各種のアプリケーションプログラムは、不揮発性メモリ94に記憶されており、CPU91がRAM93を主メモリとして利用しつつアプリケーションプログラムを実行することにより、アプリケーションに対応するプロセスが実行される。
そして、本実施例1〜3に係る警報制御装置40の種別判定プログラムについても、他のアプリケーションプログラムと同様に不揮発性メモリ94等に記憶され、CPU91が、この種別判定プログラムをロードして実行することになる。実施例1〜3に係る警報制御装置40の場合には、図4に示した検知部45a、移動履歴情報取得部45b、種別判定部45c、警報指示部45dに対応するルーチンを含む種別判定プログラムが不揮発性メモリ94等に記憶される。CPU91により種別判定プログラムがロード実行されることにより、検知部45a、移動履歴情報取得部45b、種別判定部45c、警報指示部45dに対応するプロセスが生成される。なお、学習データ44a及び設定データ等は、あらかじめ不揮発性メモリ94に記憶される。
また、上記の各実施例1〜3では、スタンドアロンとしての装置上で動作実行する場合を示したが、本発明はこれに限定されるものではなく、クラウドのエッジサーバ装置において実現する場合に適用することもできる。また、複数台のコンピュータによる分散処理する場合に適用することもできる。
さらに、上記の各実施例1〜3では、深層学習の学習済モデルを用いる場合を示したが、本発明はこれに限定されるものではなく、深層学習以外の機械学習の学習済モデルを用いることもできる。また、各実施例1〜3では、プログラムとしての学習済モデルを用いた場合を示したが、本発明はこれに限定されるものではなく、FPGA等のハードウエア回路で実現することもできる。
また、上記の各実施例1〜3では、動物を警報対象とする場合を示したが、本発明はこれに限定されるものではなく、テストコースへの進入が許可されていない不審者、不審物、ドローン等の各種の物体を警報対象とする場合に適用することもできる。
なお、上記の実施例1〜3で図示した各構成は機能概略的なものであり、必ずしも物理的に図示の構成をされていることを要しない。すなわち、各装置の分散・統合の形態は図示のものに限られず、その全部又は一部を各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
本発明の種別判定プログラム、種別判定装置及び種別判定方法は、入力画像に含まれる物体に係る画素数が少ない状況下で、該物体の種別を迅速かつ正確に判定する場合に有用である。
A 入力画像
A1 物体
A2 物体
B 移動履歴情報
C 画像
D パラメータ画像
10 監視カメラ
20 警報灯
30 スピーカ
40 警報制御装置
41 入力部
42 表示部
43 通信I/F部
44 記憶部
44a 学習データ
44b 移動履歴情報
45 制御部
45a 検知部
45b 移動履歴情報取得部
45c 種別判定部
45d 警報処理部
50,60,70,80 学習済モデル
91 CPU
92 ROM
93 RAM
94 不揮発性メモリ
95 バス

Claims (12)

  1. 所定の撮像装置により撮像された画像に含まれる物体を検知する検知手順と、
    前記検知手順により検知された物体を形成する画素の移動ベクトルと所定の尤度に基づいて、物体を含む矩形領域を特定し、特定した矩形領域の移動履歴に係る情報を移動履歴情報として取得する移動履歴情報取得手順と、
    少なくとも前記移動履歴情報に基づいて、前記検知手順により検知された物体の種別を判定する種別判定手順と
    をコンピュータに実行させることを特徴とする種別判定プログラム。
  2. 前記検知手順は、
    複数の画像間の画素の移動ベクトルに基づいて、前記所定の撮像装置により撮像された画像に含まれる物体を検知することを特徴とする請求項1に記載の種別判定プログラム。
  3. 前記種別判定手順は、
    教師データをなす物体の移動履歴情報及び該物体の種別を所定の多層ニューラルネットワークに適用した学習済モデルに基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする請求項に記載の種別判定プログラム。
  4. 前記種別判定手順は、
    前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の水平方向の移動量及び垂直方向の移動量を前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする請求項に記載の種別判定プログラム。
  5. 前記種別判定手順は、
    前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の幅、前記矩形領域の高さ、前記矩形領域の水平方向の移動量、前記矩形領域の垂直方向の移動量、前記矩形領域との幅差及び前記矩形領域との高さ差を前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする請求項に記載の種別判定プログラム。
  6. 前記種別判定手順は、
    前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の幅、前記矩形領域の高さ、前記矩形領域の水平方向の移動量、前記矩形領域の垂直方向の移動量、前記矩形領域との幅差及び前記矩形領域との高さ差と、前記矩形領域の部分画像とを前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする請求項に記載の種別判定プログラム。
  7. 前記種別判定手順は、
    前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の水平方向の移動量及び垂直方向の移動量を画像化したパラメータ画像を前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする請求項に記載の種別判定プログラム。
  8. 前記種別判定手順は、
    前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の水平方向の移動量及び垂直方向の移動量を画像化したパラメータ画像と、前記矩形領域の部分画像とを前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする請求項に記載の種別判定プログラム。
  9. 前記学習済モデルは、
    少なくとも動物、人又は車両に係る移動履歴情報が入力された場合に、前記物体が動物、人又は車両である確率を出力することを特徴とする請求項乃至のいずれか一つに記載の種別判定プログラム。
  10. 前記種別判定手順により前記物体の種別が動物であると判定されたならば、所定の警報灯による警報を発するよう制御し、該物体の種別が人又は車両であると判定されたならば、前記所定の警報灯による警報を発しないよう制御する警報制御手順をさらにコンピュータに実行させることを特徴とする請求項に記載の種別判定プログラム。
  11. 所定の撮像装置により撮像された画像に含まれる物体を検知する検知部と、
    前記検知部により検知された物体を形成する画素の移動ベクトルと所定の尤度に基づいて、物体を含む矩形領域を特定し、特定した矩形領域の移動履歴に係る情報を移動履歴情報として取得する移動履歴情報取得部と、
    少なくとも前記移動履歴情報に基づいて、前記検知部により検知された物体の種別を判定する種別判定部と
    を備えたことを特徴とする種別判定装置。
  12. 所定の撮像装置により撮像された画像に含まれる物体を検知する検知工程と、
    前記検知工程により検知された物体を形成する画素の移動ベクトルと所定の尤度に基づいて、物体を含む矩形領域を特定し、特定した矩形領域の移動履歴に係る情報を移動履歴情報として取得する移動履歴情報取得工程と、
    少なくとも前記移動履歴情報に基づいて、前記検知工程により検知された物体の種別を判定する種別判定工程と
    を含んだことを特徴とする種別判定方法。
JP2018142130A 2018-07-30 2018-07-30 種別判定プログラム、種別判定装置及び種別判定方法 Active JP6678706B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018142130A JP6678706B2 (ja) 2018-07-30 2018-07-30 種別判定プログラム、種別判定装置及び種別判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018142130A JP6678706B2 (ja) 2018-07-30 2018-07-30 種別判定プログラム、種別判定装置及び種別判定方法

Publications (2)

Publication Number Publication Date
JP2020021111A JP2020021111A (ja) 2020-02-06
JP6678706B2 true JP6678706B2 (ja) 2020-04-08

Family

ID=69589814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018142130A Active JP6678706B2 (ja) 2018-07-30 2018-07-30 種別判定プログラム、種別判定装置及び種別判定方法

Country Status (1)

Country Link
JP (1) JP6678706B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102595394B1 (ko) * 2021-07-28 2023-10-31 (주)골든플래닛 Ai 기반 이미지 학습에서의 베이지안 알고리즘 적용을 통한 로드킬 방지 방법 및 이를 수행하는 전자 장치

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4470067B2 (ja) * 2007-08-07 2010-06-02 本田技研工業株式会社 対象物種別判定装置、車両
JP6526953B2 (ja) * 2014-09-12 2019-06-05 株式会社日立国際電気 物体識別方法

Also Published As

Publication number Publication date
JP2020021111A (ja) 2020-02-06

Similar Documents

Publication Publication Date Title
US11321591B2 (en) System for identifying a defined object
EP3867889B1 (en) Perimeter breach warning system
WO2008103206A1 (en) Surveillance systems and methods
DE102017129076A1 (de) Autonomer schulbus
CN110895662A (zh) 车辆超载报警方法、装置、电子设备及存储介质
JP2013088870A (ja) 不審者検知装置、不審者検知方法およびプログラム
KR20190046351A (ko) 침입 탐지방법 및 그 장치
JP2007140606A (ja) 駐車場監視システム
JP6678706B2 (ja) 種別判定プログラム、種別判定装置及び種別判定方法
US11450153B2 (en) Information processing method and information processing system
KR102514660B1 (ko) 보차혼용도로에서의 보행자 사고 방지 방법 및 시스템
KR102556447B1 (ko) 패턴 분석을 통한 상황 판단 시스템
US11176379B2 (en) Method of acquiring detection zone in image and method of determining zone usage
JP6978986B2 (ja) 警報システム、警報制御装置及び警報方法
KR101407394B1 (ko) 방치물 및 도난물 탐지 시스템
KR102286229B1 (ko) 특징벡터 기반 싸움 이벤트 인식 방법
US20220262122A1 (en) Image collection apparatus and image collection method
Malbog et al. PED-AI: Pedestrian Detection for Autonomous Vehicles using YOLOv5
US11580332B2 (en) Method and device for reliably identifying objects in video images
CN112927455B (zh) 停车场智能监控方法及应用
KR102644146B1 (ko) 차량의 운행정보를 반영한 영상 관제 기능을 갖는 avm 시스템 및 그 방법
US11994860B2 (en) Processing system for evaluating autonomous vehicle control systems through continuous learning
US20190384292A1 (en) Processing System For Evaluating Autonomous Vehicle Control Systems Through Continuous Learning
TWM653114U (zh) 車道監控系統
BR102022013082A2 (pt) Sistema de controle de frenagem de veículo

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200317

R150 Certificate of patent or registration of utility model

Ref document number: 6678706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250