JP2021071919A - 道路監視装置 - Google Patents

道路監視装置 Download PDF

Info

Publication number
JP2021071919A
JP2021071919A JP2019198175A JP2019198175A JP2021071919A JP 2021071919 A JP2021071919 A JP 2021071919A JP 2019198175 A JP2019198175 A JP 2019198175A JP 2019198175 A JP2019198175 A JP 2019198175A JP 2021071919 A JP2021071919 A JP 2021071919A
Authority
JP
Japan
Prior art keywords
road
learning
vehicle
image
condition determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019198175A
Other languages
English (en)
Other versions
JP2021071919A5 (ja
Inventor
卓 土田
Taku Tsuchida
卓 土田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2019198175A priority Critical patent/JP2021071919A/ja
Publication of JP2021071919A publication Critical patent/JP2021071919A/ja
Publication of JP2021071919A5 publication Critical patent/JP2021071919A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】悪天候下での検知精度も確保した道路監視装置を得ることを目的とする。【解決手段】監視対象の道路及び通行する車両を撮影する撮影装置と、撮影装置が撮影した画像上の車両の位置を基に道路の異常の有無を判定する道路状態判定装置と、前記道路状態判定装置に接続された学習装置と、を備えた道路監視装置であって、道路状態判定装置は、学習装置で学習済の学習器を有し、学習器は、撮影装置が撮影した画像が入力されるとともに、前記画像上の車両の位置情報を演算して出力し、学習器で出力された車両の位置情報を画像上の基準線と比較して前記道路の異常の有無を判定する。【選択図】図1

Description

本願は、道路監視装置に関するものである。
道路においては、自然災害による法面崩壊、土砂崩れ、路面陥没、雪崩、強風による飛来物などの他、車両からの落下物等、様々な要因で円滑な通行が阻害されるケースが発生する。
道路に前記のような異常が発生した場合、一刻も早く道路管理者によって対策が実施される必要があるが、当該道路の管理者によってこの異常が把握されるまでに時間を要しているという問題がある。
例えば、特許文献1では、道路に異常が発生した場合の検知を行うため、カメラあるいはレーダを用いて、登録済みの学習データをもとに物体の有無を判断している。
特開2019−036240号公報
特許文献1の方法では、あらかじめ登録した学習データをもとに物体検知しているため、事前に想定していなかった異常が道路上で発生した場合には検知することができないという問題点があった。また、カメラとレーダを併用しているが、降雪環境下などではミリ波レーダによる測距が正常に行われない場合があり、誤検知を起こしやすいという問題があった。
本願は、上記のような課題を解決するための技術を開示するものであり、事前想定の学習データに無いような異常を検知できるとともに、悪天候下での検知精度も確保した道路監視装置を得ることを目的とする。
本願に開示される道路監視装置は、監視対象の道路及び前記道路を通行する車両を撮影する撮影装置と、前記撮影装置が撮影した前記画像上の車両の位置を基に前記道路の異常の有無を判定する道路状態判定装置と、前記道路状態判定装置に接続された学習装置と、を備えた道路監視装置であって、前記道路状態判定装置は、前記学習装置で学習済の学習器を有し、前記学習器は、前記撮影装置が撮影した画像が入力されるとともに、前記画像上の車両の位置情報を演算して出力し、前記学習器で出力された前記車両の位置情報を前記画像上の基準線と比較して前記道路の異常の有無を判定する、ように構成されたものである。
本願に開示される道路監視装置によれば、気候条件等に影響を受けることなく、また事前の学習パターンに依存することなく道路上の異常発生を検知することができる。
実施の形態1に係る道路監視装置の構成及び適用される場面の一例を示す図である。 実施の形態に係る道路状態判定装置のハードウェア構成図である。 実施の形態に係る学習装置のハードウェア構成図である。 実施の形態に係る道路状態判定装置の機能ブロック図である。 実施の形態に係る車両位置情報の一例を示す図である。 実施の形態に係る学習装置の機能ブロック図である。 実施の形態1に係る道路状態判定処理の手順を示す図である。 実施の形態1に係る学習装置における処理手順を示す図である。
以下、本願で開示される道路監視装置の実施の形態について図を参照して説明する。ただし、以下で説明する実施の形態は、あらゆる点において本発明の実施の形態の例示に過ぎない。つまり、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施の形態において登場するデータを自然言語により説明しているが、より具体的にはコンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。
実施の形態1.
以下に、実施の形態1に係る道路監視装置について図を用いて説明する。
図1は、実施の形態1に係る道路監視装置の構成及びこの道路監視装置が適用される場面の一例を示す図である。図1において、道路監視装置10は、道路91を通行する車両92を撮影するカメラ1と、このカメラ1で撮影された画像をネットワーク2を経由して取得し道路状態を判定する道路状態判定装置3と、道路状態判定装置3に接続された学習装置6とを備える。道路状態判定装置3での道路状態の判定結果は、ネットワーク2を経由して状態伝達部4に送信される。道路状態判定装置3での道路状態の判定結果が異常と判定された場合、ネットワーク2に接続された情報展開部5により、その状態が通知される。
道路91上に支障物が無い状態では、車両92は車線中央付近を通行することから、カメラ1により一定間隔で撮影された画像においては、車両の座標位置は車線中央の近傍に位置する。ここで一定間隔の撮影とは例えば毎秒ごとの撮影を示す。一方、図1に示すように道路91上に倒木のような支障物93がある状態では、車両92は支障物93を迂回して走行する。そのため、車両の座標位置は車線中央から外れた座標位置となる。このように撮影画像上の車両の座標位置を確認し、一定の期間、車両の座標位置が車線の中央から所定距離外れた状態が継続したとき、道路状態判定装置3は、道路91に支障物93があり、すなわち道路91に異常が発生したものと判定する。そして、ネットワーク2を経由して、状態伝達部4及び情報展開部5を用いて道路管理者及び道路利用者へ道路91に異常が発生していることを通知する。
状態伝達部4は道路状態判定装置3から道路に異常が発生しているという情報を取得すると、道路の異常情報を当該道路の管理者へ伝達するとともに、警報あるいは異常発生を示すランプ点灯等により注意喚起を促す。道路管理者は、道路に発生した事象を短時間で把握するとともに、速やかに、撤去作業等の次のステップへと進むことが可能となる。なお、道路の異常情報は、状態伝達部4から道路管理者に対して道路管理者が所有する端末あてに電子メールまたはメッセージ等による方法を用いて通知してもよい。
情報展開部5は道路状態判定装置3から道路に異常が発生しているという情報を取得し、例えば当該道路の路側に設置された表示機器にその内容を表示することで、通行する車両の運転者等の道路利用者に注意喚起を促すことが可能となる。情報展開部5から道路利用者への情報展開は、ラジオ放送あるいはDSRC(Dedicated Short Range Communications:狭域通信)等を用いることもできる。
道路状態判定装置3に接続されている学習装置6は、道路状態判定装置3で利用する学習器を構築するためのもので、入力された撮影画像に応じて車両の位置情報を出力するように学習器の機械学習を行う、例えばコンピュータに相当するものである。学習装置6は、撮影画像と車両位置情報との組を学習データとして取得する。これらのうち、撮影画像は入力データとして利用され、車両位置情報は教師データとして利用される。すなわち、学習装置6は、撮影画像を入力すると車両位置情報に対応する出力値を出力するようにし、出力値と教師データを比較することで学習器を学習させる。これにより、道路状態判定装置3で利用する学習済みの学習器を形成することができる。なお、学習器の詳細については後述する。
図2は、本実施の形態1に係る道路状態判定装置3のハードウェア構成の一例を示す図である。図において、道路状態判定装置3は制御部11、記憶部12、及び外部I/F(インタフェース)13が電気的に接続されたコンピュータから構成されている。
制御部11は、プロセッサであるCPU(Central Processing Unit:中央演算処理装置)及びメモリであるRAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御を行う。制御部11は、例えば、ECU(Electronic Control Unit:電子制御装置)により構成される。記憶部12は、例えばRAM、ROM等のメモリで構成され、プログラム121、学習結果データ122等を記憶する。
プログラム121は、道路状態判定装置3に道路状態が車両通行するのに問題が無い状態かどうかを推定する情報処理を実行させるための命令を含むプログラムである。学習結果データ122は学習済みの学習器の設定を行うためのデータである。外部I/F13は例えばLAN(Local Area Network)を介して、カメラ1に接続される。
カメラ1は、道路91を通行する車両92を俯瞰的に撮影可能に配置される。例えば、カメラ1は具体的には、道路脇の両側に設置し、あるいは道路上方より撮影できるように設置し、車両92の挙動を撮影範囲としてカバーし、車両92が車線中央を走行しているか否かを判定できるように設置される。なお、カメラ1には撮影装置として一般のデジタルカメラ、ビデオカメラ等を用いることができる。
なお、外部I/F13にはカメラ1が接続された例を示したが、カメラ1以外の外部装置を接続することもできる。例えば、外部I/F13にはインターネットを介してデータ通信を行うための通信モジュールが接続されてもよい。外部I/F13に接続する外部装置は、適宜選択することができる。
また、図2においては、道路状態判定装置3は、1つの外部I/F13を備えている例を示したが、外部I/F13は、接続する外部装置毎に設けられてもよい。外部I/F13の数は、適宜選択可能である。
なお、道路状態判定装置3の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換および追加が可能である。例えば、制御部11は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサはマイクロプロセッサ、FPGA(field programmable gate array)等で構成されてもよい。記憶部12はハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置で構成されてもよい。また、道路状態判定装置3には、提供されるサービス専用に設計された情報処理装置の他、汎用のコンピュータを用いてもよい。
以上説明した道路状態判定装置3では、制御部11は、記憶部12に記憶されたプログラム121をRAMに展開する。そして、RAMに展開されたプログラム121をCPUにおいて解釈及び実行し、制御部11は各構成要素を制御する。制御部11が制御する各構成要素の機能については後述する。
次に、本実施の形態1に係る学習装置6の構成について説明する。図3は、本実施の形態1に係る学習装置6のハードウェア構成の一例を示す図である。図において、学習装置6は、制御部21、記憶部22、通信I/F23、入力装置24、出力装置25、及びドライブ26が電気的に接続されたコンピュータから構成されている。
制御部21は、上述の道路状態判定装置3の制御部11と同様に、プロセッサであるCPU、及びメモリであるRAM,ROM等を含み、記憶部22が具備する学習プログラム221及び学習データ222に基づいて各種情報処理を実行するように構成される。記憶部22は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。記憶部22は、制御部21で実行される学習プログラム221、学習器の機械学習に利用する学習データ222、学習プログラム221を実行して作成した学習結果データ122等を格納する。
学習プログラム221は、後述する機械学習の処理(図8)を学習装置6で実行させ、当該機械学習の結果として学習結果データ122を生成させるための命令を含むプログラムである。学習データ222は、車両の位置情報を推定する能力を獲得するように学習器の機械学習を行うためのデータである。
なお、「機械学習」とはデータ(学習データ)に潜むパターンをコンピュータにより見つけ出すことであり、「学習器」は機械学習によって得られ、所定のパターンを識別する能力を獲得可能な学習モデル(学習結果データ)により構築される。
通信I/F23は、例えば、有線LANモジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。学習装置6は、当該通信I/F23を介して、作成した学習結果データ122を外部の装置に配信してもよい。
入力装置24は、例えば、マウス、キーボード等の入力を行うための装置である。また、出力装置25は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。オペレータは、入力装置24及び出力装置25を介して、学習装置6を操作することができる。
ドライブ26は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体71に記憶されたプログラムを読み込むためのドライブ装置である。ドライブ26の種類は、記憶媒体71の種類に応じて適宜選択されてよい。上記学習プログラム221及び学習データ222は、記憶部22内のメモリに記憶されていてもよいし、この記憶媒体71に記憶されていてもよい。
記憶媒体71は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。学習装置6は、この記憶媒体71から、上述の学習プログラム221及び学習データ222を取得してもよい。
記憶媒体71として、CD、DVD等のディスク型の記憶媒体を例示したが、記憶媒体71の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
なお、学習装置6の具体的なハードウェア構成は、実施形態に応じて、適宜構成要素の省略、置換及び追加が可能である。例えば、制御部21は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA等で構成されてよい。学習装置6は、複数台の情報処理装置で構成されてもよい。また、学習装置6は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、PC等であってもよい。
次に、本実施の形態1に係る道路状態判定装置3の機能について説明する。図4は、本実施の形態1に係る道路状態判定装置3の機能及び動作を説明するための機能ブロック図である。本実施の形態1に係る道路状態判定装置3はソフトウェアモジュールとして、図4に示す各機能部を有し、制御部11によって記憶部12に記憶されたプログラム121をRAMに展開し、RAMに展開されたプログラム121をCPUにおいて解釈及び実行させることで、各機能部が制御される。
図4において、画像取得部311は、道路91を走行する車両92を撮影したカメラ1から撮影画像123を取得する。解像度変換部312は、画像取得部311により取得した撮影画像123の解像度を低下させる。これにより、解像度変換部312は、低解像度撮影画像1231を生成する。
解像度変換部312で生成された低解像度撮影画像1231は、学習器50に入力される。学習器50は道路上の車両の位置情報を推定するために機械学習が行われた学習済みの学習器で、ニューラルネットワークを有する。この学習器50は車両位置情報124を演算し、道路状態推定部313に出力する。なお、低解像度化の処理は省略されてもよく、この場合、撮影画像123が学習器50に入力される。
ここで、道路状態推定部313の取得する車両位置情報124について説明する。図5は、車両位置情報一例を示す図である。図5に示されるとおり、車両位置情報は、車両が撮影画像上においてどの位置にいるかを座標で示すものである。
道路状態推定部313は車両位置情報124に基づいて、道路状態に異常が発生しているか否かを判定する。カメラ1は道路91に向けて固定されているので、図5に示されるように、車線の中央位置は単一の画角において線的に固定されている。この車線中央位置を車線中央ラインとして図5に点線で示す。撮影画像では車両の位置のみ変化が発生するので、車両の位置は車両中心位置を座標点として扱うことが可能である。この座標点と車線中央のラインの間の間隔を撮影画像毎に計測するあるいは演算して取得することは可能である。車線中央ラインに対し、走行する車両位置が予め定められた距離以上離れた状態を一定期間検知したとき、当該道路に異常が発生していると判断する。図1で示したように、倒木等の支障物93がありそれを車両92が迂回して走行していることが推察されるからである。ここで予め定められた距離とは、例えば車線幅の1/2以上であり、一定期間とは数10秒である。一定期間を判断するために、車両位置情報には車両位置(x,y)だけでなく撮像時刻(t)の情報を有することが望ましい。
伝達部314は、道路状態推定部313からの道路状態の情報を取得し、状態伝達部4及び情報展開部5にネットワークを介して情報を送信する。
次に、学習器50について説明する。図4に示されるとおり、本実施の形態1に係る道路状態判定装置3は、車両の位置情報を推定するための機械学習を行った学習済みの学習器50として、ニューラルネットワークを利用する。本実施の形態1に係るニューラルネットワークは、複数種類のニューラルネットワークを組み合わせることで構成されている。具体的には、ニューラルネットワークは、畳み込みニューラルネットワーク51で構成されている。畳み込みニューラルネットワーク51には低解像度撮影画像1231が入力され、車両位置情報124を出力する。以下、畳み込みニューラルネットワーク51の各部分について説明する。
畳み込みニューラルネットワーク51は、畳み込み層511及びプーリング層512を交互に接続した構造を有する順伝播型ニューラルネットワークである。本実施の形態1に係る畳み込みニューラルネットワーク51では、複数の畳み込み層511及びプーリング層512が学習器50の入力側に交互に配置されている。そして、最も出力側に配置されたプーリング層512の出力が全結合層513に入力され、全結合層513の出力が出力層514に入力される。
畳み込み層511は、画像の畳み込みの演算を行う層である。画像の畳み込みとは、画像と所定のフィルタとの相関を算出する処理に相当する。そのため、画像の畳み込みを行うことで、例えば、フィルタの濃淡パターンと類似する濃淡パターンを入力される画像から検出することができる。
プーリング層512は、プーリング処理を行う層である。プーリング処理は、画像のフィルタに対する応答の強かった位置の情報を一部捨て、画像内に現れる特徴の微小な位置変化に対する応答の不変性を実現する。
全結合層513は、隣接する層の間のニューロン全てを結合した層である。すなわち、全結合層513に含まれる各ニューロンは、隣接する層に含まれる全てのニューロンに結合される。全結合層513は、2層以上で構成されてもよい。また、全結合層513に含まれるニューロンの個数は、実施形態に応じて適宜設定すればよい。
出力層514は、畳み込みニューラルネットワーク51の最も出力側に配置される層である。出力層514に含まれるニューロンの個数は、実施形態に応じて適宜設定すればよい。出力層514から車両位置情報124が出力される。なお、畳み込みニューラルネットワーク51の構成は、このような例に限定されなくてもよく、実施形態に応じて適宜設定すればよい。
各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。道路状態判定装置3の制御部11は、畳み込みニューラルネットワーク51に低解像度撮影画像1231を入力し、入力側から順に、各層に含まれる各ニューロンの発火判定を行う。これにより、制御部11は、車両位置情報124に対応する出力値を畳み込みニューラルネットワーク51の出力層514から取得する。
なお、このような学習器50におけるニューラルネットワークの構成、例えば、各ネットワークの層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報は、学習結果データ122に含まれている。制御部11は、学習装置6から取得する学習結果データ122を基に、車両の位置情報を推定する処理に用いる学習済み学習器50の設定すなわち、学習済みニューラルネットワークの設定を行う。
次に、本実施の形態1に係る学習装置6の機能について説明する。図6は、本実施の形態1に係る学習装置6の機能及び動作を説明するための機能ブロック図である。また、学習装置6はソフトウェアモジュールとして図6に示す各機能部を有しており、制御部21によって記憶部22に記憶された学習プログラム221をRAMに展開し、RAMに展開された学習プログラム221をCPUにおいて解釈及び実行させることで、各機能部が制御される。
図6において、学習データ取得部211は、道路に設置され車両を撮影可能に配置されたカメラ1から取得される撮影画像、及び車両の位置情報を示す車両位置情報の組を学習データとして取得する。撮影画像は入力データとして利用され、車両位置情報は教師データ(正解データ)として利用される。本実施の形態1においては、学習データ取得部211は、低解像度撮影画像223及び車両位置情報224を取得し、学習データ222として格納する。ここで、低解像度撮影画像223はカメラ1により撮影された画像を道路状態判定装置3における低解像度化処理と同様に低解像度化処理されることで取得できる。また、車両位置情報224は撮影画像上の車両位置から算出してもよいし、GPS(Global Positioning System)等他の外部情報から入手してもよい。
学習処理部212は、機械学習の対象となる学習器60を具備しており、学習器60はニューラルネットワークを利用する。このニューラルネットワークは、畳み込みニューラルネットワーク61を備え、道路状態判定装置3の学習器50で説明したものと同様に構成される。すなわち、畳み込みニューラルネットワーク61は、畳み込みニューラルネットワーク51と同様である。畳み込みニューラルネットワーク61は、畳み込み層611及びプーリング層612を交互に接続した構造を有する順伝播型ニューラルネットワークである。また、最も出力側に配置されたプーリング層612の出力が全結合層613に入力され、全結合層613の出力が出力層614に入力される。動作は、畳み込みニューラルネットワーク51と同様であるので省略する。
学習処理部212は、ニューラルネットワークの学習処理により、畳み込みニューラルネットワーク61に低解像度撮影画像223を入力すると、車両位置情報である出力値をニューラルネットワーク61から出力する。学習プログラム221の実行により出力値と教師データである車両位置情報224とを用いて機械学習が進んでいき、学習された畳み込みニューラルネットワーク61が構築されることになる。そして、学習処理部212は、構築された畳み込みニューラルネットワーク61を含む学習器60の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データ122として記憶部22に格納する。学習結果データ122は、適宜道路状態判定装置3の学習器50に反映される。
なお、本実施の形態1では、道路状態判定装置3及び学習装置6の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、道路状態判定装置3及び学習装置6それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
次に、道路状態の判定手順について図を用いて説明する。図7は、道路状態判定装置3の処理手順の一例を示すフローチャートである。道路状態判定装置3の制御部11は、以下の処理手順に従って、道路状態を判定する。
ステップS101において、制御部11はプログラム121を開始実行させる。プログラム121を開始すると、制御部11は次のステップS102に処理を進める。
ステップS102において、道路状態判定装置3の画像取得部311は、道路91を走行する車両92を撮影するように配置されたカメラ1から撮影画像123を取得する。取得する撮影画像123は、動画像であってもよいし、静止画像であってもよい。
ステップS103において、解像度変換部312はステップS101で取得した撮影画像123の解像度を低下させ、低解像度撮影画像1231を生成する。低解像度化の処理方法は、特に限定するものではなく、実施形態に応じて適宜選択されてよい。例えば、ニアレストネイバー法、バイリニア補間法、バイキュービック法等により、低解像度撮影画像1231を生成することができる。低解像度撮影画像1231を生成すると、制御部11は、次のステップS104に処理を進める。なお、本ステップS103は省略されてもよい。
ステップS104において、生成された低解像度撮影画像1231がニューラルネットワークを有する学習器50に入力され、ニューラルネットワークの演算処理が実行される。演算処理の出力により、ステップS105において、車両位置情報124に対応する出力値を取得することができる。
具体的には、ステップS103で生成された低解像度撮影画像1231が、畳み込みニューラルネットワーク51の最も入力側に配置された畳み込み層511に入力され、入力側から順に、各層に含まれる各ニューロンの発火判定が行われる。この結果、車両位置情報124に対応する出力値を出力層514から出力される。
ステップS106において、道路状態推定部313はステップS105で取得した車両位置情報124に基づいて、道路状態に異常が発生しているか否かを判定する。車両位置情報124と車線中央ラインを比較することにより、車両位置が車線中央から離れた状態が一定期間継続している場合、道路上に何らかの異常が発生したものと判定する。
ステップS106において、監視対象の道路において異常が発生したと判定された場合、ステップS107において、状態伝達部4、情報展開部5により道路管理者、道路利用者に対して通知または情報提供を行う。通知の内容または情報提供の内容及び方法は、実施形態に応じて適宜設定されてよい。
以上により、道路状態判定装置3は、道路91上における車両92の位置情報を取得し、車両の挙動を監視し、車両の挙動により道路に異常が発生したか否かを判定することができる。すなわち、車両が車線中央から所定距離離れて通行し、一定期間その挙動が継続した時に、道路に異常が発生したと判定することができる。なお、制御部11は、上記一連の処理を繰り返し実行して、道路状態が異常か否かを継続的に監視してもよい。
以上で説明した道路に異常が発生しているか否かを判定する処理手順は、本実施の形態1に係る道路状態判定方法の一例であり、適宜、ステップの省略、置換、及び追加が可能である。
次に、学習装置6における機械学習に関する処理手順について図を用いて説明する。図8は、学習器の機械学習に関する処理手順の一例を示すフローチャートである。学習装置6の制御部21は、以下の処理手順に従って、機械学習を実行する。
ステップS201において、学習装置6の学習データ取得部211は、低解像度撮影画像223及び車両位置情報224の組を学習データ222として取得する。
学習データ222は、学習器60のニューラルネットワークに対して、車両の位置情報を推定可能にするための機械学習に利用するデータである。このような学習データ222は、例えば、車両を俯瞰的に撮影するように配置されたカメラ1を用意し、道路上の様々な形態の車両を撮影し、得られる撮影画像に車両条件を紐付けることで作成することができる。このとき、低解像度撮影画像223は、道路状態判定装置3における判定処置のステップS103と同じ処理を当該取得した撮影画像に適用することで得ることができる。また、車両位置情報224は、撮影画像に表れる車両の位置情報の入力を適宜受け付けることで得ることができる。
この学習データ222の作成は、オペレータ等が学習装置6の入力装置24を用いて手動で行ってもよいし、プログラムの処理により自動的に行われてもよい。この学習データ222は、運用されているカメラ1から随時収集されてもよい。また、学習データ222の作成は、学習装置6以外の他の情報処理装置により行われてもよい。学習装置6が学習データ222を作成する場合には、制御部21により、本ステップS201において、学習データ222の作成処理を実行することで、学習データ222を取得することができる。一方、学習装置6以外の他の情報処理装置が学習データ222を作成する場合には、学習装置6は、ネットワークあるいは記憶媒体92等を介して、他の情報処理装置により作成された学習データ222を取得することができる。なお、本ステップS201で取得する学習データ222の件数は、学習器60のニューラルネットワークが機械学習を行うことができるように、実施形態に応じて適宜決定されればよい。
次のステップS202において、学習処理部212は、ステップS201で取得した学習データ222を用いて、低解像度撮影画像223を学習器60に入力し、車両位置情報224に対応する出力値を出力するようにニューラルネットワークの機械学習を実施する。
ここで、学習処理を行う対象となる学習器60は、ニューラルネットワークの構成、各ニューロン間の結合の重みの初期値、及び各ニューロンの閾値の初期値は、テンプレートにより与えられてもよいし、オペレータの入力により与えられてもよい。また、再学習を行う場合には、制御部21は、再学習を行う対象となる学習結果データ122に基づいて、ニューラルネットワークを用意してもよい。
ニューラルネットワークの機械学習においては、ステップS201で取得した学習データ222に含まれる低解像度撮影画像223を入力データとして用い、車両位置情報224を教師データ(正解データ)として用いられる。また、このニューラルネットワークの学習処理には、確率的勾配降下法等を用いることができる。
例えば、畳み込みニューラルネットワーク61の最も入力側に配置された畳み込み層611に低解像度撮影画像223が入力されると、制御部21は、入力側から順に、各層に含まれる各ニューロンの発火判定が行われる。この結果、畳み込みニューラルネットワーク61の出力層614から出力値が出力される。次に、畳み込みニューラルネットワーク61の出力層614から取得された出力値と車両位置情報224に対応する値との誤差を算出する。続いて、通時的誤差逆伝搬(Back propagation through time)法により、算出した出力値の誤差を用いて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの誤差を算出する。この算出された各誤差に基づいて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの値が更新される。
学習処理部212では、各件の学習データ222について、学習器60から出力される出力値が車両位置情報224に対応する値と一致するまで、すなわち上述の誤差がなくなるまで、この一連の処理が繰り返される。この動作により、低解像度撮影画像223を入力すると車両位置情報224に対応する出力値を出力するニューラルネットワークを有する学習器60を構築することができる。
次のステップS203において、学習処理部212では、構築したニューラルネットワークの構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データ122として記憶部22に格納する。これにより、制御部21によるニューラルネットワークの学習処理を終了する。
また、制御部21は、上記ステップS203の処理が完了した後に、作成された学習結果データ122を道路状態判定装置3に転送してもよい。また、制御部21は、上記ステップS201からS203の学習処理を定期的に実行することで、学習結果データ122を定期的に更新してもよい。そして、制御部21は、作成した学習結果データ122を当該学習処理の実行毎に道路状態判定装置3に転送することで、道路状態判定装置3の保持する学習結果データ122を定期的に更新してもよい。また、例えば、制御部21は、作成した学習結果データ122をNAS(Network Attached Storage)等のデータサーバに保管してもよい。この場合、道路状態判定装置3は、このデータサーバから学習結果データ122を取得してもよい。
なお、図8で示した学習装置6の機械学習に関する手順は一例であり、実施形態に応じて、適宜変更することが可能であり、例えばステップの省略、置換、及び追加が可能である。
以上のように、本実施の形態1に係る道路監視装置10によれば、道路91を通行する車両92を撮影するカメラ1で撮影された画像を取得し道路状態を判定する道路状態判定装置3と、道路状態判定装置3に接続された学習装置6とを備え、取得した画像を低画像化処理し、学習装置6において学習済みのニューラルネットワークを有する学習器50に入力して、車両92の位置情報を推定し、車両が車線中央を走行しているか否かを観察することで、すなわち車両92が一定期間、道路91の車線中央から所定距離離れた場合に、監視対象の道路に異常があると判定することが可能となる。そのため、事前想定の学習データに無いような異常を検知できるとともに、悪天候下での道路状態の異常も検知できるようになり検知精度を確保することが可能となる。
車両92が一定期間、道路91の車線中央から所定距離離れた場合に着目して、監視対象の道路に異常があると判定する例を示したが、車線の中央を結ぶ線を基準にする必要はなく、車両の位置情報と前記画像上の任意の基準線と比較して前記道路の異常の有無を判定するようにしてもよい。例えば片側複数車線であれば、隣接する車線との間を基準にしてもよし、中央分離帯を基準線としてもよい。
また、学習装置6での機械学習において入力画像はカメラ1から取得することができ、道路状態判定装置3ではこの画像に基づき機械学習された学習器50を用いることができるとともに、道路状態判定装置3に接続された学習装置6の学習結果データ122を用いて道路状態判定装置3の学習器50を適宜更新することができるため、道路状態の異常の検知精度を確保することが可能となる。
さらに、道路状態判定装置3において、道路に異常があると判定した場合、状態伝達部4及び情報展開部5を用いて道路管理者及び道路利用者へ道路91に異常が発生していることを通知することが可能となる。これにより、道路管理者は速やかに異常状態を把握するとともに速やかに対応の処置を実施することができ、また異常状態の箇所から道路利用者が退避することができる。
また、本実施の形態1では、車両92の挙動を推定するために車両92を撮影可能に配置したカメラ1の撮影画像を用いている。この車両の挙動は、撮影画像内で大きく表れ得る。そのため、車両の挙動を推定するのに利用する撮影画像は、高解像度のものでなくてもよい。そこで、本実施の形態1では、学習器50、60を構成するニューラルネットワークへの入力として、カメラ1により得られる撮影画像を低解像度化した低解像度撮影画像1231、223を用いることができる。これにより、ニューラルネットワークの演算処理の計算量を低減することができ、プロセッサの負荷を低減することができる。なお、低解像度撮影画像1231、223の解像度は、車両の挙動が判別可能な程度であればよい。
本願は、例示的な実施の形態が記載されているが、実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合が含まれるものとする。
1:カメラ、 2:ネットワーク、 3:道路状態判定装置、 4:状態伝達部、
5:情報展開部、 6:学習装置、 10:道路監視装置、 11:制御部、
12:記憶部、 13:外部I/F、 311:画像取得部、
312:解像度変換部、 313:道路状態推定部、 314:伝達部、
121:プログラム、 122:学習結果データ、 123:撮影画像、
1231:低解像度撮影画像、 124:車両位置情報、 21:制御部、
22:記憶部、 23:通信I/F、 24:入力装置、 25:出力装置、
26:ドライブ、 211:学習データ取得部、 212:学習処理部、
221:学習プログラム、 222:学習データ、 223:低解像度撮影画像、
224:車両位置情報、 50:学習器、 51:畳み込みニューラルネットワーク、
511:畳み込み層、 512:プーリング層、 513:全結合層、
514:出力層、 60:学習器、 61:畳み込みニューラルネットワーク、
611:畳み込み層、 612:プーリング層、 613:全結合層、
614:出力層、 71:記憶媒体、 91:道路、 92:車両、 93:支障物。

Claims (6)

  1. 監視対象の道路及び前記道路を通行する車両を撮影する撮影装置と、
    前記撮影装置が撮影した前記画像上の車両の位置を基に前記道路の異常の有無を判定する道路状態判定装置と、
    前記道路状態判定装置に接続された学習装置と、を備えた道路監視装置であって、
    前記道路状態判定装置は、前記学習装置で学習済の学習器を有し、
    前記学習器は、前記撮影装置が撮影した画像が入力されるとともに、前記画像上の車両の位置情報を演算して出力し、
    前記学習器で出力された前記車両の位置情報を前記画像上の基準線と比較して前記道路の異常の有無を判定する道路監視装置。
  2. 前記画像上の基準線は前記道路の車線の中央を結ぶ線であり、
    道路状態判定装置は、前記車両が前記車線の中央を結ぶ線から予め定められた距離以上離れ、一定期間継続した時に、前記道路に異常が有と判定する、請求項1に記載の道路監視装置。
  3. 前記学習装置には、前記撮影装置が撮影した複数の画像が入力データとして、対応する前記画像上の車両の位置が教師データとして入力され、
    前記入力データを基に演算して出力された前記画像上の車両の位置情報出力値と前記教師データの前記画像上の車両の位置とを比較して誤差を算出し、前記誤差がなくなるように機械学習を繰り返し実行することで学習結果データを蓄積し、
    前記蓄積された学習結果データを前記道路状態判定装置の前記学習器に適用する、請求項1または2に記載の道路監視装置。
  4. 前記道路状態判定装置または前記学習装置において、前記撮影装置によって撮影された前記画像を低解像度画像に処理し、前記低解像度画像上の車両の位置情報を演算して出力する請求項1から3のいずれか1項に記載の道路監視装置。
  5. 前記道路状態判定装置によって前記道路に異常が有と判定された時、前記判定結果を道路管理者へ伝達する状態伝達部を更に備えた請求項1から4のいずれか1項に記載の道路監視装置。
  6. 前記道路状態判定装置によって前記道路に異常が有と判定された時、前記判定結果を展開する情報展開部を更に備えた請求項1から5のいずれか1項に記載の道路監視装置。
JP2019198175A 2019-10-31 2019-10-31 道路監視装置 Pending JP2021071919A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019198175A JP2021071919A (ja) 2019-10-31 2019-10-31 道路監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019198175A JP2021071919A (ja) 2019-10-31 2019-10-31 道路監視装置

Publications (2)

Publication Number Publication Date
JP2021071919A true JP2021071919A (ja) 2021-05-06
JP2021071919A5 JP2021071919A5 (ja) 2022-01-21

Family

ID=75713195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019198175A Pending JP2021071919A (ja) 2019-10-31 2019-10-31 道路監視装置

Country Status (1)

Country Link
JP (1) JP2021071919A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6955295B1 (ja) * 2021-02-16 2021-10-27 株式会社アーバンエックステクノロジーズ 識別装置、識別プログラム、および識別方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0676195A (ja) * 1992-08-27 1994-03-18 Hitachi Ltd 異常事象検出装置
JPH1091893A (ja) * 1996-09-17 1998-04-10 Toyota Motor Corp 道路監視装置
JP2018136632A (ja) * 2017-02-20 2018-08-30 オムロン株式会社 形状推定装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0676195A (ja) * 1992-08-27 1994-03-18 Hitachi Ltd 異常事象検出装置
JPH1091893A (ja) * 1996-09-17 1998-04-10 Toyota Motor Corp 道路監視装置
JP2018136632A (ja) * 2017-02-20 2018-08-30 オムロン株式会社 形状推定装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6955295B1 (ja) * 2021-02-16 2021-10-27 株式会社アーバンエックステクノロジーズ 識別装置、識別プログラム、および識別方法
JP2022124663A (ja) * 2021-02-16 2022-08-26 株式会社アーバンエックステクノロジーズ 識別装置、識別プログラム、および識別方法

Similar Documents

Publication Publication Date Title
CN107169402B (zh) 车辆车道定位
US20180336425A1 (en) Pruning filters for efficient convolutional neural networks for image recognition in vehicles
US20110116684A1 (en) System and method for visually tracking with occlusions
US20120147191A1 (en) System and method for locating a target with a network of cameras
KR101787542B1 (ko) 3차원 지형 모델과 토질 분류를 이용한 비탈면 안정성 평가 시스템 및 방법
JP6766839B2 (ja) 検査システム、画像識別システム、識別システム、識別器生成システム、及び学習データ生成装置
JP6673641B2 (ja) 地盤崩壊検知システム
CN104103030A (zh) 图像分析方法、照相机装置、控制装置及控制方法
JP7059883B2 (ja) 学習装置、画像生成装置、学習方法、及び学習プログラム
CN112449152B (zh) 多路视频同步的方法、系统及设备
CN110506277B (zh) 用于构建鲁棒的深度卷积神经网络的滤波器重用机制
Yuan et al. Spatio-temporal graph convolutional networks for road network inundation status prediction during urban flooding
CN112036381B (zh) 视觉跟踪方法、视频监控方法及终端设备
CN114584571A (zh) 基于空间计算技术的电网场站数字孪生同步通信方法
CN115578468A (zh) 外参标定方法、装置、计算机设备、存储介质
CN115600022A (zh) 时空数据处理模型的训练、处理方法、装置以及介质
JP2021071919A (ja) 道路監視装置
JP6799325B2 (ja) 画像補正装置、画像補正方法、注目点認識装置、注目点認識方法及び異常検知システム
Rabiee et al. Competence-aware path planning via introspective perception
WO2022147655A1 (zh) 定位方法、空间信息获取方法、装置、拍摄设备
JP6954367B2 (ja) 計測システム、補正処理装置、補正処理方法、及びプログラム
CN113408454A (zh) 一种交通目标检测方法、装置、电子设备及检测系统
CN115803774A (zh) 模型生成装置、回归装置、模型生成方法以及模型生成程序
KR102177460B1 (ko) 사물인터넷을 기반으로 선박 접안 시 항만 시설의 손상을 예방하는 방법 및 시스템
CN110781730B (zh) 智能驾驶感知方法及感知装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507