JP2016181061A - 走行環境評価システム - Google Patents
走行環境評価システム Download PDFInfo
- Publication number
- JP2016181061A JP2016181061A JP2015060163A JP2015060163A JP2016181061A JP 2016181061 A JP2016181061 A JP 2016181061A JP 2015060163 A JP2015060163 A JP 2015060163A JP 2015060163 A JP2015060163 A JP 2015060163A JP 2016181061 A JP2016181061 A JP 2016181061A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- visibility
- level
- unit
- low visibility
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
【課題】将来の視界不良を演算予測し、その予測結果に基づいて車両の走りやすさを示す走行環境を評価することのできる走行環境評価システムを提供する。【解決手段】走行環境評価システムは、所定の地点を走行する先行車両100が撮影した画像に基づき同地点における現在の視界不良レベルD3を数値評価する視界不良認識部111と、同地点における過去から現在までの所定時間における過去降水量D1と現在から将来の所定時間における予測降水量D2とを用いて現在から所定時間経過後の将来にかけての視界不良レベル変化量を推定演算する視界不良予測部212を備える。視界不良予測部212は、視界不良認識部111による現在の視界不良レベルD3に対し、上記推定演算した視界不良レベル変化量を加味した評価値となる視界不良予測レベルD4を、当該地点の走行環境の評価値として評価し、その評価値を通信部210を通じて後続車両400へ情報提供する。【選択図】図1
Description
本発明は、視界不良の情報に基づいて車両の走りやすさを示す走行環境を評価する走行環境評価システムに関する。
従来、この種の走行環境評価システムとしては、例えば特許文献1に記載のシステムが知られている。このシステムでは、複数の車両からそれら車両の走行時に収集した画像データを解析することにより所定のエリアごとの道路環境、交通状況、及び気象状況を特定し、それら特定した道路環境、交通状況、及び気象状況のそれぞれに既定された項目に基づきそれら対応するエリアごとに車両の走りやすさを示す走行環境の評価値を算出している。そして、各エリアの評価値を踏まえた経路の選択、経路の走りやすさの案内を行うようにしている。
ところで、こうした走行環境の評価に用いられる気象状況の予測としては一般に、降雨量や雨雲の移動推移に基づいて各々の地点における将来の状態を予測することが行われている。しかしながら、車両の走りやすさをより正確に評価するためには、単に降雨や降雪の有無だけでなく、これら降雨や降雪により影響を受ける将来的な視界不良の程度まで予測できることが望ましい。
本発明は、このような実情に鑑みてなされたものであり、その目的は、将来の視界不良を演算予測し、その予測結果に基づいて車両の走りやすさを示す走行環境を評価することのできる走行環境評価システムを提供することにある。
以下、上記課題を解決するための手段及びその作用効果について記載する。
上記課題を解決する走行環境評価システムは、所定の地点を走行する車両が撮影した画像に基づき同地点における現在の視界の程度を数値評価する視界評価部と、同地点における過去から現在までの所定時間における降水量と現在から将来の所定時間における降水量とを用いて現在から所定時間経過後の将来にかけての視界の程度の変化量を推定演算する視界変化量推定部と、前記視界評価部による現在の視界の程度の評価値に対して前記視界変化量推定部により推定演算される視界の程度の変化量を加味した評価値を、同地点における将来の車両の走りやすさを示す評価値として予測する視界評価予測部と、前記視界評価予測部が予測した評価値を当該地点の走行環境の評価値として他車両へ情報提供する情報提供部とを備える。
上記課題を解決する走行環境評価システムは、所定の地点を走行する車両が撮影した画像に基づき同地点における現在の視界の程度を数値評価する視界評価部と、同地点における過去から現在までの所定時間における降水量と現在から将来の所定時間における降水量とを用いて現在から所定時間経過後の将来にかけての視界の程度の変化量を推定演算する視界変化量推定部と、前記視界評価部による現在の視界の程度の評価値に対して前記視界変化量推定部により推定演算される視界の程度の変化量を加味した評価値を、同地点における将来の車両の走りやすさを示す評価値として予測する視界評価予測部と、前記視界評価予測部が予測した評価値を当該地点の走行環境の評価値として他車両へ情報提供する情報提供部とを備える。
上記構成によれば、ある地点における現在の視界の程度の評価値に対し、同地点における過去から現在までの所定時間における降水量と現在から将来の所定時間における降水量とから求まる視界の程度の変化量の推定値が加味されることにより、同地点における将来の視界の程度が予測される。そして、こうして予測される将来の視界の程度を当該地点での走行環境の評価値として他車両に提供することにより、他車両が今後走行するであろう地点についての車両の走りやすさを示す情報を他車両に事前に知らせることが可能となる。
以下、走行環境評価システムの一実施の形態について図面を参照して説明する。
本実施の形態の走行環境評価システムは、進行方向や位置的な関係によって先行車両や後続車両となる複数の車両と、それら複数の車両の走行情報を無線通信を通じて管理するセンターとにより構成されている。各車両は、その都度の走行位置における車両周囲の画像を撮影し、その撮影した画像に基づき当該地点における現在の視界不良レベルを認識する。そして、各車両は、その認識した各々の地点における現在の視界不良レベルをセンターに転送する。センターは、複数の車両から収集した各々の地点における現在の視界不良レベルを統合して管理している。また、センターは、各々の地点における過去の降水量及び今後の予測降水量を考慮して当該地点における将来の視界不良レベルの変化量を推定する。そして、センターは、その推定した変化量を現在の視界不良レベルに対して加味することにより視界不良予測レベルを予測する。こうして予測された視界不良予測レベルは、各対応する地点を今後走行するであろう後続車両に配信されて、後続車両における経路の選択や経路の走りやすさの案内等に用いられる。
本実施の形態の走行環境評価システムは、進行方向や位置的な関係によって先行車両や後続車両となる複数の車両と、それら複数の車両の走行情報を無線通信を通じて管理するセンターとにより構成されている。各車両は、その都度の走行位置における車両周囲の画像を撮影し、その撮影した画像に基づき当該地点における現在の視界不良レベルを認識する。そして、各車両は、その認識した各々の地点における現在の視界不良レベルをセンターに転送する。センターは、複数の車両から収集した各々の地点における現在の視界不良レベルを統合して管理している。また、センターは、各々の地点における過去の降水量及び今後の予測降水量を考慮して当該地点における将来の視界不良レベルの変化量を推定する。そして、センターは、その推定した変化量を現在の視界不良レベルに対して加味することにより視界不良予測レベルを予測する。こうして予測された視界不良予測レベルは、各対応する地点を今後走行するであろう後続車両に配信されて、後続車両における経路の選択や経路の走りやすさの案内等に用いられる。
具体的には、図1に示すように、仮に先行車両になっているとする車両100は、車両周囲の画像を撮影する車載カメラ等の画像センサ110を備えている。また、車両100は、画像センサ110から読み出した画素信号に対して画像認識処理を行うことにより車両周囲の視界不良を認識する視界不良認識部111を備えている。ここで、こうした認識手法の一例として、本実施の形態ではSVM(サポートベクトルマシン)が採用されている。このSVMは、複数のクラスに予め分類された教師データに対する統計処理を通じてそれらクラスを識別する判断基準を定めておき、未知のデータが新たに入力されたときにその定めておいた判断基準を基にクラス分けを行う識別手法の一種である。
本実施の形態では、図2に示すように、視界不良の判断基準の元となる教師データとして、画像センサ110が車両100の走行時に撮影したカメラ画像G2の過去の画像を教師画像G1として、その教師画像G1から画像特徴量を抽出している(特徴抽出部1A)。この画像特徴量は、その時点で画像センサ110が教師画像G1から検知した被写体との距離と関連付けて、視界不良認識部111に内蔵されている書き込み可能なROM等に蓄積されている。なお、画像特徴量としては、例えば教師画像G1の画像全体から求まる特徴量の一種であるGIST等が用いられる。また、こうした教師画像G1からの被写体の距離の検出には、例えば位相差検出方式、コントラスト検出方式、あるいはTOF(タイム・オブ・フライト)方式等の検出方式が用いられる。
図3に示す例では、教師画像用のカメラ画像には、一軒の家が被写体Aとして写っている。そして、この画像に対してパターン認識処理等を行うことにより被写体Aが認識された時点における被写体Aと画像センサ110との距離が、その都度の車両周囲の視界の程度として検出される。そして、この検出された視界の程度がカメラ画像と関連付けられることにより教師画像G1が構成される。なお、視界の程度は、視界不良レベルとして「1」〜「5」の5段階に数値評価され、視界の程度が悪くなるに連れて視界不良レベルが高くなっている。
そして、図2に示すように、こうして視界不良レベルと関連付けられた教師画像G1の画像特徴量に基づき、視界不良の判断基準となる視界不良認識器が学習される(学習部1B)。その後、車両100が画像センサ110を通じて新たなカメラ画像G2を取得したときには、同じくそのカメラ画像G2からGIST等の画像特徴量が抽出される(特徴抽出部1C)。そして、抽出された画像特徴量を入力として、先に教師画像G1に基づき学習しておいた視界不良認識器を用いて、「1」〜「5」の5段階の視界不良レベルに分類される(画像分類部1D)。その後、分類された視界不良レベルが、車両100のその都度の走行位置における視界不良レベルとして算出される(算出部1E)。そして本実施の形態では、こうした視界不良レベルの算出主体となる視界不良認識部111が「視界評価部」に相当する。
また、図1に示すように、車両100は、視界不良認識部111を通じて視界不良レベルを算出したときには、その時点における車両位置に関する情報に基づき地図データベース112を参照しつつ該当する道路リンクIDを割り出す。また、車両100は、割り出した道路リンクIDと関連付けて視界不良レベルを通信部113を通じてセンター200に転送する。
一方、センター200は、上記車両100及び仮に後続車両になっているとする車両400を含む複数の車両との通信を行う通信部210を有している。通信部210は、気象情報を管理する気象データベース300との通信も併せて行う。この気象情報には、各エリアにおける過去から現在までの所定時間における降水量である過去降水量D1、及び、現在から将来の所定時間における降水量である予測降水量D2が含まれる。
そして、図4に示すように、センター200は、車両100が撮影したカメラ画像G2に基づき先の視界不良認識部111により視界不良認識が行われた結果をもとに算出された視界不良レベルD3を格納する。また、センター200は、こうして格納された視界不良レベルD3の他、気象データベース300から受信する過去降水量D1及び予測降水量D2も併せて用いて視界不良予測部212を通じた視界不良予測を行い、将来の車両の走りやすさを示す評価値として視界不良予測レベルD4を算出する。すなわち本実施の形態において、視界不良予測部212は「視界評価予測部」として機能する。
具体的には、図5に示すように、視界不良予測部212はまず、気象データベース300から受信した過去降水量D1と予測降水量D2との大小関係を比較する(ステップS30)。そして、予測降水量D2が過去降水量D1以上であるときには(ステップS30=YES)、予測降水量D2と過去降水量D1との差分を二乗した値を変数「γ」として算出する(ステップS31)。その一方で、予測降水量D2が過去降水量D1未満であるときには(ステップS30=NO)、予測降水量D2と過去降水量D1との差分を二乗した値を負の値に反転して変数「γ」として算出する(ステップS32)。
そして次に、視界不良予測部212は、先のステップS31又はステップS32において算出した変数「γ」を関数「β=(γ−μ)/σ」に代入して変数「β」に変換する(ステップS33)。この関数では、変数「γ」から変換される変数「β」を、平均「2」、分散「2.5」の範囲に収めるようにして変換用パラメータ「μ」及び「σ」が事前に学習されている。
そして、視界不良予測部212は、この関数を用いて算出される変数「β」を、所定時間経過後における降水量以外の環境要因に基づく視界不良レベル変化量に対して加算することにより、変数「α」を算出する(ステップS34)。また、視界不良予測部212は、その算出した変数「α」を四捨五入することにより、現在から所定時間経過後の将来にかけての視界の程度の変化量となる視界不良レベル変化量を推定演算する(ステップS35)。すなわち本実施の形態において、視界不良予測部212は「視界変化量推定部」としても機能する。
また、視界不良予測部212は、その推定演算した視界不良レベル変化量を、車両100が撮影したカメラ画像に基づき算出される現在の視界不良レベルD3に加算することにより、変数「Lt」を算出する(ステップS36)。
その後、視界不良予測部212は、この算出した変数「Lt」が「1以下」であるか否かを判定する(ステップS37)。そして、変数「Lt」が「1以下」であるときには(ステップS37=YES)、変数「Lt」として「1」を設定した上で(ステップS38)、その処理をステップS39に移行する。その一方で、視界不良予測部212は、先のステップS36において算出した変数「Lt」が「1以下」ではないときには(ステップS37=NO)、ステップS38の処理を経ることなくその処理をステップS39に移行する。
そして次に、ステップS39において、視界不良予測部212は、先のステップS36において算出した変数「Lt」が「5以上」であるか否かを判定する。そして、変数「Lt」が「5以上」であるときには(ステップS39=YES)、変数「Lt」として「5」を設定した上で(ステップS40)、その処理をステップS41に移行する。その一方で、視界不良予測部212は、先のステップS36において算出した変数「Lt」が「5以上」ではないときには(ステップS39=NO)、ステップS40の処理を経ることなくその処理をステップS41に移行する。
すなわち、視界不良予測部212は、上記ステップS37〜ステップS40において、先のステップS36において算出した変数「Lt」を「1〜5」の数値範囲内に収めるように数値変換を行う。そして、視界不良予測部212は、「1〜5」の数値範囲内に収まるように数値変換された変数「Lt」を、視界不良予測レベルD4として算出する(ステップS41)。
その後、図1に示すように、センター200は、こうして算出された視界不良予測レベルD4を、当該地点の走行環境の評価値として対応するカメラ画像とともに通信部210を通じて後続車両となる車両400に配信(情報提供)する。これにより車両400は、センター200から配信された視界不良予測レベルD4をカメラ画像とともに通信部410を通じて受信し、その受信した視界不良予測レベルD4をカメラ画像とともにデータ表示部411に可視表示する。
次に、本実施の形態の走行環境評価システムの動作として、当該走行環境評価システムが視界不良予測レベルを算出した上で、その算出した視界不良予測レベルをセンター200から後続車両となる車両400に提供する際の処理についてその具体的な処理手順を説明する。
図6に示すように、視界不良予測レベルの算出に先立ち、先行車両となる車両100は、その走行時に車両周囲のカメラ画像を撮影するとともに(ステップS50)、その撮影したカメラ画像に基づき車両100のその都度の走行位置における現在の視界不良レベルを算出する(ステップS51)。そして、車両100は、こうして算出した視界不良レベルを各対応するカメラ画像とともにセンター200に転送(アップロード)する。
センター200は、走行計画の際の推奨ルート選択時における情報要求を後続車両となる車両400から受信すると、その選択された推奨ルートの周辺に対応する道路リンクIDを割り出す。そして、センター200は、その割り出した道路リンクIDに関連付けられた視界不良レベルD3を用いて視界不良予測レベルD4を算出する(ステップS52)。この視界不良予測レベルD4の算出では、その時点で車両100から転送されている視界不良レベルの他、同時点で気象データベース300から受信している過去降水量D1及び予測降水量D2から求まる降水変化量も併せて用いられる。そして、センター200は、先のステップS52において算出した視界不良予測レベルD4を各対応するカメラ画像とともに車両400に配信する。
その後、車両400は、センター200から配信された視界不良予測レベルD4を元に、例えば走行が困難となるほどに視界不良である地点を回避する等して、走行計画の立案を行う(ステップS53)。このとき、センター200から配信されるカメラ画像をデータ表示部411に表示させる等、こうしたカメラ画像を併せて用いつつ走行計画の立案が行われる。
以上説明したように、上記実施の形態によれば、以下に示す効果を得ることができる。
(1)ある地点における現在の視界不良レベルD3に対し、同地点における過去から現在までの所定時間における過去降水量D1と現在から将来の所定時間における予測降水量D2とから求まる視界不良レベル変化量が加味されることにより、同地点における視界不良予測レベルD4が予測される。そして、こうして予測される視界不良予測レベルD4を当該地点での走行環境の評価値として後続車両となる車両400に提供することにより、車両400が今後走行するであろう地点についての車両の走りやすさを示す情報を該後続車両となる車両400に事前に知らせることが可能となる。
(1)ある地点における現在の視界不良レベルD3に対し、同地点における過去から現在までの所定時間における過去降水量D1と現在から将来の所定時間における予測降水量D2とから求まる視界不良レベル変化量が加味されることにより、同地点における視界不良予測レベルD4が予測される。そして、こうして予測される視界不良予測レベルD4を当該地点での走行環境の評価値として後続車両となる車両400に提供することにより、車両400が今後走行するであろう地点についての車両の走りやすさを示す情報を該後続車両となる車両400に事前に知らせることが可能となる。
なお、上記実施の形態は、以下のような形態にて実施することもできる。
・上記実施の形態において、センター200から後続車両となる車両400に配信される情報として、先行車両となる車両100が撮影したカメラ画像を含めることなく、センター200側で算出される視界不良予測レベルD4のみを含めるようにしてもよい。
・上記実施の形態において、センター200から後続車両となる車両400に配信される情報として、先行車両となる車両100が撮影したカメラ画像を含めることなく、センター200側で算出される視界不良予測レベルD4のみを含めるようにしてもよい。
・上記実施の形態において、視界不良予測レベルの算出過程は、図5に示したような演算方式に限られない。例えば、降水変化量と視界不良レベル変化量とを対応付けたマップを予め用意しておき、気象データベース300等から新たに取得された降水変化量を元に上記マップを用いつつ視界不良レベル変化量を演算するようにしてもよい。
100…車両(先行車両)、110…画像センサ、111…視界不良認識部、112…地図データベース、113…通信部、200…センター、210…通信部、212…視界不良予測部、300…気象データベース、400…車両(後続車両)、410…通信部、411…データ表示部、D1…過去降水量、D2…予測降水量、D3…視界不良レベル、D4…視界不良予測レベル。
Claims (1)
- 所定の地点を走行する車両が撮影した画像に基づき同地点における現在の視界の程度を数値評価する視界評価部と、
同地点における過去から現在までの所定時間における降水量と現在から将来の所定時間における降水量とを用いて現在から所定時間経過後の将来にかけての視界の程度の変化量を推定演算する視界変化量推定部と、
前記視界評価部による現在の視界の程度の評価値に対して前記視界変化量推定部により推定演算される視界の程度の変化量を加味した評価値を、同地点における将来の車両の走りやすさを示す評価値として予測する視界評価予測部と、
前記視界評価予測部が予測した評価値を当該地点の走行環境の評価値として他車両へ情報提供する情報提供部と
を備える走行環境評価システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015060163A JP2016181061A (ja) | 2015-03-23 | 2015-03-23 | 走行環境評価システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015060163A JP2016181061A (ja) | 2015-03-23 | 2015-03-23 | 走行環境評価システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016181061A true JP2016181061A (ja) | 2016-10-13 |
Family
ID=57131088
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015060163A Pending JP2016181061A (ja) | 2015-03-23 | 2015-03-23 | 走行環境評価システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016181061A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020080113A (ja) * | 2018-11-14 | 2020-05-28 | トヨタ自動車株式会社 | 環境状態推定装置、環境状態推定方法、環境状態推定プログラム |
JP2020085564A (ja) * | 2018-11-20 | 2020-06-04 | トヨタ自動車株式会社 | 判定装置、車両制御装置、判定方法、判定プログラム |
JP2020154665A (ja) * | 2019-03-20 | 2020-09-24 | 株式会社デンソー | 走行環境評価システム |
-
2015
- 2015-03-23 JP JP2015060163A patent/JP2016181061A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020080113A (ja) * | 2018-11-14 | 2020-05-28 | トヨタ自動車株式会社 | 環境状態推定装置、環境状態推定方法、環境状態推定プログラム |
US11268826B2 (en) | 2018-11-14 | 2022-03-08 | Toyota Jidosha Kabushiki Kaisha | Environmental state estimation device, method for environmental state estimation, and environmental state estimation program |
JP7143733B2 (ja) | 2018-11-14 | 2022-09-29 | トヨタ自動車株式会社 | 環境状態推定装置、環境状態推定方法、環境状態推定プログラム |
JP2020085564A (ja) * | 2018-11-20 | 2020-06-04 | トヨタ自動車株式会社 | 判定装置、車両制御装置、判定方法、判定プログラム |
JP7103185B2 (ja) | 2018-11-20 | 2022-07-20 | トヨタ自動車株式会社 | 判定装置、車両制御装置、判定方法、判定プログラム |
US11718151B2 (en) | 2018-11-20 | 2023-08-08 | Toyota Jidosha Kabushiki Kaisha | Determination device, vehicle control device, determination method and determination program |
JP2020154665A (ja) * | 2019-03-20 | 2020-09-24 | 株式会社デンソー | 走行環境評価システム |
JP7092081B2 (ja) | 2019-03-20 | 2022-06-28 | 株式会社デンソー | 走行環境評価システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12039445B2 (en) | Method and system for on-the-fly object labeling via cross modality validation in autonomous driving vehicles | |
US11790551B2 (en) | Method and system for object centric stereo in autonomous driving vehicles | |
US11550334B2 (en) | Method and system for integrated global and distributed learning in autonomous driving vehicles | |
US11586856B2 (en) | Object recognition device, object recognition method, and object recognition program | |
US11181918B2 (en) | Moving traffic obstacle detection and avoidance | |
CN107909012B (zh) | 一种基于视差图的实时车辆跟踪检测方法与装置 | |
CN112566032B (zh) | 多站点路基网络感知方法、终端和系统 | |
JP7238729B2 (ja) | 冠水検知装置、冠水検知システム、及び冠水検知プログラム | |
JP2016130966A (ja) | 危険度推定装置、危険度推定方法及び危険度推定用コンピュータプログラム | |
JP2019114094A (ja) | 道路交通管制装置、および、自動運転車両制御方法 | |
JP2016181061A (ja) | 走行環境評価システム | |
CN114898319A (zh) | 基于多传感器决策级信息融合的车型识别方法及系统 | |
KR102026686B1 (ko) | 커넥티드 차량을 이용한 도로 파손 정보 제공 장치 및 도로 파손 판정 모델 생성 서버 | |
CN103605960A (zh) | 一种基于不同焦距视频图像融合的交通状态识别方法 | |
US11651583B2 (en) | Multi-channel object matching | |
US20220309799A1 (en) | Method for Automatically Executing a Vehicle Function, Method for Evaluating a Computer Vision Method and Evaluation Circuit for a Vehicle | |
CN105719315A (zh) | 用于在移动终端中跟踪视频图像中的物体的方法 |