JP2017130871A - 車両用画像生成装置 - Google Patents
車両用画像生成装置 Download PDFInfo
- Publication number
- JP2017130871A JP2017130871A JP2016010420A JP2016010420A JP2017130871A JP 2017130871 A JP2017130871 A JP 2017130871A JP 2016010420 A JP2016010420 A JP 2016010420A JP 2016010420 A JP2016010420 A JP 2016010420A JP 2017130871 A JP2017130871 A JP 2017130871A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- unit
- difficulty
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】走行困難性に関わる環境を画像から把握することに要する時間を短縮可能とする車両用画像生成装置を提供する。【解決手段】走行困難性の程度を高める環境を含む表示画像の視野角、および、表示画像における中心領域を撮影画像に対して決定する領域決定部45Bとを備え、この領域決定部45Bは、指数処理部44の出力する数値が所定値以上となる低困難状況である場合に、表示画像の中心を消失点とし、かつ、表示画像の視野角を撮影画像の視野角よりも狭い狭角とする一方、数値化部の出力する数値が所定値未満となる高困難状況である場合に、表示画像の視野角を広角とする条件に、走行困難性の程度を広域で変える環境があることを含み、表示画像の視野角を狭角とする条件に、走行困難性の程度を広域で変える環境がないことを含む。【選択図】図1
Description
本発明は、走行困難性の程度を高める環境を表示するための画像を生成する車両用画像生成装置に関する。
道路上の各地点における走行困難性の程度を数値化し、その数値化された値に基づき経路の案内を行うシステムが知られている(例えば、特許文献1を参照)。走行困難性の程度を高める環境をシステムの利用者に把握させるうえでは、上記数値化された値の他に、道路上の各地点での撮影により取得された画像を用い、交差点の有無や駐車中の車両など、走行困難性の程度を高める環境を別途表示画像として提供することも検討されている。
一方、道路上の各地点での撮影により取得された画像は、通常、建物や街路樹などの風景を示す画像のなかに、それの一部として、走行困難性の程度を高める環境を画像として含む。また、走行困難性の程度を高める環境とは、走行路に含まれる交差点のような静的な環境要素や、走行路に含まれる駐車中の車両のような動的な環境要素など、多種多様の環境要素を含む。そのため、道路上の各地点での撮影により取得された画像を表示画像として用いるとしても、走行困難性の程度を高める環境を表示画像のなかから利用者が把握するまでには、多大な時間を要してしまう。
本発明は、走行困難性に関わる環境を表示画像から把握することに要する時間を短縮可能とする車両用画像生成装置を提供することを目的とする。
本発明は、走行困難性に関わる環境を表示画像から把握することに要する時間を短縮可能とする車両用画像生成装置を提供することを目的とする。
上記課題を解決するための画像表示装置は、車両周辺地点での走行困難性の程度を前記車両周辺地点での撮影画像を用いて数値化する数値化部と、前記車両周辺地点での撮影画像における道路の消失点を特定する消失点特定部と、前記車両周辺地点における走行困難性の程度を広域で変える環境の有無に関する走行環境情報を取得すると共に、前記数値化部が出力する数値と前記走行環境情報とを用いて、前記走行困難性の程度を高める環境を含む表示画像における視野角、および、前記表示画像における中心領域を前記撮影画像に対して決定する決定部とを備える。そして、前記決定部は、前記数値化部の出力する数値が所定値以上となる低困難状況である場合に、前記表示画像の中心を前記消失点とし、かつ、前記表示画像の視野角を前記撮影画像の視野角よりも狭い狭角とし、前記数値化部の出力する数値が所定値未満となる高困難状況である場合に、前記表示画像の視野角を広角とする条件に、前記走行困難性の程度を広域で変える環境があることを含み、前記表示画像の視野角を狭角とする条件に、前記走行困難性の程度を広域で変える環境がないことを含む。
走行困難性の程度が低い低困難状況である場合とは、例えば、道路の状況、交通の状況、および、気象の状況などが、車両の走行操作に変化を強いることが少ない場合である。こうした場合、道路に沿った車両の運転操作は容易であり、車両の運転者は、走行路における消失点の付近を重点的に観測する。上記車両用画像生成装置によれば、このように走行困難性の程度が低い場合に、消失点を中心とした狭い視野角での表示画像が生成される。そのため、運転操作に必要とされる環境に適した表示画像を提供することが可能となる。
一方、走行困難性の程度が高い高困難状況である場合とは、例えば、車両周辺地点に交差点が含まれる場合である。交差点で右折する運転操作には、自車の右折するタイミングの判断に、直進する他車両の有無、横断歩道をわたる歩行者の有無、左折する他車両の有無などの各種の確認が求められる。また、走行困難性の程度が高い高困難状況である場合とは、例えば、車両周辺地点に車両の渋滞が含まれる場合である。渋滞に含まれる車両での運転操作には、前方車両における停車のタイミング、車線を変える他車両の有無、交通流を大きく変える環境の有無などの各種の確認が求められる。さらに、走行困難性の程度が高い高困難状況である場合のなかには、例えば、車両周辺地点の道路上に障害物が位置する場合も含まれ、また、車両周辺地点の道路上に駐車中の車両が位置する場合も含まれる。
ここで、上記車両用画像生成装置によれば、走行困難性の程度が高い場合のなかで、交差点や渋滞などが車両周辺地点に含まれる場合には、すなわち、走行困難性の程度を広域で変える環境がある場合には、広い視野角での表示画像が生成される。そのため、交差点や渋滞などが車両周辺地点に含まれることを把握させることに適した表示画像を提供することが可能である。そして、走行困難性の程度が高い場合のなかで、交差点や渋滞が車両周辺地点に含まれない場合には、すなわち、走行困難性の程度を広域で変える環境がない場合には、狭い視野角での表示画像が生成される。そのため、走行困難性の程度を高める環境として停車中の車両や障害物が存在することを把握させることに適した表示画像を提供することが可能である。結果として、走行困難性の程度を高める環境を表示画像から把握することに要する時間を短縮させることが可能となる。
図1から図11を参照して車両用画像生成装置の一実施の形態を説明する。なお、本実施の形態では、車両が車両用画像生成装置を搭載する例について説明する。
図1が示すように、管理センター10は、センター管理部11、センター情報処理部12、および、センター通信処理部13を備える。センター管理部11は、センター通信処理部13が行う各種情報の送信に関わる処理や、各種情報の受信に関わる処理を管理する。また、センター管理部11は、センター情報処理部12が行う各種情報の登録に関わる処理や、各種情報の更新に関わる処理を管理する。
センター通信処理部13は、管理センター10に登録されている道路地図情報12Aを複数の車両20に送信するための処理を行う。センター通信処理部13は、共用画像12B、ランク情報12C、および、提供区間情報12Dの送信を、各車両20にリクエストするための処理を行う。また、センター通信処理部13は、共用画像12B、ランク情報12C、および、提供区間情報12Dを、各車両20から受信するための処理を行う。センター通信処理部13は、共用画像12B、ランク情報12C、および、提供区間情報12Dが相互に関連付けられた状態で、これら全ての情報を各車両20へ送信するための処理を行う。共用画像12Bは、車両20が走行した環境である走行環境を表示するための表示画像の一例である。
センター情報処理部12は、道路地図情報12Aを更新するための処理を行う。道路地図情報12Aは、地図を表示するための情報、経路を探索するための情報、および、交差点の名称や道路の各種名称を表示するための情報などを含む。道路地図情報12Aは、交差点や分岐点などの交通要素であるノードと、ノードと他のノードとを結ぶリンクとによって道路網を表現する情報である。提供区間情報12Dは、提供区間を識別するための情報であって、例えば、リンクを識別するための情報であるリンク番号である。提供区間は、道路地図情報12Aが表現する道路網のなかの区切られた区間であって、車両20の周辺地点である車両周辺地点を含む区間である。提供区間情報12Dは、提供区間おける走行環境を、その提供区間に対応付けた状態で、経路の案内画面などに表示するための情報である。提供区間における走行環境の表示は、その提供区間に関連付けられた共用画像12Bを用いて行われる。
センター情報処理部12は、センター通信処理部13が受信する各種情報を、管理センター10が有する記憶部に登録するための処理を行う。センター情報処理部12が登録する情報は、各車両20から送信される共用画像12B、ランク情報12C、および、提供区間情報12Dを含む。センター情報処理部12は、これら共用画像12B、ランク情報12C、および、提供区間情報12Dを更新するための処理を行う。共用画像12Bは、提供区間における走行環境を、各画素の輝度値として含むデータである。提供区間における走行環境とは、提供区間における静的な走行環境と、動的な走行環境とを含む。提供区間における走行困難性の程度とは、提供区間における静的な走行環境と、動的な走行環境とによって定められ、提供区間において車両20が走行しにくい度合いである。
静的な走行環境とは、提供区間に固有の環境であって、かつ、日時によって変わることが少ない環境である。静的な走行環境は、静的な環境要素から構成される。静的な環境要素は、例えば、道路の分類、車線数の分類、車線幅員の分類、規制速度の分類、歩道設置状況の分類、路肩設置状況の分類、道路勾配の分類などに属する。道路の分類に属する環境要素は、例えば、高速道路、国道、都道府県道、林道などである。車線数の分類に属する環境要素は、例えば、片側5車線、片側4車線、片側1車線、両側1車線などである。車線幅員の分類に属する環境要素は、例えば、車線の幅員が広いこと、および、車線の幅員が狭いことである。規制速度の分類に属する環境要素は、例えば、規制速度が90km/h以上100km/h未満であること、規制速度が40km/h以上50km/h未満であることなどである。歩道設置状況の分類に属する環境要素は、例えば、歩道の有無、および、歩道の幅を示す各数値範囲である。路肩設置状況の分類に属する環境要素は、例えば、路肩の幅を示す各数値範囲である。これらの他、静的な環境要素は、交差点の有無、分岐点の有無、車線規制箇所の有無などを含む。
これに対して、動的な走行環境とは、提供区間に固有の環境であって、かつ、日時などによって変わることが多い環境である。動的な走行環境は、動的な環境要素から構成される。動的な環境要素は、道路の状況を構成し、例えば、路面上における積雪の有無や、路面上における凍結の有無などを含む。また、動的な走行要素は、交通の状況を構成し、例えば、車両周辺における他車両の台数、車両周辺における自転車の台数、車両周辺における歩行者の数、障害物の数、道路工事の有無、渋滞の有無、大型車両や路線バスが走行する比率などを含む。また、動的な環境要素は、気象の状況を構成し、例えば、逆光、豪雨、吹雪、および、濃霧などによる視程の大小、また、強風、路面上の積雪、路面の凍結などの運転操作に影響を与える要因の有無などを含む。車両の走行環境は、これら静的な走行環境と、動的な走行環境との双方によって構成される。
車両20は、画像取得部21、車載通信処理部22、および、車両用画像生成装置を備えるナビゲーションシステム30を備える。
画像取得部21は、車両20の前景を撮影する車載カメラ、車載カメラを駆動する駆動装置、および、その駆動装置の駆動を制御する制御装置を備える。画像取得部21が取得する撮影画像とは、車載カメラが撮影した前景を画素ごとの輝度として示すデータである。画像取得部21は、前景画像を取得するための処理を繰り返し、取得された前景画像をナビゲーションシステム30に転送する。
画像取得部21は、車両20の前景を撮影する車載カメラ、車載カメラを駆動する駆動装置、および、その駆動装置の駆動を制御する制御装置を備える。画像取得部21が取得する撮影画像とは、車載カメラが撮影した前景を画素ごとの輝度として示すデータである。画像取得部21は、前景画像を取得するための処理を繰り返し、取得された前景画像をナビゲーションシステム30に転送する。
車載通信処理部22は、例えば、CPU、ROM、RAMなどから構成されたマイクロコンピュータと、広域無線通信用の周波数帯での通信の処理を行う処理回路とを備える。車載通信処理部22は、管理センター10や道路交通情報センターとの広域無線通信の処理を行う。道路情報交通情報センターは、渋滞、道路の工事、事故などに関する情報である道路交通情報や、走行区間の天候や地震速報などに関する情報である気象情報の配信を管理する。車載通信処理部22は、ナビゲーションシステム30が接続された車載ネットワークに接続される。車載通信処理部22は、ナビゲーションシステム30が送信する各種情報を受信するための処理を繰り返す。ナビゲーションシステム30が送信する情報は、ナビゲーションシステム30が生成した共用画像12B、それに関連付けられたランク情報12C、および、提供区間を識別するための提供区間情報12Dを含む。車載通信処理部22は、これらナビゲーションシステム30が生成した共用画像12B、ランク情報12C、および、提供区間情報12Dを管理センター10に送信するための処理を行う。車載通信処理部22は、道路交通情報センターとの通信を通じ、道路交通情報や気象情報を取得し、取得された道路交通情報や気象情報をナビゲーションシステム30に送信する。
ナビゲーションシステム30は、例えば、CPU、ROM、RAMなどから構成されたマイクロコンピュータを備え、ナビゲーション管理部31、位置情報処理部32、経路探索処理部33、案内処理部34、情報記憶部35、および、提供情報処理部40として機能する。
ナビゲーション管理部31は、位置情報処理部32が行う車両の位置に関する情報の処理を管理する。また、ナビゲーション管理部31は、経路探索処理部33が行う経路の探索、および、案内処理部34が行う案内画面の表示を管理する。また、ナビゲーション管理部31は、情報記憶部35が行う各種情報の書き込みに関わる処理や、各種情報の読み出しに関わる処理を管理する。さらに、ナビゲーション管理部31は、提供情報処理部40が生成した共用画像12B、ランク情報12C、および、提供区間情報12Dを、情報記憶部35に記憶させる処理を繰り返す。そして、ナビゲーション管理部31は、予め規定されたアップロード条件が成立するとき、情報記憶部35に蓄積された共用画像12B、ランク情報12C、および、提供区間情報12Dの送信を、車載通信処理部22の通信を通じて行う。また、ナビゲーション管理部31は、アップロードが行われた後、車載通信処理部22の通信を通じて、管理センター10から送信されるリクエストに応じ、これら共用画像12B、ランク情報12C、および、提供区間情報12Dの生成の継続、もしくは、停止を提供情報処理部40に行わせる。
位置情報処理部32は、車両20の位置を示す情報である位置情報を生成するための処理を繰り返す。位置情報処理部32は、例えば、車両20のグローバル座標を示すGPS衛星信号をGPSで受信し、受信されたGPS衛星信号に基づき、位置情報を生成する。位置情報処理部32は、生成された位置情報の入力を、経路探索処理部33、案内処理部34、および、提供情報処理部40に対して繰り返す。
経路探索処理部33は、位置情報処理部32から入力される位置情報と、情報記憶部35が記憶する道路地図情報12Aとに基づき、車両20の位置から目的地に至るまでの経路を探索する。経路探索処理部33は、探索された経路を構成するための各リンク番号と、それに対応する提供区間とを特定し、特定された提供区間を識別するための提供区間情報12Dに関連付けられたランク情報12Cを、情報記憶部35から取得する。経路探索処理部33は、取得されたランク情報12Cのなかで所定のランクよりも走行困難性が高い提供区間を特定し、特定された提供区間を識別するための提供区間情報12Dに関連付けられた共用画像12Bを、情報記憶部35から抽出し、これらの情報を案内処理部34に入力する。
案内処理部34は、経路探索処理部33から入力されるリンク番号、ランク情報12C、提供区間情報12D、および、共用画像12Bを用い、その経路における走行環境を経路と共に表示する。案内処理部34は、例えば、提供区間情報12Dによって識別される提供区間に、ランク情報12Cによって識別されるランクと、共用画像12Bを用いた走行環境とを表示する。なお、案内処理部34が表示に用いる共用画像12Bは、情報記憶部35から抽出された共用画像12Bであって、管理センター10から受信された共用画像12Bである。
情報記憶部35は、道路地図記憶部351、学習情報記憶部352、提供情報記憶部353、および、変換情報記憶部354を備える。道路地図記憶部351は、管理センター10から受信された道路地図情報12Aを記憶する。学習情報記憶部352は、走行困難性指数を算出するための識別モデルや教師データなどを記憶する。提供情報記憶部353は、管理センター10から受信された共用画像12Bと、それに関連付けられたランク情報12C、および、提供区間情報12Dを記憶する。また、提供情報記憶部353は、提供情報処理部40が生成した共用画像12B、ランク情報12C、および、提供区間情報12Dを記憶する。変換情報記憶部354は、走行困難性指数を算出するための変換情報などを記憶する。
道路地図記憶部351が記憶する道路地図情報12Aは、走行困難性の程度が評価される提供区間ごとに、そこに含まれる静的な環境要素を識別するための情報を含む。道路地図情報12Aは、例えば、道路の分類、車線数の分類、車線幅員の分類、規制速度の分類、歩道設置状況の分類、路肩設置状況の分類、道路勾配の分類など、これらに属する各種の静的な環境要素を識別するための情報を含む。
学習情報記憶部352は、画像取得部21によって取得された撮影画像に対して、それに含まれる環境要素を識別するための3つの識別モデルを記憶している。各モデルによって識別される環境要素は、走行困難性の程度が評価される提供区間ごとに、日時によって変化しやすい動的な環境要素を含む。3つの識別モデルのそれぞれは、例えば、駐車中の車両の台数、駐車中の自転車の台数、歩行者の数、障害物の数、視程の大小、路面上の積雪、路面の凍結など、これら動的な環境要素が撮影画像に含まれるか否かを識別するためのモデルである。3つの識別モデルのそれぞれは、環境要素の識別に用いられる画像の領域が相互に異なり、全体識別モデル352A、第1識別モデル352B、および、第2識別モデル352Cから構成される。
全体識別モデル352Aは、撮影画像のほぼ全体を識別領域とする識別モデルである。全体識別モデル352Aは、撮影画像に含まれる環境要素を識別するためのモデルであり、3つの識別モデルのなかで、視野角を最も広角とする画像をそれの識別領域とする。全体識別モデル352Aの識別領域の大きさは、例えば、1280×720ピクセルである。
第1識別モデル352Bは、第1トリミング画像の全体を識別領域とする識別モデルである。第1識別モデル352Bは、第1トリミング画像に含まれる環境要素を識別するためのモデルであり、全体識別モデル352Aよりも視野角を狭角とする第1トリミング画像の全体を、それの識別領域とする。第1トリミング画像は、撮影画像から切り出される画像である。第1トリミング画像が切り出される領域は、撮影画像によって表現される矩形の表示画面34Aのなかで、上方に区画される矩形画面341T、下方に区画される矩形画面、左方に区画される矩形画面341L、および、右方に区画される矩形画面に相当する。また、第1トリミング画像が切り出される領域は、撮影画像が表現する矩形の表示画面34Aのなかで、中央に区画される矩形画面や、道路の消失点を中心として区画される矩形画面に相当する。第1トリミング画像のなかで、上述した上下左右に区画される4種類の矩形画面に対応する各第1トリミング画像は、第1方向トリミング画像である。これに対して、第1トリミング画像のなかで、中央に区画される矩形画面に対応する第1トリミング画像や、道路の消失点を中心として区画される矩形画面に対応する第1トリミング画像は、第1中央トリミング画像である。これら6種類の第1トリミング画像が切り出される領域の大きさは、例えば、960×540ピクセルである。
第2識別モデル352Cは、第2トリミング画像の全体を識別領域とする識別モデルである。第2識別モデル352Cは、第2トリミング画像に含まれる環境要素を識別するためのモデルであり、第1トリミング画像よりもさらに視野角を狭角とする第2トリミング画像の全体を、それの識別領域とする。第2トリミング画像は、4種類の第1方向トリミング画像のいずれか1つから切り出される画像である。第2トリミング画像が切り出される領域は、第1方向トリミング画像が表現する矩形画面のなかで、中央に区画される矩形画面に相当する。例えば、上方に区画される矩形画面341Tを第1方向トリミング画像とする場合、第2トリミング画像が切り出される領域は、上方に区画された矩形画面341Tのなかの中央に区画される矩形画面342Tに相当する。第2トリミング画像が切り出される領域の大きさは、例えば、640×360ピクセルである。
学習情報記憶部352が記憶する教師データは、複数の画像用教師データを含む。各画像用教師データは、それに固有の道路の状況、交通の状況、および、気象の状況のもとで撮影された前景画像から生成されたデータである。すなわち、画像用教師データは、例えば、駐車中である1台の車両が存在しているもとで撮影された複数の前景画像や、そこから切り出された画像、また、路面が凍結しているもとで撮影された複数の前景画像や、そこから切り出された画像など、出力される走行環境が既知である複数の入力画像を含むデータである。各画像用教師データは、道路の状況を構成する各環境要素に対応する特徴ベクトル、交通の状況を構成する各環境要素に対応する特徴ベクトル、および、気象の状況を構成する各環境要素に対応する特徴ベクトルを含む。特徴ベクトルには、例えば、GIST特徴量、SIFT特徴量、HOG特徴量が用いられる。各画像用教師データは、全体識別モデル352A、第1識別モデル352B、および、第2識別モデル352Cに対して、モデルごとに記憶されている。
変換情報記憶部354が記憶する変換情報は、道路の構造、道路の状況、交通の状況、および、気象の状況のそれぞれを構成する各環境要素に対して、走行環境を数値化するための配点である静的困難性配点を定めるための情報である。変換情報は、静的な各環境要素に対して静的困難性配点を対応付けるための情報を含み、かつ、動的な各環境要素、すなわち、動的な各環境要素を識別するための特徴ベクトルに対して動的困難性配点を対応付けるための情報である。
例えば、図2が示すように、変換情報は、静的な走行環境における車線数の分類において、静的な環境要素の一例である「片側5車線」の道路に対しては、静的困難性配点として「100」を対応付けるための情報である。また、変換情報は、「片側4車線」の道路に対しては、静的困難性配点として、「片側5車線」よりも低い「90」を対応づけるための情報である。また、変換情報は、静的な走行環境における車線幅員の分類において、車線の幅員が狭い場合と車線の幅員が広い場合との間で、相互に異なる静的困難性配点を対応付けるための情報である。変換情報は、例えば、「片側1車線」の道路であって、かつ、車線の幅員が「広い」道路に対しては、静的困難性配点として「60」を対応付ける一方、「片側1車線」であり、かつ、車線の幅員が「狭い」道路に対しては、それよりも低い静的困難性配点として「40」を対応付けるための情報である。
例えば、図3が示すように、変換情報は、静的な走行環境における規制速度の分類において、静的な環境要素の一例である「90km/h以上100km/m未満」の道路に対しては、静的困難性配点として「10」を対応付けるための情報である。また、変換情報は、「40km/h以上50km/h未満」の道路に対しては、静的困難性配点として、「90km/h以上100km/m未満」よりも低い「0」を対応づけるための情報である。
例えば、図4が示すように、変換情報は、動的な走行環境における交通の状況として、動的な環境要素の一例である「自車両の前方領域に位置する自転車」に対しては、自転車1台あたりの動的困難性配点として「5」を対応付けるための情報である。また、変換情報は、動的な環境要素の一例である「自車両の前方領域に位置する他車両」に対しては、3台以上の他車両に対して動的困難性配点として「5」を対応付けるための情報である。また、変換情報は、動的な環境要素の一例である「自車領域に位置する他車両」に対しては、前方領域よりも自車両に近い自車両直前の領域に、他車両が位置するものと定め、1台以上の他車両に対して動的困難性配点として「10」を対応付けるための情報である。
図1に戻り、提供情報処理部40は、共用画像12Bやランク情報12Cなどの各種情報を生成し、共用画像12Bやランク情報12Cに提供区間情報12Dを関連付けるための処理を行う。提供情報処理部40は、情報生成管理部41、静的環境認識部42、動的環境認識部43、数値化部の一例である指数処理部44、および、決定部の一例である処理画像設定部45を備える。情報生成管理部41は、静的環境認識部42が行う静的点数P1を算出するための処理を管理すると共に、動的環境認識部43が行う動的点数P2を算出するための処理を管理する。また、情報生成管理部41は、指数処理部44が行う走行性困難指数(=P1−P2)を算出するための処理を管理すると共に、処理画像設定部45が行う処理である処理対象となる画像を設定するための処理を管理する。そして、情報生成管理部41は、共用画像12B、ランク情報12C、および、提供区間情報12Dを、提供区間ごとに生成するための処理を管理する。
静的環境認識部42は、静的な走行環境を提供区間ごとに認識する。すなわち、静的環境認識部42は、情報記憶部35から道路地図情報12Aを読み出し、読み出された道路地図情報12Aと、車両20の位置を示す位置情報とに基づき、車両20が位置する提供区間に含まれる静的な環境要素を特定する。静的環境認識部42は、特定された静的な環境要素から、走行困難性の程度を変える静的な環境要素を抽出する。静的環境認識部42は、情報記憶部35から変換情報を読み出し、抽出された静的な環境要素と変換情報とに基づき、その提供区間における静的な各環境要素を数値化する。そして、静的環境認識部42は、静的な各環境要素に対する配点の合計を静的点数P1として算出する。静的環境認識部42は、算出された静的点数P1を指数処理部44に出力すると共に、抽出された静的な環境要素を識別するための情報を処理画像設定部45に出力する。
動的環境認識部43は、特徴量算出部43A、動的点数算出部43B、尤度算出部43C、および、消失点特定部の一例である消失点算出部43Dを備える。動的環境認識部43は、動的な環境要素を提供区間ごとに認識する。動的環境認識部43は、認識された動的な環境要素に基づき、動的点数P2を算出する。動的環境認識部43は、算出された動的点数P2を指数処理部44に出力すると共に、認識された動的な環境要素を識別するための情報を処理画像設定部45に出力する。
特徴量算出部43Aは、動的な走行環境の特徴を示す特徴ベクトルを処理対象となる画像から算出する。例えば、特徴量算出部43Aは、交通の状況を示す各環境要素に対応した特徴ベクトルを処理画像から算出し、また、気象の状況を示す各環境要素に対応する特徴ベクトルを処理画像から算出する。処理画像は、処理画像設定部45から特徴量算出部43Aに入力される。処理画像設定部45から特徴量算出部43Aに入力される処理画像は、撮影画像から生成される画像であって、画像取得部21が取得した撮影画像、第1トリミング画像、および、第2トリミング画像のそれぞれである。特徴量算出部43Aは、算出された特徴ベクトルを動的点数算出部43Bに入力する。
動的点数算出部43Bは、特徴量算出部43Aから入力された特徴ベクトルに基づき、処理画像のなかに動的な環境要素が含まれるか否かを、動的な環境要素ごとに識別する。動的点数算出部43Bは、動的な環境要素の識別に、教師あり学習アルゴリズムの一例である教師ありサポートベクターマシンを用いる。例えば、処理画像が撮影画像である場合、動的点数算出部43Bは、まず、全体識別モデル352Aとそれに関連付けられた画像用教師データとを、情報記憶部35から読み出す。そして、動的点数算出部43Bは、読み出された全体識別モデル352Aと画像用教師データとを用い、その画像用教師データに含まれる環境要素の特徴ベクトルと、撮影画像から算出された特徴ベクトルとの近似度の判定に基づき、その環境要素が撮影画像に含まれるか否かを識別する。
また、例えば、処理対象となる画像が第1トリミング画像である場合、動的点数算出部43Bは、まず、第1識別モデル352Bとそれに関連付けられた画像用教師データとを、情報記憶部35から読み出す。動的点数算出部43Bは、読み出された第1識別モデル352Bと画像用教師データとを用い、その画像用教師データに含まれる環境要素の特徴ベクトルと、第1トリミング画像から算出された特徴ベクトルとの近似度の判定に基づき、その環境要素が第1トリミング画像に含まれるか否かを識別する。また、例えば、処理対象となる画像が第2トリミング画像である場合、動的点数算出部43Bは、まず、第2識別モデル352Cとそれに関連付けられた画像用教師データとを情報記憶部35から読み出す。動的点数算出部43Bは、読み出された第2識別モデル352Cと画像用教師データとを用い、その画像用教師データに含まれる環境要素の特徴ベクトルと、第2トリミング画像から算出された特徴ベクトルとの近似度の判定に基づき、その環境要素が第2トリミング画像に含まれるか否かを識別する。
動的点数算出部43Bは、それによる識別の結果を学習情報記憶部352に蓄積する処理を繰り返す。すなわち、動的点数算出部43Bは、処理画像に含まれると認識された動的な環境要素と、それの判定の対象となった特徴ベクトルとが関連付けられた状態で、これらの情報を学習情報記憶部352に蓄積する処理を繰り返す。学習情報記憶部352に蓄積された識別の結果は、動的点数算出部43Bによる次回の識別にフィードバックされ、画像用供教師データと共に、次回の識別に用いられる。また、動的点数算出部43Bは、情報記憶部35から変換情報を読み出し、認識された動的な環境要素と、読み出された変換情報とに基づき、その提供区間における動的な各環境要素を数値化する。そして、動的点数算出部43Bは、静的な各環境要素に対する配点の合計を、動的点数P2として算出する。
消失点算出部43Dは、撮影画像からエッジ線分を抽出するエッジ処理を、所定数の撮影画像のそれぞれに対して行う。撮影画像に含まれる路面の境界は、例えば、道路の側端における段差や、道路の側端におけるバリアなどの物理的な境界であり、撮影画像におけるエッジ線分に含まれる。消失点算出部43Dは、抽出された複数のエッジ線分におけるエッジ線分同士の交点の位置を特定する処理を、複数の撮影画像のそれぞれに行う。また、消失点算出部43Dは、撮影画像を複数の領域に分割し、各領域に含まれる交点の数を算出する処理を、複数の撮影画像のそれぞれに行う。そして、消失点算出部43Dは、領域に含まれる交点の数が所定値を超える領域に対して、それが道路の消失点を含む領域であると判定する処理を、複数の撮影画像のそれぞれに行う。消失点算出部43Dは、道路の消失点を含む領域と判定された領域の位置を識別するための情報を、処理画像設定部45に出力する。
尤度算出部43Cは、動的点数算出部43Bによって認識された動的な各環境要素に対して、それの尤もらしさの程度である尤度を算出する。尤度算出部43Cが尤度を算出する対象は、処理画像設定部45から特徴量算出部43Aに入力される処理画像であって、その候補は、画像取得部21が取得した撮影画像、第1トリミング画像、および、第2トリミング画像のそれぞれである。尤度算出部43Cが用いる尤度関数は、撮影画像、第1トリミング画像、第2トリミング画像のそれぞれで共通する。尤度算出部43Cが尤度の算出に用いるデータは、特徴量算出部43Aが算出した特徴ベクトル、学習情報記憶部352に記憶された画像用学習データ、および、学習情報記憶部352に蓄積された識別の結果である。尤度算出部43Cは、算出された尤度を処理画像に関連付けた状態で、その尤度を処理画像設定部45に出力する。
例えば、処理画像設定部45から特徴量算出部43Aに撮影画像が入力され、動的な環境要素である障害物が撮影画像に含まれると動的点数算出部43Bが認識した場合、尤度算出部43Cは、障害物が撮影画像に含まれる尤もらしさの程度を算出する。この際、尤度算出部43Cは、特徴量算出部43Aが撮影画像から算出した特徴ベクトル、全体識別モデル352Aで用いられる画像用学習データ、および、学習情報記憶部352に蓄積された識別の結果を用いて、その尤度を全体尤度として算出する。
また、例えば、撮影画像から各第1トリミング画像が切り出され、各第1トリミング画像が処理画像設定部45から特徴量算出部43Aに入力される場合、尤度算出部43Cは、第1トリミング画像に障害物が含まれる尤もらしさの程度を、各第1トリミング画像に対して算出する。この際、尤度算出部43Cは、特徴量算出部43Aが各第1トリミング画像から算出した特徴ベクトル、第1識別モデル352Bで用いられる画像用学習データ、および、学習情報記憶部352に蓄積された識別の結果を用いて、その尤度を第1尤度として算出する。
指数処理部44は、走行困難性の程度を数値化する処理を提供区間ごとに行う。走行困難性の程度を数値化する処理は、静的環境認識部42が入力する静的点数P1から、動的環境認識部43が入力する動的点数P2を減算し、その提供区間での走行困難性の程度を示す走行困難性指数として減算の結果を出力する。指数処理部44は、算出された走行困難性指数から走行困難性の程度のランクを算出する。走行困難性の程度のランクは、例えば、走行しやすい状況である低困難状況に対応する複数のランクと、走行しにくい状況である高困難状況に対応する複数のランクとから構成される。指数処理部44は、提供区間における走行困難性指数に基づき、これらのランクのいずれか1つを算出する。すなわち、指数処理部44は、走行困難性指数が所定値以上である場合、その走行困難性指数が算出された提供区間に、走行しやすい状況を示すランク(例えば、Aランク,Bランク)のいずれか1つを算出する。また、指数処理部44は、走行困難性指数が所定値未満である場合、その走行困難性指数が算出された提供区間に、走行しにくい状況を示すランク(例えば、Cランク,Dランク,Eランク)のいずれか1つを算出する。そして、指数処理部44は、算出された走行困難性の程度のランクを処理画像設定部45に出力する。
処理画像設定部45は、トリミング処理部45Aと、領域決定部45Bとを備える。トリミング処理部45Aは、撮影画像から各第1トリミング画像を切り出す処理と、第1方向トリミング画像から第2トリミング画像を切り出す処理とを行う。領域決定部45Bは、トリミング処理部45Aが切り出す領域を決定するための処理を行うと共に、共用画像12Bとして送信される画像の領域を、撮影画像のなかから決定するための処理とを行う。処理画像設定部45は、画像取得部21が取得した撮影画像、トリミング処理部45Aが生成した各第1トリミング画像、および、第2トリミング画像のそれぞれを、動的環境認識部43に入力するための処理を行う。
領域決定部45Bは、領域決定部45Bに入力される各種情報に基づき、撮影画像のなかから共用画像12Bの領域を決定するための処理を、提供区間ごとに行う。すなわち、領域決定部45Bには、提供区間における道路交通情報や気象情報が、車載通信処理部22の通信を通じて入力される。また、領域決定部45Bには、提供区間におけるランク、静的な環境要素を識別するための情報、動的な環境要素を識別するための情報、全体尤度、各第1尤度、および、道路の消失点を含む領域を識別するための情報が、静的環境認識部42、動的環境認識部43、および、指数処理部44から入力される。そして、領域決定部45Bは、これら各種情報に基づき、共用画像12Bとして送信される画像を、撮影画像、第1トリミング画像、および、第2トリミング画像のなかから決定するための処理を行う。
詳述すると、領域決定部45Bは、提供区間に対して算出されたランクが、走行しやすい状況を示すランクであるか、走行しにくい状況を示すランクであるかを判定する。提供区間に対して算出されたランクが、走行しやすい状況を示すランクであると判定された場合、領域決定部45Bは、道路の消失点を含む領域を中心とした第1中央トリミング画像をトリミング処理部45Aに切り出させ、その提供区間における共用画像12Bを第1中央トリミング画像に決定する。
一方、提供区間に対して算出されたランクが、走行しにくい状況を示すランクであると判定された場合、領域決定部45Bは、走行困難性の程度を広域で変える環境を識別するための情報が、入力される各種情報のなかに含まれるか否かを判定する。走行困難性の程度を広域で変える環境とは、渋滞や交差点、また、逆光、豪雨、吹雪、および、濃霧などによって提供区間における視程が小さいことなどである。すなわち、走行困難性の程度を広域で変える環境とは、走行困難性の程度を変える環境要素のなかで、撮影画像における垂直方向の視野角、および、撮影画像における水平方向の視野角のほぼ全体にわたる環境要素から構成される。
そして、走行困難性の程度を広域で変える環境を識別するための情報が含まれると判定された場合、領域決定部45Bは、その提供区間における共用画像12Bを、撮影画像に決定する。これに対して、走行困難性の程度を広域で変える環境を識別するための情報が含まれないと判定された場合、領域決定部45Bは、処理画像に基づき算出されたランクと、その処理画像から切り出されたトリミング画像に基づき算出されたランクとが、相互に同じであるか否かを判定する。そして、これら2つの画像のそれぞれを用いて算出されたランクが、相互に異なると判定された場合、領域決定部45Bは、その提供区間における共用画像12Bの候補を、処理画像に決定する。他方、これら2つの画像のそれぞれを用いて算出されたランクが、相互に同じであると判定された場合、領域決定部45Bは、その提供区間における共用画像12Bの候補を、処理画像から切り出されたトリミング画像に決定する。
次に、ナビゲーションシステム30が行う画像生成処理での各処理の流れを説明する。なお、以下では、走行困難性の程度を広域で変える環境が、渋滞、および、交差点である例を説明すると共に、処理の過程で生成される各トリミング画像を、図9から図11を参照して説明する。
図5が示すように、ナビゲーションシステム30が行う画像生成処理において、まず、提供情報処理部40の備える処理画像設定部45は、画像取得部21が取得した撮影画像を処理画像として設定する。提供情報処理部40は、処理画像などの各種情報に基づき、提供区間における走行困難性指数を算出すると共に、走行困難性の程度のランクを算出する処理を行う(ステップS10)。次いで、提供情報処理部40の備える領域決定部45Bは、提供区間におけるランクが、走行しやすい状況を示すランクであるか否かを判定する処理を行う(ステップS20)。提供区間におけるランクが走行しやすい状況を示すランクである場合、提供情報処理部40の備える動的環境認識部43は、撮影画像に含まれる道路における消失点の位置を算出する処理を行う(ステップS30)。次いで、提供情報処理部40の備える領域決定部45Bは、算出された消失点の位置を中心とする第1中央トリミング画像を生成し、共用画像12Bをその第1中央トリミング画像に決定する(ステップS40)。これに対して、提供区間におけるランクが走行しにくい状況を示すランクである場合、提供情報処理部40の備える領域決定部45Bは、提供区間における共用画像12Bを、撮影画像、第1トリミング画像、および、第2トリミング画像のなかから選択する処理を行う(ステップS50)。なお、画像を選択する処理には、各第1方向トリミング画像を処理画像に設定し、その処理画像に基づく走行困難性指数を算出する処理が含まれる。
図6が示すように、ナビゲーションシステム30が行う走行困難性指数の算出処理では、まず、静的環境認識部42が、道路地図情報12Aや位置情報に基づき、提供区間における静的点数P1を算出するための処理を行う(ステップS11)。また、処理画像設定部45は、動的環境認識部43で処理される処理画像を、画像取得部21が取得した撮影画像、撮影画像から切り出されたトリミング画像のいずれかに設定する(ステップS12)。次いで、動的環境認識部43は、処理画像のなかに含まれる動的な環境要素を認識するための処理を行う(ステップS13)。次いで、動的点数算出部43Bは、情報記憶部35が記憶する変換情報を読み出し、認識された動的な環境要素のそれぞれに対して、動的困難性配点を算出すると共に(ステップS14)、動的困難性配点の合計を動的点数P2として算出する(ステップS15)。そして、指数処理部44は、静的点数P1から動的点数P2を減算することによって、処理画像に基づく走行困難性指数を算出する(ステップS16)。
図7が示すように、ナビゲーションシステム30が行う消失点の算出処理では、処理画像設定部45が、所定枚数の連続する撮影画像を処理画像に設定する。そして、消失点算出部43Dは、処理画像に対する以下の処理を繰り返す。まず、消失点算出部43Dは、処理画像として設定された今回の撮影画像に対して、エッジ線分を検出する処理を行う(ステップS31)。次いで、消失点算出部43Dは、エッジ線分同士の交点の位置を特定すると共に、処理画像に分割された領域ごとに、その領域に位置する交点の数を算出する処理を行う。次いで、消失点算出部43Dは、前回までの検出を含めて、各領域に位置する交点の数を更新するための処理を行う(ステップS32)。次いで、消失点算出部43Dは、領域に位置する交点の数が閾値以上である領域の位置を、道路における消失点の位置であると判定する(ステップS33)。そして、消失点算出部43Dは、道路における消失点の位置を更新する処理を行い、これらの処理を所定枚数の撮影画像それぞれに対して行うことによって、道路における消失点の位置を算出する(ステップS34)。消失点算出部43Dで算出された道路における消失点の位置は、上述したように、第1中央トリミング画像の中心の位置として用いられる。
例えば、提供区間におけるランクが走行しやすい状況を示すランクである場合、動的環境認識部43は、撮影画像に含まれる道路における消失点Pの位置を算出する。そして、処理画像設定部45は、図9が示すように、その消失点Pを中心とした矩形画面に相当する領域の第1中央トリミング画像を、撮影画像から切り出し、提供区間における共用画像12Bをその第1中央トリミング画像に決定する。ここで、走行困難性の程度が低い低困難状況である場合とは、例えば、道路の状況、交通の状況、および、気象の状況などが、車両の走行操作に変化を強いることが少ない場合である。こうした場合、道路に沿った車両20の運転操作は容易であり、車両20の運転者は、走行路における消失点Pの付近を重点的に観測する。そのため、道路の消失点を中心とした狭い視野角での共用画像12Bが生成されることによって、走行環境に適した画像を提供することが可能となる。
図8が示すように、ナビゲーションシステム30が行う画像選択処理において、提供情報処理部40は、まず、車載通信処理部22の通信を通じて道路交通情報を取得し、また、位置情報処理部32が行う処理を通じて位置情報を取得する(ステップS51)。次いで、提供情報処理部40は、情報記憶部35から道路地図情報12Aを読み出すと共に、道路地図情報12Aと位置情報とに基づき、車両20の位置を含む提供区間を特定し、その提供区間に交差点が含まれるか否かを判断する。また、提供情報処理部40は、道路交通情報と位置情報とに基づき、その提供区間に渋滞が含まれるか否かを判断する(ステップS52)。そして、提供区間に交差点がある場合、また、提供区間に渋滞がある場合(ステップS52でYES)、提供情報処理部40は、車載通信処理部22の通信を通じ、提供区間で取得された撮影画像を共用画像12Bとして管理センター10に送信する(ステップS53)。
ここで、渋滞が提供区間に含まれる走行環境や、交差点が提供区間に含まれる走行環境は、各種の運転操作におけるタイミングの判断に、様々な確認が求められる環境であって、走行困難性の程度が高い高困難状況である。しかも、走行困難性の程度が高い高困難状況のなかでも、交差点や渋滞などは、車両20の運転者がそれの全体像を観測することによって存在を把握する環境要素である。そのため、第1トリミング画像や第2トリミング画像よりも広い視野角で共用画像12Bが生成されることによって、交差点や渋滞などが提供区間に含まれることを把握させることに適した画像を提供することが可能である。
一方、提供区間に交差点が含まれず、かつ、その提供区間に渋滞が含まれない場合(ステップS52でNO)、提供情報処理部40の備える領域決定部45Bは、撮影画像から4つの第1方向トリミング画像を切り出す処理を、トリミング処理部45Aに行わせる(ステップS54)。次いで、動的環境認識部43は、処理画像に設定された撮影画像から特徴ベクトルを算出すると共に、撮影画像に含まれる動的な環境要素を認識する。また、動的環境認識部43は、処理画像に設定された各第1方向トリミング画像から特徴ベクトルを算出すると共に、各第1方向トリミング画像に含まれる動的な環境要素を認識する。そして、指数処理部44は、各処理画像に対する走行困難性指数、および、走行困難性の程度のランクを算出すると共に、撮影画像に対する全体尤度、および、各第1方向トリミング画像に対する第1尤度を算出する(ステップS55)。
次いで、領域決定部45Bは、撮像画像に基づく走行困難性の程度のランクである全体ランクと、第1方向トリミング画像に基づく走行困難性の程度のランクである方向ランクとが、相互に同じであるか否かを、第1方向トリミング画像ごとに判断する(ステップS56)。領域決定部45Bは、4つの方向ランクのなかに全体ランクと同じランクが存在すると判断した場合(ステップS56でYES)、4つの第1方向トリミング画像のなかから、1つのトリミング対象を選択する処理を行う。この際、領域決定部45Bは、全体ランクと同じランクの方向ランクを特定し、特定された方向ランクが得られた第1方向トリミング画像のなかで、最も高い第1尤度が得られた第1方向トリミング画像を、トリミング対象として選択する(ステップS57A)。一方、領域決定部45Bは、4つの方向ランクのなかに全体ランクと同じランクが存在しないと判断した場合(ステップS56でNO)、撮影画像をトリミング対象に選択する(ステップS57B)。
次いで、領域決定部45Bは、トリミング対象から中央画像を切り出す処理をトリミング処理部45Aに行わせる(ステップS58)。例えば、トリミング対象が第1方向トリミング画像である場合、領域決定部45Bは、その第1方向トリミング画像から第2トリミング画像を切り出し、その第2トリミング画像を中央画像とする。また、例えば、トリミング対象が撮影画像である場合、領域決定部45Bは、撮影画像から第1中央トリミング画像を切り出し、その第1中央トリミング画像を中央画像とする。次いで、処理画像設定部45は、処理画像を中央画像に設定し、動的環境認識部43は、中央画像から特徴ベクトルを算出すると共に、中央画像に含まれる動的な環境要素を認識する。そして、指数処理部44は、中央画像に対する走行困難性指数、および、その走行困難性の程度のランクである中央ランクを算出する(ステップS59)。次いで、領域決定部45Bは、トリミング対象から得られた走行困難性の程度のランクである対象ランクと、算出された中央ランクとが、相互に同じであるか否かを判断する(ステップS60)。そして、対象ランクと中央ランクとが相互に同じである場合、領域決定部45Bは、共用画像12Bを中央画像に決定する(ステップS61A)。一方、領域決定部45Bは、対象ランクと中央ランクとが相互に異なる場合、共用画像12Bをトリミング対象に決定する(ステップS61B)。
例えば、図10が示すように、撮影画像のなかに障害物Sとして駐車中の車両が認識される場合、提供情報処理部40は、撮影画像によって表現される矩形の表示画面34Aのなかで、上下左右の矩形画面341T,341B,341L,341Rに相当する領域を、撮影画像から、各第1方向トリミング画像として切り出す。また、提供情報処理部40は、切り出された各第1方向トリミング画像を用い、走行困難性指数、および、第1尤度を算出する。また、提供情報処理部40は、全体ランクと同じランクの方向ランクが、下側の矩形画面341B、および、左側の矩形画面341Lに対応する第1方向トリミング画像で得られることを判断する。そして、提供情報処理部40は、最も高い第1尤度が、左側の矩形画面341Lに対応する第1方向トリミング画像で得られることに基づき、その第1方向トリミング画像をトリミング対象に選択する。
次いで、提供情報処理部40は、トリミング対象から第2トリミング画像を中央画像として切り出し、中央画像を用いた走行困難性指数、および、中央ランクを算出する。この際、第1方向トリミング画像から切り出された中央画像では、障害物Sを認識できるに足る情報が含まれないなどのため、第1ランクである対象ランクと、中央ランクとが異なり、結果として、提供情報処理部40は、共用画像12Bを、トリミング対象である第1方向トリミング画像に決定する。
また、例えば、図11(a)が示すように、撮影画像のなかに障害物Sとして駐車中の車両が認識される場合、ここでも、提供情報処理部40は、左側の矩形画面341Lに対応する第1方向トリミング画像をトリミング対象に選択する。そして、図11(b)が示すように、提供情報処理部40は、左側の矩形画面341Lのなかの中央に区画される領域342に相当する領域を、第1方向トリミング画像から中央画像として切り出す。また、提供情報処理部40は、中央画像を用いた走行困難性指数、および、中央ランクを算出する。この際、第1方向トリミング画像から切り出された中央画像は、動的環境認識部43が障害物Sを認識できるに足る情報を含み、第1ランクである対象ランクと、中央ランクとが等しくなる結果、提供情報処理部40は、共用画像12Bを、中央画像である第2トリミング画像に決定する。
以上、上記実施の形態によれば、以下に列挙する効果が得られる。
以上、上記実施の形態によれば、以下に列挙する効果が得られる。
(1)走行困難性の程度が低い低困難状況である場合に、消失点Pを中心とした狭い視野角での共用画像12Bが生成される。そのため、運転操作に必要とされる環境に適した表示画像を提供することが可能となる。
(2)走行困難性の程度を広域で変える環境が提供区間に含まれる場合には、広い視野角での共用画像12Bが生成される。そのため、交差点や渋滞などが提供区間に含まれることを把握させることに適した表示画像を提供することが可能である。
(3)走行困難性の程度を広域で変える環境が提供区間に含まれない場合には、狭い視野角での共用画像12Bが生成される。そのため、走行困難性の程度を高める環境を表示画像から把握することに要する時間を短縮させることが可能となる。
上記実施の形態は、以下のように変更して実施することもできる。
・領域決定部45Bは、処理画像に基づき算出されたランクと、その処理画像から切り出されたトリミング画像に基づき算出されたランクとが同じであると判定された場合に、その提供区間における共用画像12Bの候補を、トリミング画像に決定する。これを変更して、例えば、領域決定部45Bは、上記2つの画像のそれぞれを用いて算出された走行困難性指数の差分が、所定範囲内であると判定された場合に、その提供区間における共用画像12Bの候補を、トリミング画像に決定してもよい。
また、領域決定部45Bは、上記2つの画像のそれぞれを用いて算出されたランクの双方が、走りにくい状況を示すランクであると判定された場合に、その提供区間における共用画像12Bの候補を、トリミング画像に決定してもよい。この際、領域決定部45Bは、例えば、共用画像12Bの候補であるトリミング対象を、第1方向トリミング画像とする条件として、全体尤度に対する第1尤度の割合が所定範囲内であることを加えてもよい。こうした構成であれば、2つの画像のそれぞれを用いて算出されたランクが、相互に異なるランクである場合であっても、走行困難性の程度を高める環境を表示画面から把握することに要する時間を短縮させることが可能である。
・領域決定部45Bは、処理画像に基づき算出されたランクと、その処理画像から切り出されたトリミング画像に基づき算出されたランクとが同じであると判定された場合に、その提供区間における共用画像12Bの候補を、トリミング画像に決定する。これを変更して、例えば、領域決定部45Bは、上記2つの画像のそれぞれを用いて算出された走行困難性指数の差分が、所定範囲内であると判定された場合に、その提供区間における共用画像12Bの候補を、トリミング画像に決定してもよい。
また、領域決定部45Bは、上記2つの画像のそれぞれを用いて算出されたランクの双方が、走りにくい状況を示すランクであると判定された場合に、その提供区間における共用画像12Bの候補を、トリミング画像に決定してもよい。この際、領域決定部45Bは、例えば、共用画像12Bの候補であるトリミング対象を、第1方向トリミング画像とする条件として、全体尤度に対する第1尤度の割合が所定範囲内であることを加えてもよい。こうした構成であれば、2つの画像のそれぞれを用いて算出されたランクが、相互に異なるランクである場合であっても、走行困難性の程度を高める環境を表示画面から把握することに要する時間を短縮させることが可能である。
・管理センター10は、車両20が備える学習情報記憶部352、および、提供情報処理部40を備えてもよい。この際、管理センター10が備えるセンター通信処理部13は、各車両20から、その車両20で取得された撮影画像と、その車両20で生成された提供区間情報12Dとを関連付けられた状態で、これらの情報を取得する。そして、管理センター10が備える提供情報処理部40は、管理センター10が備える学習情報記憶部352から各種情報を読み出し、走行困難性指数を算出するための処理、および、共用画像12Bを生成するための処理などの各種の処理を行う。こうした構成であれば、学習情報記憶部352や提供情報処理部40を各車両20から割愛することも可能である。また、管理センター10が備える学習情報記憶部352に蓄積される識別の結果は、複数の車両20からの撮影画像に対する識別の結果である。そのため、撮影画像に含まれる動的な環境要素を認識するための処理において、その識別の結果に対する精度を高めることも可能である。
・車両20は、その車両20における車両情報の取得を繰り返す車両情報取得部を備え、静的環境認識部42や動的環境認識部43は、この車両情報取得部が取得した車両情報を、走行環境を識別するための情報の一部として用いてもよい。車両情報は、例えば、ワイパーの操作、ステアリングの操作、アクセルペダルの操作、ブレーキペダルの操作などの操作量を示す情報である。この際、静的環境認識部42や動的環境認識部43は、各操作量が単位時間当たりに大きく変わるほど、提供区間において運転操作の急な変更が求められる、すなわち、提供区間において走行困難性の程度を高める環境が含まれると認識してもよい。
・走行困難性の程度を広域で変える環境を識別するための情報として提供情報処理部40が用いる情報は、道路交通情報、気象情報、および、道路地図情報12Aの少なくとも1つであってもよく、例えば、渋滞を識別するための情報のみであってもよいし、交差点を識別するための情報のみであってもよい。また、走行困難性の程度を広域で変える環境を識別するための情報として提供情報処理部40が用いる情報は、道路交通情報、気象情報、および、道路地図情報12Aに限らず、例えば、動的環境認識部43で認識された路面上の積雪などの動的な環境要素であってもよい。すなわち、第1トリミング画像や第2トリミング画像を撮影画像から切り出すための処理は、静的な走行環境のなかに、走行困難性の程度を広域で変える環境が含まれることのみに基づき、行われてもよい。あるいは、第1トリミング画像や第2トリミング画像を撮影画像から切り出すための処理は、動的な走行環境のなかに、走行困難性の程度を広域で変える環境が含まれることのみに基づき、行われてもよい。
・動的点数算出部43Bは、予め準備された各環境要素のテンプレートと、環境要素が識別される対象となる画像とのマッチングによるテンプレートマッチングによって、その対象となる画像のなかに環境要素が含まれるか否かを識別してもよい。要は、車両周辺地点での走行困難性の程度を、車両周辺地点での撮影画像を用いて数値化することが可能な構成であればよい。
・動的環境認識部43は、特徴量算出部43Aによって算出された特徴量に基づき、例えば、道路にはみ出した電柱や、道路にはみ出した建物を識別してもよい。この際、静的環境認識部42は、動的環境認識部43によって識別された結果、すなわち、道路にはみ出した電柱の有無や、道路にはみ出した建物の有無を静的環境認識部42に出力し、静的環境認識部42は、それが行う静的点数P1の算出に、道路にはみ出した電柱の有無や、道路にはみ出した建物の有無を反映させてもよい。言い換えれば、動的環境認識部43が認識する環境要素のなかに、静的な環境要素が含まれてもよく、指数処理部44による走行困難性指数の算出においては、その静的な環境要素の配点が、静的点数P1に反映されてもよい。
・提供情報処理部が生成する画像は、提供区間情報12Dに関連付けられる構成に限らず、例えば、交差点や分岐点などの位置情報に関連付けられる構成であってもよい。こうした構成であれば、提供情報処理部が生成した画像に含まれる走行環境の所在を、より高い精度で利用者に把握させることが可能ともなる。
・提供情報処理部40によって領域が決定される画像は、管理センター10が管理する共用画像12Bに限らず、車車通信によって他車両と共用される共用画像12Bであってもよいし、さらに、他車両とは共用されず、自車両の表示のみに用いられる画像であってもよい。なお、提供情報処理部40によって領域が決定される画像が、自車両の表示のみに用いられる画像である場合には、提供情報処理部40によって生成された画像は、案内処理部34が行う案内の処理に用いられる。
・視野角を広角とする表示画像は、撮影画像そのものでなくともよく、撮影画像から切り出された画像や、撮影画像に各種の画像処理が施された画像であってもよく、この際、第1トリミング画像や第2トリミング画像は、撮影画像の視野角をさらに狭くした画像であればよい。
P1…静的点数、P2…動的点数、10…管理センター、11…センター管理部、12…センター情報処理部、12A…道路地図情報、12B…共用画像、12C…ランク情報、12D…提供区間情報、13…センター通信処理部、20…車両、21…画像取得部、22…車載通信処理部、30…ナビゲーションシステム、31…ナビゲーション管理部、32…位置情報処理部、33…経路探索処理部、34…案内処理部、34A…表示画面、35…情報記憶部、40…提供情報処理部、41…情報生成管理部、42…静的環境認識部、43…動的環境認識部、43A…特徴量算出部、43B…動的点数算出部、43C…尤度算出部、43D…消失点算出部、44…指数処理部、45…処理画像設定部、45A…トリミング処理部、45B…領域決定部、351…道路地図記憶部、341L,341T,342T…矩形画面、352…学習情報記憶部、352A…全体識別モデル、352B…第1識別モデル、352C…第2識別モデル、353…提供情報記憶部、354…変換情報記憶部。
Claims (1)
- 車両周辺地点での走行困難性の程度を前記車両周辺地点での撮影画像を用いて数値化する数値化部と、
前記車両周辺地点での撮影画像における道路の消失点を特定する消失点特定部と、
前記車両周辺地点における走行困難性の程度を広域で変える環境の有無に関する走行環境情報を取得すると共に、前記数値化部が出力する数値と前記走行環境情報とを用いて、前記走行困難性の程度を高める環境を含む表示画像の視野角、および、前記表示画像における中心領域を前記撮影画像に対して決定する決定部とを備え、
前記決定部は、
前記数値化部の出力する数値が所定値以上となる低困難状況である場合に、前記表示画像の中心を前記消失点とし、かつ、前記表示画像の視野角を前記撮影画像の視野角よりも狭い狭角とし、
前記数値化部の出力する数値が所定値未満となる高困難状況である場合に、前記表示画像の視野角を広角とする条件に、前記走行困難性の程度を広域で変える環境があることを含み、前記表示画像の視野角を狭角とする条件に、前記走行困難性の程度を広域で変える環境がないことを含む
車両用画像生成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016010420A JP2017130871A (ja) | 2016-01-22 | 2016-01-22 | 車両用画像生成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016010420A JP2017130871A (ja) | 2016-01-22 | 2016-01-22 | 車両用画像生成装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017130871A true JP2017130871A (ja) | 2017-07-27 |
Family
ID=59396366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016010420A Pending JP2017130871A (ja) | 2016-01-22 | 2016-01-22 | 車両用画像生成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017130871A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019204289A (ja) * | 2018-05-23 | 2019-11-28 | トヨタ自動車株式会社 | データ記録装置 |
JP2020087217A (ja) * | 2018-11-29 | 2020-06-04 | トヨタ自動車株式会社 | 情報提供システム、サーバ、車載装置、車両、プログラム及び情報提供方法 |
JP2020101924A (ja) * | 2018-12-20 | 2020-07-02 | トヨタ自動車株式会社 | 情報処理システム、プログラム、及び情報処理方法 |
JP2022532792A (ja) * | 2019-06-05 | 2022-07-19 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング | 複数の相対的に接近する様に動いているリジッドなオブジェクトの検出、3d再現および追跡 |
WO2023187958A1 (ja) * | 2022-03-29 | 2023-10-05 | 日本電気株式会社 | 交通流分析装置、交通流分析方法及びプログラム記録媒体 |
-
2016
- 2016-01-22 JP JP2016010420A patent/JP2017130871A/ja active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019204289A (ja) * | 2018-05-23 | 2019-11-28 | トヨタ自動車株式会社 | データ記録装置 |
JP7024603B2 (ja) | 2018-05-23 | 2022-02-24 | トヨタ自動車株式会社 | データ記録装置 |
JP2020087217A (ja) * | 2018-11-29 | 2020-06-04 | トヨタ自動車株式会社 | 情報提供システム、サーバ、車載装置、車両、プログラム及び情報提供方法 |
JP7192443B2 (ja) | 2018-11-29 | 2022-12-20 | トヨタ自動車株式会社 | 情報提供システム、サーバ、車載装置、車両、プログラム及び情報提供方法 |
JP2020101924A (ja) * | 2018-12-20 | 2020-07-02 | トヨタ自動車株式会社 | 情報処理システム、プログラム、及び情報処理方法 |
US11352011B2 (en) | 2018-12-20 | 2022-06-07 | Toyota Jidosha Kabushiki Kaisha | Information processing system, program, and information processing method |
JP7103201B2 (ja) | 2018-12-20 | 2022-07-20 | トヨタ自動車株式会社 | 情報処理システム、プログラム、及び情報処理方法 |
US11938945B2 (en) | 2018-12-20 | 2024-03-26 | Toyota Jidosha Kabushiki Kaisha | Information processing system, program, and information processing method |
JP2022532792A (ja) * | 2019-06-05 | 2022-07-19 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング | 複数の相対的に接近する様に動いているリジッドなオブジェクトの検出、3d再現および追跡 |
JP7209115B2 (ja) | 2019-06-05 | 2023-01-19 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング | 複数の相対的に接近する様に動いているリジッドなオブジェクトの検出、3d再現および追跡 |
WO2023187958A1 (ja) * | 2022-03-29 | 2023-10-05 | 日本電気株式会社 | 交通流分析装置、交通流分析方法及びプログラム記録媒体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11022450B2 (en) | Route planning for an autonomous vehicle | |
US11940290B2 (en) | Virtual stop line mapping and navigation | |
US10126136B2 (en) | Route planning for an autonomous vehicle | |
CN112902975B (zh) | 自主车辆导航的方法、可读设备、服务器、车辆及系统 | |
US8134480B2 (en) | Image processing system and method | |
JP6325806B2 (ja) | 車両位置推定システム | |
WO2017010209A1 (ja) | 周辺環境認識装置、及びコンピュータプログラム製品 | |
US11727799B2 (en) | Automatically perceiving travel signals | |
US20170356748A1 (en) | Route Planning for an Autonomous Vehicle | |
RU2661963C1 (ru) | Устройство вычисления маршрута движения | |
JP2017130871A (ja) | 車両用画像生成装置 | |
JP2016095831A (ja) | 運転支援システム及びセンタ | |
US20220035378A1 (en) | Image segmentation | |
JP6303362B2 (ja) | マップマッチング装置及びこれを備えたナビゲーション装置 | |
US9558662B2 (en) | Traveling environment evaluation system | |
WO2018195150A1 (en) | Automatically perceiving travel signals | |
US11982540B2 (en) | Infrastructure mapping and layered output | |
WO2023286303A1 (ja) | 車両制御装置 | |
US20230296401A1 (en) | Apparatus, method, and computer program for determining sections for map update | |
JP2023111240A (ja) | 情報提供システム |