JP2017220030A - Travel information providing system and travel information providing program - Google Patents
Travel information providing system and travel information providing program Download PDFInfo
- Publication number
- JP2017220030A JP2017220030A JP2016113821A JP2016113821A JP2017220030A JP 2017220030 A JP2017220030 A JP 2017220030A JP 2016113821 A JP2016113821 A JP 2016113821A JP 2016113821 A JP2016113821 A JP 2016113821A JP 2017220030 A JP2017220030 A JP 2017220030A
- Authority
- JP
- Japan
- Prior art keywords
- travel plan
- vehicle
- automatic
- plan
- automatic travel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 abstract description 49
- 208000019901 Anxiety disease Diseases 0.000 abstract 1
- 230000036506 anxiety Effects 0.000 abstract 1
- 230000001133 acceleration Effects 0.000 description 29
- 238000012545 processing Methods 0.000 description 29
- 230000003068 static effect Effects 0.000 description 26
- 238000004891 communication Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 239000007787 solid Substances 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
- Navigation (AREA)
- Instrument Panels (AREA)
Abstract
Description
本発明は、走行に関する情報を提供する走行情報提供システムおよび走行情報提供プログラムに関する。 The present invention relates to a travel information providing system and a travel information providing program for providing information related to travel.
従来、車両走行中に走行に関する情報を提供する技術が知られている。例えば、特許文献1には、自動走行する車両において、車両が次にとる走行計画に伴う行動を乗員に報知する技術が開示されている。
2. Description of the Related Art Conventionally, a technique for providing information related to traveling during vehicle traveling is known. For example,
自動走行を行うためには、車両の周囲の物体を回避する経路を選択したり、物体に接触しないように速度調整したりするなどの必要があり、このような回避等を行うためには、物体の位置や接近を検知し、車両に接近し得る物体の挙動を考慮した上で自動走行計画が立案されている必要がある。一方、考慮する必要がある物体が考慮されずに自動走行計画が立案されると、当該自動走行計画は不適切な計画になっている場合がある。従来の技術においては、次にとる走行計画に伴う行動が報知されるものの、自車と周囲の車両との位置関係を表示しているだけで、その周囲の車両が考慮された上で当該行動がなされるのか利用者にとって定かでない。このように、車両の周囲に存在する物体が考慮されているか否か不明な状況では、自動走行を利用している利用者によって自動走行計画が適切であるか否か判断することができず、利用者が不安を感じる場合がある。
本発明は、前記課題にかんがみてなされたもので、利用者が不安に感じる可能性を低減することが可能な技術の提供を目的とする。
In order to perform automatic traveling, it is necessary to select a route that avoids objects around the vehicle, or to adjust the speed so as not to touch the objects. An automatic travel plan needs to be drawn up after detecting the position and approach of an object and considering the behavior of the object that can approach the vehicle. On the other hand, when an automatic travel plan is drawn up without considering an object that needs to be considered, the automatic travel plan may be an inappropriate plan. In the prior art, although an action associated with a travel plan to be taken next is notified, only the positional relationship between the own vehicle and the surrounding vehicle is displayed, and the action is taken in consideration of the surrounding vehicle. It is not clear to the user whether or not In this way, in an unknown situation whether or not an object existing around the vehicle is taken into account, it is not possible to determine whether or not the automatic travel plan is appropriate by the user using automatic travel, Users may feel uneasy.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of reducing the possibility that a user feels uneasy.
上記の目的を達成するため、走行情報提供システムは、車両の周囲に存在する物体を示す物体情報を取得する物体情報取得部と、少なくとも物体情報に基づいて車両を自動走行させる自動走行計画を取得する走行計画取得部と、自動走行計画に影響を与えた物体を、自動走行計画に影響を与えていない物体と区別して報知する影響度報知部と、自動走行計画を報知する走行計画報知部と、を備える。 In order to achieve the above object, the driving information providing system acquires an object information acquiring unit that acquires object information indicating an object existing around the vehicle, and an automatic driving plan for automatically driving the vehicle based on at least the object information. A travel plan acquisition unit, an influence degree notifying unit for notifying an object that has influenced the automatic travel plan and an object that has not affected the automatic travel plan, a travel plan notifying unit for notifying the automatic travel plan, .
さらに、上記の目的を達成するため、走行情報提供プログラムは、コンピュータを、車両の周囲に存在する物体を示す物体情報を取得する物体情報取得部、少なくとも物体情報に基づいて車両を自動走行させる自動走行計画を取得する走行計画取得部、自動走行計画に影響を与えた物体を、自動走行計画に影響を与えていない物体と区別して報知する影響度報知部、自動走行計画を報知する走行計画報知部、として機能させる。 Furthermore, in order to achieve the above object, the travel information providing program causes the computer to automatically run the vehicle based on at least an object information acquisition unit that acquires object information indicating an object existing around the vehicle. A travel plan acquisition unit that acquires a travel plan, an influence degree notification unit that notifies an object that has influenced the automatic travel plan in distinction from an object that does not affect the automatic travel plan, and a travel plan notification that notifies the automatic travel plan Function as part.
すなわち、走行情報提供システムおよび走行情報提供プログラムにおいては、車両を自動走行させる自動走行計画を報知する際に、当該自動走行計画に影響を与えた物体を、自動走行計画に影響を与えていない物体と区別して報知する。従って、車両の利用者が視認する物体の中で自動走行計画に影響を与えた物体と影響を与えていない物体が利用者にとって明らかになる。このため、利用者は、物体の報知に基づいて、自動走行計画の立案に際して物体が適切に考慮されていたか否かを判断することができ、利用者が不安に感じる可能性を低減することが可能である。 That is, in the travel information providing system and the travel information providing program, when the automatic travel plan for automatically traveling the vehicle is notified, the object that has influenced the automatic travel plan is changed to the object that does not affect the automatic travel plan. This is notified separately. Therefore, among the objects visually recognized by the user of the vehicle, the object that has influenced the automatic travel plan and the object that has not been influenced become clear to the user. For this reason, the user can determine whether or not the object has been properly taken into consideration when making the automatic travel plan based on the notification of the object, and can reduce the possibility that the user feels uneasy. Is possible.
ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)ナビゲーションシステムの構成:
(2)車両制御処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of navigation system:
(2) Vehicle control processing:
(3) Other embodiments:
(1)ナビゲーションシステムの構成:
図1は、本発明の一実施形態にかかる走行情報提供システムを含むナビゲーションシステム10の構成を示すブロック図である。ナビゲーションシステム10は、車両に備えられており、CPU,RAM,ROM等を備える制御部20、記録媒体30を備えている。ナビゲーションシステム10は、記録媒体30やROMに記憶されたプログラムを制御部20で実行することができる。記録媒体30には、予め地図情報30aが記録されている。
(1) Configuration of navigation system:
FIG. 1 is a block diagram showing a configuration of a
地図情報30aは、車両の位置や案内対象の施設の特定に利用される情報であり、車両が走行する道路上に設定されたノードの位置等を示すノードデータ,ノード間の道路の形状を特定するための形状補間点の位置等を示す形状補間点データ,ノード同士の連結を示すリンクデータ,道路やその周辺に存在する地物の位置等を示す地物データ等を含んでいる。本実施形態においては、ノードが示す交差点への進入道路の車線構成を示す情報が各リンクデータに対して対応づけられて記録されている。
The
例えば、あるリンクデータがあるノードへの進入道路を示しており、当該あるノードが示す交差点への進入道路上に3個の車線が存在し、左車線、中央車線、右車線のそれぞれにおいて、直進および左折が可能、直進が可能、右折が可能である場合、これらを示す情報が車線構成を示す情報としてリンクデータに対応づけられている。さらに、本実施形態においては、各車線の区画線を示す情報がリンクデータに対応づけられている。例えば、ある道路上の左車線が左側に存在する実線の区画線と右側に存在する破線の区画線で形成される場合、当該左車線に対して左側に実線の区画線、右側に破線の区画線が存在することを示す情報が対応づけられてリンクデータの一部を構成している。さらに、各区各線の間の距離(車線の幅)を示す情報が各車線に対して対応づけられてリンクデータの一部を構成している。 For example, a certain link data indicates an approach road to a certain node, and there are three lanes on the approach road to the intersection indicated by the certain node. In each of the left lane, the center lane, and the right lane, go straight ahead. When left turn is possible, straight travel is possible, and right turn is possible, information indicating these is associated with link data as information indicating the lane configuration. Furthermore, in the present embodiment, information indicating the lane marking of each lane is associated with the link data. For example, when a left lane on a road is formed with a solid lane line on the left side and a broken lane line on the right side, a solid lane line on the left side and a broken line line on the right side with respect to the left lane Information indicating that a line exists is associated with each other to form a part of link data. Further, information indicating the distance (lane width) between each line in each ward is associated with each lane to form a part of link data.
本実施形態における車両は、物体認識部40とGPS受信部41と車速センサ42とジャイロセンサ43とユーザI/F部44と車両制御部45とを備えている。GPS受信部41は、GPS衛星からの電波を受信し、図示しないインタフェースを介して車両の現在地を算出するための信号を出力する。制御部20は、この信号を取得して車両の現在地を取得する。車速センサ42は、車両が備える車輪の回転速度に対応した信号を出力する。制御部20は、図示しないインタフェースを介してこの信号を取得し、車速を取得する。
The vehicle in this embodiment includes an
ジャイロセンサ43は、車両の水平面内の旋回についての角加速度を検出し、車両の向きに対応した信号を出力する。制御部20は、この信号を取得して車両の進行方向を取得する。車速センサ42およびジャイロセンサ43等は、車両の走行軌跡を特定するために利用され、本実施形態においては、車両の出発地と走行軌跡とに基づいて現在地が特定され、当該出発地と走行軌跡とに基づいて特定された車両の現在地がGPS受信部41の出力信号に基づいて補正される。
The
なお、制御部20は、車速センサ42の出力信号や、車両の位置の時間変化等に基づいて車両の加速度を取得することができる。以上のように、本実施形態においては、GPS受信部41,車速センサ42,ジャイロセンサ43が車両の状態(位置、向き、速度、加速度)を取得するためのセンサとなっているが、むろん、他の手法、例えば、加速度センサに基づく加速度の特定やカメラによる車線検出による位置の特定、ステアリングセンサに基づく操舵角の特定等が車両の状態の取得に利用されてもよい。
The
物体認識部40は、車両の周囲に存在する物体を検知するセンサであり、本実施形態においては、複数のカメラが物体認識部40を構成する。すなわち、複数のカメラは、各カメラの画像をつなぎ合わせることで車両の周囲360°の範囲を撮影できるように車両に対して固定されている。制御部20は、当該物体認識部40の出力する画像を取得し、特徴量の抽出等によって画像を解析することによって物体を検知することができる。
The
ユーザI/F部44は、利用者の指示を入力し、また利用者に各種の情報を提供するためのインタフェース部であり、図示しないタッチパネル方式のディスプレイやスピーカー等の出力音の出力部を備えている。
The user I /
車両制御部45は、車両を動作させる装置を制御する装置である。車両を動作させる装置は、種々の装置を想定可能であり、本実施形態においては、内燃機関、ブレーキ、ステアリング、変速機が車両を動作させる装置に相当する。車両制御部45は、これらの各装置に対して制御信号を出力し、その動作を制御することができる。この結果、車両制御部45の指示により、内燃機関の回転数を制御し、ブレーキの制動力を制御し、ステアリングによる操舵角を制御し、変速機による変速比を制御することができる。
The
車両制御部45は、制御部20からの制御信号に応じてこれらの制御を行うことができ、制御部20から時刻毎の車両の位置、向き、速度、加速度を示す制御信号が出力されると、車両制御部45は、当該制御信号に基づいて、指示された位置、向き、速度、加速度になるように各装置を制御する。この結果、制御部20の制御によって車両を自動走行させることができる。むろん、以上の構成は一例であり、車両制御部45の制御対象にモータ等の他の装置が含まれていてもよいし、制御の手法は、種々の手法を採用可能である。
The
制御部20は、図示しないナビゲーションプログラムの機能により図示しないユーザI/F部の入力部を介して利用者による目的地の入力を受け付け、車両の現在地から目的地までの走行予定経路を探索する。また、制御部20は、当該ナビゲーションプログラムの機能により、走行予定経路に沿って走行するための自動走行計画を立案し、当該自動走行計画に沿って車両を走行させるための自動制御を実行する。本実施形態においては、当該ナビゲーションプログラムの付加機能として、自動走行計画に関する情報を報知することが可能であり、当該報知は走行情報提供プログラム21によって実現される。
The
走行情報提供プログラム21は、当該報知を実現するため、物体情報取得部21aと走行計画取得部21bと影響度報知部21cと走行計画報知部21dとを備えている。物体情報取得部21aは、車両の周囲に存在する物体を示す物体情報を取得する機能を制御部20に実現させるプログラムモジュールである。本実施形態において、制御部20は、物体認識部40の出力信号を取得し、画像に基づいて物体の特徴を示す特徴量を特定することにより、車両の周囲に存在する物体を検知する。
The travel
物体認識部40は、一定期間(微小期間)毎に車両の周囲を撮影した画像を出力する。画像内における物体の像の位置と実空間内での物体の位置とは予め対応づけられているため、制御部20は、当該対応関係に基づいて車両の周囲の物体の位置を特定可能である。また、制御部20は、画像に基づいて各物体の大きさ、形状を特定する。そして、制御部20は、物体の位置、大きさ、形状を示す物体情報を生成する。
The
本実施形態において制御部20は、車両の自動走行計画に影響を与え得る物体を検知して各物体についての物体情報を生成する。具体的には、制御部20は、自動走行計画に影響を与え得る静的物体と動的物体とを検知する。静的物体は、車両が当該物体の付近を通過する期間内に変化しない物体であり、例えば、道路、交通標識、路面標示、建築物等である。動的物体は、車両が当該物体の付近を通過する期間内に変化し得る物体であり、例えば、二輪車、四輪車、鉄道車両、歩行者等の移動体や現示が変化し得る信号機等である。
In the present embodiment, the
制御部20は、複数の時刻に渡る画像に基づいて検知された物体の変化に基づいて、検知された物体が静的物体と動的物体とのいずれであるのかを特定する。すなわち、制御部20は、複数の時刻に渡る画像に基づいて物体の速度および加速度、移動方向を特定し、位置が変化する物体を動的物体として特定する。また、制御部20は、複数の時刻に渡る画像に基づいて物体の像が変化したことが特定される場合(例えば、現示が変化した場合)、当該物体を動的物体として特定する。動的物体であると特定されなかった物体は静的物体である。物体が静的物体である場合、制御部20は、当該物体の画像に基づいてパターンマッチング処理等を実施し、静的物体の種類を明らかにする。また、制御部20は、静的物体の種類に応じて付加情報を特定する。例えば、静的物体の種類が道路、交通標識、路面標示、建築物のそれぞれである場合、車両通行可能な道路の範囲、交通標識の内容、路面標示の内容、建築物の外周(壁面)の位置等を付加情報として特定する。そして、制御部20は、物体の位置、大きさ、形状を示す物体情報に対して、静的物体の種類および付加情報を対応づける。
The
物体が位置の変化し得る動的物体である場合、制御部20は、物体の位置、大きさ、形状、速度、加速度、移動方向を示す情報を物体毎に対応づけて物体情報を生成する。また、物体が規制内容の変化し得る信号機などの動的物体である場合、制御部20は、物体の位置、大きさ、形状、規制内容を示す情報を物体毎に対応づけて物体情報を生成する。制御部20は、以上のようにして生成された物体情報をRAMに記録する。当該物体情報は、車両で物体を回避しながら自動で走行するために利用され、任意のタイミングで制御部20によって参照可能である。
When the object is a dynamic object whose position can change, the
走行計画取得部21bは、少なくとも物体情報に基づいて車両を自動走行させる自動走行計画を取得する機能を制御部20に実現させるプログラムモジュールである。本実施形態において制御部20は、物体情報に基づいて、現在以降の予め決められた期間(例えば、数秒間)内における時刻毎の車両の位置と向き、各時刻における速度および加速度を決定し自動走行計画として取得する。具体的には、制御部20は、物体情報に基づいて、現在以降の予め決められた期間内での時刻毎の動的物体の移動予測経路と、動的物体および静的物体における規制とを特定する。
The travel
動的物体の移動予測経路は種々の手法で特定されてよく、例えば、ある時刻における動的物体の位置、速度、加速度から、加速度が一定であると見なして次の微小時間後の動的物体の位置、速度、加速度を特定する処理を繰り返すなどして特定可能である。動的物体および静的物体における規制は種々の手法で特定されてよく、例えば、現在以前の過去における信号機の現示の変化に基づいて現在以降の信号の現示を予測する処理や、交通標識の数字をパターンマッチングによって特定する処理、道路上の車線の位置および幅に基づいて車両が移動可能な範囲を特定する処理等によって特定可能である。むろん、当該規制を特定する際に、制御部20は、地図情報30aに記録された車線構成を示す情報等を参照してもよいし、通信等によって規制を特定するための情報を取得してもよい。
The movement prediction path of the dynamic object may be specified by various methods. For example, it is assumed that the acceleration is constant from the position, speed, and acceleration of the dynamic object at a certain time, and the dynamic object after the next minute time It is possible to specify the position, speed, and acceleration by repeating the process of specifying the position. Regulations on dynamic objects and static objects may be specified in various ways, for example, processing to predict the present of signals after the current based on changes in the present of traffic signals in the past before the present, traffic signs Can be specified by pattern matching, processing for specifying the range in which the vehicle can move based on the position and width of the lane on the road, and the like. Of course, when specifying the restriction, the
以上のようにして、動的物体の移動予測経路と、動的物体および静的物体における規制とが特定されると、制御部20は、当該規制の範囲内で目的地までの走行予定経路に沿って車両を移動させる仮走行計画を特定する。すなわち、制御部20は、信号機の現示による規制や速度規制など、動的物体及び静的物体による規制に従って走行を行うように、時刻毎の車両の位置、向き、速度、加速度を決定し、予め決められている車両の仕様(車両の幅、長さや操舵角毎の旋回半径、内輪差等)に基づいて道路上で車両が存在する範囲を時刻毎に示す移動軌跡を仮走行計画として特定する。
When the movement prediction route of the dynamic object and the restriction on the dynamic object and the static object are specified as described above, the
仮走行計画が特定されると、制御部20は、動的物体の移動予測経路が示す動的物体の時刻毎の位置に基づいて、動的物体と、仮走行計画に沿って走行する車両とが干渉するか否かを判定する。すなわち、仮走行計画に基づいて特定される時刻毎の車両の位置と、動的物体の時刻毎の位置とを比較し、同時刻における両者の距離が予め決められた閾値以内であれば、動的物体と車両とが干渉しないと見なす。制御部20は、車両の仮走行計画から予め決められた距離より遠くに存在する物体(自動走行計画に全く影響しないとして無視してよい物体)を除き、残りの全ての物体について上述のような干渉が発生するか否かを判定する。判定対象の全ての物体について干渉しないと判定された場合、制御部20は、仮走行計画を自動走行計画として特定する。なお、閾値は予め決められた固定値であってもよいし、状況(例えば、現在地が市街地であるか否かや動的物体の種類(先行車両、対向車両、歩行者等)等)によって変化してもよい。
When the provisional travel plan is specified, the
一方、判定対象の少なくとも一つの動的物体が仮走行計画に沿って走行する車両と干渉すると判定された場合、制御部20は、仮走行計画を修正する。すなわち、制御部20は、仮走行計画と干渉し得る動的物体の時刻毎の位置に基づいて、当該動的物体を回避するように、車両の位置を修正する。車両の位置は、車両の向きや速度、加速度等が修正されることによって修正されればよく、この結果、動的物体と車両との干渉が防止されればよい。本実施形態においては、当該修正の後、再度、動的物体が仮走行計画に沿って走行する車両と干渉するか否か判定され、判定対象の全ての物体について干渉しないと判定されるまで修正が行われる。
On the other hand, when it is determined that at least one dynamic object to be determined interferes with a vehicle traveling along the temporary travel plan, the
影響度報知部21cは、自動走行計画に影響を与えた物体を、自動走行計画に影響を与えていない物体と区別して報知する機能を制御部20に実現させるプログラムモジュールである。本実施形態においては、ユーザI/F部44のディスプレイ上で報知が行われる。すなわち、制御部20は、物体を含む風景を撮影した画像をユーザI/F部44のディスプレイに表示し、自動走行計画に影響を与えた物体を、自動走行計画に影響を与えていない物体と区別する画像を当該ディスプレイ上の風景に重畳して表示する。
The influence
具体的には、制御部20は、物体が存在しない場合の自動走行計画と、当該物体が存在する場合の自動走行計画とが異なる場合に、当該自動走行計画の際を生じさせた物体が、影響を与えた物体であると見なす。すなわち、本実施形態において制御部20は、動的物体の移動予測経路から特定される動的物体の位置と仮走行計画に従った場合の車両の位置とに基づいて両者の干渉が予想される場合に、走行計画を修正する。そこで、制御部20は、当該修正が行われた原因となった動的物体を、自動走行計画に影響を与えた物体とみなす。
Specifically, when the automatic travel plan when no object is present differs from the automatic travel plan when the object is present, the
なお、本実施形態において制御部20は、物体が自動走行計画に与えた影響を物体毎に3段階で評価してディスプレイに表示する。すなわち、制御部20は、自動走行計画が修正される原因となった動的物体の影響度を大とみなし、自動走行計画が修正されるか否かの判定対象となったが修正はされなかった(干渉しないと判定された)動的物体の影響度を中とみなす。さらに、制御部20は、車両の仮走行計画から予め決められた距離よりも遠くに存在し、干渉が発生するか否の判定対象とならなかった動的物体の影響度を小とみなす。
In the present embodiment, the
影響度が特定されると、制御部20は、物体認識部40の出力信号を取得する。当該出力信号は、物体を含む前方の風景を撮影した画像であり、制御部20は、当該画像をユーザI/F部44のディスプレイに出力する。この結果、物体を含む風景の画像がユーザI/F部44のディスプレイに表示される。さらに、制御部20は、各物体の影響度を示す画像を描画し、前方の風景内の各物体の付近に、各物体の影響度を示すアイコンを重畳する。この結果、物体が自動走行計画に与えた影響を区別するための画像がディスプレイ上に重畳される。
When the degree of influence is specified, the
なお、アイコンの態様は任意であるが、影響度が大きいほど強調されていることが想起されるような態様でアイコンが定義される。いずれにしても、以上の処理により、車両の前方における風景内の各物体に対して、自動走行計画に対する影響度を示すアイコンが付された画像がユーザI/F部44のディスプレイに表示される。
In addition, although the aspect of an icon is arbitrary, an icon is defined in the aspect which recalls that it is emphasized, so that the influence degree is large. In any case, through the above processing, an image with an icon indicating the degree of influence on the automatic travel plan is displayed on the display of the user I /
走行計画報知部21dは、自動走行計画を報知する機能を制御部20に実現させるプログラムモジュールである。本実施形態においては、ユーザI/F部44のディスプレイ上で報知が行われる。すなわち、制御部20は、自動走行計画を風景に重畳させて表示する。本実施形態においては、時刻毎の車両の位置、向き、速度、加速度と、当該位置を移動するに際して車両が通過する範囲とが、自動走行計画として特定されている。そこで、制御部20は、物体認識部40の出力信号を取得し、前方の風景内において車両が走行する道路を特定する。
The travel
そして、制御部20は、当該道路上での車両の通過範囲を示す画像を描画し、ユーザI/F部44上の風景の画像に対して当該通過範囲を示す画像を重畳するための制御信号を出力する。この結果、自動走行計画が画像によって報知される。この構成によれば、利用者は、風景に重畳された画像に基づいて自動走行計画と当該自動走行計画に影響を与えた物体とを対比させながら、自動走行計画と物体とを認識することができる。そして、利用者は、自動走行計画を認識した上で、当該自動走行計画に対する影響によって車両の周囲の物体を区別することができる。
Then, the
以上のような本実施形態によれば、自動走行計画に対する影響の有無を物体毎に区別できるように報知が行われる。本実施形態においては、避けるべき物体が避けられて自動走行計画が生成された場合に、当該物体が自動走行計画に影響を与えた物体であるとして報知される。従って、車両の利用者が視認する物体の中で自動走行計画に影響を与えた物体と影響を与えていない物体が利用者にとって明らかになる。このため、利用者は、物体の報知に基づいて、自動走行計画の立案に際して物体が適切に考慮されていたか否かを判断することができ、自動走行計画が信頼に足るか否かを判断することができる。 According to the present embodiment as described above, the notification is performed so that the presence or absence of the influence on the automatic travel plan can be distinguished for each object. In the present embodiment, when an object to be avoided is avoided and an automatic travel plan is generated, it is notified that the object is an object that has influenced the automatic travel plan. Therefore, among the objects visually recognized by the user of the vehicle, the object that has influenced the automatic travel plan and the object that has not been influenced become clear to the user. For this reason, the user can determine whether or not the object has been properly taken into consideration when formulating the automatic travel plan based on the notification of the object, and determines whether or not the automatic travel plan is reliable. be able to.
この結果、利用者は不安を感じることなく自動走行計画に沿った自動走行を継続させてよいか否か判断することができる。従って、利用者が不安に感じる可能性を低減することが可能である。さらに、本実施形態においては、実風景に自動走行計画が重畳されるため、利用者は車両の前方における実風景と同等の像により、周囲の風景と照らし合わせて物体を認識することができ、容易に物体を認識することができる。さらに、本実施形態においては、各物体について影響度を示す画像が表示されるため、自動走行を継続する際に考慮すべき優先度が高い物体が適切に考慮されているか否かを、利用者が判断することができる。 As a result, the user can determine whether or not the automatic travel according to the automatic travel plan can be continued without feeling uneasy. Therefore, it is possible to reduce the possibility that the user feels uneasy. Furthermore, in the present embodiment, since the automatic travel plan is superimposed on the actual scenery, the user can recognize the object in light of the surrounding scenery by an image equivalent to the actual scenery in front of the vehicle, An object can be easily recognized. Furthermore, in the present embodiment, since an image indicating the degree of influence is displayed for each object, it is determined whether or not an object having a high priority to be considered when continuing automatic driving is appropriately considered. Can be judged.
(2)車両制御処理:
次に、図2,図3に示すフローチャートに基づいて制御部20が実行する車両制御処理を説明する。走行情報提供プログラム21による処理は車両制御処理の一部を構成する。車両制御処理は、利用者がユーザI/F部44を操作することによって目的地を設定し、自動走行の実行開始を指示した場合に実行される。車両制御処理の実行が開始されると、自動走行の終了トリガ(利用者の運転への介入や利用者による終了指示等)が発生するまで、一定期間毎(例えば、100ms)に車両制御処理が実行される。
(2) Vehicle control processing:
Next, a vehicle control process executed by the
車両制御処理において、制御部20は、走行計画取得部21bの処理により、車両状態を検出する(ステップS100)。すなわち、制御部20は、GPS受信部41,車速センサ42,ジャイロセンサ43の出力に基づいて、車両の位置、向き、速度、加速度を車両状態として取得する。図4Aは、車両Cと車両の周辺に存在する物体の例を示す図であり、上方から眺めた状態でこれらの例を示している。図4Aにおいては、動的物体としての歩行者をW1〜W4、静的物体としての建築物をB1〜B5、静的物体としての白線をL1〜L4として示している。また、図4Aにおいては、ステップS100で取得される車両の位置を点Pc、車両の向き、速度をベクトルVcとして模式的に示している(加速度はベクトルVcの時間変化に相当する)。
In the vehicle control process, the
次に、制御部20は、物体情報取得部21aの処理により、物体情報を取得する(ステップS105)。すなわち、制御部20は、物体認識部40が出力する車両の周囲の風景画像に基づいて車両の周囲の物体の位置、大きさ、形状を特定し、物体の位置、大きさ、形状を示す物体情報を生成する。そして、制御部20は、複数の時刻に渡る画像に基づいて検知された物体の位置の変化に基づいて物体の速度および加速度、移動方向を特定し、各物体が静的物体と動的物体とのいずれであるのかを特定する。さらに、制御部20は、静的物体の位置、大きさ、形状に対して、静的物体の種類と付加情報とを対応づけて静的物体の物体情報を生成する。さらに、制御部20は、動的物体の位置、大きさ、形状、速度、加速度、移動方向を示す物体情報を生成する。
Next, the
図4Aに示す例であれば、制御部20は、建築物B1〜B5、白線L1〜L4についてこれらの物体が静的物体であることを示す物体情報を取得し、歩行者W1〜W4についてこれらの物体が動的物体であることを示す物体情報を取得する。また、図4においては、ステップS105において動的物体の物体情報として取得される物体の位置を点P1〜P4、物体の移動方向、速度をベクトルV1〜V4として模式的に示している(加速度はベクトルV1〜V4の時間変化に相当する)。
In the example shown in FIG. 4A, the
次に、制御部20は、走行計画取得部21bの処理により、自動走行計画を取得する(ステップS110)。すなわち、制御部20は、ステップS105で取得された物体情報に基づいて、現在以降の予め決められた期間内での時刻毎の動的物体の移動予測経路と静的物体における規制とを特定する。図4Aに示す例であれば、制御部20は、動的物体としての歩行者W1〜W4についての加速度が維持されると見なし、位置P1〜P4および速度ベクトルV1〜V4から予め決められた期間内での時刻毎の動的物体の移動予測経路を取得する。
Next, the
さらに、制御部20は、建築物B1〜B5の外壁の内側を静的物体によって進入不可能な(進入が規制される)領域として特定し、白線L1〜L4の外側(建築物側)を静的物体によって進入不可能な(進入が規制される)領域として特定する。以上のようにして、動的物体の移動予測経路および静的物体における規制が特定されると、制御部20は、当該規制の範囲内で目的地までの走行予定経路に沿って車両を移動させる仮走行計画を特定する。
Furthermore, the
すなわち、制御部20は、静的物体による規制に従って目的地までの走行予定経路を走行するように、時刻毎の車両の位置、向き、速度、加速度を決定し、予め決められている車両の仕様(車両の幅、長さや操舵角毎の旋回半径、内輪差等)に基づいて道路上で車両が存在する範囲を時刻毎に示す移動軌跡を仮走行計画として特定する。図4Aにおいては、破線によって仮走行計画Tを示している。
That is, the
仮走行計画が特定されると、制御部20は、動的物体の移動予測経路が示す動的物体の時刻毎の位置に基づいて、動的物体と、仮走行計画に沿って走行する車両とが干渉するか否かを判定する。本実施形態において制御部20は、車両の仮走行計画から予め決められた距離以内に存在する動的物体を判定対象とし、車両の仮走行計画から予め決められた距離よりも遠い動的物体を判定対象外とする。ここでは、図4Aに示す歩行者W1〜W4のうち、歩行者W4が判定対象外となり、歩行者W1〜W3が判定対象となった状態を想定する。
When the provisional travel plan is specified, the
この場合、制御部20は、歩行者W1〜W3を判定対象とし、仮走行計画に基づいて特定される時刻毎の車両の位置と、歩行者W1〜W3の時刻毎の位置とを比較する。図4Aに示す例において、歩行者W1は仮走行計画に基づいて特定される時刻毎の車両の位置と干渉しないと判定される。歩行者W2については、車両が歩行者W2に最接近した場合に両者の距離が閾値以内になるため、制御部20は、車両と歩行者W2とが干渉すると判定する。歩行者W3については、車両が右折して建築物B4に接近する頃には歩行者W3が既に仮走行計画Tの軌跡から遠ざかっており、最接近した場合の距離が閾値よりも大きいため、制御部20は、車両は歩行者W3と干渉しないと判定する。
In this case, the
図4Aに示すこの例においては、歩行者W2が仮走行計画Tによる車両と干渉するため、制御部20は、仮走行計画を修正する。すなわち、制御部20は、歩行者W2が仮走行計画によって移動した場合の車両と干渉する位置を特定し、当該位置に車両が達しないように車両の向きや速度、加速度等を修正し、仮走行計画における車両の位置を修正する。例えば、図4Aに示す例であれば、歩行者W2の位置に達する前に車両が減速され、また、歩行者W2の位置より右側を通るように向きが修正される。修正の後、制御部20は、再度、判定対象の動的物体が仮走行計画に沿って走行する車両と干渉するか否か判定し、判定対象の全ての物体について干渉しないと判定された場合に、仮走行計画を自動走行計画として取得する。
In this example shown in FIG. 4A, since the pedestrian W 2 interferes with the vehicle according to the temporary travel plan T, the
次に、制御部20は、影響度報知部21cの処理により、処理対象の動的物体を特定する(ステップS115)。すなわち、制御部20は、ステップS115〜S145において、ループ処理を行うが、この際に、ステップS105で物体情報が取得された物体のうち、動的物体とされた物体の一つを処理対象として一回のループを行う。そこで、制御部20は、ステップS115において、動的物体の中からループ処理の対象となっていない動的物体の一つを処理対象として特定する。
Next, the
次に、制御部20は、影響度報知部21cの処理により、処理対象の動的物体が自動走行計画への影響の判定対象となったか否かを判定する(ステップS120)。すなわち、制御部20は、車両の仮走行計画から予め決められた距離よりも遠いことによってステップS110にて判定対象外とされた動的物体が処理対象である場合、処理対象の動的物体が自動走行計画への影響の判定対象とならなかったと判定する。
Next, the
ステップS120において、処理対象の動的物体が自動走行計画への影響の判定対象となったと判定されない場合、制御部20は、影響度報知部21cの処理により、当該処理対象の動的物体を示すアイコンの色を緑に決定する(ステップS125)。すなわち、影響度大中小のうちの影響度小を示すアイコンを処理対象の動的物体に対応づける。
In step S120, when it is not determined that the dynamic object to be processed is the target for determining the influence on the automatic travel plan, the
一方、ステップS120において、処理対象の動的物体が自動走行計画への影響の判定対象となったと判定された場合、制御部20は、影響度報知部21cの処理により、処理対象の動的物体が自動走行計画に影響したか否かを判定する(ステップS130)。すなわち、制御部20は、処理対象の動的物体がステップS110において仮走行計画を修正する原因となっていた場合に、当該動的物体が自動走行計画に影響したと判定する。
On the other hand, when it is determined in step S120 that the dynamic object to be processed is the target for determining the influence on the automatic travel plan, the
ステップS130において、処理対象の動的物体が自動走行計画に影響したと判定されない場合、制御部20は、影響度報知部21cの処理により、当該処理対象の動的物体を示すアイコンの色を黄に決定する(ステップS135)。すなわち、影響度大中小のうちの影響度中を示すアイコンを処理対象の動的物体に対応づける。一方、ステップS130において、処理対象の動的物体が自動走行計画に影響したと判定された場合、制御部20は、影響度報知部21cの処理により、当該処理対象の動的物体を示すアイコンの色を赤に決定する(ステップS140)。すなわち、影響度大中小のうちの影響度大を示すアイコンを処理対象の動的物体に対応づける。
If it is not determined in step S130 that the dynamic object to be processed has affected the automatic travel plan, the
次に、制御部20は、全認識物体についてアイコンの色を決定済であるか否かを判定し(ステップS145)、全認識物体についてアイコンの色を決定済であると判定されるまでステップS115以降の処理を繰り返す。なお、図4A,4Bに示す例には示されていないが、車両の前方に信号機等の動的物体が存在するのであれば、当該動的物体が自動走行計画に与えた影響に応じてアイコンの色が決定され、前方の風景内の信号機等に当該色のアイコンが表示されることになる。
Next, the
ステップS145において、全認識物体についてアイコンの色を決定済であると判定された場合、制御部20は、走行計画報知部21dの処理により、自動走行計画内の処理対象位置を特定する(ステップS150)。すなわち、制御部20は、ステップS150〜S170においてループ処理を行うが、この際に、ステップS110で取得された自動走行計画のうち、車両の位置から予め決められた距離の範囲内の計画がループ処理による処理対象となる。また、制御部20は、処理対象の自動走行計画の中で、車両の位置から前方に既定距離毎に存在する複数の位置を処理対象位置と見なす。そして、制御部20は、ステップS115において、複数の処理対象位置の中からループ処理の対象となっていない処理対象位置の一つを処理対象として特定する。
If it is determined in step S145 that the color of the icon has been determined for all recognized objects, the
次に、制御部20は、走行計画報知部21dの処理により、処理対象位置で停車不可能であるか否かを判定する(ステップS155)。すなわち、制御部20は、ステップS100で取得された車両状態に基づいて、車両に対して作用させることが可能な上限の減速度(負の加速度)を作用させた場合に車両が停止する停止位置を特定する。そして、制御部20は、処理対象位置が停止位置よりも進行方向後方に位置する場合に、処理対象位置で停車不可能と判定する。
Next, the
ステップS155において、処理対象位置で停車不可能であると判定された場合、制御部20は、走行計画報知部21dの処理により、処理対象位置における自動走行計画の表示色を赤に決定する(ステップS165)。すなわち、制御部20は、停車不可能領域を注意喚起するために表示色を赤に設定する。一方、ステップS155において、処理対象位置で停車不可能であると判定されない場合、制御部20は、走行計画報知部21dの処理により、処理対象位置における自動走行計画の表示色を黄に決定する(ステップS160)。
When it is determined in step S155 that the vehicle cannot be stopped at the processing target position, the
次に、制御部20は、全処理対象位置について自動走行計画の表示色を決定済であるか否かを判定し(ステップS170)、全処理対象位置について自動走行計画の表示色を決定済であると判定されるまでステップS150以降の処理を繰り返す。
Next, the
次に、制御部20は、自動走行計画を示す画像を描画する(ステップS175)。すなわち、制御部20は、物体認識部40の出力信号に基づいて画像内における白線の位置等を特定し、当該白線の位置等に基づいて白線と車両との相対的な位置を特定する。そして、制御部20は、当該白線の位置等に基づいて自動走行計画が示す時刻毎の位置を画像内で特定し、車両の仕様(幅、長さ等)に基づいて各位置を車両が通過する際に車体が存在する領域を画像内で特定する。そして、制御部20は、当該領域を示す帯状の画像を表示するための画像データを描画し、RAMに記録する。
Next, the
次に、制御部20は、前方の風景を示す画像を取得する(ステップS180)。すなわち、制御部20は、影響度報知部21cの処理により、物体認識部40が出力した車両の前方の風景を示す画像からステップS105において最後に取得された(ステップS110の自動走行計画の立案に利用された)画像を抽出し、RAMに記録する。次に、制御部20は、影響度報知部21cの処理により、アイコンを重畳する(ステップS185)。すなわち、制御部20は、ステップS125,S135,S140で決定された各動的物体についてのアイコンを示す画像を取得し、当該アイコンを各動的物体に付記するようにRAMに記録された前方の風景を示す画像に重畳させる。
Next, the
次に、制御部20は、走行計画報知部21dの処理により、自動走行計画を重畳する(ステップS190)。すなわち、制御部20は、ステップS175においてRAMに記録された自動走行計画を示す画像を、ステップS180においてRAMに記録された画像に重畳させる。
Next, the
次に、制御部20は、影響度報知部21cの処理により、前方の風景を示す画像を表示させる(ステップS195)。すなわち、制御部20は、ユーザI/F部44に制御信号を出力し、RAMの画像をディスプレイに表示させる。この結果、動的物体を含む前方の風景の画像に自動走行計画への影響度を示すアイコンと、自動走行計画とが重畳された状態の表示が行われる。
Next, the
図4Bは、図4Aに示す状態におけるディスプレイの表示例を示す図である。図4Bに示す前方の風景には、動的物体である歩行者W1〜W4が含まれている。各歩行者W1〜W4の上方には矢印のアイコンが付されており、太い実線の矢印が影響度大である赤のアイコン、細い実線の矢印が影響度中である黄のアイコン、細い破線の矢印が影響度小である緑のアイコンを模式的に示している。以上の表示によれば、利用者は、動的物体が自動走行計画に与えた影響を容易に認識することができる。従って、例えば、図4Bに示す例であれば、自動走行計画によって車両が歩行者W2に接近するが、利用者は当該歩行者W2を回避する自動走行計画が立案されたことを認識することができ、不安を感じずに自動走行を継続させることができる。また、自動走行計画と歩行者W3とが一見すると干渉しているようにも見えるが、利用者は、車両が右折する過程で歩行者W3が移動し、車両とは干渉しないことが予測されていると認識することができる。従って、利用者が不安に感じる可能性を低減することができる。 FIG. 4B is a diagram showing a display example of the display in the state shown in FIG. 4A. The front landscape shown in FIG. 4B includes pedestrians W 1 to W 4 that are dynamic objects. The above each pedestrian W 1 to W-4 are denoted by the arrow icon, thick solid red icon arrow is influence sized yellow icon is thin solid arrows in influence, thin A broken line arrow schematically shows a green icon with a small influence. According to the above display, the user can easily recognize the influence of the dynamic object on the automatic travel plan. Thus, for example, recognizes that in the example illustrated in FIG. 4B, but the vehicle is approaching the pedestrian W 2 by the automatic travel plan, the user of the automatic trip plan to avoid the pedestrian W 2 is planned It is possible to continue automatic driving without feeling uneasy. Moreover, although it seems that the automatic driving plan and the pedestrian W 3 are interfering at a glance, the user predicts that the pedestrian W 3 moves in the process of turning the vehicle to the right and does not interfere with the vehicle. Can be recognized. Therefore, the possibility that the user feels uneasy can be reduced.
さらに、前方の風景の道路上には、自動走行計画を示す画像Rが表示されている。そして、当該画像Rにおいては、車両の直前の領域は黒で表示されており、その前方にはハッチングが付されているが、ここでは、停車不可能であることを示す赤の領域を図面内の黒で模式的に示しており、停車可能領域である黄の領域をハッチングによって模式的に示している。このように車両が停車不可能な領域が風景に重畳されていれば、利用者は、当該領域に他の物体が進入し得るか否かを監視することができ、利用者が不安に感じる可能性を低減することができる。 Further, an image R indicating an automatic travel plan is displayed on the road in the front landscape. In the image R, the area immediately before the vehicle is displayed in black and hatched in front of the area. Here, a red area indicating that the vehicle cannot be stopped is shown in the drawing. A black region is schematically shown by hatching, and a yellow region which is a stoppable region is schematically shown by hatching. In this way, if an area where the vehicle cannot stop is superimposed on the landscape, the user can monitor whether or not other objects can enter the area, and the user may feel uneasy. Can be reduced.
前方の風景を示す画像が表示されると、制御部20は、車両制御を実行する(ステップS200)。すなわち、制御部20は、ステップS110で取得された自動走行計画に従って、車両を移動させるための制御信号を車両制御部45に対して出力する。この結果、車両制御部45は、自動走行計画に従って車両を自動走行させる。
When an image showing a landscape in front is displayed, the
(3)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、他にも種々の実施形態を採用可能である。例えば、走行情報提供システムは、車両等に搭載された装置であっても良いし、可搬型の端末によって実現される装置であっても良いし、複数の装置(例えば、クライアントとサーバや、ナビゲーション装置内の制御部と車両制御装置内のECU等)によって実現されるシステムであっても良い。
(3) Other embodiments:
The above embodiment is an example for carrying out the present invention, and various other embodiments can be adopted. For example, the travel information providing system may be a device mounted on a vehicle or the like, a device realized by a portable terminal, or a plurality of devices (for example, a client and a server, a navigation, It may be a system realized by a control unit in the apparatus and an ECU in the vehicle control apparatus.
走行情報提供システムを構成する物体情報取得部21aと走行計画取得部21bと影響度報知部21cと走行計画報知部21dの少なくとも一部が複数の装置に分かれて存在する構成としては、種々の構成が想定される。例えば、車両制御部45内のECUによって物体情報の取得、走行計画の取得、影響度の取得が行われ、ナビゲーションシステム10の制御部20によって影響度と走行計画の報知が行われる構成等であってもよい。
There are various configurations in which at least part of the object
むろん、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。例えば、自動走行計画において車両の停車不可能領域の表示が省略されてもよいし、影響度小のアイコンや影響度小および中のアイコンの表示が省略されてもよい。さらに、アイコン等の画像の種類や形状、色は上述の実施形態と異なる種々の態様を採用可能である。 Of course, a part of the configuration of the above-described embodiment may be omitted, and the processing order may be changed or omitted. For example, in the automatic travel plan, the display of the area where the vehicle cannot be stopped may be omitted, or the low influence level icon, the low influence level icon, and the middle icon may be omitted. Further, various types of images such as icons, shapes, and colors different from those of the above-described embodiments can be employed.
物体情報取得部は、車両の周囲に存在する物体を示す物体情報を取得することができればよい。すなわち、物体情報取得部は、車両で物体を回避しながら自動で走行するために必要な物体に関する情報を物体情報として取得することができればよい。物体は、車両の自動走行計画に影響を与え得る物体であれば良く、位置や状態等が変動しない静的物体であってもよいし、位置や状態等が変動し得る動的物体であってもよい。前者としては、例えば、道路、信号機、交通標識、路面標示、建築物等が挙げられ、後者としては、二輪車、四輪車、鉄道車両、歩行者等の移動体が挙げられる。 The object information acquisition unit only needs to be able to acquire object information indicating objects existing around the vehicle. In other words, the object information acquisition unit only needs to be able to acquire, as object information, information related to an object necessary for automatically traveling while avoiding the object with the vehicle. The object may be any object that can affect the automatic driving plan of the vehicle, and may be a static object whose position and state do not change, or a dynamic object whose position and state may change. Also good. Examples of the former include roads, traffic lights, traffic signs, road markings, buildings, and the like, and examples of the latter include moving bodies such as two-wheeled vehicles, four-wheeled vehicles, railway vehicles, and pedestrians.
物体情報は、自動走行計画を取得するために考慮され得る情報であれば良く、例えば、物体の状態を示す情報(位置、速度、加速度、大きさ、形状等)であってもよいし、物体の予想移動軌跡を示す情報であってもよいし、物体の可動範囲を示す情報であってもよく、種々の態様を想定可能である。物体情報を取得するための手法は、種々の手法を採用可能であり、カメラで撮影された画像を画像認識処理することによって取得されてもよいし、超音波センサ等の距離センサによって取得されてもよいし、車車間通信や路車間通信等によって取得されてもよいし、画像等に基づいて人工知能の処理によって物体情報が取得されてもよい。 The object information may be any information that can be considered in order to obtain an automatic travel plan. For example, the object information may be information indicating the state of the object (position, speed, acceleration, size, shape, etc.) It may be information indicating the expected movement trajectory or information indicating the movable range of the object, and various modes can be assumed. Various methods can be used for acquiring object information, and may be acquired by performing image recognition processing on an image captured by a camera, or acquired by a distance sensor such as an ultrasonic sensor. Alternatively, it may be acquired by inter-vehicle communication, road-to-vehicle communication, or the like, or object information may be acquired by artificial intelligence processing based on an image or the like.
なお、車車間通信や路車間通信等の通信によって物体情報が取得される構成であれば、カメラの視野外に存在する物体の物体情報を取得し、報知対象とすることができる。むろん、物体情報取得部は、物体情報を取得するためのセンサを含んでいてもよいし、センサに基づいて制御部等で生成された物体情報が物体情報取得部に取得される構成であってもよい。 In addition, if the object information is acquired by communication such as vehicle-to-vehicle communication or road-to-vehicle communication, the object information of an object existing outside the field of view of the camera can be acquired and set as a notification target. Of course, the object information acquisition unit may include a sensor for acquiring object information, and the object information generated by the control unit or the like based on the sensor is acquired by the object information acquisition unit. Also good.
走行計画取得部は、少なくとも物体情報に基づいて車両を自動走行させる自動走行計画を取得することができればよい。すなわち、走行計画取得部は、物体情報に基づいて、少なくとも、物体と車両とが干渉しないように車両の位置、向き、速度、加速度の少なくとも一つを決定し、自動走行計画とする。自動走行計画は、種々の手法によって立案してよく、例えば、物体情報に基づいて物体の移動予測経路を予測し、当該移動予測経路に基づいて自動走行計画を立案する構成等が挙げられる。 The travel plan acquisition unit only needs to acquire an automatic travel plan for automatically traveling the vehicle based on at least the object information. That is, the travel plan acquisition unit determines at least one of the position, orientation, speed, and acceleration of the vehicle based on the object information so that the object and the vehicle do not interfere with each other, and sets the automatic travel plan. The automatic travel plan may be made by various methods, and examples thereof include a configuration in which an object movement prediction route is predicted based on object information and an automatic travel plan is made based on the movement prediction route.
移動予測経路に基づく自動走行計画の立案は、種々の手法で実現されてよく、例えば、時刻毎の物体の位置を示す移動予測経路に基づいて、任意の物体と干渉しないように時刻毎の車両の位置を決定し、時刻毎に当該車両の位置に達するように車両の位置、向き、速度、加速度等を制御する計画を特定する構成等が挙げられる。なお、自動走行計画は、走行計画取得部によって立案されてもよいし、他の制御部等で立案された自動走行計画を示す情報が走行計画取得部によって取得されてもよい。むろん、自動走行計画の立案に際して物体情報以外の任意の情報(例えば、道路の形状やリンクを示す地図情報、天候情報等)が参照されてもよい。 The planning of the automatic travel plan based on the movement prediction route may be realized by various methods, for example, the vehicle at each time so as not to interfere with an arbitrary object based on the movement prediction route indicating the position of the object at each time. And a plan for specifying a plan for controlling the position, direction, speed, acceleration, etc. of the vehicle so as to reach the position of the vehicle every time. The automatic travel plan may be drafted by the travel plan acquisition unit, or information indicating the automatic travel plan drafted by another control unit or the like may be acquired by the travel plan acquisition unit. Needless to say, any information other than the object information (for example, map information indicating road shapes and links, weather information, etc.) may be referred to when making an automatic travel plan.
自動走行計画は、車両の将来の走行についての計画であれば良く、長さは任意である。例えば、現在以降の予め決められた距離または期間における自動走行計画が立案されてもよいし、目的地までの自動走行計画が立案されてもよい。 The automatic travel plan may be a plan for future travel of the vehicle, and the length is arbitrary. For example, an automatic travel plan for a predetermined distance or period after the present may be drafted, or an automatic travel plan to the destination may be drafted.
影響度報知部は、自動走行計画に影響を与えた物体を、自動走行計画に影響を与えていない物体と区別して報知することができればよい。すなわち、報知対象の物体について、自動走行計画に影響を与えたか否かを利用者が判断できるように報知が行われればよい。報知の態様は、種々の態様を採用可能であり、音による案内であってもよいし、画像表示であってもよいし、その双方であってもよく、種々の構成を採用可能である。 The influence degree notification unit only needs to be able to notify an object that has influenced the automatic travel plan separately from an object that has not affected the automatic travel plan. That is, it is only necessary that the notification is performed so that the user can determine whether or not the object to be notified has influenced the automatic travel plan. Various forms of notification may be employed, and guidance by sound, image display, or both of them may be employed, and various configurations may be employed.
自動走行計画に影響を与えた物体は、例えば、当該物体が存在しない場合の自動走行計画と、当該物体が存在する場合の自動走行計画とが異なるような物体が挙げられる。すなわち、物体が存在することにより、当該物体を回避するための自動走行計画が立案された場合、当該物体は自動走行計画に影響を与えた物体である。いずれにしても、自動走行計画に対する影響の有無を物体毎に区別できるように報知が行われることで、自動走行計画が信頼に足るか否かを利用者が判断できるように報知が行われればよい。すなわち、避けるべき物体が自動走行計画に影響を与えた物体であるとして報知されれば、利用者は不安を感じることなく自動走行計画に沿った自動走行を継続させてよいと判断することができる。 Examples of the object that has influenced the automatic travel plan include an object in which the automatic travel plan when the object does not exist is different from the automatic travel plan when the object exists. That is, when an automatic travel plan for avoiding the object is created due to the presence of the object, the object is an object that has an influence on the automatic travel plan. In any case, if the notification is performed so that the presence or absence of the influence on the automatic travel plan can be distinguished for each object, the notification can be performed so that the user can determine whether or not the automatic travel plan is reliable. Good. That is, if it is notified that the object to be avoided is an object that has influenced the automatic travel plan, the user can determine that the automatic travel according to the automatic travel plan may be continued without feeling uneasy. .
なお、物体が自動走行計画に対して与える影響の強度が複数の段階に設定されてもよい。例えば、自動走行計画を構成する車両の位置や速度等が、実際に物体情報に基づいて決められた場合と、自動走行計画を構成する車両の位置や速度等が物体情報に基づいて決められなかったが物体情報は参照された(考慮されたが影響はなかった)場合と、自動走行計画を立案する際に物体情報が考慮されなかった場合とでは、影響の強度が異なる。そこで、影響度報知部は、物体が自動走行計画に与えた影響の強度を物体毎に報知する構成であってもよい。この構成によれば、自動走行を継続する際に考慮すべき優先度が高い物体が適切に考慮されているか否かを、利用者が判断することができる。 It should be noted that the intensity of the influence of the object on the automatic travel plan may be set in a plurality of stages. For example, the position, speed, etc. of the vehicle constituting the automatic travel plan are actually determined based on the object information, and the position, speed, etc. of the vehicle constituting the automatic travel plan cannot be determined based on the object information. However, the intensity of influence differs between the case where the object information is referred (considered but not affected) and the case where the object information is not considered when the automatic travel plan is formulated. Accordingly, the influence degree notification unit may be configured to notify the intensity of the influence that the object has on the automatic travel plan for each object. According to this configuration, the user can determine whether or not an object having a high priority that should be considered when continuing automatic driving is properly considered.
むろん、影響度は、他にも種々の手法によって特定されてよく、自動走行計画に従って移動する車両の位置と、動的物体との距離が近いほど影響が大きいと見なす構成であってもよいし、車両の位置と、動的物体との距離に加え、速度が速いほど影響が大きいと見なす構成であってもよい。また、動的物体が存在しない場合の仮走行計画と、動的物体が存在する場合の自動走行計画とを特定し、両者の差を生じさせた動的物体を特定して影響を与えた物体と見なす構成が採用されてもよい。さらに、物体の危険度や要注目度等が定義される場合に、これらの危険度や要注目度が高いほど自動走行計画に影響を与えたと見なす構成であってもよい。 Of course, the degree of influence may be specified by various other methods, and the configuration may be such that the closer the distance between the position of the vehicle moving according to the automatic travel plan and the dynamic object, the greater the influence. In addition to the distance between the vehicle position and the dynamic object, the configuration may be such that the higher the speed, the greater the influence. Also, the provisional travel plan when there is no dynamic object and the automatic travel plan when there is a dynamic object are identified, and the dynamic object that caused the difference between the two is identified and influenced. The structure considered as may be adopted. Further, when the risk level of the object, the level of attention required, and the like are defined, the configuration may be such that the higher the risk level or the level of attention required, the more the automatic travel plan is affected.
さらに、物体の状態毎に報知態様が変化してもよい。例えば、車両の周囲の他の車両の方向指示器が作動している場合、当該作動している方向指示器を強調するなどして示し、方向指示器の動作が考慮されていることや当該方向指示器の影響の有無が区別されて報知される構成等が採用されてもよい。 Furthermore, the notification mode may change for each state of the object. For example, when the direction indicator of another vehicle around the vehicle is operating, the direction indicator that is operating is highlighted to show that the operation of the direction indicator is taken into account A configuration in which the presence / absence of the influence of the indicator is distinguished and notified may be employed.
走行計画報知部は、自動走行計画を報知することができればよい。すなわち、自動走行計画に対する影響に応じた区別ができるように物体が報知される構成において、影響があるか否かの判定元である自動走行計画も報知される。この構成によれば、利用者は、自動走行計画を認識した上で、当該自動走行計画に対する影響によって車両の周囲の物体を区別することができる。ここでも、報知の態様は種々の態様を採用可能であり、音による案内であってもよいし、画像表示であってもよいし、その双方であってもよく、種々の構成を採用可能である。 The travel plan notification unit only needs to be able to notify the automatic travel plan. That is, in the configuration in which an object is notified so that it can be distinguished according to the influence on the automatic travel plan, the automatic travel plan that is a determination source of whether there is an influence is also notified. According to this configuration, the user can recognize objects around the vehicle based on the influence on the automatic travel plan after recognizing the automatic travel plan. Here, various modes of notification can be adopted, guidance by sound, image display, or both of them, and various configurations can be employed. is there.
報知が画像の表示によって実現される構成例としては、例えば、影響度報知部が、自動走行計画に影響を与えた物体を、自動走行計画に影響を与えていない物体と区別する画像を車両の前方の風景に重畳して表示する構成を採用可能である。すなわち、物体を含む前方の風景に対して、物体が自動走行計画に与えた影響を区別するための画像が重畳される構成が採用されてもよい。この構成によれば、利用者は車両の前方における実風景と同等の像により、周囲の風景と照らし合わせて物体を認識することができ、容易に物体を認識することができる。 As an example of a configuration in which notification is realized by display of an image, for example, an image in which an influence degree notification unit distinguishes an object that has influenced an automatic travel plan from an object that has not affected the automatic travel plan is It is possible to adopt a configuration in which the image is displayed superimposed on the front landscape. In other words, a configuration may be employed in which an image for distinguishing the influence of an object on an automatic travel plan is superimposed on a forward landscape including the object. According to this configuration, the user can recognize an object in comparison with the surrounding scenery by an image equivalent to the actual scenery in front of the vehicle, and can easily recognize the object.
前方の風景に物体を区別するための画像を重畳するための構成としては、種々の構成を採用可能である。例えば、表示に領される装置としては、フラットパネル等のディスプレイやフロントガラス等への投射を利用したヘッドアップディスプレイであってもよい。前者としては、例えば、ディスプレイに物体を含む風景の画像が表示され、当該画像に対して物体を区別するための画像が重畳される構成が挙げられる。後者としては、例えば、ヘッドアップディスプレイ等により、車両の前方の物体を含む実風景に対して物体を区別するための画像が重畳される構成が挙げられる。 Various configurations can be adopted as a configuration for superimposing an image for distinguishing an object on a front landscape. For example, the device used for display may be a display such as a flat panel or a head-up display using projection onto a windshield. Examples of the former include a configuration in which an image of a landscape including an object is displayed on a display, and an image for distinguishing the object is superimposed on the image. Examples of the latter include a configuration in which an image for distinguishing an object is superimposed on a real landscape including an object in front of the vehicle by a head-up display or the like.
なお、前者のようなディスプレイ上の表示において、風景の画像はカメラ等で撮影された画像であってもよいし、ポリゴン等の描画による画像であってもよく種々の画像を採用可能である。むろん、物体の画像も任意の態様で表示されてよい。実風景がディスプレイ上に表示される構成としては、例えば、影響度報知部が、物体を含む風景を撮影した画像をディスプレイに表示し、ディスプレイ上の物体の画像を自動走行計画に対する影響に応じて強調する構成として実現可能である。強調は、物体の画像自体を変化させることによって実現されてもよいし、物体の画像の付近に他のアイコン(矢印等)が表示されることによって実現されてもよい。 In the display on the display such as the former, the landscape image may be an image taken by a camera or the like, or may be an image drawn by drawing a polygon or the like, and various images can be adopted. Of course, the image of the object may also be displayed in an arbitrary manner. As a configuration in which the actual scenery is displayed on the display, for example, the influence degree notification unit displays an image of the scenery including the object on the display, and the object image on the display is displayed according to the influence on the automatic travel plan. It can be realized as an emphasized configuration. The enhancement may be realized by changing the object image itself, or may be realized by displaying another icon (such as an arrow) in the vicinity of the object image.
さらに、風景に対する重畳が行われる構成においては、走行計画表示部が、自動走行計画を風景に重畳させて表示することが好ましい。この構成によれば、利用者は、風景に重畳された画像に基づいて自動走行計画と当該自動走行計画に影響を与えた物体とを対比させながら、自動走行計画と物体とを認識することができる。 Furthermore, in the configuration in which superimposition on the landscape is performed, it is preferable that the travel plan display unit displays the automatic travel plan superimposed on the landscape. According to this configuration, the user can recognize the automatic travel plan and the object while comparing the automatic travel plan and the object that has affected the automatic travel plan based on the image superimposed on the landscape. it can.
さらに、この場合、走行計画報知部が、車両を停止させることができない領域を風景に重畳させる構成であってもよい。すなわち、車両においては、車両に対して作用させることが可能な上限の減速度(負の加速度)を作用させても、瞬間的に停止することはできない。従って、制動開始から車両の停止までに車両が走行する距離の範囲は、車両を停止させることができない領域である。このような領域が風景に重畳されていれば、利用者は、当該領域に他の物体が進入し得るか否かを監視することができ、利用者が不安に感じる可能性を低減することができる。 Further, in this case, the travel plan notification unit may superimpose an area where the vehicle cannot be stopped on the landscape. That is, in the vehicle, even if an upper limit deceleration (negative acceleration) that can be applied to the vehicle is applied, the vehicle cannot be stopped instantaneously. Therefore, the range of the distance traveled by the vehicle from the start of braking to the stop of the vehicle is an area where the vehicle cannot be stopped. If such a region is superimposed on the landscape, the user can monitor whether or not other objects can enter the region, reducing the possibility that the user feels uneasy. it can.
さらに、本発明のように、自動走行計画に影響を与えた物体を認識可能にする手法は、プログラムや方法としても適用可能である。また、以上のような走行情報提供システム、プログラム、方法は、単独の装置として実現される場合もあれば、車両に備えられる各部と共有の部品を利用して実現される場合もあり、各種の態様を含むものである。すなわち、走行情報提供システムを構成する各手段が複数の実体的な装置に分散して備えられてもよい。各手段が複数の実体的な装置に分散して備えられる場合に、各手段を機能させるために必要なデータを送受信する通信手段が備えられてもよい。さらに、以上のような走行情報提供システムの少なくとも一部を備えたナビゲーション装置や方法、プログラムを提供することが可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、走行情報提供システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。 Furthermore, as in the present invention, a method for enabling recognition of an object that has influenced an automatic travel plan can also be applied as a program or method. In addition, the driving information providing system, program, and method as described above may be realized as a single device, or may be realized using components shared with each part provided in the vehicle. Including embodiments. That is, each means constituting the travel information providing system may be distributed and provided in a plurality of substantial devices. When each means is distributed and provided in a plurality of substantive devices, a communication means for transmitting and receiving data necessary to make each means function may be provided. Furthermore, it is possible to provide a navigation device, method, and program that include at least a part of the travel information providing system as described above. Further, some changes may be made as appropriate, such as a part of software and a part of hardware. Furthermore, the invention is also established as a recording medium for a program for controlling the travel information providing system. Of course, the software recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future.
10…ナビゲーションシステム、20…制御部、21…走行情報提供プログラム、21a…物体情報取得部、21b…走行計画取得部、21c…影響度報知部、21d…走行計画報知部、30…記録媒体、30a…地図情報、40…物体認識部、41…GPS受信部、42…車速センサ、43…ジャイロセンサ、44…ユーザI/F部、45…車両制御部
DESCRIPTION OF
Claims (8)
少なくとも前記物体情報に基づいて車両を自動走行させる自動走行計画を取得する走行計画取得部と、
前記自動走行計画に影響を与えた前記物体を、前記自動走行計画に影響を与えていない前記物体と区別して報知する影響度報知部と、
前記自動走行計画を報知する走行計画報知部と、
を備える走行情報提供システム。 An object information acquisition unit for acquiring object information indicating an object existing around the vehicle;
A travel plan acquisition unit for acquiring an automatic travel plan for automatically driving the vehicle based on at least the object information;
An influence degree notification unit for notifying the object that has influenced the automatic driving plan and the object not affecting the automatic driving plan;
A travel plan informing unit for informing the automatic travel plan;
A travel information providing system comprising:
当該物体が存在しない場合の前記自動走行計画と、当該物体が存在する場合の前記自動走行計画とが異なるような前記物体である、
請求項1に記載の走行情報提供システム。 The object that has influenced the automatic driving plan is:
The automatic travel plan when the object does not exist and the automatic travel plan when the object exists are different from the object,
The travel information providing system according to claim 1.
前記自動走行計画に影響を与えた前記物体を、前記自動走行計画に影響を与えていない前記物体と区別する画像を前記車両の前方の風景に重畳して表示し、
走行計画表示部は、前記自動走行計画を前記風景に重畳させて表示する、
請求項1または請求項2のいずれかに記載の走行情報提供システム。 The influence notification unit
An image that distinguishes the object that has influenced the automatic driving plan from the object that has not affected the automatic driving plan is displayed superimposed on the scenery in front of the vehicle,
The travel plan display unit displays the automatic travel plan superimposed on the landscape.
The travel information providing system according to claim 1 or 2.
前記車両を停止させることができない領域を前記風景に重畳させる、
請求項3に記載の走行情報提供システム。 The travel plan notification unit
Superimposing an area where the vehicle cannot be stopped on the landscape;
The travel information providing system according to claim 3.
前記物体を含む前記風景を撮影した画像をディスプレイに表示し、前記ディスプレイ上の前記物体の画像を前記自動走行計画に対する影響に応じて強調する、
請求項3または請求項4のいずれかに記載の走行情報提供システム。 The influence notification unit
Displaying an image of the landscape including the object on a display, and emphasizing the image of the object on the display according to the influence on the automatic travel plan;
The travel information providing system according to any one of claims 3 and 4.
前記物体が前記自動走行計画に与えた影響の強度を前記物体毎に報知する、
請求項1〜請求項5のいずれかに記載の走行情報提供システム。 The influence notification unit
Notifying for each object the strength of the influence that the object has given to the automatic travel plan,
The travel information providing system according to any one of claims 1 to 5.
前記物体情報に基づいて予測された前記物体の移動予測経路に基づいて前記自動走行計画を立案する、
請求項1〜請求項6のいずれかに記載の走行情報提供システム。 The travel plan acquisition unit
Formulating the automatic travel plan based on a predicted movement path of the object predicted based on the object information;
The travel information providing system according to any one of claims 1 to 6.
車両の周囲に存在する物体を示す物体情報を取得する物体情報取得部、
少なくとも前記物体情報に基づいて車両を自動走行させる自動走行計画を取得する走行計画取得部、
前記自動走行計画に影響を与えた前記物体を、前記自動走行計画に影響を与えていない前記物体と区別して報知する影響度報知部、
前記自動走行計画を報知する走行計画報知部、
として機能させる走行情報提供プログラム。 Computer
An object information acquisition unit for acquiring object information indicating an object existing around the vehicle;
A travel plan acquisition unit for acquiring an automatic travel plan for automatically driving the vehicle based on at least the object information;
An influence degree notification unit for notifying the object that has influenced the automatic driving plan, and notifying the object that has not affected the automatic driving plan,
A travel plan notification unit for reporting the automatic travel plan;
Driving information provision program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016113821A JP2017220030A (en) | 2016-06-07 | 2016-06-07 | Travel information providing system and travel information providing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016113821A JP2017220030A (en) | 2016-06-07 | 2016-06-07 | Travel information providing system and travel information providing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017220030A true JP2017220030A (en) | 2017-12-14 |
Family
ID=60656471
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016113821A Pending JP2017220030A (en) | 2016-06-07 | 2016-06-07 | Travel information providing system and travel information providing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017220030A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110194166A (en) * | 2018-02-27 | 2019-09-03 | 本田技研工业株式会社 | Vehicle control system, control method for vehicle and storage medium |
JP2019159845A (en) * | 2018-03-13 | 2019-09-19 | 富士通株式会社 | Evaluation program, evaluation method, and evaluation apparatus |
JP2021535519A (en) * | 2018-09-24 | 2021-12-16 | コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. | Augmented reality DSRC data visualization |
-
2016
- 2016-06-07 JP JP2016113821A patent/JP2017220030A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110194166A (en) * | 2018-02-27 | 2019-09-03 | 本田技研工业株式会社 | Vehicle control system, control method for vehicle and storage medium |
JP2019147486A (en) * | 2018-02-27 | 2019-09-05 | 本田技研工業株式会社 | Vehicle control system, vehicle control method, and program |
JP7000202B2 (en) | 2018-02-27 | 2022-01-19 | 本田技研工業株式会社 | Vehicle control systems, vehicle control methods, and programs |
CN110194166B (en) * | 2018-02-27 | 2022-06-14 | 本田技研工业株式会社 | Vehicle control system, vehicle control method, and storage medium |
JP2019159845A (en) * | 2018-03-13 | 2019-09-19 | 富士通株式会社 | Evaluation program, evaluation method, and evaluation apparatus |
JP7102800B2 (en) | 2018-03-13 | 2022-07-20 | 富士通株式会社 | Evaluation program, evaluation method and evaluation device |
JP2021535519A (en) * | 2018-09-24 | 2021-12-16 | コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. | Augmented reality DSRC data visualization |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110895417B (en) | Vehicle control device, vehicle control method, and storage medium | |
US12005904B2 (en) | Autonomous driving system | |
US10589752B2 (en) | Display system, display method, and storage medium | |
US10319233B2 (en) | Parking support method and parking support device | |
CN110371114B (en) | Vehicle control device, vehicle control method, and storage medium | |
CN110920521B (en) | Display system, display method, and storage medium | |
US20180308359A1 (en) | Parking Support Method and Parking Support Device | |
JP6827378B2 (en) | Vehicle control systems, vehicle control methods, and programs | |
JP2017226371A (en) | Travel information display system and travel information display program | |
JP2009231938A (en) | Surrounding monitoring device for vehicle | |
EP3627110A1 (en) | Method for planning trajectory of vehicle | |
JP2008151507A (en) | Apparatus and method for merge guidance | |
JP2021197009A (en) | Risk determination system and risk determination program | |
US11701967B2 (en) | Display control device, display control method, and storage medium | |
CN110954126A (en) | Display system, display method, and storage medium | |
JP4984844B2 (en) | Merge guidance apparatus and merge guidance method | |
JP2017220030A (en) | Travel information providing system and travel information providing program | |
JP2019049812A (en) | Traveling position evaluation system | |
CN111824142B (en) | Display control device, display control method, and storage medium | |
US20230182731A1 (en) | Vehicle control apparatus | |
US11222552B2 (en) | Driving teaching device | |
JP6593240B2 (en) | Recommended lane guidance system and recommended lane guidance program | |
CN114926805B (en) | Dividing line recognition device | |
JP2012174209A (en) | Traffic lane guiding device, method and program | |
CN115050203B (en) | Map generation device and vehicle position recognition device |