JP2017220030A - Travel information providing system and travel information providing program - Google Patents

Travel information providing system and travel information providing program Download PDF

Info

Publication number
JP2017220030A
JP2017220030A JP2016113821A JP2016113821A JP2017220030A JP 2017220030 A JP2017220030 A JP 2017220030A JP 2016113821 A JP2016113821 A JP 2016113821A JP 2016113821 A JP2016113821 A JP 2016113821A JP 2017220030 A JP2017220030 A JP 2017220030A
Authority
JP
Japan
Prior art keywords
travel plan
vehicle
automatic
plan
automatic travel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016113821A
Other languages
Japanese (ja)
Inventor
明弘 久米
Akihiro Kume
明弘 久米
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2016113821A priority Critical patent/JP2017220030A/en
Publication of JP2017220030A publication Critical patent/JP2017220030A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of reducing the possibility user feels anxiety.SOLUTION: The travel information providing system includes: an object information acquisition part that acquires object information representing objects located in the vicinity of a vehicle; a travel plan acquisition section that acquires an automatic travel plan for driving a vehicle in an automatic mode based on at least the object information; an influence level notification part that notifies existence of objects while distinguishing objects which influences the automatic travel plan from objects which do not influence the automatic travel plan; and a travel plane notification part that notifies the automatic travel plan.SELECTED DRAWING: Figure 4

Description

本発明は、走行に関する情報を提供する走行情報提供システムおよび走行情報提供プログラムに関する。   The present invention relates to a travel information providing system and a travel information providing program for providing information related to travel.

従来、車両走行中に走行に関する情報を提供する技術が知られている。例えば、特許文献1には、自動走行する車両において、車両が次にとる走行計画に伴う行動を乗員に報知する技術が開示されている。   2. Description of the Related Art Conventionally, a technique for providing information related to traveling during vehicle traveling is known. For example, Patent Document 1 discloses a technique for notifying an occupant of an action associated with a travel plan that a vehicle takes next in a vehicle that automatically travels.

特開平10−105885号公報Japanese Patent Laid-Open No. 10-105885

自動走行を行うためには、車両の周囲の物体を回避する経路を選択したり、物体に接触しないように速度調整したりするなどの必要があり、このような回避等を行うためには、物体の位置や接近を検知し、車両に接近し得る物体の挙動を考慮した上で自動走行計画が立案されている必要がある。一方、考慮する必要がある物体が考慮されずに自動走行計画が立案されると、当該自動走行計画は不適切な計画になっている場合がある。従来の技術においては、次にとる走行計画に伴う行動が報知されるものの、自車と周囲の車両との位置関係を表示しているだけで、その周囲の車両が考慮された上で当該行動がなされるのか利用者にとって定かでない。このように、車両の周囲に存在する物体が考慮されているか否か不明な状況では、自動走行を利用している利用者によって自動走行計画が適切であるか否か判断することができず、利用者が不安を感じる場合がある。
本発明は、前記課題にかんがみてなされたもので、利用者が不安に感じる可能性を低減することが可能な技術の提供を目的とする。
In order to perform automatic traveling, it is necessary to select a route that avoids objects around the vehicle, or to adjust the speed so as not to touch the objects. An automatic travel plan needs to be drawn up after detecting the position and approach of an object and considering the behavior of the object that can approach the vehicle. On the other hand, when an automatic travel plan is drawn up without considering an object that needs to be considered, the automatic travel plan may be an inappropriate plan. In the prior art, although an action associated with a travel plan to be taken next is notified, only the positional relationship between the own vehicle and the surrounding vehicle is displayed, and the action is taken in consideration of the surrounding vehicle. It is not clear to the user whether or not In this way, in an unknown situation whether or not an object existing around the vehicle is taken into account, it is not possible to determine whether or not the automatic travel plan is appropriate by the user using automatic travel, Users may feel uneasy.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of reducing the possibility that a user feels uneasy.

上記の目的を達成するため、走行情報提供システムは、車両の周囲に存在する物体を示す物体情報を取得する物体情報取得部と、少なくとも物体情報に基づいて車両を自動走行させる自動走行計画を取得する走行計画取得部と、自動走行計画に影響を与えた物体を、自動走行計画に影響を与えていない物体と区別して報知する影響度報知部と、自動走行計画を報知する走行計画報知部と、を備える。   In order to achieve the above object, the driving information providing system acquires an object information acquiring unit that acquires object information indicating an object existing around the vehicle, and an automatic driving plan for automatically driving the vehicle based on at least the object information. A travel plan acquisition unit, an influence degree notifying unit for notifying an object that has influenced the automatic travel plan and an object that has not affected the automatic travel plan, a travel plan notifying unit for notifying the automatic travel plan, .

さらに、上記の目的を達成するため、走行情報提供プログラムは、コンピュータを、車両の周囲に存在する物体を示す物体情報を取得する物体情報取得部、少なくとも物体情報に基づいて車両を自動走行させる自動走行計画を取得する走行計画取得部、自動走行計画に影響を与えた物体を、自動走行計画に影響を与えていない物体と区別して報知する影響度報知部、自動走行計画を報知する走行計画報知部、として機能させる。   Furthermore, in order to achieve the above object, the travel information providing program causes the computer to automatically run the vehicle based on at least an object information acquisition unit that acquires object information indicating an object existing around the vehicle. A travel plan acquisition unit that acquires a travel plan, an influence degree notification unit that notifies an object that has influenced the automatic travel plan in distinction from an object that does not affect the automatic travel plan, and a travel plan notification that notifies the automatic travel plan Function as part.

すなわち、走行情報提供システムおよび走行情報提供プログラムにおいては、車両を自動走行させる自動走行計画を報知する際に、当該自動走行計画に影響を与えた物体を、自動走行計画に影響を与えていない物体と区別して報知する。従って、車両の利用者が視認する物体の中で自動走行計画に影響を与えた物体と影響を与えていない物体が利用者にとって明らかになる。このため、利用者は、物体の報知に基づいて、自動走行計画の立案に際して物体が適切に考慮されていたか否かを判断することができ、利用者が不安に感じる可能性を低減することが可能である。   That is, in the travel information providing system and the travel information providing program, when the automatic travel plan for automatically traveling the vehicle is notified, the object that has influenced the automatic travel plan is changed to the object that does not affect the automatic travel plan. This is notified separately. Therefore, among the objects visually recognized by the user of the vehicle, the object that has influenced the automatic travel plan and the object that has not been influenced become clear to the user. For this reason, the user can determine whether or not the object has been properly taken into consideration when making the automatic travel plan based on the notification of the object, and can reduce the possibility that the user feels uneasy. Is possible.

ナビゲーションシステムのブロック図である。It is a block diagram of a navigation system. 車両制御処理のフローチャートである。It is a flowchart of a vehicle control process. 車両制御処理のフローチャートである。It is a flowchart of a vehicle control process. 図4Aは車両の周辺の物体を示す図、図4Bは報知の例を示す図である。FIG. 4A is a diagram showing objects around the vehicle, and FIG. 4B is a diagram showing an example of notification.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)ナビゲーションシステムの構成:
(2)車両制御処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of navigation system:
(2) Vehicle control processing:
(3) Other embodiments:

(1)ナビゲーションシステムの構成:
図1は、本発明の一実施形態にかかる走行情報提供システムを含むナビゲーションシステム10の構成を示すブロック図である。ナビゲーションシステム10は、車両に備えられており、CPU,RAM,ROM等を備える制御部20、記録媒体30を備えている。ナビゲーションシステム10は、記録媒体30やROMに記憶されたプログラムを制御部20で実行することができる。記録媒体30には、予め地図情報30aが記録されている。
(1) Configuration of navigation system:
FIG. 1 is a block diagram showing a configuration of a navigation system 10 including a travel information providing system according to an embodiment of the present invention. The navigation system 10 is provided in a vehicle, and includes a control unit 20 including a CPU, a RAM, a ROM, and the like, and a recording medium 30. The navigation system 10 can execute a program stored in the recording medium 30 or the ROM by the control unit 20. Map information 30a is recorded in the recording medium 30 in advance.

地図情報30aは、車両の位置や案内対象の施設の特定に利用される情報であり、車両が走行する道路上に設定されたノードの位置等を示すノードデータ,ノード間の道路の形状を特定するための形状補間点の位置等を示す形状補間点データ,ノード同士の連結を示すリンクデータ,道路やその周辺に存在する地物の位置等を示す地物データ等を含んでいる。本実施形態においては、ノードが示す交差点への進入道路の車線構成を示す情報が各リンクデータに対して対応づけられて記録されている。   The map information 30a is information used to specify the position of the vehicle and the facility to be guided, and specifies node data indicating the position of the node set on the road on which the vehicle travels, and the shape of the road between the nodes. This includes shape interpolation point data indicating the position of the shape interpolation point, etc., link data indicating connection between nodes, feature data indicating the position of the feature existing on the road and its surroundings, and the like. In the present embodiment, information indicating the lane configuration of the approach road to the intersection indicated by the node is recorded in association with each link data.

例えば、あるリンクデータがあるノードへの進入道路を示しており、当該あるノードが示す交差点への進入道路上に3個の車線が存在し、左車線、中央車線、右車線のそれぞれにおいて、直進および左折が可能、直進が可能、右折が可能である場合、これらを示す情報が車線構成を示す情報としてリンクデータに対応づけられている。さらに、本実施形態においては、各車線の区画線を示す情報がリンクデータに対応づけられている。例えば、ある道路上の左車線が左側に存在する実線の区画線と右側に存在する破線の区画線で形成される場合、当該左車線に対して左側に実線の区画線、右側に破線の区画線が存在することを示す情報が対応づけられてリンクデータの一部を構成している。さらに、各区各線の間の距離(車線の幅)を示す情報が各車線に対して対応づけられてリンクデータの一部を構成している。   For example, a certain link data indicates an approach road to a certain node, and there are three lanes on the approach road to the intersection indicated by the certain node. In each of the left lane, the center lane, and the right lane, go straight ahead. When left turn is possible, straight travel is possible, and right turn is possible, information indicating these is associated with link data as information indicating the lane configuration. Furthermore, in the present embodiment, information indicating the lane marking of each lane is associated with the link data. For example, when a left lane on a road is formed with a solid lane line on the left side and a broken lane line on the right side, a solid lane line on the left side and a broken line line on the right side with respect to the left lane Information indicating that a line exists is associated with each other to form a part of link data. Further, information indicating the distance (lane width) between each line in each ward is associated with each lane to form a part of link data.

本実施形態における車両は、物体認識部40とGPS受信部41と車速センサ42とジャイロセンサ43とユーザI/F部44と車両制御部45とを備えている。GPS受信部41は、GPS衛星からの電波を受信し、図示しないインタフェースを介して車両の現在地を算出するための信号を出力する。制御部20は、この信号を取得して車両の現在地を取得する。車速センサ42は、車両が備える車輪の回転速度に対応した信号を出力する。制御部20は、図示しないインタフェースを介してこの信号を取得し、車速を取得する。   The vehicle in this embodiment includes an object recognition unit 40, a GPS reception unit 41, a vehicle speed sensor 42, a gyro sensor 43, a user I / F unit 44, and a vehicle control unit 45. The GPS receiver 41 receives radio waves from GPS satellites and outputs a signal for calculating the current location of the vehicle via an interface (not shown). The control unit 20 acquires this signal and acquires the current location of the vehicle. The vehicle speed sensor 42 outputs a signal corresponding to the rotational speed of the wheels provided in the vehicle. The control unit 20 acquires this signal via an interface (not shown) and acquires the vehicle speed.

ジャイロセンサ43は、車両の水平面内の旋回についての角加速度を検出し、車両の向きに対応した信号を出力する。制御部20は、この信号を取得して車両の進行方向を取得する。車速センサ42およびジャイロセンサ43等は、車両の走行軌跡を特定するために利用され、本実施形態においては、車両の出発地と走行軌跡とに基づいて現在地が特定され、当該出発地と走行軌跡とに基づいて特定された車両の現在地がGPS受信部41の出力信号に基づいて補正される。   The gyro sensor 43 detects angular acceleration about turning in the horizontal plane of the vehicle, and outputs a signal corresponding to the direction of the vehicle. The control unit 20 acquires this signal and acquires the traveling direction of the vehicle. The vehicle speed sensor 42, the gyro sensor 43, and the like are used to specify the travel locus of the vehicle. In the present embodiment, the current location is specified based on the departure location and the travel locus of the vehicle. Based on the output signal of the GPS receiver 41, the current location of the vehicle specified based on the above is corrected.

なお、制御部20は、車速センサ42の出力信号や、車両の位置の時間変化等に基づいて車両の加速度を取得することができる。以上のように、本実施形態においては、GPS受信部41,車速センサ42,ジャイロセンサ43が車両の状態(位置、向き、速度、加速度)を取得するためのセンサとなっているが、むろん、他の手法、例えば、加速度センサに基づく加速度の特定やカメラによる車線検出による位置の特定、ステアリングセンサに基づく操舵角の特定等が車両の状態の取得に利用されてもよい。   The control unit 20 can acquire the acceleration of the vehicle based on the output signal of the vehicle speed sensor 42, the time change of the position of the vehicle, or the like. As described above, in the present embodiment, the GPS receiver 41, the vehicle speed sensor 42, and the gyro sensor 43 are sensors for acquiring the vehicle state (position, orientation, speed, acceleration). Other methods, for example, identification of acceleration based on an acceleration sensor, identification of a position based on lane detection by a camera, identification of a steering angle based on a steering sensor, and the like may be used for acquiring a vehicle state.

物体認識部40は、車両の周囲に存在する物体を検知するセンサであり、本実施形態においては、複数のカメラが物体認識部40を構成する。すなわち、複数のカメラは、各カメラの画像をつなぎ合わせることで車両の周囲360°の範囲を撮影できるように車両に対して固定されている。制御部20は、当該物体認識部40の出力する画像を取得し、特徴量の抽出等によって画像を解析することによって物体を検知することができる。   The object recognition unit 40 is a sensor that detects an object that exists around the vehicle. In the present embodiment, a plurality of cameras constitute the object recognition unit 40. In other words, the plurality of cameras are fixed with respect to the vehicle so that the range of 360 ° around the vehicle can be photographed by connecting the images of the cameras. The control unit 20 can detect an object by acquiring an image output from the object recognition unit 40 and analyzing the image by extracting a feature amount or the like.

ユーザI/F部44は、利用者の指示を入力し、また利用者に各種の情報を提供するためのインタフェース部であり、図示しないタッチパネル方式のディスプレイやスピーカー等の出力音の出力部を備えている。   The user I / F unit 44 is an interface unit for inputting user instructions and providing various types of information to the user. The user I / F unit 44 includes an output sound output unit such as a touch panel display or a speaker (not shown). ing.

車両制御部45は、車両を動作させる装置を制御する装置である。車両を動作させる装置は、種々の装置を想定可能であり、本実施形態においては、内燃機関、ブレーキ、ステアリング、変速機が車両を動作させる装置に相当する。車両制御部45は、これらの各装置に対して制御信号を出力し、その動作を制御することができる。この結果、車両制御部45の指示により、内燃機関の回転数を制御し、ブレーキの制動力を制御し、ステアリングによる操舵角を制御し、変速機による変速比を制御することができる。   The vehicle control unit 45 is a device that controls a device that operates the vehicle. Various devices can be assumed as the device for operating the vehicle. In the present embodiment, the internal combustion engine, the brake, the steering, and the transmission correspond to devices for operating the vehicle. The vehicle control part 45 can output a control signal with respect to each of these apparatuses, and can control the operation | movement. As a result, it is possible to control the rotational speed of the internal combustion engine, to control the braking force of the brake, to control the steering angle by the steering, and to control the gear ratio by the transmission according to the instruction of the vehicle control unit 45.

車両制御部45は、制御部20からの制御信号に応じてこれらの制御を行うことができ、制御部20から時刻毎の車両の位置、向き、速度、加速度を示す制御信号が出力されると、車両制御部45は、当該制御信号に基づいて、指示された位置、向き、速度、加速度になるように各装置を制御する。この結果、制御部20の制御によって車両を自動走行させることができる。むろん、以上の構成は一例であり、車両制御部45の制御対象にモータ等の他の装置が含まれていてもよいし、制御の手法は、種々の手法を採用可能である。   The vehicle control unit 45 can perform these controls in accordance with control signals from the control unit 20, and when a control signal indicating the position, direction, speed, and acceleration of the vehicle at each time is output from the control unit 20. Based on the control signal, the vehicle control unit 45 controls each device so that the instructed position, orientation, speed, and acceleration are obtained. As a result, the vehicle can automatically run under the control of the control unit 20. Of course, the above configuration is merely an example, and other devices such as a motor may be included in the control target of the vehicle control unit 45, and various control methods may be employed.

制御部20は、図示しないナビゲーションプログラムの機能により図示しないユーザI/F部の入力部を介して利用者による目的地の入力を受け付け、車両の現在地から目的地までの走行予定経路を探索する。また、制御部20は、当該ナビゲーションプログラムの機能により、走行予定経路に沿って走行するための自動走行計画を立案し、当該自動走行計画に沿って車両を走行させるための自動制御を実行する。本実施形態においては、当該ナビゲーションプログラムの付加機能として、自動走行計画に関する情報を報知することが可能であり、当該報知は走行情報提供プログラム21によって実現される。   The control unit 20 receives a destination input by the user via an input unit of a user I / F unit (not shown) by a function of a navigation program (not shown), and searches for a planned travel route from the current location of the vehicle to the destination. Further, the control unit 20 creates an automatic travel plan for traveling along the planned travel route by the function of the navigation program, and executes automatic control for causing the vehicle to travel along the automatic travel plan. In the present embodiment, as an additional function of the navigation program, information related to the automatic travel plan can be notified, and the notification is realized by the travel information providing program 21.

走行情報提供プログラム21は、当該報知を実現するため、物体情報取得部21aと走行計画取得部21bと影響度報知部21cと走行計画報知部21dとを備えている。物体情報取得部21aは、車両の周囲に存在する物体を示す物体情報を取得する機能を制御部20に実現させるプログラムモジュールである。本実施形態において、制御部20は、物体認識部40の出力信号を取得し、画像に基づいて物体の特徴を示す特徴量を特定することにより、車両の周囲に存在する物体を検知する。   The travel information providing program 21 includes an object information acquisition unit 21a, a travel plan acquisition unit 21b, an influence level notification unit 21c, and a travel plan notification unit 21d in order to realize the notification. The object information acquisition unit 21a is a program module that causes the control unit 20 to realize a function of acquiring object information indicating objects existing around the vehicle. In the present embodiment, the control unit 20 acquires an output signal of the object recognition unit 40 and identifies an object existing around the vehicle by specifying a feature amount indicating the feature of the object based on the image.

物体認識部40は、一定期間(微小期間)毎に車両の周囲を撮影した画像を出力する。画像内における物体の像の位置と実空間内での物体の位置とは予め対応づけられているため、制御部20は、当該対応関係に基づいて車両の周囲の物体の位置を特定可能である。また、制御部20は、画像に基づいて各物体の大きさ、形状を特定する。そして、制御部20は、物体の位置、大きさ、形状を示す物体情報を生成する。   The object recognition unit 40 outputs an image obtained by photographing the surroundings of the vehicle every fixed period (minute period). Since the position of the image of the object in the image and the position of the object in the real space are associated in advance, the control unit 20 can specify the positions of the objects around the vehicle based on the correspondence relationship. . In addition, the control unit 20 specifies the size and shape of each object based on the image. Then, the control unit 20 generates object information indicating the position, size, and shape of the object.

本実施形態において制御部20は、車両の自動走行計画に影響を与え得る物体を検知して各物体についての物体情報を生成する。具体的には、制御部20は、自動走行計画に影響を与え得る静的物体と動的物体とを検知する。静的物体は、車両が当該物体の付近を通過する期間内に変化しない物体であり、例えば、道路、交通標識、路面標示、建築物等である。動的物体は、車両が当該物体の付近を通過する期間内に変化し得る物体であり、例えば、二輪車、四輪車、鉄道車両、歩行者等の移動体や現示が変化し得る信号機等である。   In the present embodiment, the control unit 20 detects an object that can affect the automatic travel plan of the vehicle, and generates object information for each object. Specifically, the control unit 20 detects a static object and a dynamic object that can affect the automatic travel plan. A static object is an object that does not change within a period in which the vehicle passes in the vicinity of the object, such as a road, a traffic sign, a road marking, a building, and the like. A dynamic object is an object that can change within a period in which the vehicle passes in the vicinity of the object. For example, a moving object such as a two-wheeled vehicle, a four-wheeled vehicle, a railway vehicle, or a pedestrian, or a traffic signal that can change the display It is.

制御部20は、複数の時刻に渡る画像に基づいて検知された物体の変化に基づいて、検知された物体が静的物体と動的物体とのいずれであるのかを特定する。すなわち、制御部20は、複数の時刻に渡る画像に基づいて物体の速度および加速度、移動方向を特定し、位置が変化する物体を動的物体として特定する。また、制御部20は、複数の時刻に渡る画像に基づいて物体の像が変化したことが特定される場合(例えば、現示が変化した場合)、当該物体を動的物体として特定する。動的物体であると特定されなかった物体は静的物体である。物体が静的物体である場合、制御部20は、当該物体の画像に基づいてパターンマッチング処理等を実施し、静的物体の種類を明らかにする。また、制御部20は、静的物体の種類に応じて付加情報を特定する。例えば、静的物体の種類が道路、交通標識、路面標示、建築物のそれぞれである場合、車両通行可能な道路の範囲、交通標識の内容、路面標示の内容、建築物の外周(壁面)の位置等を付加情報として特定する。そして、制御部20は、物体の位置、大きさ、形状を示す物体情報に対して、静的物体の種類および付加情報を対応づける。   The control unit 20 specifies whether the detected object is a static object or a dynamic object based on a change in the object detected based on images over a plurality of times. That is, the control unit 20 specifies the speed, acceleration, and moving direction of an object based on images over a plurality of times, and specifies an object whose position changes as a dynamic object. Further, when it is specified that the image of the object has changed based on images over a plurality of times (for example, when the display has changed), the control unit 20 specifies the object as a dynamic object. An object that has not been identified as a dynamic object is a static object. When the object is a static object, the control unit 20 performs pattern matching processing or the like based on the image of the object, and clarifies the type of the static object. Further, the control unit 20 specifies additional information according to the type of the static object. For example, if the types of static objects are roads, traffic signs, road markings, and buildings, the range of roads through which vehicles can pass, the contents of traffic signs, the contents of road markings, the outer circumference (wall surface) of buildings The position or the like is specified as additional information. And the control part 20 matches the kind of static object, and additional information with the object information which shows the position, size, and shape of an object.

物体が位置の変化し得る動的物体である場合、制御部20は、物体の位置、大きさ、形状、速度、加速度、移動方向を示す情報を物体毎に対応づけて物体情報を生成する。また、物体が規制内容の変化し得る信号機などの動的物体である場合、制御部20は、物体の位置、大きさ、形状、規制内容を示す情報を物体毎に対応づけて物体情報を生成する。制御部20は、以上のようにして生成された物体情報をRAMに記録する。当該物体情報は、車両で物体を回避しながら自動で走行するために利用され、任意のタイミングで制御部20によって参照可能である。   When the object is a dynamic object whose position can change, the control unit 20 generates object information by associating information indicating the position, size, shape, speed, acceleration, and moving direction of the object for each object. When the object is a dynamic object such as a traffic light that can change the regulation contents, the control unit 20 generates object information by associating information indicating the position, size, shape, and regulation contents of the object for each object. To do. The control unit 20 records the object information generated as described above in the RAM. The object information is used for automatically traveling while avoiding an object in the vehicle, and can be referred to by the control unit 20 at an arbitrary timing.

走行計画取得部21bは、少なくとも物体情報に基づいて車両を自動走行させる自動走行計画を取得する機能を制御部20に実現させるプログラムモジュールである。本実施形態において制御部20は、物体情報に基づいて、現在以降の予め決められた期間(例えば、数秒間)内における時刻毎の車両の位置と向き、各時刻における速度および加速度を決定し自動走行計画として取得する。具体的には、制御部20は、物体情報に基づいて、現在以降の予め決められた期間内での時刻毎の動的物体の移動予測経路と、動的物体および静的物体における規制とを特定する。   The travel plan acquisition unit 21b is a program module that causes the control unit 20 to realize a function of acquiring an automatic travel plan for automatically traveling the vehicle based on at least the object information. In the present embodiment, the control unit 20 automatically determines the position and orientation of the vehicle at each time and the speed and acceleration at each time within a predetermined period (for example, several seconds) after the present based on the object information. Obtained as a travel plan. Specifically, based on the object information, the control unit 20 determines the movement prediction path of the dynamic object for each time within a predetermined period from now on, and the restriction on the dynamic object and the static object. Identify.

動的物体の移動予測経路は種々の手法で特定されてよく、例えば、ある時刻における動的物体の位置、速度、加速度から、加速度が一定であると見なして次の微小時間後の動的物体の位置、速度、加速度を特定する処理を繰り返すなどして特定可能である。動的物体および静的物体における規制は種々の手法で特定されてよく、例えば、現在以前の過去における信号機の現示の変化に基づいて現在以降の信号の現示を予測する処理や、交通標識の数字をパターンマッチングによって特定する処理、道路上の車線の位置および幅に基づいて車両が移動可能な範囲を特定する処理等によって特定可能である。むろん、当該規制を特定する際に、制御部20は、地図情報30aに記録された車線構成を示す情報等を参照してもよいし、通信等によって規制を特定するための情報を取得してもよい。   The movement prediction path of the dynamic object may be specified by various methods. For example, it is assumed that the acceleration is constant from the position, speed, and acceleration of the dynamic object at a certain time, and the dynamic object after the next minute time It is possible to specify the position, speed, and acceleration by repeating the process of specifying the position. Regulations on dynamic objects and static objects may be specified in various ways, for example, processing to predict the present of signals after the current based on changes in the present of traffic signals in the past before the present, traffic signs Can be specified by pattern matching, processing for specifying the range in which the vehicle can move based on the position and width of the lane on the road, and the like. Of course, when specifying the restriction, the control unit 20 may refer to information indicating the lane configuration recorded in the map information 30a, or obtain information for specifying the restriction by communication or the like. Also good.

以上のようにして、動的物体の移動予測経路と、動的物体および静的物体における規制とが特定されると、制御部20は、当該規制の範囲内で目的地までの走行予定経路に沿って車両を移動させる仮走行計画を特定する。すなわち、制御部20は、信号機の現示による規制や速度規制など、動的物体及び静的物体による規制に従って走行を行うように、時刻毎の車両の位置、向き、速度、加速度を決定し、予め決められている車両の仕様(車両の幅、長さや操舵角毎の旋回半径、内輪差等)に基づいて道路上で車両が存在する範囲を時刻毎に示す移動軌跡を仮走行計画として特定する。   When the movement prediction route of the dynamic object and the restriction on the dynamic object and the static object are specified as described above, the control unit 20 sets the travel scheduled route to the destination within the restriction. A temporary travel plan for moving the vehicle along is identified. That is, the control unit 20 determines the position, direction, speed, and acceleration of the vehicle at each time so as to travel according to the regulation by the dynamic object and the static object such as the regulation by the display of the traffic light and the speed regulation, Based on pre-determined vehicle specifications (vehicle width, length, turning radius for each steering angle, inner wheel difference, etc.), a movement trajectory indicating the range of vehicles on the road at each time is specified as a temporary travel plan To do.

仮走行計画が特定されると、制御部20は、動的物体の移動予測経路が示す動的物体の時刻毎の位置に基づいて、動的物体と、仮走行計画に沿って走行する車両とが干渉するか否かを判定する。すなわち、仮走行計画に基づいて特定される時刻毎の車両の位置と、動的物体の時刻毎の位置とを比較し、同時刻における両者の距離が予め決められた閾値以内であれば、動的物体と車両とが干渉しないと見なす。制御部20は、車両の仮走行計画から予め決められた距離より遠くに存在する物体(自動走行計画に全く影響しないとして無視してよい物体)を除き、残りの全ての物体について上述のような干渉が発生するか否かを判定する。判定対象の全ての物体について干渉しないと判定された場合、制御部20は、仮走行計画を自動走行計画として特定する。なお、閾値は予め決められた固定値であってもよいし、状況(例えば、現在地が市街地であるか否かや動的物体の種類(先行車両、対向車両、歩行者等)等)によって変化してもよい。   When the provisional travel plan is specified, the control unit 20 determines the dynamic object and the vehicle traveling along the provisional travel plan based on the position of the dynamic object at each time indicated by the dynamic object movement prediction route. It is determined whether or not the interference occurs. That is, the position of the vehicle at each time specified based on the provisional travel plan is compared with the position of each dynamic object at each time, and if the distance between the two at the same time is within a predetermined threshold value, The target object and the vehicle are considered not to interfere with each other. The control unit 20 excludes an object that exists farther than a predetermined distance from the provisional travel plan of the vehicle (an object that can be ignored as it does not affect the automatic travel plan at all), and all the remaining objects are as described above. It is determined whether or not interference occurs. When it determines with not interfering about all the objects of determination, the control part 20 specifies a temporary travel plan as an automatic travel plan. Note that the threshold value may be a fixed value determined in advance, or may vary depending on the situation (for example, whether the current location is an urban area or the type of dynamic object (preceding vehicle, oncoming vehicle, pedestrian, etc.)). May be.

一方、判定対象の少なくとも一つの動的物体が仮走行計画に沿って走行する車両と干渉すると判定された場合、制御部20は、仮走行計画を修正する。すなわち、制御部20は、仮走行計画と干渉し得る動的物体の時刻毎の位置に基づいて、当該動的物体を回避するように、車両の位置を修正する。車両の位置は、車両の向きや速度、加速度等が修正されることによって修正されればよく、この結果、動的物体と車両との干渉が防止されればよい。本実施形態においては、当該修正の後、再度、動的物体が仮走行計画に沿って走行する車両と干渉するか否か判定され、判定対象の全ての物体について干渉しないと判定されるまで修正が行われる。   On the other hand, when it is determined that at least one dynamic object to be determined interferes with a vehicle traveling along the temporary travel plan, the control unit 20 corrects the temporary travel plan. That is, the control unit 20 corrects the position of the vehicle so as to avoid the dynamic object based on the position of the dynamic object that may interfere with the temporary travel plan for each time. The position of the vehicle may be corrected by correcting the direction, speed, acceleration, or the like of the vehicle, and as a result, interference between the dynamic object and the vehicle may be prevented. In the present embodiment, after the correction, it is determined again whether or not the dynamic object interferes with the vehicle traveling along the provisional travel plan, and the correction is performed until it is determined that all objects to be determined do not interfere. Is done.

影響度報知部21cは、自動走行計画に影響を与えた物体を、自動走行計画に影響を与えていない物体と区別して報知する機能を制御部20に実現させるプログラムモジュールである。本実施形態においては、ユーザI/F部44のディスプレイ上で報知が行われる。すなわち、制御部20は、物体を含む風景を撮影した画像をユーザI/F部44のディスプレイに表示し、自動走行計画に影響を与えた物体を、自動走行計画に影響を与えていない物体と区別する画像を当該ディスプレイ上の風景に重畳して表示する。   The influence degree notification unit 21c is a program module that causes the control unit 20 to realize a function of notifying an object that has influenced the automatic travel plan from an object that has not affected the automatic travel plan. In the present embodiment, notification is performed on the display of the user I / F unit 44. That is, the control unit 20 displays an image of a landscape including an object on the display of the user I / F unit 44, and an object that has influenced the automatic travel plan is an object that has not affected the automatic travel plan. The image to be distinguished is displayed superimposed on the landscape on the display.

具体的には、制御部20は、物体が存在しない場合の自動走行計画と、当該物体が存在する場合の自動走行計画とが異なる場合に、当該自動走行計画の際を生じさせた物体が、影響を与えた物体であると見なす。すなわち、本実施形態において制御部20は、動的物体の移動予測経路から特定される動的物体の位置と仮走行計画に従った場合の車両の位置とに基づいて両者の干渉が予想される場合に、走行計画を修正する。そこで、制御部20は、当該修正が行われた原因となった動的物体を、自動走行計画に影響を与えた物体とみなす。   Specifically, when the automatic travel plan when no object is present differs from the automatic travel plan when the object is present, the control unit 20 determines that the object that caused the automatic travel plan is Consider the affected object. In other words, in the present embodiment, the control unit 20 predicts interference between the two based on the position of the dynamic object specified from the predicted movement path of the dynamic object and the position of the vehicle in accordance with the provisional travel plan. If so, modify the travel plan. Therefore, the control unit 20 regards the dynamic object that has caused the correction as an object that has influenced the automatic travel plan.

なお、本実施形態において制御部20は、物体が自動走行計画に与えた影響を物体毎に3段階で評価してディスプレイに表示する。すなわち、制御部20は、自動走行計画が修正される原因となった動的物体の影響度を大とみなし、自動走行計画が修正されるか否かの判定対象となったが修正はされなかった(干渉しないと判定された)動的物体の影響度を中とみなす。さらに、制御部20は、車両の仮走行計画から予め決められた距離よりも遠くに存在し、干渉が発生するか否の判定対象とならなかった動的物体の影響度を小とみなす。   In the present embodiment, the control unit 20 evaluates the influence of the object on the automatic travel plan for each object in three stages and displays it on the display. That is, the control unit 20 regards the influence degree of the dynamic object that has caused the correction of the automatic travel plan as being large, and is a target for determining whether or not the automatic travel plan is corrected, but is not corrected. The influence of a dynamic object (determined not to interfere) is regarded as medium. Further, the control unit 20 considers that the influence degree of the dynamic object that exists farther than a predetermined distance from the provisional travel plan of the vehicle and has not been determined as to whether interference occurs is small.

影響度が特定されると、制御部20は、物体認識部40の出力信号を取得する。当該出力信号は、物体を含む前方の風景を撮影した画像であり、制御部20は、当該画像をユーザI/F部44のディスプレイに出力する。この結果、物体を含む風景の画像がユーザI/F部44のディスプレイに表示される。さらに、制御部20は、各物体の影響度を示す画像を描画し、前方の風景内の各物体の付近に、各物体の影響度を示すアイコンを重畳する。この結果、物体が自動走行計画に与えた影響を区別するための画像がディスプレイ上に重畳される。   When the degree of influence is specified, the control unit 20 acquires the output signal of the object recognition unit 40. The output signal is an image obtained by capturing a landscape in front of the object, and the control unit 20 outputs the image to the display of the user I / F unit 44. As a result, a landscape image including the object is displayed on the display of the user I / F unit 44. Furthermore, the control unit 20 draws an image indicating the degree of influence of each object, and superimposes an icon indicating the degree of influence of each object in the vicinity of each object in the front landscape. As a result, an image for distinguishing the influence of the object on the automatic travel plan is superimposed on the display.

なお、アイコンの態様は任意であるが、影響度が大きいほど強調されていることが想起されるような態様でアイコンが定義される。いずれにしても、以上の処理により、車両の前方における風景内の各物体に対して、自動走行計画に対する影響度を示すアイコンが付された画像がユーザI/F部44のディスプレイに表示される。   In addition, although the aspect of an icon is arbitrary, an icon is defined in the aspect which recalls that it is emphasized, so that the influence degree is large. In any case, through the above processing, an image with an icon indicating the degree of influence on the automatic travel plan is displayed on the display of the user I / F unit 44 for each object in the landscape in front of the vehicle. .

走行計画報知部21dは、自動走行計画を報知する機能を制御部20に実現させるプログラムモジュールである。本実施形態においては、ユーザI/F部44のディスプレイ上で報知が行われる。すなわち、制御部20は、自動走行計画を風景に重畳させて表示する。本実施形態においては、時刻毎の車両の位置、向き、速度、加速度と、当該位置を移動するに際して車両が通過する範囲とが、自動走行計画として特定されている。そこで、制御部20は、物体認識部40の出力信号を取得し、前方の風景内において車両が走行する道路を特定する。   The travel plan notification unit 21d is a program module that causes the control unit 20 to realize a function of notifying the automatic travel plan. In the present embodiment, notification is performed on the display of the user I / F unit 44. That is, the control unit 20 displays the automatic travel plan superimposed on the landscape. In the present embodiment, the position, orientation, speed, and acceleration of the vehicle at each time and the range through which the vehicle passes when moving the position are specified as the automatic travel plan. Therefore, the control unit 20 acquires the output signal of the object recognition unit 40 and identifies the road on which the vehicle travels in the front landscape.

そして、制御部20は、当該道路上での車両の通過範囲を示す画像を描画し、ユーザI/F部44上の風景の画像に対して当該通過範囲を示す画像を重畳するための制御信号を出力する。この結果、自動走行計画が画像によって報知される。この構成によれば、利用者は、風景に重畳された画像に基づいて自動走行計画と当該自動走行計画に影響を与えた物体とを対比させながら、自動走行計画と物体とを認識することができる。そして、利用者は、自動走行計画を認識した上で、当該自動走行計画に対する影響によって車両の周囲の物体を区別することができる。   Then, the control unit 20 draws an image indicating the passing range of the vehicle on the road, and a control signal for superimposing the image indicating the passing range on the landscape image on the user I / F unit 44. Is output. As a result, the automatic travel plan is notified by an image. According to this configuration, the user can recognize the automatic travel plan and the object while comparing the automatic travel plan and the object that has affected the automatic travel plan based on the image superimposed on the landscape. it can. And a user can distinguish the surrounding object of a vehicle by the influence with respect to the said automatic travel plan, after recognizing an automatic travel plan.

以上のような本実施形態によれば、自動走行計画に対する影響の有無を物体毎に区別できるように報知が行われる。本実施形態においては、避けるべき物体が避けられて自動走行計画が生成された場合に、当該物体が自動走行計画に影響を与えた物体であるとして報知される。従って、車両の利用者が視認する物体の中で自動走行計画に影響を与えた物体と影響を与えていない物体が利用者にとって明らかになる。このため、利用者は、物体の報知に基づいて、自動走行計画の立案に際して物体が適切に考慮されていたか否かを判断することができ、自動走行計画が信頼に足るか否かを判断することができる。   According to the present embodiment as described above, the notification is performed so that the presence or absence of the influence on the automatic travel plan can be distinguished for each object. In the present embodiment, when an object to be avoided is avoided and an automatic travel plan is generated, it is notified that the object is an object that has influenced the automatic travel plan. Therefore, among the objects visually recognized by the user of the vehicle, the object that has influenced the automatic travel plan and the object that has not been influenced become clear to the user. For this reason, the user can determine whether or not the object has been properly taken into consideration when formulating the automatic travel plan based on the notification of the object, and determines whether or not the automatic travel plan is reliable. be able to.

この結果、利用者は不安を感じることなく自動走行計画に沿った自動走行を継続させてよいか否か判断することができる。従って、利用者が不安に感じる可能性を低減することが可能である。さらに、本実施形態においては、実風景に自動走行計画が重畳されるため、利用者は車両の前方における実風景と同等の像により、周囲の風景と照らし合わせて物体を認識することができ、容易に物体を認識することができる。さらに、本実施形態においては、各物体について影響度を示す画像が表示されるため、自動走行を継続する際に考慮すべき優先度が高い物体が適切に考慮されているか否かを、利用者が判断することができる。   As a result, the user can determine whether or not the automatic travel according to the automatic travel plan can be continued without feeling uneasy. Therefore, it is possible to reduce the possibility that the user feels uneasy. Furthermore, in the present embodiment, since the automatic travel plan is superimposed on the actual scenery, the user can recognize the object in light of the surrounding scenery by an image equivalent to the actual scenery in front of the vehicle, An object can be easily recognized. Furthermore, in the present embodiment, since an image indicating the degree of influence is displayed for each object, it is determined whether or not an object having a high priority to be considered when continuing automatic driving is appropriately considered. Can be judged.

(2)車両制御処理:
次に、図2,図3に示すフローチャートに基づいて制御部20が実行する車両制御処理を説明する。走行情報提供プログラム21による処理は車両制御処理の一部を構成する。車両制御処理は、利用者がユーザI/F部44を操作することによって目的地を設定し、自動走行の実行開始を指示した場合に実行される。車両制御処理の実行が開始されると、自動走行の終了トリガ(利用者の運転への介入や利用者による終了指示等)が発生するまで、一定期間毎(例えば、100ms)に車両制御処理が実行される。
(2) Vehicle control processing:
Next, a vehicle control process executed by the control unit 20 will be described based on the flowcharts shown in FIGS. The process by the travel information providing program 21 constitutes a part of the vehicle control process. The vehicle control process is executed when the user sets a destination by operating the user I / F unit 44 and gives an instruction to start execution of automatic traveling. When the execution of the vehicle control process is started, the vehicle control process is performed at regular intervals (for example, 100 ms) until an automatic travel end trigger (intervention of the user's driving, an end instruction by the user, etc.) is generated. Executed.

車両制御処理において、制御部20は、走行計画取得部21bの処理により、車両状態を検出する(ステップS100)。すなわち、制御部20は、GPS受信部41,車速センサ42,ジャイロセンサ43の出力に基づいて、車両の位置、向き、速度、加速度を車両状態として取得する。図4Aは、車両Cと車両の周辺に存在する物体の例を示す図であり、上方から眺めた状態でこれらの例を示している。図4Aにおいては、動的物体としての歩行者をW1〜W4、静的物体としての建築物をB1〜B5、静的物体としての白線をL1〜L4として示している。また、図4Aにおいては、ステップS100で取得される車両の位置を点Pc、車両の向き、速度をベクトルVcとして模式的に示している(加速度はベクトルVcの時間変化に相当する)。 In the vehicle control process, the control unit 20 detects the vehicle state by the process of the travel plan acquisition unit 21b (step S100). That is, the control unit 20 acquires the position, orientation, speed, and acceleration of the vehicle as the vehicle state based on the outputs of the GPS receiving unit 41, the vehicle speed sensor 42, and the gyro sensor 43. FIG. 4A is a diagram showing examples of the vehicle C and objects existing around the vehicle, and shows these examples as viewed from above. In FIG. 4A, pedestrians as dynamic objects are shown as W 1 to W 4 , buildings as static objects are shown as B 1 to B 5 , and white lines as static objects are shown as L 1 to L 4 . In FIG. 4A, the position of the vehicle acquired in step S100 is schematically shown as a point Pc, the direction of the vehicle, and the speed as a vector Vc (acceleration corresponds to a time change of the vector Vc).

次に、制御部20は、物体情報取得部21aの処理により、物体情報を取得する(ステップS105)。すなわち、制御部20は、物体認識部40が出力する車両の周囲の風景画像に基づいて車両の周囲の物体の位置、大きさ、形状を特定し、物体の位置、大きさ、形状を示す物体情報を生成する。そして、制御部20は、複数の時刻に渡る画像に基づいて検知された物体の位置の変化に基づいて物体の速度および加速度、移動方向を特定し、各物体が静的物体と動的物体とのいずれであるのかを特定する。さらに、制御部20は、静的物体の位置、大きさ、形状に対して、静的物体の種類と付加情報とを対応づけて静的物体の物体情報を生成する。さらに、制御部20は、動的物体の位置、大きさ、形状、速度、加速度、移動方向を示す物体情報を生成する。   Next, the control part 20 acquires object information by the process of the object information acquisition part 21a (step S105). That is, the control unit 20 specifies the position, size, and shape of an object around the vehicle based on the landscape image around the vehicle output by the object recognition unit 40, and indicates the position, size, and shape of the object. Generate information. Then, the control unit 20 specifies the speed, acceleration, and moving direction of the object based on the change in the position of the object detected based on the images over a plurality of times, and each object is a static object, a dynamic object, It is specified which one is. Further, the control unit 20 generates object information of the static object by associating the static object type and the additional information with the position, size, and shape of the static object. Furthermore, the control unit 20 generates object information indicating the position, size, shape, speed, acceleration, and moving direction of the dynamic object.

図4Aに示す例であれば、制御部20は、建築物B1〜B5、白線L1〜L4についてこれらの物体が静的物体であることを示す物体情報を取得し、歩行者W1〜W4についてこれらの物体が動的物体であることを示す物体情報を取得する。また、図4においては、ステップS105において動的物体の物体情報として取得される物体の位置を点P1〜P4、物体の移動方向、速度をベクトルV1〜V4として模式的に示している(加速度はベクトルV1〜V4の時間変化に相当する)。 In the example shown in FIG. 4A, the control unit 20 acquires object information indicating that these objects are static objects for the buildings B 1 to B 5 and the white lines L 1 to L 4 , and the pedestrian W acquires object information indicating that these objects are dynamic objects for 1 to W-4. In FIG. 4, the position of the object acquired as the object information of the dynamic object in step S105 is schematically shown as points P 1 to P 4 , and the moving direction and speed of the object are shown as vectors V 1 to V 4. (The acceleration corresponds to the time change of the vectors V 1 to V 4 ).

次に、制御部20は、走行計画取得部21bの処理により、自動走行計画を取得する(ステップS110)。すなわち、制御部20は、ステップS105で取得された物体情報に基づいて、現在以降の予め決められた期間内での時刻毎の動的物体の移動予測経路と静的物体における規制とを特定する。図4Aに示す例であれば、制御部20は、動的物体としての歩行者W1〜W4についての加速度が維持されると見なし、位置P1〜P4および速度ベクトルV1〜V4から予め決められた期間内での時刻毎の動的物体の移動予測経路を取得する。 Next, the control part 20 acquires an automatic travel plan by the process of the travel plan acquisition part 21b (step S110). That is, based on the object information acquired in step S105, the control unit 20 specifies the movement prediction path of the dynamic object and the restriction on the static object for each time within a predetermined period after the current time. . In the example shown in FIG. 4A, the control unit 20 considers that the acceleration of the pedestrians W 1 to W 4 as dynamic objects is maintained, and the positions P 1 to P 4 and the speed vectors V 1 to V 4. To obtain a movement prediction route of the dynamic object for each time within a predetermined period.

さらに、制御部20は、建築物B1〜B5の外壁の内側を静的物体によって進入不可能な(進入が規制される)領域として特定し、白線L1〜L4の外側(建築物側)を静的物体によって進入不可能な(進入が規制される)領域として特定する。以上のようにして、動的物体の移動予測経路および静的物体における規制が特定されると、制御部20は、当該規制の範囲内で目的地までの走行予定経路に沿って車両を移動させる仮走行計画を特定する。 Furthermore, the control unit 20 specifies the inside of the outer walls of the buildings B 1 to B 5 as a region where the static object cannot enter (the entry is restricted), and the outside of the white lines L 1 to L 4 (the building). Side) is specified as an area where the static object cannot enter (the entry is restricted). As described above, when the movement prediction path of the dynamic object and the restriction on the static object are specified, the control unit 20 moves the vehicle along the planned travel route to the destination within the restriction. Identify a provisional travel plan.

すなわち、制御部20は、静的物体による規制に従って目的地までの走行予定経路を走行するように、時刻毎の車両の位置、向き、速度、加速度を決定し、予め決められている車両の仕様(車両の幅、長さや操舵角毎の旋回半径、内輪差等)に基づいて道路上で車両が存在する範囲を時刻毎に示す移動軌跡を仮走行計画として特定する。図4Aにおいては、破線によって仮走行計画Tを示している。   That is, the control unit 20 determines the position, direction, speed, and acceleration of the vehicle for each time so as to travel along the planned travel route to the destination in accordance with the regulation by the static object, and the vehicle specifications determined in advance. Based on (vehicle width, length, turning radius for each steering angle, inner wheel difference, etc.), a moving locus indicating the range in which the vehicle exists on the road for each time is specified as a temporary travel plan. In FIG. 4A, the temporary travel plan T is indicated by a broken line.

仮走行計画が特定されると、制御部20は、動的物体の移動予測経路が示す動的物体の時刻毎の位置に基づいて、動的物体と、仮走行計画に沿って走行する車両とが干渉するか否かを判定する。本実施形態において制御部20は、車両の仮走行計画から予め決められた距離以内に存在する動的物体を判定対象とし、車両の仮走行計画から予め決められた距離よりも遠い動的物体を判定対象外とする。ここでは、図4Aに示す歩行者W1〜W4のうち、歩行者W4が判定対象外となり、歩行者W1〜W3が判定対象となった状態を想定する。 When the provisional travel plan is specified, the control unit 20 determines the dynamic object and the vehicle traveling along the provisional travel plan based on the position of the dynamic object at each time indicated by the dynamic object movement prediction route. It is determined whether or not the interference occurs. In the present embodiment, the control unit 20 uses a dynamic object existing within a predetermined distance from the provisional travel plan of the vehicle as a determination target, and selects a dynamic object farther than the predetermined distance from the provisional travel plan of the vehicle. Not subject to judgment. Here, it is assumed that among pedestrians W 1 to W 4 shown in FIG. 4A, pedestrian W 4 is excluded from the determination target and pedestrians W 1 to W 3 are the determination target.

この場合、制御部20は、歩行者W1〜W3を判定対象とし、仮走行計画に基づいて特定される時刻毎の車両の位置と、歩行者W1〜W3の時刻毎の位置とを比較する。図4Aに示す例において、歩行者W1は仮走行計画に基づいて特定される時刻毎の車両の位置と干渉しないと判定される。歩行者W2については、車両が歩行者W2に最接近した場合に両者の距離が閾値以内になるため、制御部20は、車両と歩行者W2とが干渉すると判定する。歩行者W3については、車両が右折して建築物B4に接近する頃には歩行者W3が既に仮走行計画Tの軌跡から遠ざかっており、最接近した場合の距離が閾値よりも大きいため、制御部20は、車両は歩行者W3と干渉しないと判定する。 In this case, the control unit 20 uses the pedestrians W 1 to W 3 as determination targets, the vehicle position at each time specified based on the provisional travel plan, and the positions of the pedestrians W 1 to W 3 at each time. Compare In the example shown in FIG. 4A, the pedestrian W 1 is determined not to interfere with the position of the vehicle in each time specified based on the temporary travel plan. For the pedestrian W 2 , when the vehicle is closest to the pedestrian W 2 , the distance between the two is within the threshold value, so the control unit 20 determines that the vehicle and the pedestrian W 2 interfere with each other. As for the pedestrian W 3 , when the vehicle turns right and approaches the building B 4 , the pedestrian W 3 is already away from the trajectory of the temporary travel plan T, and the distance when approaching is greater than the threshold. Therefore, the control unit 20 determines that the vehicle does not interfere with the pedestrian W 3 .

図4Aに示すこの例においては、歩行者W2が仮走行計画Tによる車両と干渉するため、制御部20は、仮走行計画を修正する。すなわち、制御部20は、歩行者W2が仮走行計画によって移動した場合の車両と干渉する位置を特定し、当該位置に車両が達しないように車両の向きや速度、加速度等を修正し、仮走行計画における車両の位置を修正する。例えば、図4Aに示す例であれば、歩行者W2の位置に達する前に車両が減速され、また、歩行者W2の位置より右側を通るように向きが修正される。修正の後、制御部20は、再度、判定対象の動的物体が仮走行計画に沿って走行する車両と干渉するか否か判定し、判定対象の全ての物体について干渉しないと判定された場合に、仮走行計画を自動走行計画として取得する。 In this example shown in FIG. 4A, since the pedestrian W 2 interferes with the vehicle according to the temporary travel plan T, the control unit 20 corrects the temporary travel plan. That is, the control unit 20 identifies the vehicle and interfere position when a pedestrian W 2 is moved by the provisional travel plan, the direction and speed of the vehicle so as not vehicle reaches the position, to modify the acceleration or the like, Correct the position of the vehicle in the provisional travel plan. For example, in the example shown in FIG. 4A, the vehicle is decelerated before reaching the position of the pedestrian W 2, also the orientation is corrected so as to pass through the right side from the position of the pedestrian W 2. After the correction, the control unit 20 determines again whether or not the determination-target dynamic object interferes with the vehicle traveling along the provisional travel plan, and when it is determined not to interfere with all the determination-target objects In addition, the provisional travel plan is acquired as an automatic travel plan.

次に、制御部20は、影響度報知部21cの処理により、処理対象の動的物体を特定する(ステップS115)。すなわち、制御部20は、ステップS115〜S145において、ループ処理を行うが、この際に、ステップS105で物体情報が取得された物体のうち、動的物体とされた物体の一つを処理対象として一回のループを行う。そこで、制御部20は、ステップS115において、動的物体の中からループ処理の対象となっていない動的物体の一つを処理対象として特定する。   Next, the control unit 20 specifies a dynamic object to be processed by the process of the influence degree notification unit 21c (step S115). That is, the control unit 20 performs a loop process in steps S115 to S145. At this time, among the objects whose object information has been acquired in step S105, one of the objects that are dynamic objects is set as a processing target. Perform a single loop. Accordingly, in step S115, the control unit 20 identifies one of the dynamic objects that is not the target of the loop process as the processing target.

次に、制御部20は、影響度報知部21cの処理により、処理対象の動的物体が自動走行計画への影響の判定対象となったか否かを判定する(ステップS120)。すなわち、制御部20は、車両の仮走行計画から予め決められた距離よりも遠いことによってステップS110にて判定対象外とされた動的物体が処理対象である場合、処理対象の動的物体が自動走行計画への影響の判定対象とならなかったと判定する。   Next, the control unit 20 determines whether or not the dynamic object to be processed has become a determination target of the influence on the automatic travel plan by the process of the influence degree notification unit 21c (step S120). In other words, the control unit 20 determines that the dynamic object to be processed is the target to be processed when the dynamic object that has been excluded from the determination target in step S110 due to being far from a predetermined distance from the provisional travel plan of the vehicle. It is determined that it was not a target for determining the influence on the automatic travel plan.

ステップS120において、処理対象の動的物体が自動走行計画への影響の判定対象となったと判定されない場合、制御部20は、影響度報知部21cの処理により、当該処理対象の動的物体を示すアイコンの色を緑に決定する(ステップS125)。すなわち、影響度大中小のうちの影響度小を示すアイコンを処理対象の動的物体に対応づける。   In step S120, when it is not determined that the dynamic object to be processed is the target for determining the influence on the automatic travel plan, the control unit 20 indicates the dynamic object to be processed by the process of the influence notification unit 21c. The icon color is determined to be green (step S125). That is, an icon indicating a small influence degree among large, medium, and small influence degrees is associated with a dynamic object to be processed.

一方、ステップS120において、処理対象の動的物体が自動走行計画への影響の判定対象となったと判定された場合、制御部20は、影響度報知部21cの処理により、処理対象の動的物体が自動走行計画に影響したか否かを判定する(ステップS130)。すなわち、制御部20は、処理対象の動的物体がステップS110において仮走行計画を修正する原因となっていた場合に、当該動的物体が自動走行計画に影響したと判定する。   On the other hand, when it is determined in step S120 that the dynamic object to be processed is the target for determining the influence on the automatic travel plan, the control unit 20 performs the processing of the influence degree notifying unit 21c to process the dynamic object to be processed. Determines whether the automatic travel plan has been affected (step S130). That is, the control unit 20 determines that the dynamic object has affected the automatic travel plan when the dynamic object to be processed is a cause of correcting the temporary travel plan in step S110.

ステップS130において、処理対象の動的物体が自動走行計画に影響したと判定されない場合、制御部20は、影響度報知部21cの処理により、当該処理対象の動的物体を示すアイコンの色を黄に決定する(ステップS135)。すなわち、影響度大中小のうちの影響度中を示すアイコンを処理対象の動的物体に対応づける。一方、ステップS130において、処理対象の動的物体が自動走行計画に影響したと判定された場合、制御部20は、影響度報知部21cの処理により、当該処理対象の動的物体を示すアイコンの色を赤に決定する(ステップS140)。すなわち、影響度大中小のうちの影響度大を示すアイコンを処理対象の動的物体に対応づける。   If it is not determined in step S130 that the dynamic object to be processed has affected the automatic travel plan, the control unit 20 sets the color of the icon indicating the dynamic object to be processed to yellow by the process of the influence notification unit 21c. (Step S135). In other words, an icon indicating medium influence among large, medium, and small influences is associated with a dynamic object to be processed. On the other hand, when it is determined in step S130 that the dynamic object to be processed has affected the automatic travel plan, the control unit 20 displays an icon indicating the dynamic object to be processed by the process of the influence degree notification unit 21c. The color is determined to be red (step S140). That is, an icon indicating a large influence degree among large, medium and small influence degrees is associated with a dynamic object to be processed.

次に、制御部20は、全認識物体についてアイコンの色を決定済であるか否かを判定し(ステップS145)、全認識物体についてアイコンの色を決定済であると判定されるまでステップS115以降の処理を繰り返す。なお、図4A,4Bに示す例には示されていないが、車両の前方に信号機等の動的物体が存在するのであれば、当該動的物体が自動走行計画に与えた影響に応じてアイコンの色が決定され、前方の風景内の信号機等に当該色のアイコンが表示されることになる。   Next, the control unit 20 determines whether or not the icon colors have been determined for all recognized objects (step S145), and step S115 is performed until it is determined that the icon colors have been determined for all recognized objects. The subsequent processing is repeated. Although not shown in the examples shown in FIGS. 4A and 4B, if there is a dynamic object such as a traffic light in front of the vehicle, an icon is displayed depending on the influence of the dynamic object on the automatic travel plan. Is determined, and an icon of that color is displayed on a traffic light or the like in the front scenery.

ステップS145において、全認識物体についてアイコンの色を決定済であると判定された場合、制御部20は、走行計画報知部21dの処理により、自動走行計画内の処理対象位置を特定する(ステップS150)。すなわち、制御部20は、ステップS150〜S170においてループ処理を行うが、この際に、ステップS110で取得された自動走行計画のうち、車両の位置から予め決められた距離の範囲内の計画がループ処理による処理対象となる。また、制御部20は、処理対象の自動走行計画の中で、車両の位置から前方に既定距離毎に存在する複数の位置を処理対象位置と見なす。そして、制御部20は、ステップS115において、複数の処理対象位置の中からループ処理の対象となっていない処理対象位置の一つを処理対象として特定する。   If it is determined in step S145 that the color of the icon has been determined for all recognized objects, the control unit 20 specifies the processing target position in the automatic travel plan by the process of the travel plan notification unit 21d (step S150). ). That is, the control unit 20 performs a loop process in steps S150 to S170. At this time, among the automatic travel plans acquired in step S110, a plan within a predetermined distance range from the vehicle position is looped. It becomes a processing target by processing. Moreover, the control part 20 considers the several position which exists for every predetermined distance ahead from the position of a vehicle in a process target automatic travel plan as a process target position. Then, in step S115, the control unit 20 specifies one of the processing target positions that are not the target of the loop processing as a processing target from among the plurality of processing target positions.

次に、制御部20は、走行計画報知部21dの処理により、処理対象位置で停車不可能であるか否かを判定する(ステップS155)。すなわち、制御部20は、ステップS100で取得された車両状態に基づいて、車両に対して作用させることが可能な上限の減速度(負の加速度)を作用させた場合に車両が停止する停止位置を特定する。そして、制御部20は、処理対象位置が停止位置よりも進行方向後方に位置する場合に、処理対象位置で停車不可能と判定する。   Next, the control part 20 determines whether it cannot stop at a process target position by the process of the travel plan alerting | reporting part 21d (step S155). That is, the control unit 20 stops the vehicle when the upper limit deceleration (negative acceleration) that can be applied to the vehicle is applied based on the vehicle state acquired in step S100. Is identified. The control unit 20 determines that the vehicle cannot be stopped at the processing target position when the processing target position is located behind the stop position in the traveling direction.

ステップS155において、処理対象位置で停車不可能であると判定された場合、制御部20は、走行計画報知部21dの処理により、処理対象位置における自動走行計画の表示色を赤に決定する(ステップS165)。すなわち、制御部20は、停車不可能領域を注意喚起するために表示色を赤に設定する。一方、ステップS155において、処理対象位置で停車不可能であると判定されない場合、制御部20は、走行計画報知部21dの処理により、処理対象位置における自動走行計画の表示色を黄に決定する(ステップS160)。   When it is determined in step S155 that the vehicle cannot be stopped at the processing target position, the control unit 20 determines the display color of the automatic travel plan at the processing target position to be red by the process of the travel plan notification unit 21d (step S155). S165). That is, the control unit 20 sets the display color to red in order to call attention to an area where the vehicle cannot be stopped. On the other hand, if it is not determined in step S155 that the vehicle cannot be stopped at the processing target position, the control unit 20 determines the display color of the automatic travel plan at the processing target position to yellow by the processing of the travel plan notification unit 21d ( Step S160).

次に、制御部20は、全処理対象位置について自動走行計画の表示色を決定済であるか否かを判定し(ステップS170)、全処理対象位置について自動走行計画の表示色を決定済であると判定されるまでステップS150以降の処理を繰り返す。   Next, the control unit 20 determines whether or not the display color of the automatic travel plan has been determined for all processing target positions (step S170), and the display color of the automatic travel plan has been determined for all processing target positions. The processes after step S150 are repeated until it is determined that there is.

次に、制御部20は、自動走行計画を示す画像を描画する(ステップS175)。すなわち、制御部20は、物体認識部40の出力信号に基づいて画像内における白線の位置等を特定し、当該白線の位置等に基づいて白線と車両との相対的な位置を特定する。そして、制御部20は、当該白線の位置等に基づいて自動走行計画が示す時刻毎の位置を画像内で特定し、車両の仕様(幅、長さ等)に基づいて各位置を車両が通過する際に車体が存在する領域を画像内で特定する。そして、制御部20は、当該領域を示す帯状の画像を表示するための画像データを描画し、RAMに記録する。   Next, the control part 20 draws the image which shows an automatic travel plan (step S175). That is, the control unit 20 specifies the position of the white line in the image based on the output signal of the object recognition unit 40, and specifies the relative position of the white line and the vehicle based on the position of the white line. And the control part 20 specifies the position for every time which an automatic travel plan shows based on the position of the said white line, etc. in an image, and vehicles pass each position based on the specification (width, length, etc.) of a vehicle. The area where the vehicle body exists is specified in the image. And the control part 20 draws the image data for displaying the strip | belt-shaped image which shows the said area | region, and records it on RAM.

次に、制御部20は、前方の風景を示す画像を取得する(ステップS180)。すなわち、制御部20は、影響度報知部21cの処理により、物体認識部40が出力した車両の前方の風景を示す画像からステップS105において最後に取得された(ステップS110の自動走行計画の立案に利用された)画像を抽出し、RAMに記録する。次に、制御部20は、影響度報知部21cの処理により、アイコンを重畳する(ステップS185)。すなわち、制御部20は、ステップS125,S135,S140で決定された各動的物体についてのアイコンを示す画像を取得し、当該アイコンを各動的物体に付記するようにRAMに記録された前方の風景を示す画像に重畳させる。   Next, the control part 20 acquires the image which shows the front scenery (step S180). That is, the control unit 20 is finally acquired in step S105 from the image indicating the scenery in front of the vehicle output by the object recognition unit 40 by the process of the influence notification unit 21c (for the planning of the automatic travel plan in step S110). Extract the used image and record it in RAM. Next, the control part 20 superimposes an icon by the process of the influence alerting | reporting part 21c (step S185). That is, the control unit 20 acquires an image indicating an icon for each dynamic object determined in steps S125, S135, and S140, and forwards the image recorded in the RAM so as to add the icon to each dynamic object. It is superimposed on the image showing the scenery.

次に、制御部20は、走行計画報知部21dの処理により、自動走行計画を重畳する(ステップS190)。すなわち、制御部20は、ステップS175においてRAMに記録された自動走行計画を示す画像を、ステップS180においてRAMに記録された画像に重畳させる。   Next, the control part 20 superimposes an automatic travel plan by the process of the travel plan alerting | reporting part 21d (step S190). That is, the control unit 20 superimposes the image indicating the automatic travel plan recorded in the RAM in step S175 on the image recorded in the RAM in step S180.

次に、制御部20は、影響度報知部21cの処理により、前方の風景を示す画像を表示させる(ステップS195)。すなわち、制御部20は、ユーザI/F部44に制御信号を出力し、RAMの画像をディスプレイに表示させる。この結果、動的物体を含む前方の風景の画像に自動走行計画への影響度を示すアイコンと、自動走行計画とが重畳された状態の表示が行われる。   Next, the control part 20 displays the image which shows a front scenery by the process of the influence alerting | reporting part 21c (step S195). That is, the control unit 20 outputs a control signal to the user I / F unit 44 to display an image in the RAM on the display. As a result, a state in which an icon indicating the degree of influence on the automatic travel plan and the automatic travel plan are superimposed on an image of a frontal landscape including a dynamic object is displayed.

図4Bは、図4Aに示す状態におけるディスプレイの表示例を示す図である。図4Bに示す前方の風景には、動的物体である歩行者W1〜W4が含まれている。各歩行者W1〜W4の上方には矢印のアイコンが付されており、太い実線の矢印が影響度大である赤のアイコン、細い実線の矢印が影響度中である黄のアイコン、細い破線の矢印が影響度小である緑のアイコンを模式的に示している。以上の表示によれば、利用者は、動的物体が自動走行計画に与えた影響を容易に認識することができる。従って、例えば、図4Bに示す例であれば、自動走行計画によって車両が歩行者W2に接近するが、利用者は当該歩行者W2を回避する自動走行計画が立案されたことを認識することができ、不安を感じずに自動走行を継続させることができる。また、自動走行計画と歩行者W3とが一見すると干渉しているようにも見えるが、利用者は、車両が右折する過程で歩行者W3が移動し、車両とは干渉しないことが予測されていると認識することができる。従って、利用者が不安に感じる可能性を低減することができる。 FIG. 4B is a diagram showing a display example of the display in the state shown in FIG. 4A. The front landscape shown in FIG. 4B includes pedestrians W 1 to W 4 that are dynamic objects. The above each pedestrian W 1 to W-4 are denoted by the arrow icon, thick solid red icon arrow is influence sized yellow icon is thin solid arrows in influence, thin A broken line arrow schematically shows a green icon with a small influence. According to the above display, the user can easily recognize the influence of the dynamic object on the automatic travel plan. Thus, for example, recognizes that in the example illustrated in FIG. 4B, but the vehicle is approaching the pedestrian W 2 by the automatic travel plan, the user of the automatic trip plan to avoid the pedestrian W 2 is planned It is possible to continue automatic driving without feeling uneasy. Moreover, although it seems that the automatic driving plan and the pedestrian W 3 are interfering at a glance, the user predicts that the pedestrian W 3 moves in the process of turning the vehicle to the right and does not interfere with the vehicle. Can be recognized. Therefore, the possibility that the user feels uneasy can be reduced.

さらに、前方の風景の道路上には、自動走行計画を示す画像Rが表示されている。そして、当該画像Rにおいては、車両の直前の領域は黒で表示されており、その前方にはハッチングが付されているが、ここでは、停車不可能であることを示す赤の領域を図面内の黒で模式的に示しており、停車可能領域である黄の領域をハッチングによって模式的に示している。このように車両が停車不可能な領域が風景に重畳されていれば、利用者は、当該領域に他の物体が進入し得るか否かを監視することができ、利用者が不安に感じる可能性を低減することができる。   Further, an image R indicating an automatic travel plan is displayed on the road in the front landscape. In the image R, the area immediately before the vehicle is displayed in black and hatched in front of the area. Here, a red area indicating that the vehicle cannot be stopped is shown in the drawing. A black region is schematically shown by hatching, and a yellow region which is a stoppable region is schematically shown by hatching. In this way, if an area where the vehicle cannot stop is superimposed on the landscape, the user can monitor whether or not other objects can enter the area, and the user may feel uneasy. Can be reduced.

前方の風景を示す画像が表示されると、制御部20は、車両制御を実行する(ステップS200)。すなわち、制御部20は、ステップS110で取得された自動走行計画に従って、車両を移動させるための制御信号を車両制御部45に対して出力する。この結果、車両制御部45は、自動走行計画に従って車両を自動走行させる。   When an image showing a landscape in front is displayed, the control unit 20 executes vehicle control (step S200). That is, the control unit 20 outputs a control signal for moving the vehicle to the vehicle control unit 45 in accordance with the automatic travel plan acquired in step S110. As a result, the vehicle control unit 45 causes the vehicle to automatically travel according to the automatic travel plan.

(3)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、他にも種々の実施形態を採用可能である。例えば、走行情報提供システムは、車両等に搭載された装置であっても良いし、可搬型の端末によって実現される装置であっても良いし、複数の装置(例えば、クライアントとサーバや、ナビゲーション装置内の制御部と車両制御装置内のECU等)によって実現されるシステムであっても良い。
(3) Other embodiments:
The above embodiment is an example for carrying out the present invention, and various other embodiments can be adopted. For example, the travel information providing system may be a device mounted on a vehicle or the like, a device realized by a portable terminal, or a plurality of devices (for example, a client and a server, a navigation, It may be a system realized by a control unit in the apparatus and an ECU in the vehicle control apparatus.

走行情報提供システムを構成する物体情報取得部21aと走行計画取得部21bと影響度報知部21cと走行計画報知部21dの少なくとも一部が複数の装置に分かれて存在する構成としては、種々の構成が想定される。例えば、車両制御部45内のECUによって物体情報の取得、走行計画の取得、影響度の取得が行われ、ナビゲーションシステム10の制御部20によって影響度と走行計画の報知が行われる構成等であってもよい。   There are various configurations in which at least part of the object information acquisition unit 21a, the travel plan acquisition unit 21b, the influence level notification unit 21c, and the travel plan notification unit 21d constituting the travel information providing system is divided into a plurality of devices. Is assumed. For example, the ECU in the vehicle control unit 45 obtains object information, obtains a travel plan, obtains an influence degree, and notifies the influence degree and the travel plan by the control unit 20 of the navigation system 10. May be.

むろん、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。例えば、自動走行計画において車両の停車不可能領域の表示が省略されてもよいし、影響度小のアイコンや影響度小および中のアイコンの表示が省略されてもよい。さらに、アイコン等の画像の種類や形状、色は上述の実施形態と異なる種々の態様を採用可能である。   Of course, a part of the configuration of the above-described embodiment may be omitted, and the processing order may be changed or omitted. For example, in the automatic travel plan, the display of the area where the vehicle cannot be stopped may be omitted, or the low influence level icon, the low influence level icon, and the middle icon may be omitted. Further, various types of images such as icons, shapes, and colors different from those of the above-described embodiments can be employed.

物体情報取得部は、車両の周囲に存在する物体を示す物体情報を取得することができればよい。すなわち、物体情報取得部は、車両で物体を回避しながら自動で走行するために必要な物体に関する情報を物体情報として取得することができればよい。物体は、車両の自動走行計画に影響を与え得る物体であれば良く、位置や状態等が変動しない静的物体であってもよいし、位置や状態等が変動し得る動的物体であってもよい。前者としては、例えば、道路、信号機、交通標識、路面標示、建築物等が挙げられ、後者としては、二輪車、四輪車、鉄道車両、歩行者等の移動体が挙げられる。   The object information acquisition unit only needs to be able to acquire object information indicating objects existing around the vehicle. In other words, the object information acquisition unit only needs to be able to acquire, as object information, information related to an object necessary for automatically traveling while avoiding the object with the vehicle. The object may be any object that can affect the automatic driving plan of the vehicle, and may be a static object whose position and state do not change, or a dynamic object whose position and state may change. Also good. Examples of the former include roads, traffic lights, traffic signs, road markings, buildings, and the like, and examples of the latter include moving bodies such as two-wheeled vehicles, four-wheeled vehicles, railway vehicles, and pedestrians.

物体情報は、自動走行計画を取得するために考慮され得る情報であれば良く、例えば、物体の状態を示す情報(位置、速度、加速度、大きさ、形状等)であってもよいし、物体の予想移動軌跡を示す情報であってもよいし、物体の可動範囲を示す情報であってもよく、種々の態様を想定可能である。物体情報を取得するための手法は、種々の手法を採用可能であり、カメラで撮影された画像を画像認識処理することによって取得されてもよいし、超音波センサ等の距離センサによって取得されてもよいし、車車間通信や路車間通信等によって取得されてもよいし、画像等に基づいて人工知能の処理によって物体情報が取得されてもよい。   The object information may be any information that can be considered in order to obtain an automatic travel plan. For example, the object information may be information indicating the state of the object (position, speed, acceleration, size, shape, etc.) It may be information indicating the expected movement trajectory or information indicating the movable range of the object, and various modes can be assumed. Various methods can be used for acquiring object information, and may be acquired by performing image recognition processing on an image captured by a camera, or acquired by a distance sensor such as an ultrasonic sensor. Alternatively, it may be acquired by inter-vehicle communication, road-to-vehicle communication, or the like, or object information may be acquired by artificial intelligence processing based on an image or the like.

なお、車車間通信や路車間通信等の通信によって物体情報が取得される構成であれば、カメラの視野外に存在する物体の物体情報を取得し、報知対象とすることができる。むろん、物体情報取得部は、物体情報を取得するためのセンサを含んでいてもよいし、センサに基づいて制御部等で生成された物体情報が物体情報取得部に取得される構成であってもよい。   In addition, if the object information is acquired by communication such as vehicle-to-vehicle communication or road-to-vehicle communication, the object information of an object existing outside the field of view of the camera can be acquired and set as a notification target. Of course, the object information acquisition unit may include a sensor for acquiring object information, and the object information generated by the control unit or the like based on the sensor is acquired by the object information acquisition unit. Also good.

走行計画取得部は、少なくとも物体情報に基づいて車両を自動走行させる自動走行計画を取得することができればよい。すなわち、走行計画取得部は、物体情報に基づいて、少なくとも、物体と車両とが干渉しないように車両の位置、向き、速度、加速度の少なくとも一つを決定し、自動走行計画とする。自動走行計画は、種々の手法によって立案してよく、例えば、物体情報に基づいて物体の移動予測経路を予測し、当該移動予測経路に基づいて自動走行計画を立案する構成等が挙げられる。   The travel plan acquisition unit only needs to acquire an automatic travel plan for automatically traveling the vehicle based on at least the object information. That is, the travel plan acquisition unit determines at least one of the position, orientation, speed, and acceleration of the vehicle based on the object information so that the object and the vehicle do not interfere with each other, and sets the automatic travel plan. The automatic travel plan may be made by various methods, and examples thereof include a configuration in which an object movement prediction route is predicted based on object information and an automatic travel plan is made based on the movement prediction route.

移動予測経路に基づく自動走行計画の立案は、種々の手法で実現されてよく、例えば、時刻毎の物体の位置を示す移動予測経路に基づいて、任意の物体と干渉しないように時刻毎の車両の位置を決定し、時刻毎に当該車両の位置に達するように車両の位置、向き、速度、加速度等を制御する計画を特定する構成等が挙げられる。なお、自動走行計画は、走行計画取得部によって立案されてもよいし、他の制御部等で立案された自動走行計画を示す情報が走行計画取得部によって取得されてもよい。むろん、自動走行計画の立案に際して物体情報以外の任意の情報(例えば、道路の形状やリンクを示す地図情報、天候情報等)が参照されてもよい。   The planning of the automatic travel plan based on the movement prediction route may be realized by various methods, for example, the vehicle at each time so as not to interfere with an arbitrary object based on the movement prediction route indicating the position of the object at each time. And a plan for specifying a plan for controlling the position, direction, speed, acceleration, etc. of the vehicle so as to reach the position of the vehicle every time. The automatic travel plan may be drafted by the travel plan acquisition unit, or information indicating the automatic travel plan drafted by another control unit or the like may be acquired by the travel plan acquisition unit. Needless to say, any information other than the object information (for example, map information indicating road shapes and links, weather information, etc.) may be referred to when making an automatic travel plan.

自動走行計画は、車両の将来の走行についての計画であれば良く、長さは任意である。例えば、現在以降の予め決められた距離または期間における自動走行計画が立案されてもよいし、目的地までの自動走行計画が立案されてもよい。   The automatic travel plan may be a plan for future travel of the vehicle, and the length is arbitrary. For example, an automatic travel plan for a predetermined distance or period after the present may be drafted, or an automatic travel plan to the destination may be drafted.

影響度報知部は、自動走行計画に影響を与えた物体を、自動走行計画に影響を与えていない物体と区別して報知することができればよい。すなわち、報知対象の物体について、自動走行計画に影響を与えたか否かを利用者が判断できるように報知が行われればよい。報知の態様は、種々の態様を採用可能であり、音による案内であってもよいし、画像表示であってもよいし、その双方であってもよく、種々の構成を採用可能である。   The influence degree notification unit only needs to be able to notify an object that has influenced the automatic travel plan separately from an object that has not affected the automatic travel plan. That is, it is only necessary that the notification is performed so that the user can determine whether or not the object to be notified has influenced the automatic travel plan. Various forms of notification may be employed, and guidance by sound, image display, or both of them may be employed, and various configurations may be employed.

自動走行計画に影響を与えた物体は、例えば、当該物体が存在しない場合の自動走行計画と、当該物体が存在する場合の自動走行計画とが異なるような物体が挙げられる。すなわち、物体が存在することにより、当該物体を回避するための自動走行計画が立案された場合、当該物体は自動走行計画に影響を与えた物体である。いずれにしても、自動走行計画に対する影響の有無を物体毎に区別できるように報知が行われることで、自動走行計画が信頼に足るか否かを利用者が判断できるように報知が行われればよい。すなわち、避けるべき物体が自動走行計画に影響を与えた物体であるとして報知されれば、利用者は不安を感じることなく自動走行計画に沿った自動走行を継続させてよいと判断することができる。   Examples of the object that has influenced the automatic travel plan include an object in which the automatic travel plan when the object does not exist is different from the automatic travel plan when the object exists. That is, when an automatic travel plan for avoiding the object is created due to the presence of the object, the object is an object that has an influence on the automatic travel plan. In any case, if the notification is performed so that the presence or absence of the influence on the automatic travel plan can be distinguished for each object, the notification can be performed so that the user can determine whether or not the automatic travel plan is reliable. Good. That is, if it is notified that the object to be avoided is an object that has influenced the automatic travel plan, the user can determine that the automatic travel according to the automatic travel plan may be continued without feeling uneasy. .

なお、物体が自動走行計画に対して与える影響の強度が複数の段階に設定されてもよい。例えば、自動走行計画を構成する車両の位置や速度等が、実際に物体情報に基づいて決められた場合と、自動走行計画を構成する車両の位置や速度等が物体情報に基づいて決められなかったが物体情報は参照された(考慮されたが影響はなかった)場合と、自動走行計画を立案する際に物体情報が考慮されなかった場合とでは、影響の強度が異なる。そこで、影響度報知部は、物体が自動走行計画に与えた影響の強度を物体毎に報知する構成であってもよい。この構成によれば、自動走行を継続する際に考慮すべき優先度が高い物体が適切に考慮されているか否かを、利用者が判断することができる。   It should be noted that the intensity of the influence of the object on the automatic travel plan may be set in a plurality of stages. For example, the position, speed, etc. of the vehicle constituting the automatic travel plan are actually determined based on the object information, and the position, speed, etc. of the vehicle constituting the automatic travel plan cannot be determined based on the object information. However, the intensity of influence differs between the case where the object information is referred (considered but not affected) and the case where the object information is not considered when the automatic travel plan is formulated. Accordingly, the influence degree notification unit may be configured to notify the intensity of the influence that the object has on the automatic travel plan for each object. According to this configuration, the user can determine whether or not an object having a high priority that should be considered when continuing automatic driving is properly considered.

むろん、影響度は、他にも種々の手法によって特定されてよく、自動走行計画に従って移動する車両の位置と、動的物体との距離が近いほど影響が大きいと見なす構成であってもよいし、車両の位置と、動的物体との距離に加え、速度が速いほど影響が大きいと見なす構成であってもよい。また、動的物体が存在しない場合の仮走行計画と、動的物体が存在する場合の自動走行計画とを特定し、両者の差を生じさせた動的物体を特定して影響を与えた物体と見なす構成が採用されてもよい。さらに、物体の危険度や要注目度等が定義される場合に、これらの危険度や要注目度が高いほど自動走行計画に影響を与えたと見なす構成であってもよい。   Of course, the degree of influence may be specified by various other methods, and the configuration may be such that the closer the distance between the position of the vehicle moving according to the automatic travel plan and the dynamic object, the greater the influence. In addition to the distance between the vehicle position and the dynamic object, the configuration may be such that the higher the speed, the greater the influence. Also, the provisional travel plan when there is no dynamic object and the automatic travel plan when there is a dynamic object are identified, and the dynamic object that caused the difference between the two is identified and influenced. The structure considered as may be adopted. Further, when the risk level of the object, the level of attention required, and the like are defined, the configuration may be such that the higher the risk level or the level of attention required, the more the automatic travel plan is affected.

さらに、物体の状態毎に報知態様が変化してもよい。例えば、車両の周囲の他の車両の方向指示器が作動している場合、当該作動している方向指示器を強調するなどして示し、方向指示器の動作が考慮されていることや当該方向指示器の影響の有無が区別されて報知される構成等が採用されてもよい。   Furthermore, the notification mode may change for each state of the object. For example, when the direction indicator of another vehicle around the vehicle is operating, the direction indicator that is operating is highlighted to show that the operation of the direction indicator is taken into account A configuration in which the presence / absence of the influence of the indicator is distinguished and notified may be employed.

走行計画報知部は、自動走行計画を報知することができればよい。すなわち、自動走行計画に対する影響に応じた区別ができるように物体が報知される構成において、影響があるか否かの判定元である自動走行計画も報知される。この構成によれば、利用者は、自動走行計画を認識した上で、当該自動走行計画に対する影響によって車両の周囲の物体を区別することができる。ここでも、報知の態様は種々の態様を採用可能であり、音による案内であってもよいし、画像表示であってもよいし、その双方であってもよく、種々の構成を採用可能である。   The travel plan notification unit only needs to be able to notify the automatic travel plan. That is, in the configuration in which an object is notified so that it can be distinguished according to the influence on the automatic travel plan, the automatic travel plan that is a determination source of whether there is an influence is also notified. According to this configuration, the user can recognize objects around the vehicle based on the influence on the automatic travel plan after recognizing the automatic travel plan. Here, various modes of notification can be adopted, guidance by sound, image display, or both of them, and various configurations can be employed. is there.

報知が画像の表示によって実現される構成例としては、例えば、影響度報知部が、自動走行計画に影響を与えた物体を、自動走行計画に影響を与えていない物体と区別する画像を車両の前方の風景に重畳して表示する構成を採用可能である。すなわち、物体を含む前方の風景に対して、物体が自動走行計画に与えた影響を区別するための画像が重畳される構成が採用されてもよい。この構成によれば、利用者は車両の前方における実風景と同等の像により、周囲の風景と照らし合わせて物体を認識することができ、容易に物体を認識することができる。   As an example of a configuration in which notification is realized by display of an image, for example, an image in which an influence degree notification unit distinguishes an object that has influenced an automatic travel plan from an object that has not affected the automatic travel plan is It is possible to adopt a configuration in which the image is displayed superimposed on the front landscape. In other words, a configuration may be employed in which an image for distinguishing the influence of an object on an automatic travel plan is superimposed on a forward landscape including the object. According to this configuration, the user can recognize an object in comparison with the surrounding scenery by an image equivalent to the actual scenery in front of the vehicle, and can easily recognize the object.

前方の風景に物体を区別するための画像を重畳するための構成としては、種々の構成を採用可能である。例えば、表示に領される装置としては、フラットパネル等のディスプレイやフロントガラス等への投射を利用したヘッドアップディスプレイであってもよい。前者としては、例えば、ディスプレイに物体を含む風景の画像が表示され、当該画像に対して物体を区別するための画像が重畳される構成が挙げられる。後者としては、例えば、ヘッドアップディスプレイ等により、車両の前方の物体を含む実風景に対して物体を区別するための画像が重畳される構成が挙げられる。   Various configurations can be adopted as a configuration for superimposing an image for distinguishing an object on a front landscape. For example, the device used for display may be a display such as a flat panel or a head-up display using projection onto a windshield. Examples of the former include a configuration in which an image of a landscape including an object is displayed on a display, and an image for distinguishing the object is superimposed on the image. Examples of the latter include a configuration in which an image for distinguishing an object is superimposed on a real landscape including an object in front of the vehicle by a head-up display or the like.

なお、前者のようなディスプレイ上の表示において、風景の画像はカメラ等で撮影された画像であってもよいし、ポリゴン等の描画による画像であってもよく種々の画像を採用可能である。むろん、物体の画像も任意の態様で表示されてよい。実風景がディスプレイ上に表示される構成としては、例えば、影響度報知部が、物体を含む風景を撮影した画像をディスプレイに表示し、ディスプレイ上の物体の画像を自動走行計画に対する影響に応じて強調する構成として実現可能である。強調は、物体の画像自体を変化させることによって実現されてもよいし、物体の画像の付近に他のアイコン(矢印等)が表示されることによって実現されてもよい。   In the display on the display such as the former, the landscape image may be an image taken by a camera or the like, or may be an image drawn by drawing a polygon or the like, and various images can be adopted. Of course, the image of the object may also be displayed in an arbitrary manner. As a configuration in which the actual scenery is displayed on the display, for example, the influence degree notification unit displays an image of the scenery including the object on the display, and the object image on the display is displayed according to the influence on the automatic travel plan. It can be realized as an emphasized configuration. The enhancement may be realized by changing the object image itself, or may be realized by displaying another icon (such as an arrow) in the vicinity of the object image.

さらに、風景に対する重畳が行われる構成においては、走行計画表示部が、自動走行計画を風景に重畳させて表示することが好ましい。この構成によれば、利用者は、風景に重畳された画像に基づいて自動走行計画と当該自動走行計画に影響を与えた物体とを対比させながら、自動走行計画と物体とを認識することができる。   Furthermore, in the configuration in which superimposition on the landscape is performed, it is preferable that the travel plan display unit displays the automatic travel plan superimposed on the landscape. According to this configuration, the user can recognize the automatic travel plan and the object while comparing the automatic travel plan and the object that has affected the automatic travel plan based on the image superimposed on the landscape. it can.

さらに、この場合、走行計画報知部が、車両を停止させることができない領域を風景に重畳させる構成であってもよい。すなわち、車両においては、車両に対して作用させることが可能な上限の減速度(負の加速度)を作用させても、瞬間的に停止することはできない。従って、制動開始から車両の停止までに車両が走行する距離の範囲は、車両を停止させることができない領域である。このような領域が風景に重畳されていれば、利用者は、当該領域に他の物体が進入し得るか否かを監視することができ、利用者が不安に感じる可能性を低減することができる。   Further, in this case, the travel plan notification unit may superimpose an area where the vehicle cannot be stopped on the landscape. That is, in the vehicle, even if an upper limit deceleration (negative acceleration) that can be applied to the vehicle is applied, the vehicle cannot be stopped instantaneously. Therefore, the range of the distance traveled by the vehicle from the start of braking to the stop of the vehicle is an area where the vehicle cannot be stopped. If such a region is superimposed on the landscape, the user can monitor whether or not other objects can enter the region, reducing the possibility that the user feels uneasy. it can.

さらに、本発明のように、自動走行計画に影響を与えた物体を認識可能にする手法は、プログラムや方法としても適用可能である。また、以上のような走行情報提供システム、プログラム、方法は、単独の装置として実現される場合もあれば、車両に備えられる各部と共有の部品を利用して実現される場合もあり、各種の態様を含むものである。すなわち、走行情報提供システムを構成する各手段が複数の実体的な装置に分散して備えられてもよい。各手段が複数の実体的な装置に分散して備えられる場合に、各手段を機能させるために必要なデータを送受信する通信手段が備えられてもよい。さらに、以上のような走行情報提供システムの少なくとも一部を備えたナビゲーション装置や方法、プログラムを提供することが可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、走行情報提供システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。   Furthermore, as in the present invention, a method for enabling recognition of an object that has influenced an automatic travel plan can also be applied as a program or method. In addition, the driving information providing system, program, and method as described above may be realized as a single device, or may be realized using components shared with each part provided in the vehicle. Including embodiments. That is, each means constituting the travel information providing system may be distributed and provided in a plurality of substantial devices. When each means is distributed and provided in a plurality of substantive devices, a communication means for transmitting and receiving data necessary to make each means function may be provided. Furthermore, it is possible to provide a navigation device, method, and program that include at least a part of the travel information providing system as described above. Further, some changes may be made as appropriate, such as a part of software and a part of hardware. Furthermore, the invention is also established as a recording medium for a program for controlling the travel information providing system. Of course, the software recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future.

10…ナビゲーションシステム、20…制御部、21…走行情報提供プログラム、21a…物体情報取得部、21b…走行計画取得部、21c…影響度報知部、21d…走行計画報知部、30…記録媒体、30a…地図情報、40…物体認識部、41…GPS受信部、42…車速センサ、43…ジャイロセンサ、44…ユーザI/F部、45…車両制御部   DESCRIPTION OF SYMBOLS 10 ... Navigation system, 20 ... Control part, 21 ... Travel information provision program, 21a ... Object information acquisition part, 21b ... Travel plan acquisition part, 21c ... Influence degree notification part, 21d ... Travel plan notification part, 30 ... Recording medium, 30a ... Map information, 40 ... Object recognition unit, 41 ... GPS reception unit, 42 ... Vehicle speed sensor, 43 ... Gyro sensor, 44 ... User I / F unit, 45 ... Vehicle control unit

Claims (8)

車両の周囲に存在する物体を示す物体情報を取得する物体情報取得部と、
少なくとも前記物体情報に基づいて車両を自動走行させる自動走行計画を取得する走行計画取得部と、
前記自動走行計画に影響を与えた前記物体を、前記自動走行計画に影響を与えていない前記物体と区別して報知する影響度報知部と、
前記自動走行計画を報知する走行計画報知部と、
を備える走行情報提供システム。
An object information acquisition unit for acquiring object information indicating an object existing around the vehicle;
A travel plan acquisition unit for acquiring an automatic travel plan for automatically driving the vehicle based on at least the object information;
An influence degree notification unit for notifying the object that has influenced the automatic driving plan and the object not affecting the automatic driving plan;
A travel plan informing unit for informing the automatic travel plan;
A travel information providing system comprising:
前記自動走行計画に影響を与えた前記物体は、
当該物体が存在しない場合の前記自動走行計画と、当該物体が存在する場合の前記自動走行計画とが異なるような前記物体である、
請求項1に記載の走行情報提供システム。
The object that has influenced the automatic driving plan is:
The automatic travel plan when the object does not exist and the automatic travel plan when the object exists are different from the object,
The travel information providing system according to claim 1.
前記影響度報知部は、
前記自動走行計画に影響を与えた前記物体を、前記自動走行計画に影響を与えていない前記物体と区別する画像を前記車両の前方の風景に重畳して表示し、
走行計画表示部は、前記自動走行計画を前記風景に重畳させて表示する、
請求項1または請求項2のいずれかに記載の走行情報提供システム。
The influence notification unit
An image that distinguishes the object that has influenced the automatic driving plan from the object that has not affected the automatic driving plan is displayed superimposed on the scenery in front of the vehicle,
The travel plan display unit displays the automatic travel plan superimposed on the landscape.
The travel information providing system according to claim 1 or 2.
前記走行計画報知部は、
前記車両を停止させることができない領域を前記風景に重畳させる、
請求項3に記載の走行情報提供システム。
The travel plan notification unit
Superimposing an area where the vehicle cannot be stopped on the landscape;
The travel information providing system according to claim 3.
前記影響度報知部は、
前記物体を含む前記風景を撮影した画像をディスプレイに表示し、前記ディスプレイ上の前記物体の画像を前記自動走行計画に対する影響に応じて強調する、
請求項3または請求項4のいずれかに記載の走行情報提供システム。
The influence notification unit
Displaying an image of the landscape including the object on a display, and emphasizing the image of the object on the display according to the influence on the automatic travel plan;
The travel information providing system according to any one of claims 3 and 4.
前記影響度報知部は、
前記物体が前記自動走行計画に与えた影響の強度を前記物体毎に報知する、
請求項1〜請求項5のいずれかに記載の走行情報提供システム。
The influence notification unit
Notifying for each object the strength of the influence that the object has given to the automatic travel plan,
The travel information providing system according to any one of claims 1 to 5.
前記走行計画取得部は、
前記物体情報に基づいて予測された前記物体の移動予測経路に基づいて前記自動走行計画を立案する、
請求項1〜請求項6のいずれかに記載の走行情報提供システム。
The travel plan acquisition unit
Formulating the automatic travel plan based on a predicted movement path of the object predicted based on the object information;
The travel information providing system according to any one of claims 1 to 6.
コンピュータを、
車両の周囲に存在する物体を示す物体情報を取得する物体情報取得部、
少なくとも前記物体情報に基づいて車両を自動走行させる自動走行計画を取得する走行計画取得部、
前記自動走行計画に影響を与えた前記物体を、前記自動走行計画に影響を与えていない前記物体と区別して報知する影響度報知部、
前記自動走行計画を報知する走行計画報知部、
として機能させる走行情報提供プログラム。
Computer
An object information acquisition unit for acquiring object information indicating an object existing around the vehicle;
A travel plan acquisition unit for acquiring an automatic travel plan for automatically driving the vehicle based on at least the object information;
An influence degree notification unit for notifying the object that has influenced the automatic driving plan, and notifying the object that has not affected the automatic driving plan,
A travel plan notification unit for reporting the automatic travel plan;
Driving information provision program to function as.
JP2016113821A 2016-06-07 2016-06-07 Travel information providing system and travel information providing program Pending JP2017220030A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016113821A JP2017220030A (en) 2016-06-07 2016-06-07 Travel information providing system and travel information providing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016113821A JP2017220030A (en) 2016-06-07 2016-06-07 Travel information providing system and travel information providing program

Publications (1)

Publication Number Publication Date
JP2017220030A true JP2017220030A (en) 2017-12-14

Family

ID=60656471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016113821A Pending JP2017220030A (en) 2016-06-07 2016-06-07 Travel information providing system and travel information providing program

Country Status (1)

Country Link
JP (1) JP2017220030A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110194166A (en) * 2018-02-27 2019-09-03 本田技研工业株式会社 Vehicle control system, control method for vehicle and storage medium
JP2019159845A (en) * 2018-03-13 2019-09-19 富士通株式会社 Evaluation program, evaluation method, and evaluation apparatus
JP2021535519A (en) * 2018-09-24 2021-12-16 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. Augmented reality DSRC data visualization

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110194166A (en) * 2018-02-27 2019-09-03 本田技研工业株式会社 Vehicle control system, control method for vehicle and storage medium
JP2019147486A (en) * 2018-02-27 2019-09-05 本田技研工業株式会社 Vehicle control system, vehicle control method, and program
JP7000202B2 (en) 2018-02-27 2022-01-19 本田技研工業株式会社 Vehicle control systems, vehicle control methods, and programs
CN110194166B (en) * 2018-02-27 2022-06-14 本田技研工业株式会社 Vehicle control system, vehicle control method, and storage medium
JP2019159845A (en) * 2018-03-13 2019-09-19 富士通株式会社 Evaluation program, evaluation method, and evaluation apparatus
JP7102800B2 (en) 2018-03-13 2022-07-20 富士通株式会社 Evaluation program, evaluation method and evaluation device
JP2021535519A (en) * 2018-09-24 2021-12-16 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. Augmented reality DSRC data visualization

Similar Documents

Publication Publication Date Title
CN110895417B (en) Vehicle control device, vehicle control method, and storage medium
US20220113735A1 (en) Autonomous driving system
US10589752B2 (en) Display system, display method, and storage medium
US10319233B2 (en) Parking support method and parking support device
CN110371114B (en) Vehicle control device, vehicle control method, and storage medium
US20180308359A1 (en) Parking Support Method and Parking Support Device
CN110920521B (en) Display system, display method, and storage medium
JP6827378B2 (en) Vehicle control systems, vehicle control methods, and programs
JP2017226371A (en) Travel information display system and travel information display program
US11701967B2 (en) Display control device, display control method, and storage medium
JP2009231938A (en) Surrounding monitoring device for vehicle
EP3627110A1 (en) Method for planning trajectory of vehicle
JP2008151507A (en) Apparatus and method for merge guidance
JP2021197009A (en) Risk determination system and risk determination program
JP2019049812A (en) Traveling position evaluation system
CN110954126A (en) Display system, display method, and storage medium
JP2014089138A (en) Location guide system, method and program
JP4984844B2 (en) Merge guidance apparatus and merge guidance method
JP2017220030A (en) Travel information providing system and travel information providing program
CN111824142B (en) Display control device, display control method, and storage medium
US11222552B2 (en) Driving teaching device
JP6593240B2 (en) Recommended lane guidance system and recommended lane guidance program
JP2012174209A (en) Traffic lane guiding device, method and program
CN115050203B (en) Map generation device and vehicle position recognition device
US12005904B2 (en) Autonomous driving system