JP2017228187A - Travel information display system and travel information display program - Google Patents

Travel information display system and travel information display program Download PDF

Info

Publication number
JP2017228187A
JP2017228187A JP2016125180A JP2016125180A JP2017228187A JP 2017228187 A JP2017228187 A JP 2017228187A JP 2016125180 A JP2016125180 A JP 2016125180A JP 2016125180 A JP2016125180 A JP 2016125180A JP 2017228187 A JP2017228187 A JP 2017228187A
Authority
JP
Japan
Prior art keywords
vehicle
travel plan
control unit
automatic
plan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016125180A
Other languages
Japanese (ja)
Inventor
宮本 慎也
Shinya Miyamoto
慎也 宮本
卓洋 伊取
Takahiro Itori
卓洋 伊取
兼士朗 西川
Kenshiro Nishikawa
兼士朗 西川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2016125180A priority Critical patent/JP2017228187A/en
Publication of JP2017228187A publication Critical patent/JP2017228187A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of reducing a possibility that a user might have anxiety about whether automatic driving is performed with consideration for existence of an object.SOLUTION: A travel information display system comprises: an object information acquisition section for acquiring object information indicating the object existing around a vehicle; a travel plan acquisition section for acquiring an automatic travel plan to cause the vehicle to automatically travel on the basis of at least the object information; and a display control section for simultaneously displaying the object, a route of the vehicle in the automatic travel plan and an icon representing an influence degree that the object has on the automatic travel plan in a display section. The icon represents the influence degree with a shape of eyes.SELECTED DRAWING: Figure 2

Description

本発明は、走行情報表示システムおよび走行情報表示プログラムに関する。   The present invention relates to a travel information display system and a travel information display program.

自車両の進行を妨げる可能性のある物体の存在をユーザ(運転者)に知らせる技術が知られている(特許文献1、参照)。特許文献1においては、自車両のウインドシールドにキャラクターを投影し、そのキャラクターの顔の表情等を変えることにより、自車両の進行を妨げる可能性のある物体の危険度が表現される。   A technique is known that notifies a user (driver) of the presence of an object that may hinder the progress of the host vehicle (see Patent Document 1). In Patent Document 1, by projecting a character onto the windshield of the host vehicle and changing the facial expression of the character, the risk level of an object that may hinder the progress of the host vehicle is expressed.

特開2009−9446号公報JP 2009-9446 A

自動運転においては、物体の存在を考慮して当該物体と干渉しないような車両の走行計画が作成され得る。ここで、特許文献1のように物体の存在をユーザに知らせたとしても、車両の走行計画が当該物体の存在を考慮して作成されたものであるかをユーザが認識することができないという問題があった。すなわち、ユーザは、存在を知らされた物体や、自ら気がついている物体に干渉しないように車両が自動運転されるか否かについて不安を覚えるという問題があった。
本発明は、前記課題にかんがみてなされたもので、物体の存在を考慮して自動運転が行われているか否かについて、ユーザが不安を覚える可能性を低減できる技術を提供することを目的とする。
In automatic driving, a vehicle travel plan that does not interfere with the object can be created in consideration of the presence of the object. Here, even if the user is informed of the presence of an object as in Patent Document 1, the user cannot recognize whether the vehicle travel plan is created in consideration of the presence of the object. was there. That is, there is a problem that the user feels uneasy about whether or not the vehicle is automatically driven so as not to interfere with an object whose presence is known or an object he / she is aware of.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technology that can reduce the possibility that a user will feel uneasy about whether or not automatic driving is performed in consideration of the presence of an object. To do.

前記の目的を達成するため、走行情報表示システムは、車両の周囲に存在する物体を示す物体情報を取得する物体情報取得部と、少なくとも物体情報に基づいて車両を自動走行させる自動走行計画を取得する走行計画取得部と、物体と、自動走行計画における車両の経路と、物体が自動走行計画に与えている影響度を表すアイコンと、を同時に表示部に表示する表示制御部と、を備え、アイコンは、目の形状によって影響度を表す。   In order to achieve the above object, the travel information display system acquires an object information acquisition unit that acquires object information indicating an object existing around the vehicle, and an automatic travel plan for automatically driving the vehicle based on at least the object information. A display control unit that simultaneously displays a travel plan acquisition unit, an object, a vehicle route in the automatic travel plan, and an icon representing the degree of influence that the object has on the automatic travel plan on the display unit, The icon represents the degree of influence depending on the shape of the eye.

さらに、前記の目的を達成するため、走行情報表示プログラムは、コンピュータを、車両の周囲に存在する物体を示す物体情報を取得する物体情報取得部、少なくとも物体情報に基づいて車両を自動走行させる自動走行計画を取得する走行計画取得部、物体と、自動走行計画における車両の経路と、物体が自動走行計画に与えている影響度を表すアイコンと、を同時に表示部に表示する表示制御部、として機能させ、アイコンは、目の形状によって影響度を表す。   Furthermore, in order to achieve the above-mentioned object, the travel information display program causes the computer to automatically execute the vehicle based on at least the object information acquisition unit that acquires object information indicating an object existing around the vehicle. A travel plan acquisition unit that acquires a travel plan, an object, a vehicle control route in the automatic travel plan, and a display control unit that simultaneously displays on the display unit an icon representing the degree of influence that the object has on the automatic travel plan The icon indicates the degree of influence by the shape of the eye.

前記のように構成した走行情報表示システムおよび走行情報表示プログラムにおいては、物体と経路との位置関係を認識できるだけでなく、自動走行計画が物体を考慮して作成されたものであるか否かを目の形状によって直感的に認識できる。従って、物体の存在を考慮して自動運転が行われているか否かについて、ユーザが不安を覚える可能性を低減できる。さらに、目の形状のみによって影響度を表すことにより、物体が自動走行計画に与えている影響度をより正確に認識できる。顔全体から受け取る感情は文化等の影響を受けるが、目の形状から受け取る感情は文化等の影響を受けにくいからである。   In the travel information display system and the travel information display program configured as described above, not only can the positional relationship between the object and the route be recognized, but also whether or not the automatic travel plan is created in consideration of the object. It can be intuitively recognized by the shape of the eyes. Therefore, it is possible to reduce the possibility that the user feels uneasy about whether or not automatic driving is performed in consideration of the presence of an object. Furthermore, by representing the degree of influence only by the shape of the eyes, it is possible to more accurately recognize the degree of influence that the object has on the automatic travel plan. This is because emotions received from the entire face are influenced by culture and the like, but emotions received from the shape of the eyes are not easily influenced by culture and the like.

ナビゲーションシステムのブロック図である。It is a block diagram of a navigation system. 図2A〜図2Eは表示部における表示例である。2A to 2E are display examples on the display unit. 走行情報表示処理のフローチャートである。It is a flowchart of a driving information display process.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)ナビゲーションシステムの構成:
(2)走行情報表示処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of navigation system:
(2) Travel information display processing:
(3) Other embodiments:

(1)ナビゲーションシステムの構成:
図1は、本発明の一実施形態にかかる走行情報表示システムを含むナビゲーションシステム10の構成を示すブロック図である。ナビゲーションシステム10は、車両に備えられており、CPU,RAM,ROM等を備える制御部20、記録媒体30を備えている。ナビゲーションシステム10は、記録媒体30やROMに記憶されたプログラムを制御部20で実行する。記録媒体30には、予め地図情報30aが記録されている。
(1) Configuration of navigation system:
FIG. 1 is a block diagram showing a configuration of a navigation system 10 including a travel information display system according to an embodiment of the present invention. The navigation system 10 is provided in a vehicle, and includes a control unit 20 including a CPU, a RAM, a ROM, and the like, and a recording medium 30. The navigation system 10 causes the control unit 20 to execute a program stored in the recording medium 30 or the ROM. Map information 30a is recorded in the recording medium 30 in advance.

地図情報30aは、車両の位置や案内対象の施設の特定に利用される情報であり、車両が走行する道路上に設定されたノードの位置等を示すノードデータ,ノード間の道路の形状を特定するための形状補間点の位置等を示す形状補間点データ,ノード同士の連結を示すリンクデータ,道路やその周辺に存在する地物の位置等を示す地物データ等を含んでいる。地図情報30aは施設としての駐車場の位置と形状を示す駐車場データを含んでいる。駐車場データは、駐車場内に設けられた駐車枠(車両一台が駐車できる領域)の位置と形状とを示す。   The map information 30a is information used to specify the position of the vehicle and the facility to be guided, and specifies node data indicating the position of the node set on the road on which the vehicle travels, and the shape of the road between the nodes. This includes shape interpolation point data indicating the position of the shape interpolation point, etc., link data indicating connection between nodes, feature data indicating the position of the feature existing on the road and its surroundings, and the like. The map information 30a includes parking lot data indicating the position and shape of a parking lot as a facility. The parking lot data indicates the position and shape of a parking frame (an area where one vehicle can be parked) provided in the parking lot.

本実施形態における車両は、物体認識部40とGPS受信部41と車速センサ42とジャイロセンサ43と表示部44と車両制御部45とを備えている。GPS受信部41は、GPS衛星からの電波を受信し、図示しないインタフェースを介して車両の現在地を算出するための信号を出力する。制御部20は、この信号を取得して車両の現在地を取得する。車速センサ42は、車両が備える車輪の回転速度に対応した信号を出力する。制御部20は、図示しないインタフェースを介してこの信号を取得し、車速を取得する。   The vehicle in this embodiment includes an object recognition unit 40, a GPS reception unit 41, a vehicle speed sensor 42, a gyro sensor 43, a display unit 44, and a vehicle control unit 45. The GPS receiver 41 receives radio waves from GPS satellites and outputs a signal for calculating the current location of the vehicle via an interface (not shown). The control unit 20 acquires this signal and acquires the current location of the vehicle. The vehicle speed sensor 42 outputs a signal corresponding to the rotational speed of the wheels provided in the vehicle. The control unit 20 acquires this signal via an interface (not shown) and acquires the vehicle speed.

ジャイロセンサ43は、車両の水平面内の旋回についての角加速度を検出し、車両の向きに対応した信号を出力する。制御部20は、この信号を取得して車両の進行方向を取得する。車速センサ42およびジャイロセンサ43等は、車両の走行軌跡を特定するために利用され、本実施形態においては、車両の出発地と走行軌跡とに基づいて現在地が特定され、当該出発地と走行軌跡とに基づいて特定された車両の現在地がGPS受信部41の出力信号に基づいて補正される。   The gyro sensor 43 detects angular acceleration about turning in the horizontal plane of the vehicle, and outputs a signal corresponding to the direction of the vehicle. The control unit 20 acquires this signal and acquires the traveling direction of the vehicle. The vehicle speed sensor 42, the gyro sensor 43, and the like are used to specify the travel locus of the vehicle. In the present embodiment, the current location is specified based on the departure location and the travel locus of the vehicle. Based on the output signal of the GPS receiver 41, the current location of the vehicle specified based on the above is corrected.

なお、制御部20は、車速センサ42の出力信号や、車両の位置の時間変化等に基づいて車両の加速度を取得することができる。以上のように、本実施形態においては、GPS受信部41,車速センサ42,ジャイロセンサ43が車両の状態(位置、向き、速度、加速度)を取得するためのセンサとなっているが、むろん、他の手法、例えば、加速度センサに基づく加速度の特定やカメラによる車線検出による位置の特定、ステアリングセンサに基づく操舵角の特定等が車両の状態の取得に利用されてもよい。   The control unit 20 can acquire the acceleration of the vehicle based on the output signal of the vehicle speed sensor 42, the time change of the position of the vehicle, or the like. As described above, in the present embodiment, the GPS receiver 41, the vehicle speed sensor 42, and the gyro sensor 43 are sensors for acquiring the vehicle state (position, orientation, speed, acceleration). Other methods, for example, identification of acceleration based on an acceleration sensor, identification of a position based on lane detection by a camera, identification of a steering angle based on a steering sensor, and the like may be used for acquiring a vehicle state.

物体認識部40は、車両の周囲に存在する物体を検知するセンサであり、本実施形態においては、複数のカメラが物体認識部40を構成する。すなわち、複数のカメラは、各カメラの画像をつなぎ合わせることで車両の周囲360°の範囲を撮影できるように車両に対して固定されている。制御部20は、当該物体認識部40の出力する風景画像を取得し、当該風景画像における特徴量の抽出等によって画像を解析することによって物体を認識する。   The object recognition unit 40 is a sensor that detects an object that exists around the vehicle. In the present embodiment, a plurality of cameras constitute the object recognition unit 40. In other words, the plurality of cameras are fixed with respect to the vehicle so that the range of 360 ° around the vehicle can be photographed by connecting the images of the cameras. The control unit 20 acquires a landscape image output from the object recognition unit 40, and recognizes the object by analyzing the image by extracting feature amounts from the landscape image.

表示部44は、ユーザ(運転者)に向けて画像を表示する表示装置である。本実施形態において、表示部44は、車速やエンジンの回転数やシフト等を表示するメーターパネルに組み込まれた液晶ディスプレイである。表示部44はユーザが視認可能な位置にて画像を表示するように構成さればよく、運転中のユーザの顔の位置よりも前方の位置に備えられればよい。   The display unit 44 is a display device that displays an image toward a user (driver). In the present embodiment, the display unit 44 is a liquid crystal display incorporated in a meter panel that displays vehicle speed, engine speed, shift, and the like. The display part 44 should just be comprised so that an image may be displayed in the position which a user can visually recognize, and should just be provided in the position ahead rather than the position of the user's face in driving | operation.

車両制御部45は、車両を動作させる装置を制御する装置である。車両を動作させる装置は、種々の装置を想定可能であり、本実施形態においては、内燃機関、ブレーキ、ステアリング、変速機が車両を動作させる装置に相当する。車両制御部45は、これらの各装置に対して制御信号を出力し、その動作を制御する。この結果、車両制御部45の指示により、内燃機関の回転数を制御し、ブレーキの制動力を制御し、ステアリングによる操舵角を制御し、変速機による変速比を制御する。   The vehicle control unit 45 is a device that controls a device that operates the vehicle. Various devices can be assumed as the device for operating the vehicle. In the present embodiment, the internal combustion engine, the brake, the steering, and the transmission correspond to devices for operating the vehicle. The vehicle control unit 45 outputs a control signal to each of these devices and controls its operation. As a result, according to an instruction from the vehicle control unit 45, the rotational speed of the internal combustion engine is controlled, the braking force of the brake is controlled, the steering angle by the steering is controlled, and the transmission ratio by the transmission is controlled.

車両制御部45は、制御部20からの制御信号に応じてこれらの制御を行うことができ、制御部20から時刻ごとの車両の位置、向き、速度、加速度を示す制御信号が出力されると、車両制御部45は、当該制御信号に基づいて、指示された位置、向き、速度、加速度になるように各装置を制御する。この結果、制御部20の制御によって車両を自動走行させることができる。むろん、以上の構成は一例であり、車両制御部45の制御対象にモータ等の他の装置が含まれていてもよいし、制御の手法は、種々の手法を採用可能である。   The vehicle control unit 45 can perform these controls in accordance with control signals from the control unit 20, and when a control signal indicating the position, direction, speed, and acceleration of the vehicle for each time is output from the control unit 20. Based on the control signal, the vehicle control unit 45 controls each device so that the instructed position, orientation, speed, and acceleration are obtained. As a result, the vehicle can automatically run under the control of the control unit 20. Of course, the above configuration is merely an example, and other devices such as a motor may be included in the control target of the vehicle control unit 45, and various control methods may be employed.

制御部20は、図示しないナビゲーションプログラムの機能により図示しない入力部を介してユーザによる目的地の入力を受け付け、車両の現在地から目的地までの走行予定経路を探索する。走行予定経路は、出発地から目的地までを接続する一連のリンクと当該リンク内にて走行が推奨される車線によって特定される。また、制御部20は、走行予定経路に沿って車両を走行させるための自動走行計画を作成し、当該自動走行計画に沿って車両制御部45の自動制御を実行する。さらに、制御部20は、図示しない入力部を介してユーザによる駐車枠の指定を受け付け、当該駐車枠内に車両を駐車させるための自動走行計画を作成し、当該自動走行計画に沿って車両制御部45の自動制御を実行する。   The control unit 20 receives an input of a destination by the user via an input unit (not shown) by a function of a navigation program (not shown), and searches for a planned travel route from the current location of the vehicle to the destination. The planned travel route is specified by a series of links connecting from the departure point to the destination and lanes recommended for travel within the link. The control unit 20 creates an automatic travel plan for causing the vehicle to travel along the planned travel route, and executes automatic control of the vehicle control unit 45 along the automatic travel plan. Furthermore, the control unit 20 receives designation of a parking frame by a user via an input unit (not shown), creates an automatic travel plan for parking the vehicle in the parking frame, and controls the vehicle along the automatic travel plan. Automatic control of the unit 45 is executed.

走行情報表示プログラム21は、物体情報取得モジュール21aと走行計画取得モジュール21bと表示制御モジュール21cとを含む。物体情報取得モジュール21aは、車両の周囲に存在する物体を示す物体情報を取得する機能を制御部20に実現させるプログラムモジュールである。本実施形態において、物体情報取得モジュール21aの機能により制御部20は、物体認識部40が撮影した風景画像を取得し、当該風景画像にて物体の特徴を示す特徴量を特定することにより、車両の周囲に存在する物体を認識する。   The travel information display program 21 includes an object information acquisition module 21a, a travel plan acquisition module 21b, and a display control module 21c. The object information acquisition module 21a is a program module that causes the control unit 20 to realize a function of acquiring object information indicating objects existing around the vehicle. In the present embodiment, the control unit 20 acquires a landscape image captured by the object recognition unit 40 by the function of the object information acquisition module 21a, and specifies a feature amount indicating the feature of the object in the landscape image, whereby the vehicle Recognize objects that exist around

物体認識部40は、一定期間(例えば100ms)ごとに車両の周囲を撮影した風景画像を出力する。風景画像内における物体の像の位置と実空間内での物体の位置とは予め対応づけられているため、制御部20は、当該対応関係に基づいて車両の周囲の物体の位置を特定可能である。また、制御部20は、風景画像に基づいて各物体の大きさ、形状を特定する。制御部20は、風景画像においてパターンマッチング処理等を実施し、物体の種類を判定する。また、制御部20は、複数の時刻にて撮影された風景画像に基づいて物体の速度および加速度、移動方向を特定する。物体情報取得モジュール21aの機能により制御部20は、物体ごとに位置と速度と加速度と移動方向とを示す物体情報を生成し、RAMに記録する。物体情報は、予め決められた時間周期ごと(物体認識部40が最新の画像を撮影するごと)に取得される。また、物体情報は、物体を回避しながら車両を自動で走行させるために利用される。   The object recognition unit 40 outputs a landscape image obtained by photographing the periphery of the vehicle at regular intervals (for example, 100 ms). Since the position of the object image in the landscape image and the position of the object in the real space are associated with each other in advance, the control unit 20 can specify the positions of the objects around the vehicle based on the correspondence relationship. is there. Further, the control unit 20 specifies the size and shape of each object based on the landscape image. The control unit 20 performs pattern matching processing or the like on the landscape image and determines the type of the object. Further, the control unit 20 specifies the speed and acceleration of the object and the moving direction based on the landscape images taken at a plurality of times. By the function of the object information acquisition module 21a, the control unit 20 generates object information indicating the position, speed, acceleration, and moving direction for each object, and records the object information in the RAM. The object information is acquired every predetermined time period (each time the object recognition unit 40 captures the latest image). Further, the object information is used for automatically driving the vehicle while avoiding the object.

走行計画取得モジュール21bは、少なくとも物体情報に基づいて車両を自動走行させる自動走行計画を取得する機能を制御部20に実現させるプログラムモジュールである。本実施形態において、走行計画取得モジュール21bの機能により制御部20は、物体情報に基づいて、現在以降の予め決められた期間(例えば、数秒間)内における時刻ごとの車両の位置と向き、各時刻における速度および加速度を決定し、これらを示す自動走行計画を取得する。自動走行計画は走行予定経路に沿って車両を走行させるための計画であるが、自動走行計画が示す時刻ごとの車両の位置の軌跡を走行予定経路と区別して自動走行経路と表記する。   The travel plan acquisition module 21b is a program module that causes the control unit 20 to realize a function of acquiring an automatic travel plan for automatically traveling the vehicle based on at least the object information. In the present embodiment, the function of the travel plan acquisition module 21b allows the control unit 20 to determine the position and orientation of the vehicle at each time within a predetermined period (for example, several seconds) after the current time based on the object information, The speed and acceleration at the time are determined, and an automatic travel plan showing these is acquired. The automatic travel plan is a plan for causing the vehicle to travel along the planned travel route. The trajectory of the vehicle position at each time indicated by the automatic travel plan is distinguished from the planned travel route and expressed as an automatic travel route.

また、制御部20は、物体情報が示す物体のなかから、明らかに車両と干渉しない物体を処理対象(自動走行計画の作成に考慮する対象)から除外する。明らかに車両と干渉しない物体とは、例えば道路上に形成された白線や道路標示等の特定の種類の物体であってもよい。また、明らかに車両と干渉しない物体とは、例えば自動走行経路から予め決められた基準距離以上離れている物体であってもよい。基準距離は、物体の移動の有無に応じて設定されてもよいし、走行予定経路に対して物体が移動する方向に応じて設定されてもよいし、物体の種類に応じて設定されてもよい。   In addition, the control unit 20 excludes, from the objects indicated by the object information, objects that do not clearly interfere with the vehicle from the processing targets (targets considered for the creation of the automatic travel plan). Obviously, the object that does not interfere with the vehicle may be a specific type of object such as a white line or road marking formed on the road. Further, the object that clearly does not interfere with the vehicle may be an object that is separated from the automatic travel route by a predetermined reference distance or more, for example. The reference distance may be set according to whether or not the object has moved, may be set according to the direction in which the object moves relative to the planned travel route, or may be set according to the type of object. Good.

制御部20は、現在以降の予め決められた期間内での時刻ごとの物体の移動予測経路を特定する。物体の移動予測経路は種々の手法で特定されてよく、例えば制御部20は、物体が等速度運動や等加速度運動を行うと仮定して移動予測経路を特定してもよい。   The control unit 20 specifies an object movement prediction route for each time within a predetermined period after the current time. The movement prediction path of the object may be specified by various methods. For example, the control unit 20 may specify the movement prediction path on the assumption that the object performs constant velocity motion or constant acceleration motion.

次に、制御部20は、物体の移動予測経路が示す物体の時刻ごとの位置に基づいて、自動走行計画に沿って走行する車両と物体とが干渉するか否かを判定する。すなわち、制御部20は、自動走行計画が示す時刻ごとの車両の位置と、物体の時刻ごとの位置とを比較し、同一時刻における両者の距離の最小値が予め決められた閾値よりも大きければ、物体と車両とが干渉しないと判定する。自動走行計画に沿って走行する車両と物体とが干渉しないと判定された場合、制御部20は、自動走行計画を修正することなく維持する。   Next, the control unit 20 determines whether the vehicle traveling along the automatic travel plan interferes with the object based on the position of the object indicated by the predicted movement path of the object for each time. That is, the control unit 20 compares the position of the vehicle at each time indicated by the automatic travel plan with the position at each time of the object, and if the minimum value of the distance between the two at the same time is greater than a predetermined threshold value. It is determined that the object and the vehicle do not interfere with each other. When it is determined that the vehicle and the object traveling along the automatic travel plan do not interfere with each other, the control unit 20 maintains the automatic travel plan without correcting it.

一方、制御部20は、自動走行計画が示す時刻ごとの車両の位置と、物体の時刻ごとの位置とを比較し、同一時刻における両者の距離の最小値が予め決められた閾値以下であれば、物体と車両とが干渉すると判定する。自動走行計画に沿って走行する車両と物体とが干渉すると判定された場合、制御部20は、自動走行計画を修正する。具体的に、制御部20は、物体と車両との干渉を回避するために、干渉が予測される位置の手前にて車両を停止させたり、物体から一定の距離以上離れた自動走行経路で車両が走行するように自動走行計画を修正する。ここで、干渉が予測される位置とは、物体と車両との距離が最初に閾値以下となる時刻における車両の位置である。   On the other hand, the control unit 20 compares the position of the vehicle for each time indicated by the automatic travel plan with the position for each time of the object, and if the minimum value of the distance at the same time is equal to or less than a predetermined threshold value. It is determined that the object and the vehicle interfere with each other. When it is determined that the vehicle and the object traveling along the automatic travel plan interfere with each other, the control unit 20 corrects the automatic travel plan. Specifically, in order to avoid interference between the object and the vehicle, the control unit 20 stops the vehicle in front of the position where the interference is predicted, or moves the vehicle on an automatic travel route that is more than a certain distance away from the object. The automatic travel plan is corrected so that the vehicle travels. Here, the position where interference is predicted is the position of the vehicle at the time when the distance between the object and the vehicle first becomes equal to or less than the threshold value.

表示制御モジュール21cは、物体と、自動走行計画における車両の経路と、物体が自動走行計画に与えている影響度を表すアイコンと、を同時に表示部44に表示する機能を制御部20に実現させるプログラムモジュールである。このアイコンは、目の形状によって影響度を表すものである。以下、図2A〜図2Eを用いて表示部44における表示内容を説明する。   The display control module 21c causes the control unit 20 to realize a function of simultaneously displaying an object, a vehicle route in the automatic travel plan, and an icon representing the degree of influence that the object has on the automatic travel plan on the display unit 44. It is a program module. This icon represents the degree of influence depending on the shape of the eye. Hereinafter, display contents on the display unit 44 will be described with reference to FIGS. 2A to 2E.

図2A〜図2Eは、表示部44における表示例を示す。また、図2A〜図2Eは、自動制御によって車両を駐車枠Wに駐車する際の表示例を示す。図2A〜図2Eに示すように、表示制御モジュール21cの機能により制御部20は、車両Cの周辺に設定された描画領域を鉛直上方から見た平面図Fを描画し、当該平面図Fを表示部44に表示する。本実施形態の平面図Fにおいて、車両Cの像が一定の位置において一定の方向で描画され、車両Cの前方が常に平面図Fの上方を向くように描画領域が設定されている。また、本実施形態の平面図Fにおいて、駐車枠Wを区画する白線の像が描画されている。この白線の像は、地図情報30aの駐車場データに基づいて描画されてもよいし、物体として認識された白線の位置に基づいて描画されてもよい。   2A to 2E show display examples on the display unit 44. FIG. 2A to 2E show display examples when the vehicle is parked in the parking frame W by automatic control. As shown in FIGS. 2A to 2E, the control unit 20 draws a plan view F obtained by vertically viewing a drawing area set around the vehicle C by the function of the display control module 21 c, and the plan view F is displayed. It is displayed on the display unit 44. In the plan view F of the present embodiment, the drawing area is set so that the image of the vehicle C is drawn in a fixed direction at a fixed position, and the front of the vehicle C always faces the upper side of the plan view F. Moreover, in the top view F of this embodiment, the image of the white line which divides the parking frame W is drawn. This white line image may be drawn based on the parking lot data of the map information 30a, or may be drawn based on the position of the white line recognized as an object.

表示制御モジュール21cの機能により制御部20は、自動走行計画における車両の経路である自動走行経路Rを平面図F内に表示する。自動走行経路Rは、自動走行計画が示す各時刻の車両Cの位置を平面図F内にプロットした点を接続する線によって表されている。図2Aの例では、後退しながら駐車枠Wに車両Cを駐車させる自動走行計画が作成されていることとする。また、車両Cの周辺に車両Cと干渉し得る物体が存在しない状態で自動走行経路が作成されていることとする。   By the function of the display control module 21c, the control unit 20 displays the automatic travel route R, which is the vehicle route in the automatic travel plan, in the plan view F. The automatic travel route R is represented by a line connecting points plotted in the plan view F of the position of the vehicle C at each time indicated by the automatic travel plan. In the example of FIG. 2A, it is assumed that an automatic travel plan for parking the vehicle C in the parking frame W while moving backward is created. In addition, it is assumed that the automatic travel route is created in a state where there is no object that can interfere with the vehicle C around the vehicle C.

図2A〜図2Eに示すように、表示制御モジュール21cの機能により制御部20は、目の形状を有するアイコンE1,E2を平面図F上に表示する。アイコンE1,E2で両目が表現される。表示制御モジュール21cの機能により制御部20は、自動走行計画に影響を与える物体が存在する場合に、自動走行計画に影響を与える物体が存在しない場合よりも、円に近い形状に目の形状を変化させる。具体的に、制御部20は、自動走行計画に影響を与える物体が存在しない状態から、自動走行計画に影響を与える物体が存在する状態へと転じた場合に、アイコンE1,E2を円形に変化させる。ここで、自動走行計画に影響を与える物体とは、物体情報が示す物体のなかから、駐車枠Wの白線等の明らかに車両と干渉しない物体を除外した残りの物体である。   As shown in FIGS. 2A to 2E, the control unit 20 displays icons E1 and E2 having eye shapes on the plan view F by the function of the display control module 21c. Both eyes are represented by icons E1 and E2. With the function of the display control module 21c, the control unit 20 causes the shape of the eye to be closer to a circle when there is an object that affects the automatic travel plan than when there is no object that affects the automatic travel plan. Change. Specifically, the control unit 20 changes the icons E1 and E2 to a circle when the state is changed from a state in which no object affecting the automatic travel plan exists to a state in which an object affecting the automatic travel plan exists. Let Here, the object that affects the automatic travel plan is a remaining object that excludes an object that clearly does not interfere with the vehicle, such as a white line of the parking frame W, from the objects indicated by the object information.

図2Aは、自動走行計画に影響を与える物体が存在しない状態の表示例を示す。一方、図2Bは、自動走行計画に影響を与える物体として、他車両Oが出現した状態の表示例を示す。自動走行計画に影響を与える物体が出現した場合とは、実空間における平面図Fの描画領域内に他車両Oが進入した場合を意味する。むろん、自動走行計画に影響を与える物体が出現した場合には、車両Cとともに平面図Fの描画領域が移動することによって描画領域内に他車両Oが進入した場合も含まれる。図2Bの状態において、実空間における平面図Fの描画領域内に他車両Oが進入してきており、制御部20は、物体としての他車両Oの像が平面図F内に表示されることとなる。   FIG. 2A shows a display example in a state where there is no object that affects the automatic travel plan. On the other hand, FIG. 2B shows a display example in a state where another vehicle O appears as an object that affects the automatic travel plan. The case where an object that affects the automatic travel plan appears means that another vehicle O has entered the drawing area of the plan view F in the real space. Of course, when an object that affects the automatic travel plan appears, the case where another vehicle O enters the drawing area by moving the drawing area of the plan view F together with the vehicle C is also included. In the state of FIG. 2B, the other vehicle O has entered the drawing area of the plan view F in the real space, and the control unit 20 displays an image of the other vehicle O as an object in the plan view F. Become.

図2BのアイコンE1,E2は円形(真円)となっており、図2AのアイコンE1,E2は楕円形となっている。図2AのアイコンE1,E2(集中アイコン)は、目頭の位置に対して目尻の位置が高くなっている。図2AのアイコンE1,E2によって、目を細めて自動走行計画に影響を与える物体の出現を注意深く監視していることをユーザが認識できる。   The icons E1 and E2 in FIG. 2B are circular (perfect circles), and the icons E1 and E2 in FIG. 2A are oval. In the icons E1 and E2 (concentrated icons) in FIG. 2A, the position of the corner of the eye is higher than the position of the eye. The icons E1 and E2 in FIG. 2A enable the user to recognize that the appearance of an object that narrows his eyes and affects the automatic travel plan is carefully monitored.

一方、図2BのアイコンE1,E2(気づきアイコン)のように、円に近い形状に目の形状を変化させて驚いた印象を与えることにより、自動走行計画に影響を与える物体が認識されていることを直感的に認識できる。つまり、図2Bが表示された時点で、他車両Oの存在をユーザが平面図F上で認識することとなるが、当該他車両Oの存在を考慮した上で自動走行計画が作成されていることをアイコンE1,E2によって認識でき、ユーザが不安を覚える可能性を低減できる。なお、他車両Oの存在を考慮した上で自動走行計画が作成されている場合には、他車両Oの存在を考慮した結果、他車両Oの影響を受けた自動走行計画が作成されている場合も含まれるが、他車両Oの影響を何ら受けてない自動走行計画が作成されている場合も含まれる。   On the other hand, objects such as icons E1 and E2 (awareness icons) in FIG. 2B that change the shape of the eyes to a shape close to a circle and give a surprising impression are recognized. Can be recognized intuitively. That is, when FIG. 2B is displayed, the user recognizes the existence of the other vehicle O on the plan view F, but the automatic travel plan is created in consideration of the existence of the other vehicle O. This can be recognized by the icons E1 and E2, and the possibility that the user feels uneasy can be reduced. When the automatic travel plan is created in consideration of the existence of the other vehicle O, the automatic travel plan influenced by the other vehicle O is created as a result of considering the existence of the other vehicle O. In some cases, an automatic travel plan that is not affected by other vehicles O is created.

表示制御モジュール21cの機能により制御部20は、物体が自動走行計画に与えている影響度が大きいほど、目頭の位置に対して目尻の位置が大きく下がった形状に目の形状を変化させる。図2Bのように他車両Oが出現した段階では円形のアイコンE1,E2が表示されるが、その後、他車両Oがさらに車両Cや自動走行経路Rに接近した場合には図2C,図2Dに示すように目の形状を変化させたアイコンE1,E2(困りアイコン)を表示する。困りアイコンは、目頭の位置に対して目尻の位置が下がったアイコンE1,E2である。本実施形態の困りアイコンは、上側の輪郭線が直線であり、下側の輪郭線が下に凸の曲線である。   With the function of the display control module 21c, the control unit 20 changes the shape of the eye to a shape in which the position of the corner of the eye greatly decreases with respect to the position of the eye, as the degree of influence of the object on the automatic travel plan increases. As shown in FIG. 2B, when the other vehicle O appears, circular icons E1 and E2 are displayed. However, when the other vehicle O further approaches the vehicle C or the automatic travel route R after that, FIGS. 2C and 2D are displayed. As shown in FIG. 4, icons E1 and E2 (problem icons) with different eye shapes are displayed. The trouble icons are icons E1 and E2 in which the positions of the corners of the eyes are lowered with respect to the positions of the eyes. In the trouble icon of the present embodiment, the upper contour line is a straight line, and the lower contour line is a downward convex curve.

物体が自動走行計画に影響を与えることの自信度とは、物体が存在しないと仮定した場合に作成される自動走行計画と、物体が存在する場合に作成されている自動走行計画と、が異なる確率が大きいほど大きくなる指標値である。例えば、他車両Oが存在する場合に、他車両Oが存在しないと仮定した場合と異なる自動走行経路Rが設定されたり、他車両Oが存在しないと仮定した場合よりも遅い車両の速度(0も含む)が設定されたりする場合が該当する。   The degree of confidence that an object has an influence on an automated driving plan differs from the automated driving plan created when an object does not exist and the automated driving plan created when an object exists. The index value increases as the probability increases. For example, when another vehicle O is present, an automatic travel route R different from the case where it is assumed that the other vehicle O does not exist is set, or the vehicle speed (0 Is also included).

表示制御モジュール21cの機能により制御部20は、現在における車両Cと物体との間の直線距離が小さいほど大きい自信度を取得する。具体的に、制御部20は、現在における車両Cと他車両Oとの間の直線距離を算出し、当該直線距離が小さいほど大きい自信度を取得する。現在における車両Cと他車両Oの位置は、物体認識部40が撮影した風景画像の画像認識処理によって特定されてもよい。さらに、現在における車両Cと物体との間の直線距離は、距離センサによって計測されてもよい。また、制御部20は、現在における車両Cと物体との間の直線距離だけでなく、当該直線距離の単位時間当たりの減少量や車両Cと物体の進行方向等も考慮して自信度を取得してもよい。   With the function of the display control module 21c, the control unit 20 acquires a higher degree of confidence as the current linear distance between the vehicle C and the object is smaller. Specifically, the control unit 20 calculates a linear distance between the current vehicle C and the other vehicle O, and acquires a higher degree of confidence as the linear distance is smaller. The current positions of the vehicle C and the other vehicle O may be specified by image recognition processing of a landscape image captured by the object recognition unit 40. Furthermore, the current linear distance between the vehicle C and the object may be measured by a distance sensor. In addition, the control unit 20 acquires the degree of confidence in consideration of not only the current linear distance between the vehicle C and the object, but also the amount of decrease per unit time of the linear distance and the traveling direction of the vehicle C and the object. May be.

また、制御部20は、自動走行計画が示す時刻ごとの車両の位置と、物体の移動予測経路が示す他車両Oの時刻ごとの位置とを比較し、同一時刻における両者の距離の最小値が小さいほど大きい自信度を取得してもよい。さらに、制御部20は、前記の距離が最小となる時刻が早く到来するほど大きい自信度を取得してもよい。なお、自信度が大きいほど、物体が自動走行計画に与えている影響度も大きいと見なすことができる。   In addition, the control unit 20 compares the position of the vehicle at each time indicated by the automatic travel plan with the position at each time of the other vehicle O indicated by the predicted movement path of the object, and the minimum value of the distance between the two at the same time is determined. A smaller confidence value may be obtained. Furthermore, the control unit 20 may acquire a higher degree of confidence as the time at which the distance becomes the minimum arrives earlier. It can be assumed that the greater the degree of confidence, the greater the degree of influence that the object has on the automatic travel plan.

図2Dは、図2Cよりも自信度が大きい場合のアイコンE1,E2を示す。図2DのアイコンE1,E2は、図2CのアイコンE1,E2よりも目頭の位置に対して目尻の位置が大きく下がっている。このようにすることにより、物体に進路を妨害されて自動走行計画を修正せざるを得ないという困った状況が生じていること直感的に認識できる。図2Dでは図2Cよりも他車両Oが駐車枠Wに接近しており、図2Cの自動走行経路Rよりも他車両Oと反対方向に移動した位置を通過させるような自動走行計画が作成されている。   FIG. 2D shows icons E1 and E2 when the degree of confidence is higher than that in FIG. 2C. In the icons E1 and E2 in FIG. 2D, the positions of the corners of the eyes are significantly lower than the positions of the eyes than the icons E1 and E2 in FIG. 2C. By doing so, it is possible to intuitively recognize that a troublesome situation occurs in which the course is obstructed by an object and the automatic travel plan must be corrected. In FIG. 2D, an automatic travel plan is created in which the other vehicle O is closer to the parking frame W than in FIG. 2C and passes through a position moved in the opposite direction to the other vehicle O from the automatic travel route R in FIG. 2C. ing.

以上のような本実施形態によれば、物体と、自動走行計画における車両の自動走行経路Rと、物体が自動走行計画に与えている影響度を目の形状で表すアイコンE1,E2とを表示するため、物体と自動走行経路Rとの位置関係を認識できるだけでなく、自動走行計画が物体を考慮して作成されたものであるか否かを目の形状によって直感的に認識できる。従って、物体の存在を考慮して自動運転が行われているか否かについて、ユーザが不安を覚える可能性を低減できる。さらに、アイコンE1,E2が目の形状のみによって影響度を表すことにより、物体が自動走行計画に与えている影響度をより正確に認識できる。顔全体から受け取る感情は文化等の影響を受けるが、目の形状から受け取る感情は文化等の影響を受けにくいからである。   According to the present embodiment as described above, the object, the automatic travel route R of the vehicle in the automatic travel plan, and the icons E1 and E2 representing the degree of influence that the object has on the automatic travel plan in the shape of the eyes are displayed. Therefore, not only the positional relationship between the object and the automatic travel route R can be recognized, but also whether or not the automatic travel plan is created in consideration of the object can be intuitively recognized by the shape of the eyes. Therefore, it is possible to reduce the possibility that the user feels uneasy about whether or not automatic driving is performed in consideration of the presence of an object. Furthermore, when the icons E1 and E2 represent the degree of influence only by the shape of the eyes, the degree of influence that the object has on the automatic travel plan can be recognized more accurately. This is because emotions received from the entire face are influenced by culture and the like, but emotions received from the shape of the eyes are not easily influenced by culture and the like.

さらに、本実施形態において、制御部20は、自動制御を中断すると判定した場合に、自動制御が継続できる場合と異なるアイコンE1,E2を表示する。図2Eは、自動制御を中断すると判定した場合におけるアイコンE1,E2(諦めアイコン)を示す。例えば、制御部20は、現在における車両Cと物体との間の直線距離が予め決められた制御下限値(例えば1m)以下となった場合に、自動制御を中断すると判定し、目頭と目尻とが同じ高さとなる横長の目の形状を有するアイコンE1,E2を表示する。これにより、自動制御を諦めたことを直感的に認識できる。   Furthermore, in this embodiment, when it determines with the control part 20 interrupting automatic control, it displays the icons E1 and E2 different from the case where automatic control can be continued. FIG. 2E shows icons E1 and E2 (given icons) when it is determined that automatic control is interrupted. For example, the control unit 20 determines that the automatic control is interrupted when the current linear distance between the vehicle C and the object is equal to or less than a predetermined control lower limit value (for example, 1 m), and Icons E1 and E2 having a horizontally long eye shape with the same height are displayed. This makes it possible to intuitively recognize that automatic control has been given up.

(2)走行情報表示処理:
次に、図3に示すフローチャートを用いて制御部20が実行する走行情報表示処理を説明する。走行情報表示処理は、自動運転の開始とともに実行される処理である。まず、表示制御モジュール21cの機能により制御部20は、集中アイコンを生成する(ステップS100)。集中アイコンとは、図2Aに示すアイコンE1,E2であり、目を細めて自動走行計画に影響を与える物体の出現を注意深く監視していることを表現するアイコンである。制御部20は、生成した集中アイコンをRAMに記録する。
(2) Travel information display processing:
Next, a travel information display process executed by the control unit 20 will be described using the flowchart shown in FIG. The travel information display process is a process that is executed together with the start of automatic driving. First, the control part 20 produces | generates a concentration icon by the function of the display control module 21c (step S100). The concentrated icons are icons E1 and E2 shown in FIG. 2A and are icons representing that the appearance of an object that affects the automatic travel plan is closely monitored with a narrowed eye. The control unit 20 records the generated concentrated icon in the RAM.

次に、物体情報取得モジュール21aの機能により制御部20は、物体情報を取得する(ステップS105)。この物体情報は予め決められた時間周期ごと(物体認識部40が最新の画像を撮影する周期ごと)に取得され、制御部20は、最新の物体情報を取得する。なお、ステップS105〜S150は、物体認識部40が最新の画像を撮影する周期ごとのループ処理である。   Next, the control part 20 acquires object information by the function of the object information acquisition module 21a (step S105). This object information is acquired every predetermined time period (every period when the object recognition unit 40 captures the latest image), and the control unit 20 acquires the latest object information. Note that steps S105 to S150 are loop processing for each cycle in which the object recognition unit 40 captures the latest image.

次に、表示制御モジュール21cの機能により制御部20は、新規に物体を認識したか否かを判定する(ステップS110)。具体的に、制御部20は、平面図Fの描画領域内に新たに物体が出現したか否かを判定する。すなわち、制御部20は、図2A〜図2Eに示す平面図F内に像が表示される物体が出現したか否かを判定する。なお、ステップS110において、明らかに車両と干渉しない物体が処理対象(自動走行計画の作成に考慮する対象)から除外される。   Next, the control unit 20 determines whether or not an object has been newly recognized by the function of the display control module 21c (step S110). Specifically, the control unit 20 determines whether or not a new object has appeared in the drawing area of the plan view F. That is, the control unit 20 determines whether or not an object on which an image is displayed appears in the plan view F shown in FIGS. 2A to 2E. In step S110, an object that clearly does not interfere with the vehicle is excluded from a processing target (a target to be considered in creating an automatic travel plan).

新規に物体を認識したと判定した場合(ステップS110:Y)、表示制御モジュール21cの機能により制御部20は、気づきアイコンを生成する(ステップS115)。気づきアイコンとは、図2Bに示すアイコンE1,E2であり、円形(真円)のアイコンである。制御部20は、すでにRAMに記録されているアイコンE1,E2を消去し、新たに生成した気づきアイコンをRAMに記録する。   When it is determined that an object has been newly recognized (step S110: Y), the control unit 20 generates a notice icon by the function of the display control module 21c (step S115). The notice icons are the icons E1 and E2 shown in FIG. 2B and are circular (perfect circle) icons. The control unit 20 erases the icons E1 and E2 already recorded in the RAM, and records the newly generated notice icon in the RAM.

次に、走行計画取得モジュール21bの機能により制御部20は、自動走行計画を修正または維持する(ステップS120)。すなわち、制御部20は、車両Cと物体とが干渉するか否かを判定し、干渉する場合には自動走行計画を修正して、車両Cと物体とが干渉することを回避する自動走行計画を作成する。車両Cと物体とが干渉しない場合には、制御部20は、自動走行計画を修正することなく、もとの自動走行計画を維持する。   Next, the control unit 20 corrects or maintains the automatic travel plan by the function of the travel plan acquisition module 21b (step S120). That is, the control unit 20 determines whether or not the vehicle C and the object interfere with each other, and when the interference occurs, the automatic traveling plan is corrected to avoid the interference between the vehicle C and the object. Create When the vehicle C and the object do not interfere with each other, the control unit 20 maintains the original automatic travel plan without correcting the automatic travel plan.

次に、表示制御モジュール21cの機能により制御部20は、自信度を取得する(ステップS130)。本実施形態において、制御部20は、現在における車両Cと他車両O(物体)の間の直線距離を算出し、当該直線距離が小さいほど大きい自信度を取得する。本実施形態において、現在における車両Cと他車両Oとの間の直線距離の大きさにN個(Nは自然数)の区間が設けられており、直線距離の小さい区間ほど大きい自信度が対応付けられている。つまり、自信度は、N段階の値をとる。本実施形態において、Nは5であり、自信度は0〜4の整数値をとる。   Next, the control unit 20 acquires the confidence level by the function of the display control module 21c (step S130). In the present embodiment, the control unit 20 calculates the straight line distance between the current vehicle C and the other vehicle O (object), and acquires a higher degree of confidence as the straight line distance is smaller. In the present embodiment, N sections (N is a natural number) are provided in the magnitude of the straight line distance between the vehicle C and the other vehicle O at present, and a greater degree of confidence is associated with a section having a smaller straight line distance. It has been. That is, the confidence level takes an N-level value. In the present embodiment, N is 5, and the confidence level is an integer value of 0-4.

Figure 2017228187
表1は、自信度の表である。図2Aに示すように、平面図Fの描画領域内に他車両Oが存在しない場合、制御部20は、現在における車両Cと他車両Oとの間の直線距離を無限遠と見なす。現在における車両Cと他車両Oとの間の直線距離が無限遠である場合(直線距離が最大の区間に属する場合)、制御部20は、自信度として最小の0を取得する。すなわち、自動制御が物体の影響を受けない場合には自信度として0が取得される。
Figure 2017228187
Table 1 is a table of confidence levels. As shown in FIG. 2A, when the other vehicle O does not exist in the drawing area of the plan view F, the control unit 20 regards the current linear distance between the vehicle C and the other vehicle O as infinity. When the current straight line distance between the vehicle C and the other vehicle O is infinity (when the straight line distance belongs to the maximum section), the control unit 20 acquires the minimum 0 as the confidence level. That is, when the automatic control is not affected by the object, 0 is acquired as the confidence level.

また、制御部20は、現在における車両Cと他車両Oとの間の直線距離が制御下限値(例えば1m)以下である場合(直線距離が最小の区間に属する場合)、自信度として最大の4を取得する。すなわち、自動制御が中断される場合には自信度として4が取得される。   In addition, when the current straight line distance between the vehicle C and the other vehicle O is equal to or less than the control lower limit value (for example, 1 m) (when the straight line distance belongs to the smallest section), the control unit 20 maximizes the confidence level. 4 is acquired. That is, when automatic control is interrupted, 4 is acquired as the confidence level.

制御部20は、現在における車両Cと他車両Oとの間の直線距離が無限遠でなく制御下限値よりも大きい場合、自信度として1〜3のいずれを取得する。すなわち、制御下限値よりも大きい直線距離について3個の区間が設けられており、当該3個の区間のうち、直線距離が属する区間に対応する1〜3のいずれかの自信度が取得される。つまり、自動制御が中断されることなく物体の影響を受け得る場合には、他車両Oの影響を受ける確率が大きいほど大きい自信度が取得される。   When the current linear distance between the vehicle C and the other vehicle O is not infinity but larger than the control lower limit value, the control unit 20 acquires any of 1 to 3 as the degree of confidence. That is, three sections are provided for a straight line distance that is greater than the control lower limit value, and the confidence level of any one of 1 to 3 corresponding to the section to which the straight line distance belongs is obtained. . That is, when automatic control can be affected by an object without being interrupted, the greater the probability of being affected by another vehicle O, the greater the degree of confidence.

次に、表示制御モジュール21cの機能により制御部20は、自信度に変化があったか否かを判定する(ステップS135)。ステップS105〜S150はループ処理であるため、制御部20は、今回の処理の自信度が前回の処理から自信度が変化したか否かを判定する。   Next, the control unit 20 determines whether or not the degree of confidence has changed by the function of the display control module 21c (step S135). Since steps S105 to S150 are loop processing, the control unit 20 determines whether the confidence level of the current process has changed from the previous process.

自信度に変化があったと判定した場合(ステップS135:Y)、表示制御モジュール21cの機能により制御部20は、自信度に基づいてアイコンE1,E2を生成する(ステップS140)。表1に示すように、5段階の自信度のそれぞれに図2A〜図2EのアイコンE1,E2が対応付けられており、制御部20は、変化後の自信度に対応するアイコンE1,E2を生成する。そして、制御部20は、すでにRAMに記録されているアイコンE1,E2を消去し、新たに生成したアイコンをRAMに記録する。   When it is determined that the degree of confidence has changed (step S135: Y), the control unit 20 generates icons E1 and E2 based on the degree of confidence by the function of the display control module 21c (step S140). As shown in Table 1, the icons E1 and E2 in FIGS. 2A to 2E are associated with the five levels of confidence, and the control unit 20 displays the icons E1 and E2 corresponding to the confidence after the change. Generate. Then, the control unit 20 deletes the icons E1 and E2 already recorded in the RAM, and records the newly generated icon in the RAM.

一方、自信度に変化があったと判定しなかった場合(ステップS135:N)、表示制御モジュール21cの機能により制御部20は、ステップS140をスキップし、次のステップに進む。すなわち、制御部20は、すでにRAMに記録されているアイコンE1,E2をそのまま維持する。   On the other hand, when it is not determined that the degree of confidence has changed (step S135: N), the control unit 20 skips step S140 and proceeds to the next step by the function of the display control module 21c. That is, the control unit 20 maintains the icons E1 and E2 already recorded in the RAM as they are.

次に、制御部20は、自動制御を実施する(ステップS145)。すなわち、制御部20は、ステップS130において修正または維持された自動走行計画に沿って車両制御部45を制御させる。   Next, the control unit 20 performs automatic control (step S145). That is, the control unit 20 controls the vehicle control unit 45 in accordance with the automatic travel plan corrected or maintained in step S130.

次に、制御部20は、アイコンE1,E2を表示する(ステップS150)。すなわち、制御部20は、RAMに記録されているアイコンE1,E2を表示する。このとき、制御部20は、最新の物体情報と自動走行計画に基づいて平面図F(他車両Oと自動走行経路Rの像を含む)を描画し、当該平面図FとともにアイコンE1,E2を表示部44に表示する。以上の処理が終了すると、制御部20は、ステップS105に戻り、最新の物体情報が取得されるまで待機する。   Next, the control unit 20 displays icons E1 and E2 (step S150). That is, the control unit 20 displays the icons E1 and E2 recorded in the RAM. At this time, the control unit 20 draws a plan view F (including images of the other vehicle O and the automatic travel route R) based on the latest object information and the automatic travel plan, and displays the icons E1 and E2 together with the plan view F. It is displayed on the display unit 44. When the above processing ends, the control unit 20 returns to step S105 and waits until the latest object information is acquired.

以上説明した走行情報表示処理を実行することにより、車両Cの周辺にて物体が認識されるまでは、ステップS100にて生成した集中アイコン(図2A)を表示することができる。また、車両Cの周辺にて物体が認識された直後の段階においては、気づきアイコン(図2B)を表示することができる。さらに、物体が車両Cに接近すると、困りアイコン(図2C,図2D)を表示することができる。最終的に、物体が車両Cに接近し過ぎて自動制御が中断される段階では、諦めアイコン(図2E)を表示することができる。図2B〜図2DのアイコンE1,E2を視認することで、他車両Oが認識された上で自動走行計画が作成されていることを直感的に認識でき、ユーザが不安を覚える可能性を低減できる。   By executing the traveling information display process described above, the concentration icon (FIG. 2A) generated in step S100 can be displayed until an object is recognized around the vehicle C. Further, at the stage immediately after an object is recognized around the vehicle C, a notice icon (FIG. 2B) can be displayed. Further, when the object approaches the vehicle C, the trouble icon (FIGS. 2C and 2D) can be displayed. Finally, at the stage where the object is too close to the vehicle C and the automatic control is interrupted, a compliment icon (FIG. 2E) can be displayed. By visually recognizing the icons E1 and E2 in FIGS. 2B to 2D, it is possible to intuitively recognize that the automatic travel plan is created after the other vehicle O is recognized, and the possibility that the user feels uneasy is reduced. it can.

(3)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、他にも種々の実施形態を採用可能である。例えば、走行情報表示システムは、車両等に搭載された装置であってもよいし、可搬型の端末によって実現される装置であってもよいし、複数の装置(例えば、クライアントとサーバや、ナビゲーション装置内の制御部と車両制御装置内のECU等)によって実現されるシステムであってもよい。
(3) Other embodiments:
The above embodiment is an example for carrying out the present invention, and various other embodiments can be adopted. For example, the travel information display system may be a device mounted on a vehicle or the like, a device realized by a portable terminal, or a plurality of devices (for example, a client and a server, a navigation, It may be a system realized by a control unit in the apparatus and an ECU in the vehicle control apparatus.

走行情報表示システムを構成する物体情報取得モジュール21aと走行計画取得モジュール21bと表示制御モジュール21cの少なくとも一部が複数の装置に分かれて存在する構成としては、種々の構成が想定される。例えば、車両制御部45内のECUによって物体情報の取得、走行計画の取得、影響度の取得が行われ、ナビゲーションシステム10の制御部20によって影響度を示すアイコンの表示制御が行われる構成等であってもよい。   As the configuration in which at least a part of the object information acquisition module 21a, the travel plan acquisition module 21b, and the display control module 21c constituting the travel information display system is divided into a plurality of devices, various configurations are assumed. For example, the ECU in the vehicle control unit 45 acquires object information, a travel plan, and an influence level, and the control unit 20 of the navigation system 10 performs display control of an icon indicating the influence level. There may be.

むろん、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。例えば、自動制御を中断する場合に、図2EのようなアイコンE1,E2の表示を行わないようにしてもよい。アイコンE1,E2の表示されないことによっても自動制御が中断することを直感的に認識できる。例えば、図2C,図2Dのように2段階の困りアイコンが表示されなくてもよく、1段階のみの困りアイコンが表示されてもよい。また、図2C,図2Dのように2段階の困りアイコンを表示し、図2A,図2B,図2EのアイコンE1,E2の表示を省略してもよい。   Of course, a part of the configuration of the above-described embodiment may be omitted, and the processing order may be changed or omitted. For example, when automatic control is interrupted, the icons E1 and E2 as shown in FIG. 2E may not be displayed. It can be intuitively recognized that automatic control is interrupted even when the icons E1 and E2 are not displayed. For example, as shown in FIGS. 2C and 2D, the two-stage trouble icon may not be displayed, and only the one-stage trouble icon may be displayed. Further, two-stage trouble icons may be displayed as shown in FIGS. 2C and 2D, and the icons E1 and E2 in FIGS. 2A, 2B, and 2E may be omitted.

アイコンE1,E2は目の形状のみで構成されるが、他の表示要素を表示してアイコンE1,E2の表現を強調してもよい。例えば、気づきアイコンとともに、『!』を表示してもよいし、困りアイコンとともに『?』や汗のマークを表示してもよい。また、駐車枠Wに駐車する場面を例示したが、車両Cが駐車場以外の道路等で前進する場合にも本発明を適用できることは言うまでもない。   The icons E1 and E2 are configured only by the shape of the eyes, but other display elements may be displayed to emphasize the expression of the icons E1 and E2. For example, “! ”May be displayed, or“? ] Or sweat marks may be displayed. Moreover, although the scene which parks in the parking frame W was illustrated, it cannot be overemphasized that this invention is applicable also when the vehicle C advances on roads other than a parking lot.

前記実施形態のアイコンE1,E2は、簡素化した目の形状を表すが、より現実に忠実に目の形状を表してもよい。例えば、アイコンE1,E2において虹彩が表されてもよいし、アイコンE1,E2は目を撮影した画像であってもよい。また、図2A〜図2EのアイコンE1,E2の形状は一例に過ぎず、他の形状であってもよい。例えば、図2Bの気づきアイコンは、図2Aの集中アイコンよりも短径と長径との長さの差が小さい楕円であってもよい。図2C,図2Dの困りアイコンは、目頭の位置に対して目尻の位置が下がっていればよく、楕円形であってもよいし、長方形であってもよい。さらに、困りアイコンは、下側の輪郭線だけでなく、上側の輪郭線も下に凸の曲線で構成されてもよい。さらに、集中アイコンは楕円でなくてもよい。   The icons E1 and E2 of the embodiment represent the simplified eye shape, but may more faithfully represent the eye shape. For example, an iris may be represented by the icons E1 and E2, and the icons E1 and E2 may be images obtained by photographing the eyes. Further, the shapes of the icons E1 and E2 in FIGS. 2A to 2E are merely examples, and other shapes may be used. For example, the notice icon in FIG. 2B may be an ellipse having a smaller difference in length between the minor axis and the major axis than the concentrated icon in FIG. 2A. The troubled icons in FIGS. 2C and 2D may be oval or rectangular as long as the position of the corner of the eye is lowered with respect to the position of the eye. Further, the troubled icon may be configured not only by the lower contour line but also by an upwardly convex curve. Furthermore, the concentration icon may not be an ellipse.

物体情報取得部は、車両の周囲に存在する物体を示す物体情報を取得することができればよい。すなわち、物体情報取得部は、車両で物体を回避しながら自動で走行するために必要な物体に関する情報を物体情報として取得することができればよい。物体は、車両の自動走行計画に影響を与え得る物体であればよく、位置や状態等が変動しない静的物体であってもよいし、位置や状態等が変動し得る動的物体であってもよい。前者としては、例えば、道路、信号機、交通標識、路面標示、建築物等が挙げられ、後者としては、二輪車、四輪車、鉄道車両、歩行者等の移動体が挙げられる。   The object information acquisition unit only needs to be able to acquire object information indicating objects existing around the vehicle. In other words, the object information acquisition unit only needs to be able to acquire, as object information, information related to an object necessary for automatically traveling while avoiding the object with the vehicle. The object may be any object that can affect the automatic driving plan of the vehicle, and may be a static object whose position and state do not change, or a dynamic object whose position and state may change. Also good. Examples of the former include roads, traffic lights, traffic signs, road markings, buildings, and the like, and examples of the latter include moving bodies such as two-wheeled vehicles, four-wheeled vehicles, railway vehicles, and pedestrians.

物体情報は、自動走行計画を取得するために考慮され得る情報であればよく、例えば、物体の状態を示す情報(位置、速度、加速度、大きさ、形状等)であってもよいし、物体の予想移動軌跡を示す情報であってもよいし、物体の可動範囲を示す情報であってもよく、種々の態様を想定可能である。物体情報を取得するための手法は、種々の手法を採用可能であり、カメラで撮影された画像を画像認識処理することによって取得されてもよいし、超音波センサ等の距離センサによって取得されてもよいし、車車間通信や路車間通信等によって取得されてもよいし、画像等に基づいて人工知能の処理によって物体情報が取得されてもよい。   The object information may be any information that can be considered in order to obtain an automatic travel plan. For example, the object information may be information indicating the state of the object (position, speed, acceleration, size, shape, etc.) It may be information indicating the expected movement trajectory or information indicating the movable range of the object, and various modes can be assumed. Various methods can be used for acquiring object information, and may be acquired by performing image recognition processing on an image captured by a camera, or acquired by a distance sensor such as an ultrasonic sensor. Alternatively, it may be acquired by inter-vehicle communication, road-to-vehicle communication, or the like, or object information may be acquired by artificial intelligence processing based on an image or the like.

なお、車車間通信や路車間通信等の通信によって物体情報が取得されてもよい。むろん、物体情報取得部は、物体情報を取得するためのセンサを含んでいてもよいし、センサに基づいて制御部等で生成された物体情報が物体情報取得部に取得される構成であってもよい。   The object information may be acquired by communication such as vehicle-to-vehicle communication or road-to-vehicle communication. Of course, the object information acquisition unit may include a sensor for acquiring object information, and the object information generated by the control unit or the like based on the sensor is acquired by the object information acquisition unit. Also good.

走行計画取得部は、少なくとも物体情報に基づいて車両を自動走行させる自動走行計画を取得することができればよい。すなわち、走行計画取得部は、物体情報に基づいて、物体と車両とが干渉しないように車両の位置、向き、速度、加速度の少なくとも一つを決定し、これらを示す自動走行計画を取得してもよい。自動走行計画は、種々の手法によって作成してもよく、例えば、物体情報に基づいて物体の移動予測経路を予測し、当該移動予測経路に基づいて自動走行計画を作成してもよい。   The travel plan acquisition unit only needs to acquire an automatic travel plan for automatically traveling the vehicle based on at least the object information. That is, the travel plan acquisition unit determines at least one of the position, orientation, speed, and acceleration of the vehicle based on the object information so that the object and the vehicle do not interfere with each other, and acquires an automatic travel plan indicating these. Also good. The automatic travel plan may be created by various methods. For example, an object travel prediction route may be predicted based on the object information, and the automatic travel plan may be created based on the travel prediction route.

移動予測経路に基づく自動走行計画の作成は、種々の手法で実現されてよく、例えば、時刻ごとの物体の位置を示す移動予測経路に基づいて、任意の物体と干渉しないように時刻ごとの車両の位置を決定し、時刻ごとに当該車両の位置に達するように車両の位置、向き、速度、加速度等を制御する計画を特定してもよい。なお、自動走行計画は、走行計画取得部によって作成されてもよいし、他の制御部等で作成された自動走行計画を示す情報が走行計画取得部によって取得されてもよい。むろん、自動走行計画の作成に際して物体情報以外の任意の情報(例えば、道路の形状やリンクを示す地図情報、天候情報等)が参照されてもよい。   The creation of the automatic travel plan based on the movement prediction route may be realized by various methods, for example, the vehicle at each time so as not to interfere with an arbitrary object based on the movement prediction route indicating the position of the object at each time. A plan for controlling the position, direction, speed, acceleration, etc. of the vehicle so as to reach the position of the vehicle at each time may be specified. The automatic travel plan may be created by the travel plan acquisition unit, or information indicating the automatic travel plan created by another control unit or the like may be acquired by the travel plan acquisition unit. Of course, any information other than the object information (for example, map information indicating road shapes and links, weather information, etc.) may be referred to when the automatic travel plan is created.

自動走行計画は、車両の将来の走行についての計画であればよく、長さは任意である。
例えば、現在以降の予め決められた距離または期間における自動走行計画が作成されてもよいし、目的地までの自動走行計画が作成されてもよい。
The automatic travel plan may be a plan for the future travel of the vehicle, and the length is arbitrary.
For example, an automatic travel plan for a predetermined distance or period after the present may be created, or an automatic travel plan to the destination may be created.

表示制御部は、物体と、自動走行計画における車両の経路と、物体が自動走行計画に与えている影響度を表すアイコンと、を同時に表示部に表示することができればよい。すなわち、自動走行計画における車両の経路が、当該経路と一緒に表示されている物体によって、どの程度影響を受けているのかを表示すればよい。アイコンは、目の形状によって影響度を表すように構成されればよく、目以外の表示要素を含まないように構成されていればよい。ただし、影響度を表す表示物としてアイコン以外の表示要素(例えば影響度を表す文字やグラフ等)が表示されてもよい。目の形状は、開き(縦方向の長さ)の程度や湾曲度や目尻のつり上がり度やたれ下がり度等によって設定されてもよい。表示部は、おもに運転者が視認可能な位置に備えられればよく、メーターパネルに備えられた表示装置であってもよいしし、メーターパネルとは別の表示装置であってもよいし、ウインドシールド等の車両の内部部品に投影を行う投影装置であってもよい。   The display control unit only needs to be able to simultaneously display the object, the vehicle route in the automatic travel plan, and the icon representing the degree of influence that the object has on the automatic travel plan on the display unit. That is, it is only necessary to display how much the route of the vehicle in the automatic travel plan is affected by the object displayed together with the route. The icon may be configured to represent the degree of influence depending on the shape of the eyes, and may be configured not to include display elements other than the eyes. However, display elements other than icons (for example, characters or graphs representing the degree of influence) may be displayed as the display object representing the degree of influence. The shape of the eyes may be set according to the degree of opening (length in the vertical direction), the degree of curvature, the degree of lifting of the eye corners, the degree of sagging, and the like. The display unit only needs to be provided at a position that can be visually recognized by the driver, and may be a display device provided in the meter panel, a display device different from the meter panel, or a window. It may be a projection device that projects onto internal parts of the vehicle such as a shield.

自動走行計画に影響を与えた物体は、例えば、当該物体が存在しない場合の自動走行計画と、当該物体が存在する場合の自動走行計画とが異なるような物体が挙げられる。すなわち、物体が存在することにより、当該物体を回避するための自動走行計画が作成された場合、当該物体は自動走行計画に影響を与えた物体である。いずれにしても、自動走行計画に対する影響度が表示されることで、自動走行計画が信頼に足るか否かをユーザが判断できる。すなわち、避けるべき物体が自動走行計画に影響を与えた物体であるとして表示されれば、ユーザは不安を感じることなく自動走行計画に沿った自動走行を継続させてよいと判断することができる。   Examples of the object that has influenced the automatic travel plan include an object in which the automatic travel plan when the object does not exist is different from the automatic travel plan when the object exists. That is, when an automatic travel plan for avoiding the object is created due to the presence of the object, the object is an object that affects the automatic travel plan. In any case, by displaying the degree of influence on the automatic travel plan, the user can determine whether the automatic travel plan is reliable. That is, if the object to be avoided is displayed as an object that has an influence on the automatic travel plan, the user can determine that the automatic travel according to the automatic travel plan can be continued without feeling uneasy.

なお、物体が自動走行計画に対して与える影響度が少なくとも2段階設定され、各段階に応じて異なる目の形状のアイコンが表示されればよい。影響度は、種々の手法によって設定することができ、例えば自動走行計画に従って移動する車両と物体との距離が近いほど大きい影響度が設定されてもよいし、車両と物体との距離に加え、接近速度が速いほど大きい影響度が設定されてもよい。また、物体が存在しない場合の自動走行計画と、物体が存在する場合の自動走行計画とを特定し、両者の差(車両の位置や速度や加速度の差)が大きいほど大きい影響度が設定されてもよい。   It should be noted that the degree of influence that the object has on the automatic travel plan is set in at least two stages, and icons having different eye shapes may be displayed for each stage. The degree of influence can be set by various methods, for example, the greater the degree of influence may be set as the distance between the vehicle moving according to the automatic travel plan and the object is closer, and in addition to the distance between the vehicle and the object, A larger influence degree may be set as the approach speed is faster. Also, an automatic driving plan when no object exists and an automatic driving plan when an object exists are identified, and the greater the difference between the two (the difference in vehicle position, speed, and acceleration), the greater the degree of influence is set. May be.

また、表示制御部は、影響度に応じて目の形状を変化させてもよい。これにより、目の形状を視認することで、物体が自動走行計画に対して与える影響度を認識できる。   The display control unit may change the shape of the eyes according to the degree of influence. Thereby, by visually recognizing the shape of the eyes, it is possible to recognize the degree of influence of the object on the automatic travel plan.

表示制御部は、自動走行計画に影響を与える物体が存在する場合に、自動走行計画に影響を与える物体が存在しない場合よりも、円に近い形状に目の形状を変化させてもよい。円に近い形状に目の形状を変化させて驚いた印象を与えることにより、自動走行計画に影響を与える物体の存在を考慮して自動走行計画が作成されていることを直感的に認識できる。例えば、自動走行計画が物体との干渉を回避するように作成される場合、車両と干渉し得る物体が自動走行計画に影響を与える物体となる。例えば、自動走行計画が物体上を車両が走行するように作成される場合、車両を走行させたい物体が自動走行計画に影響を与える物体となる。車両が通過する物体とは、例えば道路上に形成された誘導マーカであってもよい。自動走行計画に影響を与える物体が存在するとは、当該物体が車両に対して予め決められた距離以内に存在することであってもよいし、当該物体が表示部に表示される位置に存在することであってもよい。後者の場合、物体が表示部に表示されているのにも拘わらず、当該物体を認識した上で自動走行計画が作成されていることが不明となることを防止することができ、ユーザが不安を覚える可能性を低減できる。   The display control unit may change the shape of the eyes to a shape closer to a circle when there is an object that affects the automatic travel plan than when there is no object that affects the automatic travel plan. By giving a surprising impression by changing the shape of the eyes to a shape close to a circle, it is possible to intuitively recognize that the automatic travel plan has been created in consideration of the presence of objects that affect the automatic travel plan. For example, when an automatic travel plan is created so as to avoid interference with an object, an object that can interfere with the vehicle is an object that affects the automatic travel plan. For example, when an automatic travel plan is created so that a vehicle travels on an object, the object that the vehicle is desired to travel is an object that affects the automatic travel plan. The object through which the vehicle passes may be, for example, a guidance marker formed on a road. The presence of an object that affects the automatic travel plan may be that the object exists within a predetermined distance from the vehicle, or the object exists at a position displayed on the display unit. It may be. In the latter case, it is possible to prevent the fact that the automatic travel plan has been created after recognizing the object even though the object is displayed on the display unit, and the user is anxious. The possibility of memorizing can be reduced.

表示制御部は、物体が自動走行計画に与えている影響度が大きいほど、目頭の位置に対して目尻の位置が大きく下がった形状に目の形状を変化させてもよい。影響度が大きいほど、目尻が大きく下がった目の形状とすることにより、物体に進路を妨害されて自動走行計画を修正せざるを得ないという困った状況が生じていること直感的に認識できる。影響度は、物体が自動走行計画に影響を与えることの自信度であってもよい。この自信度は、物体が自動走行計画に影響を与えている確率が大きいほど大きい指標値である。つまり、自信度とは、物体が存在しないと仮定した場合に作成される自動走行計画と、物体が存在する場合に作成されている自動走行計画とが異なる確率が大きいほど大きくなる指標値である。例えば、物体との干渉を回避する自動走行計画を取得する構成において、車両と物体とが干渉する可能性が大きい運動状態(位置、速度等)となっているほど、当該物体を回避するように自動走行計画が作成されている確率が大きくなる。なお、物体が自動走行計画に影響を与えている確率が大きいほど、すなわち自信度が大きいほど物体が自動走行計画に影響を与えている影響度も大きいと見なすことができる。   The display control unit may change the shape of the eye to a shape in which the position of the corner of the eye greatly decreases with respect to the position of the eye as the degree of influence of the object on the automatic travel plan increases. The greater the degree of influence, the more intuitively it can be recognized that the shape of the eye with the lower corner of the corner of the eye causes a troubled situation in which the course is obstructed by the object and the automatic driving plan has to be corrected. . The degree of influence may be a degree of confidence that the object affects the automatic travel plan. The degree of confidence is a larger index value as the probability that the object has an influence on the automatic travel plan is higher. That is, the degree of confidence is an index value that increases as the probability that the automatic travel plan created when an object does not exist is different from the automatic travel plan created when an object exists is larger. . For example, in a configuration in which an automatic travel plan that avoids interference with an object is acquired, the object is avoided as the motion state (position, speed, etc.) increases that the vehicle and the object are likely to interfere with each other. The probability that an automatic driving plan is created increases. It can be considered that the greater the probability that an object has an influence on an automatic travel plan, that is, the greater the degree of confidence, the greater the degree of influence that the object has on the automatic travel plan.

さらに、本発明のように、物体が自動走行計画に与えている影響度を表すアイコンを、当該物体と経路とともに表示する手法は、プログラムや方法としても適用可能である。また、以上のような走行情報表示システム、プログラム、方法は、単独の装置として実現される場合もあれば、車両に備えられる各部と共有の部品を利用して実現される場合もあり、各種の態様を含むものである。すなわち、走行情報表示システムを構成する各手段が複数の実体的な装置に分散して備えられてもよい。各手段が複数の実体的な装置に分散して備えられる場合に、各手段を機能させるために必要なデータを送受信する通信手段が備えられてもよい。さらに、以上のような走行情報表示システムの少なくとも一部を備えたナビゲーション装置や方法、プログラムを提供することが可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、走行情報表示システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。   Furthermore, a method of displaying an icon representing the degree of influence that an object has on an automatic travel plan together with the object and a route, as in the present invention, can also be applied as a program or method. In addition, the driving information display system, program, and method as described above may be realized as a single device, or may be realized using components shared with each part provided in the vehicle. Including embodiments. That is, each means constituting the travel information display system may be distributed and provided in a plurality of substantial devices. When each means is distributed and provided in a plurality of substantive devices, a communication means for transmitting and receiving data necessary to make each means function may be provided. Furthermore, it is possible to provide a navigation device, method, and program that include at least a part of the traveling information display system as described above. Further, some changes may be made as appropriate, such as a part of software and a part of hardware. Furthermore, the invention is also established as a recording medium for a program for controlling the travel information display system. Of course, the software recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future.

10…ナビゲーションシステム、20…制御部、21…走行情報表示プログラム、21a…物体情報取得モジュール、21b…走行計画取得モジュール、21c…表示制御モジュール、21d…走行計画報知モジュール、30…記録媒体、30a…地図情報、40…物体認識部、41…GPS受信部、42…車速センサ、43…ジャイロセンサ、44…表示部、45…車両制御部、C…車両、E1…アイコン、E2…アイコン、F…平面図、O…他車両、R…自動走行経路、W…駐車枠 DESCRIPTION OF SYMBOLS 10 ... Navigation system, 20 ... Control part, 21 ... Travel information display program, 21a ... Object information acquisition module, 21b ... Travel plan acquisition module, 21c ... Display control module, 21d ... Travel plan notification module, 30 ... Recording medium, 30a ... Map information, 40 ... Object recognition unit, 41 ... GPS reception unit, 42 ... Vehicle speed sensor, 43 ... Gyro sensor, 44 ... Display unit, 45 ... Vehicle control unit, C ... Vehicle, E1 ... Icon, E2 ... Icon, F ... plan view, O ... other vehicles, R ... automatic travel route, W ... parking frame

Claims (5)

車両の周囲に存在する物体を示す物体情報を取得する物体情報取得部と、
少なくとも前記物体情報に基づいて前記車両を自動走行させる自動走行計画を取得する走行計画取得部と、
前記物体と、前記自動走行計画における前記車両の経路と、前記物体が前記自動走行計画に与えている影響度を表すアイコンと、を同時に表示部に表示する表示制御部と、
を備え、
前記アイコンは、目の形状によって前記影響度を表す、
走行情報表示システム。
An object information acquisition unit for acquiring object information indicating an object existing around the vehicle;
A travel plan acquisition unit for acquiring an automatic travel plan for automatically driving the vehicle based on at least the object information;
A display controller that simultaneously displays on the display unit the object, the route of the vehicle in the automatic driving plan, and an icon representing the degree of influence of the object on the automatic driving plan;
With
The icon represents the degree of influence by the shape of the eyes,
Driving information display system.
前記表示制御部は、前記影響度に応じて前記目の形状を変化させる、
請求項1に記載の走行情報表示システム。
The display control unit changes the shape of the eye according to the influence degree.
The travel information display system according to claim 1.
前記表示制御部は、前記自動走行計画に影響を与える前記物体が存在する場合に、前記自動走行計画に影響を与える前記物体が存在しない場合よりも、円に近い形状に前記目の形状を変化させる、
請求項2に記載の走行情報表示システム。
The display control unit changes the shape of the eye to a shape closer to a circle when the object that affects the automatic driving plan exists than when the object that affects the automatic driving plan does not exist. Let
The travel information display system according to claim 2.
前記表示制御部は、前記影響度が大きいほど、目頭の位置に対して目尻の位置が大きく下がった形状に前記目の形状を変化させる、
請求項2に記載の走行情報表示システム。
The display control unit changes the shape of the eye to a shape in which the position of the corner of the eye is greatly lowered with respect to the position of the eye, as the influence degree is larger.
The travel information display system according to claim 2.
コンピュータを、
車両の周囲に存在する物体を示す物体情報を取得する物体情報取得部、
少なくとも前記物体情報に基づいて前記車両を自動走行させる自動走行計画を取得する走行計画取得部、
前記物体と、前記自動走行計画における前記車両の経路と、前記物体が前記自動走行計画に与えている影響度を表すアイコンと、を同時に表示部に表示する表示制御部、
として機能させ、
前記アイコンは、目の形状によって前記影響度を表す、
走行情報表示プログラム。
Computer
An object information acquisition unit for acquiring object information indicating an object existing around the vehicle;
A travel plan acquisition unit for acquiring an automatic travel plan for automatically driving the vehicle based on at least the object information;
A display control unit for simultaneously displaying the object, a route of the vehicle in the automatic travel plan, and an icon representing the degree of influence of the object on the automatic travel plan;
Function as
The icon represents the degree of influence by the shape of the eyes,
Driving information display program.
JP2016125180A 2016-06-24 2016-06-24 Travel information display system and travel information display program Pending JP2017228187A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016125180A JP2017228187A (en) 2016-06-24 2016-06-24 Travel information display system and travel information display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016125180A JP2017228187A (en) 2016-06-24 2016-06-24 Travel information display system and travel information display program

Publications (1)

Publication Number Publication Date
JP2017228187A true JP2017228187A (en) 2017-12-28

Family

ID=60892027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016125180A Pending JP2017228187A (en) 2016-06-24 2016-06-24 Travel information display system and travel information display program

Country Status (1)

Country Link
JP (1) JP2017228187A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021071351A (en) * 2019-10-30 2021-05-06 学校法人立教学院 Method, device and program for measuring kinetic friction coefficient

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021071351A (en) * 2019-10-30 2021-05-06 学校法人立教学院 Method, device and program for measuring kinetic friction coefficient
JP7313054B2 (en) 2019-10-30 2023-07-24 学校法人立教学院 Method, apparatus and program for measuring dynamic friction coefficient

Similar Documents

Publication Publication Date Title
CN111695546B (en) Traffic signal lamp identification method and device for unmanned vehicle
CN107235044B (en) A kind of restoring method realized based on more sensing datas to road traffic scene and driver driving behavior
EP3705846A1 (en) Object location indicator system and method
CN111874006B (en) Route planning processing method and device
JP3619628B2 (en) Driving environment recognition device
KR20210120018A (en) 3D Feature Prediction for Autonomous Driving
KR20210122802A (en) Generating ground truth for machine learning from time series elements
US20160012282A1 (en) Object Sensing Device
JP2017226371A (en) Travel information display system and travel information display program
JP5994574B2 (en) Position guidance system, method and program
JP3857698B2 (en) Driving environment recognition device
CN112519677A (en) Control device
JP2021197009A (en) Risk determination system and risk determination program
WO2023010928A1 (en) Vehicle following method, vehicle, and computer-readable storage medium
CN116724345A (en) Method and system for inferring non-drawn stop lines for an autonomous vehicle
JP2017220030A (en) Travel information providing system and travel information providing program
JP2017228187A (en) Travel information display system and travel information display program
CN113096427B (en) Information display method and device
JP2011191264A (en) Display control device, method and program
WO2020258222A1 (en) Method and system for identifying object
JP2021128532A (en) Image transmission system, image processing system, and image transmission program
JP2020190942A (en) Display controller
EP3637056B1 (en) Method and system for generating navigation data for a geographical location
JP2019066191A (en) Information processing device
CN116394980B (en) Vehicle control method, automatic driving prompting method and related devices