JP2017030727A - Drive assist device, drive assist system, drive assist method, drive assist program and automatic operation vehicle - Google Patents

Drive assist device, drive assist system, drive assist method, drive assist program and automatic operation vehicle Download PDF

Info

Publication number
JP2017030727A
JP2017030727A JP2016099831A JP2016099831A JP2017030727A JP 2017030727 A JP2017030727 A JP 2017030727A JP 2016099831 A JP2016099831 A JP 2016099831A JP 2016099831 A JP2016099831 A JP 2016099831A JP 2017030727 A JP2017030727 A JP 2017030727A
Authority
JP
Japan
Prior art keywords
lane
vehicle
unit
command
automatic driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016099831A
Other languages
Japanese (ja)
Other versions
JP6671019B2 (en
JP2017030727A5 (en
Inventor
一成 山田
Kazunari Yamada
一成 山田
山地 治
Osamu Yamaji
治 山地
梓 五條
Azusa Gojo
梓 五條
梶田 哲史
Tetsushi Kajita
哲史 梶田
森 敏昭
Toshiaki Mori
敏昭 森
岡田 誠
Makoto Okada
誠 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016099831A priority Critical patent/JP6671019B2/en
Publication of JP2017030727A publication Critical patent/JP2017030727A/en
Publication of JP2017030727A5 publication Critical patent/JP2017030727A5/en
Application granted granted Critical
Publication of JP6671019B2 publication Critical patent/JP6671019B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Instrument Panels (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a driver to intuitively and simply instruct a vehicle to switch lanes.SOLUTION: In a drive assist device (10), an image output section (14a) outputs an image including an own vehicle object representing an own vehicle and a plurality of lanes to a display section (31). An operation signal input section (14b) receives user's operation to move the own vehicle object from a first lane to a second lane in the image displayed on the display section (31). A command output section (14c), when receiving the user's operation, outputs a command to instruct the own vehicle to shift from the first lane to the second lane to a vehicle operation control section (20) which controls automatic operation.SELECTED DRAWING: Figure 1

Description

本発明は、自動運転中に運転者が車両に対する運転操作の指示を支援する技術に関する。   The present invention relates to a technique for assisting a driver with a driving operation instruction to a vehicle during automatic driving.

近年、自動車の自動運転に関する開発が進められている。自動運転について、NHTSA(National Highway Traffic Safety Administration)が2013年に定義した自動化レベルは、自動化なし(レベル0)、特定機能の自動化(レベル1)、複合機能の自動化(レベル2)、半自動運転(レベル3)、完全自動運転(レベル4)に分類される。レベル1は加速・減速・操舵の内、1つを自動的に行う運転支援システムであり、レベル2は加速・減速・操舵の内、2つ以上を調和して自動的に行う運転支援システムである。いずれの場合も運転者による運転操作の関与が残る。自動化レベル4は加速・減速・操舵の全てを自動的に行う完全自動走行システムであり、運転者が運転操作に関与しない。自動化レベル3は加速・減速・操舵の全てを自動的に行うが、必要に応じて運転者が運転操作を行う準完全自動走行システムである。   In recent years, development related to automatic driving of automobiles has been promoted. As for automatic operation, the automation levels defined in 2013 by NHTSA (National Highway Traffic Safety Administration) are no automation (level 0), automation of specific functions (level 1), automation of complex functions (level 2), semi-automatic operation ( Level 3) and fully automatic operation (level 4). Level 1 is a driving support system that automatically performs one of acceleration, deceleration, and steering. Level 2 is a driving support system that automatically performs two or more of acceleration, deceleration, and steering in harmony. is there. In either case, the driver remains involved in the driving operation. The automation level 4 is a fully automatic traveling system that automatically performs all of acceleration, deceleration, and steering, and the driver is not involved in the driving operation. The automation level 3 is a quasi-fully automatic traveling system in which acceleration, deceleration, and steering are all automatically performed, and a driver performs a driving operation as necessary.

自動運転の一形態として、運転者はステアリングやアクセルペダル等の既存の運転操作部を操作しないが、車両側にコマンドを発行することにより、車線変更、追越、追従走行などの特定の運転操作を車両側に指示する形態が考えられる。この形態では、誤操作が少ないユーザインタフェースが求められる。   As a form of automatic driving, the driver does not operate the existing driving operation unit such as steering and accelerator pedal, but by issuing commands to the vehicle side, specific driving operation such as lane change, overtaking, following driving, etc. Can be considered to the vehicle side. In this form, a user interface with few erroneous operations is required.

特開2013−129328号公報JP2013-129328A

車線変更、追越、追従走行などの特定の運転操作ごとにスイッチを設ける設計では、スイッチ操作と自動走行制御との対応づけが直感的でなく、多くのスイッチから指示を選択することやスイッチ数を減らして状況に応じて変更された機能を選択することは、複雑な作業であり、今まで運転していなかった人や、運転能力が低下してきていても運転を継続したい人などを含め幅広いユーザが、訓練をせずに自動運転車を利用できない、という課題がある。   In a design where a switch is provided for each specific driving operation such as lane change, overtaking, and follow-up driving, the correspondence between the switch operation and automatic driving control is not intuitive. Selecting a function that has been changed according to the situation by reducing the number of people is a complicated task, and includes a wide range of people, including those who have not been driving until now, and those who want to continue driving even if their driving ability has declined There is a problem that a user cannot use an autonomous driving vehicle without training.

本発明はこうした状況に鑑みなされたものであり、その目的は、運転者が車両に特定の運転操作を直感的かつ簡便に指示することができる技術を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique by which a driver can instruct a vehicle to perform a specific driving operation intuitively and simply.

上記課題を解決するために、本発明のある態様の運転支援装置は、表示部に、自車を表す自車オブジェクトと複数の車線を含む画像情報を出力する画像出力部と、前記表示部に表示された画像内の前記自車オブジェクトを第1車線から第2車線に移動させるユーザの操作信号を受け付ける操作信号入力部と、前記操作信号を受け付けると、自車の走行車線を前記第1車線から前記第2車線に変更することを指示する自動運転制御コマンドを、自動運転の制御を行う自動運転制御部に出力するコマンド出力部と、を備える。   In order to solve the above problems, a driving support apparatus according to an aspect of the present invention includes an image output unit that outputs image information including a host vehicle object representing a host vehicle and a plurality of lanes, and a display unit An operation signal input unit that receives an operation signal of a user that moves the vehicle object in the displayed image from the first lane to the second lane, and when the operation signal is received, the traveling lane of the vehicle is changed to the first lane. A command output unit that outputs an automatic driving control command for instructing to change to the second lane to an automatic driving control unit that controls automatic driving.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を装置、システム、方法、プログラム、プログラムを記録した記録媒体、本装置を搭載した車両などの間で変換したものもまた、本発明の態様として有効である。   An arbitrary combination of the above components, the expression of the present invention converted between an apparatus, a system, a method, a program, a recording medium recording the program, a vehicle equipped with the apparatus, and the like are also included in the present invention. It is effective as an embodiment.

本発明によれば、運転者が車両に特定の運転操作を直感的かつ簡便に指示することができる。   According to the present invention, the driver can instruct the vehicle to perform a specific driving operation intuitively and simply.

本発明の実施の形態に係る車両の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle which concerns on embodiment of this invention. 図1の検出部、自動運転コントローラ、HMIコントローラ、表示部、及び入力部の基本シーケンスの一例を示す図である。It is a figure which shows an example of the basic sequence of the detection part of FIG. 1, an automatic driving controller, an HMI controller, a display part, and an input part. 図1のHMIコントローラの処理を説明するための基本フローチャートの一例を示す図である。It is a figure which shows an example of the basic flowchart for demonstrating the process of the HMI controller of FIG. 受付モードの更新処理を説明するためのフローチャートである。It is a flowchart for demonstrating the update process of reception mode. 図3のステップS9において車線変更を指示するジェスチャ操作が入力される場合の決定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the determination process in case the gesture operation which instruct | indicates a lane change is input in step S9 of FIG. ジェスチャ操作により車線変更指示コマンドを発行する第1処理例を示すフローチャートである。It is a flowchart which shows the 1st process example which issues a lane change instruction command by gesture operation. 図7(a)−(b)は、図6のフローチャートに係るジェスチャ操作の一例を示す図である。FIGS. 7A to 7B are diagrams illustrating an example of a gesture operation according to the flowchart of FIG. ジェスチャ操作により車線変更指示コマンドを発行する第2処理例を示すフローチャートである。It is a flowchart which shows the 2nd process example which issues a lane change instruction command by gesture operation. 図9(a)−(d)は、図8のフローチャートに係るジェスチャ操作の一例を示す図である。9A to 9D are diagrams illustrating an example of the gesture operation according to the flowchart of FIG. ジェスチャ操作により車線変更指示コマンドを発行する第3処理例を示すフローチャートである。It is a flowchart which shows the 3rd process example which issues a lane change instruction command by gesture operation. 図11(a)−(b)は、図10のフローチャートに係るジェスチャ操作の一例を示す図である。FIGS. 11A and 11B are diagrams illustrating an example of a gesture operation according to the flowchart of FIG. ジェスチャ操作により車線変更指示コマンドを発行する第4処理例を示すフローチャートである。It is a flowchart which shows the 4th process example which issues a lane change instruction command by gesture operation. 図13(a)−(d)は、図12のフローチャートに係るジェスチャ操作の一例を示す図である。FIGS. 13A to 13D are diagrams illustrating an example of the gesture operation according to the flowchart of FIG. ジェスチャ操作により車線変更指示コマンドを発行する第5処理例を示すフローチャートである。It is a flowchart which shows the 5th process example which issues a lane change instruction command by gesture operation. 図15(a)−(d)は、図14のフローチャートに係るジェスチャ操作の一例を示す図である。15A to 15D are diagrams illustrating an example of the gesture operation according to the flowchart of FIG. ジェスチャ操作により車線変更指示コマンドを発行する第6処理例を示すフローチャートである。It is a flowchart which shows the 6th process example which issues a lane change instruction command by gesture operation. 図17(a)−(d)は、図16のフローチャートに係るジェスチャ操作の一例を示す図である。17A to 17D are diagrams illustrating an example of a gesture operation according to the flowchart of FIG. ジェスチャ操作により車線変更指示コマンドを発行する第7処理例を示すフローチャートである。It is a flowchart which shows the 7th process example which issues a lane change instruction command by gesture operation. 図19(a)−(c)は、図18のフローチャートに係るジェスチャ操作の一例を示す図である。FIGS. 19A to 19C are diagrams illustrating an example of a gesture operation according to the flowchart of FIG. ジェスチャ操作により車線変更指示コマンドを発行する第8処理例を示すフローチャートである。It is a flowchart which shows the 8th process example which issues a lane change instruction command by gesture operation. 図21(a)−(f)は、図20のフローチャートに係るジェスチャ操作の一例を示す図である。FIGS. 21A to 21F are diagrams illustrating an example of a gesture operation according to the flowchart of FIG. ジェスチャ操作により車線変更指示コマンドを発行した後にキャンセルコマンドを発行する処理例を示すフローチャートである。It is a flowchart which shows the process example which issues a cancel command, after issuing a lane change instruction command by gesture operation. 図23(a)−(d)は、図22のフローチャートに係るジェスチャ操作の一例を示す図である。FIGS. 23A to 23D are diagrams illustrating an example of a gesture operation according to the flowchart of FIG. 図24(a)−(b)は、図22のフローチャートに係るジェスチャ操作の別の例を示す図である。FIGS. 24A and 24B are diagrams illustrating another example of the gesture operation according to the flowchart of FIG. 図5のステップS9fにおいて、予測軌道/ルートの候補を描画する処理の一例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of a process of drawing a predicted trajectory / route candidate in step S9f of FIG. 図5のステップS9fにおいて、予測軌道/ルートの候補を描画する処理の別の例を示すフローチャートである。FIG. 6 is a flowchart illustrating another example of a process of drawing a predicted trajectory / route candidate in step S9f of FIG. 図27(a)−(c)は、図26のフローチャートに係るジェスチャ操作の一例を示す図である。FIGS. 27A to 27C are diagrams illustrating an example of the gesture operation according to the flowchart of FIG. 図28(a)−(c)は、図4のステップS15のエラー表示画面の一例を示す図である。28A to 28C are diagrams showing an example of the error display screen in step S15 of FIG.

以下、本発明の実施の形態について図面を参照しながら説明する。図1は、本発明の実施の形態に係る車両1の構成を示すブロック図であり、自動運転に関連する構成である。自動運転モードを搭載した車両1(自車)は、運転支援装置10、自動運転制御装置20、表示装置30、検出部40及び運転操作部50を備える。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a vehicle 1 according to an embodiment of the present invention, which is a configuration related to automatic driving. A vehicle 1 (own vehicle) equipped with an automatic driving mode includes a driving support device 10, an automatic driving control device 20, a display device 30, a detection unit 40, and a driving operation unit 50.

表示装置30は、表示部31及び入力部32を含む。表示装置30は、カーナビゲーションシステム、ディスプレイオーディオ等のヘッドユニットであってもよいし、スマートフォン、タブレット等の携帯端末機器であってもよいし、専用のコンソール端末装置であってもよい。   The display device 30 includes a display unit 31 and an input unit 32. The display device 30 may be a head unit such as a car navigation system or display audio, may be a mobile terminal device such as a smartphone or a tablet, or may be a dedicated console terminal device.

表示部31は液晶ディスプレイや有機ELディスプレイやヘッドアップディスプレイ(HUD)である。入力部32はユーザの入力を受け付けるユーザインタフェースである。表示部31と入力部32は一体化したタッチパネルディスプレイであってもよい。なお入力部32は、マウス、スタイラスペン、トラックボール等のジェスチャ入力を補助する入力デバイスを備えていてもよい。また可視光または赤外線を発光するペンを使用してもよい。   The display unit 31 is a liquid crystal display, an organic EL display, or a head-up display (HUD). The input unit 32 is a user interface that receives user input. The display unit 31 and the input unit 32 may be an integrated touch panel display. Note that the input unit 32 may include an input device that assists gesture input, such as a mouse, a stylus pen, or a trackball. A pen that emits visible light or infrared light may be used.

なお、表示部31と入力部32が一体型のタッチパネルディスプレイではなく、物理的にセパレートであってもよい。例えば入力部32は、カメラ等のセンサを備え、空中ジェスチャ操作入力が可能な非接触型の入力デバイスであってもよい。例えば、対象を指さしでポイントし、親指と人差し指を近づけて閉じるジェスチャでドラッグ開始、親指と人差し指を離すジェスチャでドラッグ終了などの操作方法が考えられる。   Note that the display unit 31 and the input unit 32 may be physically separated instead of an integrated touch panel display. For example, the input unit 32 may be a non-contact type input device that includes a sensor such as a camera and is capable of inputting an air gesture operation. For example, an operation method such as pointing with a pointing object, starting dragging with the gesture of closing the thumb and index finger close, and ending dragging with the gesture of releasing the thumb and index finger can be considered.

運転支援装置10と表示装置30との間は、専用線やCAN(Controller Area Network)等の有線通信で接続されていても良いし、USB、Ethernet(登録商標)、Wi−Fi(登録商標)、Bluetooth(登録商標)等の有線通信または無線通信で接続されていても良い。   The driving support device 10 and the display device 30 may be connected by a wired communication such as a dedicated line or a CAN (Controller Area Network), or may be USB, Ethernet (registered trademark), Wi-Fi (registered trademark). , Bluetooth (registered trademark) or the like may be connected by wired communication or wireless communication.

検出部40は、位置情報取得部41、センサ42、速度情報取得部43及び地図情報取得部44を含む。位置情報取得部41はGPS受信機から車両1の現在位置を取得する。センサ42は車外の状況および車両1の状態を検出するための各種センサの総称である。車外の状況を検出するためのセンサとして例えばカメラ、ミリ波レーダ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、気温センサ、気圧センサ、湿度センサ、照度センサ等が搭載される。車外の状況とは、車線情報を含む自車の走行する道路状況や天候を含む環境及び自車周辺状況が考えられる。なお、センサが検出できる車外の情報であれば何でもよい。また車両1の状態を検出するためのセンサとして例えば、加速度センサ、ジャイロセンサ、地磁気センサ、傾斜センサ等が搭載される。速度情報取得部43は車速センサから車両1の現在速度を取得する。地図情報取得部44は、地図データベースから車両1の現在位置周辺の地図情報を取得する。地図データベースは、車両1内の記録媒体に記録されていてもよいし、使用時にネットワークを介して地図サーバからダウンロードしてもよい。   The detection unit 40 includes a position information acquisition unit 41, a sensor 42, a speed information acquisition unit 43, and a map information acquisition unit 44. The position information acquisition unit 41 acquires the current position of the vehicle 1 from the GPS receiver. The sensor 42 is a general term for various sensors for detecting the situation outside the vehicle and the state of the vehicle 1. For example, a camera, millimeter wave radar, LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), a temperature sensor, an atmospheric pressure sensor, a humidity sensor, an illuminance sensor, and the like are mounted as sensors for detecting a situation outside the vehicle. The situation outside the vehicle may be a road situation where the host vehicle travels including lane information, an environment including the weather, and a situation around the host vehicle. Any information outside the vehicle that can be detected by the sensor may be used. For example, an acceleration sensor, a gyro sensor, a geomagnetic sensor, a tilt sensor, and the like are mounted as sensors for detecting the state of the vehicle 1. The speed information acquisition unit 43 acquires the current speed of the vehicle 1 from the vehicle speed sensor. The map information acquisition unit 44 acquires map information around the current position of the vehicle 1 from the map database. The map database may be recorded on a recording medium in the vehicle 1, or may be downloaded from a map server via a network when used.

検出部40と自動運転制御装置20との間は、専用線やUSB、Ethernet(登録商標)、CAN(Controller Area Network)等の有線通信で接続される。なお検出部40が取得および検出したデータを、検出部40から運転支援装置10に直接出力可能な構成であってもよい。   The detection unit 40 and the automatic operation control device 20 are connected by wired communication such as a dedicated line, USB, Ethernet (registered trademark), CAN (Controller Area Network) or the like. The data acquired and detected by the detection unit 40 may be directly output from the detection unit 40 to the driving support device 10.

運転操作部50は、ステアリング51、ブレーキペダル52、アクセルペダル53、及びウインカスイッチ54を含む。本実施の形態に係る自動運転モードでは、加速、減速、操舵、及びウインカ点滅が自動運転制御装置20による自動制御の対象であり、図1にはそれらの制御を手動で行う際の操作部を描いている。なお運転者が手動で運転操作部50を少し動かした情報を運転支援装置10に出力してもよい。   The driving operation unit 50 includes a steering 51, a brake pedal 52, an accelerator pedal 53, and a winker switch 54. In the automatic driving mode according to the present embodiment, acceleration, deceleration, steering, and blinker blinking are objects of automatic control by the automatic driving control device 20, and FIG. 1 shows an operation unit for performing these controls manually. I'm drawing. In addition, you may output the information which the driver | operator moved the driving operation part 50 a little manually to the driving assistance apparatus 10. FIG.

ステアリング51は車両を操舵するための操作部である。運転者によりステアリング51が回転されると、ステアリングアクチュエータを介して車両の進行方向が制御される。ステアリングアクチュエータはステアリングECU(Electronic Control Unit)により電子制御が可能である。   The steering 51 is an operation unit for steering the vehicle. When the steering wheel 51 is rotated by the driver, the traveling direction of the vehicle is controlled via the steering actuator. The steering actuator can be electronically controlled by a steering ECU (Electronic Control Unit).

ブレーキペダル52は車両1を減速させるための操作部である。運転者によりブレーキペダル52が踏まれると、ブレーキアクチュエータを介して車両が減速される。ブレーキアクチュエータはブレーキECUにより電子制御が可能である。   The brake pedal 52 is an operation unit for decelerating the vehicle 1. When the brake pedal 52 is depressed by the driver, the vehicle is decelerated through the brake actuator. The brake actuator can be electronically controlled by the brake ECU.

アクセルペダル53は車両1を加速させるための操作部である。運転者によりアクセルペダル53が踏まれると、アクセルアクチュエータを介してエンジン回転数および/またはモータ回転数が制御される。純粋なエンジンカーではエンジン回転数が制御され、純粋な電気自動車ではモータ回転数が制御され、ハイブリッドカーではその両方が制御される。アクセルアクチュエータはエンジンECUおよび/またはモータECUにより電子制御が可能である。   The accelerator pedal 53 is an operation unit for accelerating the vehicle 1. When the accelerator pedal 53 is depressed by the driver, the engine speed and / or the motor speed are controlled via the accelerator actuator. The engine speed is controlled in a pure engine car, the motor speed is controlled in a pure electric car, and both are controlled in a hybrid car. The accelerator actuator can be electronically controlled by the engine ECU and / or the motor ECU.

ウインカスイッチ54は、車両の進路を外部に通知するためのウインカを点滅させるための操作部である。運転者によりウインカスイッチ54がオン/オフされると、ウインカコントローラを介してウインカが点灯/消灯される。ウインカコントローラは、ウインカランプへの給電を制御するリレー等の駆動回路を備える。   The turn signal switch 54 is an operation unit for blinking a turn signal for notifying the outside of the vehicle path. When the turn signal switch 54 is turned on / off by the driver, the turn signal is turned on / off via the turn signal controller. The winker controller includes a drive circuit such as a relay for controlling power feeding to the winker lamp.

ステアリングECU、ブレーキECU、エンジンECU、モータECU、ウインカコントローラのそれぞれと自動運転制御装置20との間は、CANや専用線等の有線通信で接続される。ステアリングECU、ブレーキECU、エンジンECU、モータECU、ウインカコントローラはそれぞれ、ステアリング、ブレーキ、エンジン、モータ、ウインカランプの状態を示す状態信号を自動運転制御装置20に送信する。   The steering ECU, the brake ECU, the engine ECU, the motor ECU, and the winker controller are connected to the automatic driving control device 20 by wired communication such as a CAN or a dedicated line. The steering ECU, the brake ECU, the engine ECU, the motor ECU, and the winker controller respectively transmit state signals indicating the states of the steering, the brake, the engine, the motor, and the winker lamp to the automatic driving control device 20.

自動運転モードにおいて、ステアリングECU、ブレーキECU、エンジンECU、モータECUは、自動運転制御装置20から供給される制御信号に応じて各アクチュエータを駆動する。手動運転モードにおいては、ステアリング51、ブレーキペダル52、アクセルペダル53のそれぞれから各アクチュエータに直接機械的に指示が伝達される構成であってもよいし、各ECUを介した電子制御が介在する構成であってもよい。ウインカコントローラは自動運転制御装置20から供給される制御信号、又はウインカスイッチ54からの指示信号に応じてウインカランプを点灯/消灯する。   In the automatic operation mode, the steering ECU, the brake ECU, the engine ECU, and the motor ECU drive each actuator in accordance with a control signal supplied from the automatic operation control device 20. In the manual operation mode, the steering 51, the brake pedal 52, and the accelerator pedal 53 may be mechanically transmitted directly to each actuator, or may be configured to be electronically controlled via each ECU. It may be. The winker controller turns on / off the winker lamp in response to a control signal supplied from the automatic operation control device 20 or an instruction signal from the winker switch 54.

自動運転制御装置20は、自動運転制御機能を実装した自動運転コントローラであり、制御部21、記憶部22及び入出力部23を備える。制御部21の構成はハードウェア資源とソフトウェア資源の協働、又はハードウェア資源のみにより実現できる。ハードウェア資源としてプロセッサ、ROM、RAM、その他のLSIを利用でき、ソフトウェア資源としてオペレーティングシステム、アプリケーション、ファームウェア等のプログラムを利用できる。記憶部22は、フラッシュメモリ等の不揮発性記録媒体を備える。入出力部23は、各種の通信フォーマットに応じた各種の通信制御を実行する。   The automatic operation control device 20 is an automatic operation controller that implements an automatic operation control function, and includes a control unit 21, a storage unit 22, and an input / output unit 23. The configuration of the control unit 21 can be realized by cooperation of hardware resources and software resources, or only by hardware resources. Processors, ROM, RAM, and other LSIs can be used as hardware resources, and programs such as an operating system, application, and firmware can be used as software resources. The storage unit 22 includes a nonvolatile recording medium such as a flash memory. The input / output unit 23 executes various communication controls corresponding to various communication formats.

制御部21は、検出部40や各種ECUから収集した各種パラメータ値を自動運転アルゴリズムに適用して、車両1の進行方向等の自動制御対象を制御するための制御値を算出する。制御部21は算出した制御値を、各制御対象のECU又はコントローラに伝達する。本実施の形態ではステアリングECU、ブレーキECU、エンジンECU、ウインカコントローラに伝達する。なお電気自動車やハイブリッドカーの場合、エンジンECUに代えて又は加えてモータECUに制御値を伝達する。   The control unit 21 applies various parameter values collected from the detection unit 40 and various ECUs to the automatic driving algorithm, and calculates a control value for controlling an automatic control target such as the traveling direction of the vehicle 1. The control unit 21 transmits the calculated control value to each control target ECU or controller. In this embodiment, it is transmitted to a steering ECU, a brake ECU, an engine ECU, and a winker controller. In the case of an electric vehicle or a hybrid car, the control value is transmitted to the motor ECU instead of or in addition to the engine ECU.

運転支援装置10は、車両1と運転者との間のインタフェース機能を実行するためのHMI(Human Machine Interface)コントローラであり、判定部11、生成部12、指示部13及び入出力部14を備える。判定部11、生成部12及び指示部13は、ハードウェア資源とソフトウェア資源の協働、又はハードウェア資源のみにより実現できる。ハードウェア資源としてプロセッサ、ROM、RAM、その他のLSIを利用でき、ソフトウェア資源としてオペレーティングシステム、アプリケーション、ファームウェア等のプログラムを利用できる。入出力部14は、各種の通信フォーマットに応じた各種の通信制御を実行する。入出力部14は、画像出力部14a、操作信号入力部14b、コマンド出力部14c、及び車両情報入力部14dを含む。画像出力部14aは、生成部12が生成した画像を表示部31に出力する。操作信号入力部14bは、入力部32に対してなされた運転者や乗員もしくは車外にいるユーザの操作による操作信号を受け付け、判定部11に出力する。コマンド出力部14cは、指示部13により指示されたコマンドを自動運転コントローラ20に出力する。車両情報入力部14dは、検出部40が取得した検出データや自動運転コントローラ20により生成された車両側の情報を受け付け、生成部12に出力する。   The driving support apparatus 10 is an HMI (Human Machine Interface) controller for executing an interface function between the vehicle 1 and the driver, and includes a determination unit 11, a generation unit 12, an instruction unit 13, and an input / output unit 14. . The determination unit 11, the generation unit 12, and the instruction unit 13 can be realized by cooperation of hardware resources and software resources, or only by hardware resources. Processors, ROM, RAM, and other LSIs can be used as hardware resources, and programs such as an operating system, application, and firmware can be used as software resources. The input / output unit 14 executes various communication controls according to various communication formats. The input / output unit 14 includes an image output unit 14a, an operation signal input unit 14b, a command output unit 14c, and a vehicle information input unit 14d. The image output unit 14 a outputs the image generated by the generation unit 12 to the display unit 31. The operation signal input unit 14 b receives an operation signal generated by the driver, an occupant, or a user outside the vehicle made to the input unit 32 and outputs the operation signal to the determination unit 11. The command output unit 14 c outputs the command instructed by the instruction unit 13 to the automatic operation controller 20. The vehicle information input unit 14 d receives detection data acquired by the detection unit 40 and vehicle-side information generated by the automatic driving controller 20 and outputs the information to the generation unit 12.

自動運転コントローラ20とHMIコントローラ10との間は直接、信号線で接続される。なおCANを介して接続する構成であってもよい。また自動運転コントローラ20とHMIコントローラ10を統合して1つのコントローラとする構成も可能である。   The automatic operation controller 20 and the HMI controller 10 are directly connected by a signal line. In addition, the structure connected via CAN may be sufficient. Further, a configuration is possible in which the automatic operation controller 20 and the HMI controller 10 are integrated into one controller.

図2は、図1の検出部40、自動運転コントローラ20、HMIコントローラ10、表示部31、及び入力部32の基本シーケンスの一例を示す図である。検出部40は、自車位置情報、車線情報を含む自車走行道路情報、及び自車周辺情報を検出して自動運転コントローラ20に出力する(P1)。自動運転コントローラ20は、検出部40から取得した自車位置情報、自車走行道路情報、及び自車周辺情報をHMIコントローラ10に出力する(P2)。HMIコントローラ10は、自動運転コントローラ20から取得した情報をもとに、自車と自車の周辺状況を含む模式図を生成する(P3)。HMIコントローラ10は、生成した模式図を表示装置30に出力し、表示部31に表示させる(P4)。   FIG. 2 is a diagram illustrating an example of a basic sequence of the detection unit 40, the automatic operation controller 20, the HMI controller 10, the display unit 31, and the input unit 32 of FIG. The detection unit 40 detects the own vehicle position information, the own vehicle traveling road information including the lane information, and the own vehicle surrounding information and outputs the detected information to the automatic driving controller 20 (P1). The automatic driving controller 20 outputs the vehicle position information, the vehicle traveling road information, and the vehicle surrounding information acquired from the detection unit 40 to the HMI controller 10 (P2). The HMI controller 10 generates a schematic diagram including the host vehicle and the surrounding situation of the host vehicle based on the information acquired from the automatic driving controller 20 (P3). The HMI controller 10 outputs the generated schematic diagram to the display device 30 and displays it on the display unit 31 (P4).

表示部31に表示された模式図を見たユーザは、入力部32に接触する(P5)。表示部31は、接触を検出した座標データをHMIコントローラ10に出力する(P6)。HMIコントローラ10は、表示装置30から取得した座標データをもとにコマンドの種別を判定する(P7)。HMIコントローラ10は、一定時間が経過するまでは、追加入力の受け付けを行う(P8〜P12)。HMIコントローラ10はコマンドの判定後、コマンドの指示中であることを示す模式図を再生成する(P8)。HMIコントローラ10は、再生成した模式図を表示装置30に出力し、表示部31に表示させる(P9)。なおユーザの接触によるジェスチャ操作に該当するコマンドが存在しない場合は、エラーメッセージを含む模式図を生成して表示装置30に出力し、表示部31に表示させる。   The user who sees the schematic diagram displayed on the display unit 31 contacts the input unit 32 (P5). The display unit 31 outputs the coordinate data in which contact is detected to the HMI controller 10 (P6). The HMI controller 10 determines the type of command based on the coordinate data acquired from the display device 30 (P7). The HMI controller 10 accepts additional inputs until a predetermined time has elapsed (P8 to P12). After determining the command, the HMI controller 10 regenerates a schematic diagram indicating that the command is being instructed (P8). The HMI controller 10 outputs the regenerated schematic diagram to the display device 30 and displays it on the display unit 31 (P9). When there is no command corresponding to the gesture operation by the user's contact, a schematic diagram including an error message is generated and output to the display device 30 and displayed on the display unit 31.

コマンドの指示中であることを示す模式図を見たユーザが、入力部32に接触すると(P10)、表示部31は、接触を検出した座標データをHMIコントローラ10に出力する(P11)。HMIコントローラ10は、表示装置30から取得した座標データをもとに追加コマンド処理を実行する(P12)。HMIコントローラ10は、追加コマンド処理(P12)で新たなコマンドの入力がなかった場合は、P7で判定したコマンドを自動運転コントローラ20に発行する(P13、P14)。追加コマンド処理(P12)で新たなコマンドが入力された場合は、新たなコマンドを自動運転コントローラ20に発行する。新たに入力されたコマンドがキャンセルコマンドであった場合は、コマンド発行を取りやめる。新たなコマンドによる元のコマンドの上書き・キャンセル処理は、自動運転コントローラ20で行ってもよく、その場合、HMIコントローラ10は、P7、P12におけるコマンド判定処理後に自動運転コントローラ20へコマンドの送信を行い、自動運転コントローラ20内部の状態に応じて上書き・キャンセル処理を行う。   When the user who sees the schematic diagram showing that the command is being instructed touches the input unit 32 (P10), the display unit 31 outputs the coordinate data in which the contact is detected to the HMI controller 10 (P11). The HMI controller 10 executes additional command processing based on the coordinate data acquired from the display device 30 (P12). If there is no new command input in the additional command processing (P12), the HMI controller 10 issues the command determined in P7 to the automatic operation controller 20 (P13, P14). When a new command is input in the additional command process (P12), the new command is issued to the automatic operation controller 20. If the newly input command is a cancel command, cancel the command issue. The overwriting / cancellation processing of the original command by a new command may be performed by the automatic operation controller 20, and in that case, the HMI controller 10 transmits the command to the automatic operation controller 20 after the command determination processing in P7 and P12. The overwriting / cancellation process is performed according to the state of the automatic operation controller 20.

検出部40は定期的に、自車位置情報、自車走行道路情報、及び自車周辺情報を検出して自動運転コントローラ20に出力する(P15)。自動運転コントローラ20は当該情報をもとに、HMIコントローラ10から発行されたコマンドにより指示された制御が実行可能であるか否か判定する(P16)。実行可能である場合、自動運転コントローラ20は制御開始通知をHMIコントローラ10に出力する(P17)。HMIコントローラ10は制御開始通知を受けると、制御中であることを示すメッセージを含む模式図を再生成する(P18)。HMIコントローラ10は、再生成した模式図を表示装置30に出力し、表示部31に表示させる(P19)。図示しないが、自動運転コントローラ20が、検出部40や各種ECUから収集した各種パラメータ値を自動運転アルゴリズムに適用して、発行されたコマンドを遂行するための車両1の進行方向等の自動制御対象となる運転操作部50を制御する具体的な制御値を算出し、各制御対象のECU又はコントローラに伝達する。運転操作部50は具体的な制御値に基づき動作する。運転操作部50は、所定の制御値または検出部40の検出データが所定値(範囲)になり、自動運転コントローラ20が、発行されたコマンドの条件に満たしたと判断したら、コマンド実行完了と判断する。   The detection unit 40 periodically detects the vehicle position information, the vehicle traveling road information, and the vehicle periphery information and outputs the detected information to the automatic driving controller 20 (P15). Based on the information, the automatic operation controller 20 determines whether or not the control instructed by the command issued from the HMI controller 10 can be executed (P16). If it can be executed, the automatic operation controller 20 outputs a control start notification to the HMI controller 10 (P17). Upon receiving the control start notification, the HMI controller 10 regenerates a schematic diagram including a message indicating that control is being performed (P18). The HMI controller 10 outputs the regenerated schematic diagram to the display device 30 and displays it on the display unit 31 (P19). Although not shown, the automatic operation controller 20 applies various parameter values collected from the detection unit 40 and various ECUs to the automatic operation algorithm, and performs automatic control such as the traveling direction of the vehicle 1 for executing the issued command. A specific control value for controlling the driving operation unit 50 is calculated and transmitted to each ECU or controller to be controlled. The driving operation unit 50 operates based on specific control values. The driving operation unit 50 determines that the command execution is complete when the predetermined control value or the detection data of the detection unit 40 reaches a predetermined value (range) and the automatic operation controller 20 determines that the condition of the issued command is satisfied. .

HMIコントローラ10は、自動運転コントローラ20から制御完了通知を受けると、制御が完了したことを示すメッセージを含む模式図を生成して表示装置30に出力する。なお、ユーザから操作を受け付けない期間は、操作を受け付けないことを示すメッセージを含む模式図を生成して表示装置30に出力する。   When receiving the control completion notification from the automatic operation controller 20, the HMI controller 10 generates a schematic diagram including a message indicating that the control is completed and outputs the schematic diagram to the display device 30. During a period in which no operation is accepted from the user, a schematic diagram including a message indicating that no operation is accepted is generated and output to the display device 30.

図3は、図1のHMIコントローラ10の処理を説明するための基本フローチャートの一例を示す図である。HMIコントローラ10の判定部11は、運転モードが自動運転モードか手動運転モードであるかをチェックする(S1)。手動運転モードの場合(S2のN)、処理を終了する。自動運転モードの場合(S2のY)、以下のように処理される。   FIG. 3 is a diagram showing an example of a basic flowchart for explaining the processing of the HMI controller 10 of FIG. The determination unit 11 of the HMI controller 10 checks whether the operation mode is the automatic operation mode or the manual operation mode (S1). In the case of the manual operation mode (N in S2), the process is terminated. In the case of the automatic operation mode (Y in S2), the following process is performed.

検出部40から自動運転コントローラ20に入力されるセンサ情報は随時更新されている(S3)。HMIコントローラ10の生成部12は、自動運転コントローラ20から入力される自車位置情報、車線情報を含む自車走行道路情報、及び自車周辺情報を基に自車と自車の周辺状況を含む模式図を生成し、生成した模式図を表示部31に描画する(S4)。判定部11は受付モードが、ユーザからの操作を受付可能な受付可モードか、ユーザからの操作を受付不可な受付不可モードであるかをチェックする(S5)。受付不可モードである場合(S6のN)、処理を終了する。受付可モードである場合(S6のY)、判定部11は入力部32に対するユーザによる接触があるか否か判定する(S7)。接触がない場合(S8のN)、後述する一定時間経過判定処理(S12)を実行する。接触がある場合(S8のY)、判定部11は、ユーザによるジェスチャ操作入力に応じて制御コマンドを決定する(S9)。この決定処理の詳細は後述する。   The sensor information input from the detection unit 40 to the automatic operation controller 20 is updated as needed (S3). The generation unit 12 of the HMI controller 10 includes the own vehicle position information, the own vehicle traveling road information including the lane information, and the surrounding conditions of the own vehicle and the own vehicle based on the own vehicle periphery information. A schematic diagram is generated, and the generated schematic diagram is drawn on the display unit 31 (S4). The determination unit 11 checks whether the reception mode is an acceptable mode in which an operation from the user can be accepted or an unacceptable mode in which an operation from the user cannot be accepted (S5). If it is in the unacceptable mode (N in S6), the process ends. When it is in the acceptable mode (Y in S6), the determination unit 11 determines whether or not there is a user's contact with the input unit 32 (S7). When there is no contact (N of S8), the fixed time passage determination process (S12) described later is executed. When there is contact (Y in S8), the determination unit 11 determines a control command in accordance with a gesture operation input by the user (S9). Details of this determination process will be described later.

ステップS9で決定された制御コマンドがキャンセルコマンドでない場合(S10のN)、生成部12は表示部31にコマンド指示中を表示する(S11)。制御コマンドが決定されてから一定時間経過すると(S12のY)、ステップS9で決定された制御コマンドがある場合(S13のY)、表示部31に操作受付不可を表示し(S14)、判定部11は受付モードを受付可モードから受付不可モードに更新し(S15)、指示部13は、決定された制御コマンドを自動運転コントローラ20に出力する(S16)。一定時間が経過するまでは(S12のN)、ステップS3に遷移する。   When the control command determined in step S9 is not a cancel command (N in S10), the generation unit 12 displays a command instruction on the display unit 31 (S11). When a certain time has elapsed after the control command is determined (Y in S12), if there is a control command determined in step S9 (Y in S13), the display unit 31 displays that the operation cannot be accepted (S14), and the determination unit 11 updates the acceptance mode from the acceptable mode to the unacceptable mode (S15), and the instruction unit 13 outputs the determined control command to the automatic operation controller 20 (S16). Until a predetermined time elapses (N in S12), the process proceeds to step S3.

ステップS10において、決定された制御コマンドがキャンセルコマンドである場合(S10のY)、キャンセルを表示し(S110)、処理を終了する。ステップS13において、ステップS9で決定された制御コマンドがない場合、入力エラーを表示し(S111)、処理を終了する。自動運転コントローラ20は、検出部40から自車位置情報、自車走行道路情報、及び自車周辺情報を定期的に検出している。周辺状況は刻々と変化するため、制御コマンドが自動運転コントローラ20に出力された後、制御コマンドが実行不能と判断される場合がある。例えば、追従指示後に、自車と他車の間に別の車が割り込んできた場合などである。自動運転コントローラ20により制御コマンドが実行可能と判断された場合(S17のY)、生成部12は表示部31に制御中であることを表示し(S18)、タイマを発動してカウントを開始する(S19)。自動運転コントローラ20により制御不能と判断された場合(S17のN)、生成部12は表示部31に制御不能エラーを表示する(S112)。   In step S10, when the determined control command is a cancel command (Y in S10), cancel is displayed (S110), and the process ends. In step S13, if there is no control command determined in step S9, an input error is displayed (S111), and the process ends. The automatic operation controller 20 periodically detects the vehicle position information, the vehicle traveling road information, and the vehicle surrounding information from the detection unit 40. Since the surrounding situation changes from moment to moment, it may be determined that the control command cannot be executed after the control command is output to the automatic operation controller 20. For example, there is a case where another vehicle has interrupted between the own vehicle and another vehicle after the follow-up instruction. When the automatic operation controller 20 determines that the control command can be executed (Y in S17), the generation unit 12 displays on the display unit 31 that the control is being performed (S18), activates a timer, and starts counting. (S19). When the automatic operation controller 20 determines that control is impossible (N in S17), the generation unit 12 displays an uncontrollable error on the display unit 31 (S112).

図4は、受付モードの更新処理を説明するためのフローチャートである。HMIコントローラ10の判定部11は、タイマのカウント値が設定値(例えば、10秒)に到達すると(S113のY)、受付モードを受付不可モードから受付可モードに更新する(S114)。なお、タイマのカウント値は自車の周辺状況に応じて変更してもよい。なお判定部11は、自動運転コントローラ20から制御完了を示す通知を受信するか、車両1の挙動から、制御コマンドに応じた制御が完了したと判断したとき、受付モードを受付不可モードから受付可モードに更新してもよい。   FIG. 4 is a flowchart for explaining the reception mode update process. When the timer count value reaches a set value (for example, 10 seconds) (Y in S113), the determination unit 11 of the HMI controller 10 updates the reception mode from the unacceptable mode to the acceptable mode (S114). The count value of the timer may be changed according to the surrounding situation of the own vehicle. When the determination unit 11 receives a notification indicating the completion of control from the automatic driving controller 20 or determines from the behavior of the vehicle 1 that the control according to the control command is completed, the reception mode can be received from the unacceptable mode. You may update to mode.

以下、本実施の形態では制御コマンドとして、車線変更を指示する制御コマンドが発行される例を説明する。ユーザは、入力部32に対して車線変更を指示するジェスチャ操作を入力する。当該ジェスチャ操作の具体例は後述する。   Hereinafter, in the present embodiment, an example in which a control command for instructing lane change is issued as a control command will be described. The user inputs a gesture operation that instructs the input unit 32 to change lanes. A specific example of the gesture operation will be described later.

図5は、図3のステップS9において車線変更を指示するジェスチャ操作が入力される場合の決定処理の一例を示すフローチャートである。HMIコントローラ10の判定部11は、接触開始位置に自車マークが存在するか否か判定する(S9a)。自車マークが存在しない場合(S9aのN)、判定部11は車線変更指示以外のその他の制御コマンドと判定する(S9b)。自車マークが存在する場合(S9aのY)、生成部12は、ドロップ可能エリアを模式図内に描画し、表示部31に表示させる(S9c)。ドロップ可能エリアの具体例は後述する。   FIG. 5 is a flowchart illustrating an example of determination processing when a gesture operation instructing lane change is input in step S9 of FIG. The determination unit 11 of the HMI controller 10 determines whether or not the vehicle mark is present at the contact start position (S9a). When the own vehicle mark does not exist (N in S9a), the determination unit 11 determines that the control command is other than the lane change instruction (S9b). When the vehicle mark is present (Y in S9a), the generation unit 12 draws a droppable area in the schematic diagram and displays it on the display unit 31 (S9c). A specific example of the droppable area will be described later.

判定部11は、入力部32で発生したタッチイベントを受信し(S9d)、タッチイベントの種別を判定する(S9e)。タッチイベントの種別が移動であった場合(S9eの移動)、生成部12は車両1の予測軌道/ルートの候補を模式図内に描画し、表示部31に表示させる(S9f)。予測軌道/ルートの候補を描画する処理の詳細は後述する。   The determination unit 11 receives the touch event generated at the input unit 32 (S9d), and determines the type of the touch event (S9e). When the touch event type is movement (movement of S9e), the generation unit 12 draws the predicted trajectory / route candidate of the vehicle 1 in the schematic diagram and causes the display unit 31 to display the candidate (S9f). Details of the process of drawing the predicted trajectory / route candidate will be described later.

タッチイベントの種別が接触終了であった場合(S9eの接触終了)、判定部11は、接触終了位置がレーン上であるか否か判定する(S9g)。レーン上であった場合(S9gのY)、判定部11は接触終了位置のレーンと接触開始位置のレーンが異なっているか否か判定する(S9h)。異なるレーンでない場合(同一レーンの場合)(S9hのN)、判定部11は車線変更指示以外のその他の制御コマンドと判定する(S9i)。この場合、自車が走行している車線は維持される。   When the touch event type is contact end (contact end in S9e), the determination unit 11 determines whether or not the contact end position is on the lane (S9g). When it is on the lane (Y in S9g), the determination unit 11 determines whether the lane at the contact end position is different from the lane at the contact start position (S9h). When the lanes are not different (in the case of the same lane) (N in S9h), the determination unit 11 determines that the control command is other than the lane change instruction (S9i). In this case, the lane in which the vehicle is traveling is maintained.

接触終了位置のレーンと接触開始位置のレーンが異なっている場合(S9hのY)、判定部11は、接触終了位置のレーンが車線変更が可能なレーンであるか否か判定する(S9j)。車線変更が可能なレーンである場合(S9jのY)、判定部11は接触終了位置のレーンに他車が存在するか否か判定する(S9k)。他車が存在しない場合(S9kのN)、判定部11は当該レーンへの車線変更指示コマンドと判定する(S9l)。   If the lane at the contact end position is different from the lane at the contact start position (Y in S9h), the determination unit 11 determines whether the lane at the contact end position is a lane that can change lanes (S9j). When the lane can be changed (Y in S9j), the determination unit 11 determines whether there is another vehicle in the lane at the contact end position (S9k). When there is no other vehicle (N in S9k), the determination unit 11 determines that the command is a lane change instruction command to the lane (S91).

接触終了位置のレーンに他車が存在する場合(S9kのY)、判定部11は接触終了位置が当該他車の前方であるか後方であるかを判定する(S9m)。前方である場合(S9mの前)、判定部11は当該レーンへの当該他車前方への車線変更指示コマンドと判定する(S9n)。後方である場合(S9mの後)、判定部11は当該レーンへの当該他車後方への車線変更指示コマンドと判定する(S9o)。   When there is another vehicle in the contact end position lane (Y in S9k), the determination unit 11 determines whether the contact end position is in front of or behind the other vehicle (S9m). When the vehicle is ahead (before S9m), the determination unit 11 determines that the command is a lane change instruction command to the lane ahead of the other vehicle (S9n). When it is behind (after S9m), the determination part 11 determines with the lane change instruction command to the said other vehicle back to the said other lane (S9o).

ステップS9gにおいて、接触終了位置がレーンの外である場合(S9gのN)、判定部11は接触終了位置が全レーンの左右外側であるか否か判定する(S9p)。全レーンの左右外側でない場合(S9pのN)、判定部11は車線変更指示以外のその他の制御コマンドと判定する(S9q)。全レーンの左右外側である場合(S9pのY)、判定部11は前方に交差点が存在するか否か判定する(S9r)。前方に交差点が存在しない場合(S9rのN)、生成部12は表示部31にエラーメッセージを表示させる(S9s)。前方に交差点が存在する場合(S9rのY)、右折指示コマンドまたは左折指示コマンドと判定する(S9t)。全レーンの右外側の場合は右折指示コマンドになり、左外側の場合は左折指示コマンドになる。ステップS9jの処理において、接触終了位置のレーンが車線変更が可能なレーンでない場合(S9jのN)、ステップS9rに遷移し、判定部11は前方に交差点が存在するか否か判定する(S9r)。   In step S9g, when the contact end position is outside the lane (N in S9g), the determination unit 11 determines whether or not the contact end position is outside the left and right of all the lanes (S9p). If it is not the left or right outside of all lanes (N in S9p), the determination unit 11 determines that the control command is other than the lane change instruction (S9q). When it is outside the left and right of all the lanes (Y in S9p), the determination unit 11 determines whether there is an intersection ahead (S9r). When there is no intersection ahead (N in S9r), the generation unit 12 displays an error message on the display unit 31 (S9s). When there is an intersection ahead (Y in S9r), it is determined as a right turn instruction command or a left turn instruction command (S9t). If it is the right outside of all lanes, it becomes a right turn instruction command, and if it is outside the left, it becomes a left turn instruction command. In the process of step S9j, when the lane at the contact end position is not a lane where the lane can be changed (N of S9j), the process proceeds to step S9r, and the determination unit 11 determines whether an intersection exists ahead (S9r). .

以下、車線変更時に使用されるジェスチャ操作の具体例を説明する。以下の例では表示部31及び入力部32が一体化したタッチパネルディスプレイを使用することを想定する。   Hereinafter, a specific example of the gesture operation used when changing the lane will be described. In the following example, it is assumed that a touch panel display in which the display unit 31 and the input unit 32 are integrated is used.

図6は、ジェスチャ操作により車線変更指示コマンドを発行する第1処理例を示すフローチャートである。HMIコントローラ10の判定部11は、タッチパネルからタッチイベント(DOWN)を受信する(S20)。タッチイベント(DOWN)は、タッチパネルに対する指やペンによる非接触状態から接触状態への変化を表すイベントである。判定部11は、タッチイベント(DOWN)が検出された座標が自車アイコンの表示エリアの内部であるか否か判定する(S21)。表示エリアの外である場合(S21のN)、車線変更指示でないと判定して処理を終了する。   FIG. 6 is a flowchart illustrating a first processing example in which a lane change instruction command is issued by a gesture operation. The determination unit 11 of the HMI controller 10 receives a touch event (DOWN) from the touch panel (S20). The touch event (DOWN) is an event indicating a change from a non-contact state to a contact state with a finger or a pen on the touch panel. The determination unit 11 determines whether or not the coordinate at which the touch event (DOWN) is detected is within the display area of the vehicle icon (S21). If it is outside the display area (N in S21), it is determined that it is not a lane change instruction, and the process ends.

表示エリアの内部である場合(S21のY)、判定部11はタッチパネルからタッチイベント(MOVE)を受信する(S22)。タッチイベント(MOVE)は、タッチパネルのある点に対する指やペンによる接触状態から、別の点に対する接触状態への変化を表すイベントである。その後、判定部11はタッチパネルからタッチイベント(UP)を受信する(S23)。タッチイベント(UP)は、タッチパネルに対する指やペンによる接触状態から非接触状態への変化を表すイベントである。   When it is inside the display area (Y in S21), the determination unit 11 receives a touch event (MOVE) from the touch panel (S22). A touch event (MOVE) is an event that represents a change from a contact state of a point on the touch panel with a finger or a pen to a contact state of another point. Thereafter, the determination unit 11 receives a touch event (UP) from the touch panel (S23). The touch event (UP) is an event representing a change from a contact state with a finger or a pen to the touch panel to a non-contact state.

判定部11は、タッチイベント(UP)が検出された座標が同一進行方向の他レーンであるか否か判定する(S24)。他レーンである場合(S24のY)、指示部13は車線変更指示コマンドを自動運転コントローラ20に発行する(S25)。他レーンでない場合(S24のN)、車線変更指示でないと判定して処理を終了する。   The determination unit 11 determines whether or not the coordinate where the touch event (UP) is detected is another lane in the same traveling direction (S24). If it is another lane (Y in S24), the instruction unit 13 issues a lane change instruction command to the automatic driving controller 20 (S25). If it is not another lane (N in S24), it is determined that it is not a lane change instruction, and the process ends.

図7(a)−(b)は、図6のフローチャートに係るジェスチャ操作の一例を示す図である。図7(a)に示す模式図には、第1レーンL1と第2レーンL2が表示されており、第1レーンL1上に自車アイコンV1が表示されている。なお自車、及び道路を含む周辺状況の表示形態には様々な表示形態が考えられる。実写映像を用いてもよいし、精緻なCG画像やアニメーション画像を用いてもよい。自車の表示もアイコンに限らず、よりシンプルなマークや文字で表示されてもよいし、実写映像で表示されてもよい。即ち、何らかの表示形態で画面内にオブジェクト表示されればよい。   FIGS. 7A to 7B are diagrams illustrating an example of a gesture operation according to the flowchart of FIG. In the schematic diagram shown in FIG. 7A, the first lane L1 and the second lane L2 are displayed, and the vehicle icon V1 is displayed on the first lane L1. Various display forms are conceivable as display forms of the surrounding situation including the own vehicle and the road. A live-action image may be used, or a precise CG image or animation image may be used. The display of the own vehicle is not limited to icons, and may be displayed with simpler marks and characters, or may be displayed with a live-action image. That is, the object may be displayed on the screen in some display form.

運転者が第1レーンL1から第2レーンL2に車線変更したい場合、図7(a)に示すように第1レーンL1上の自車アイコンV1をドラッグし、図7(b)に示すように第2レーンL2上に自車アイコンV1をドロップする。これにより、車線変更指示コマンドが発行される。   When the driver wants to change the lane from the first lane L1 to the second lane L2, as shown in FIG. 7A, the driver drags the vehicle icon V1 on the first lane L1, and as shown in FIG. 7B. The own vehicle icon V1 is dropped on the second lane L2. Thereby, a lane change instruction command is issued.

図8は、ジェスチャ操作により車線変更指示コマンドを発行する第2処理例を示すフローチャートである。第2処理例は車線変更先のレーンに他車が存在する場合の例である。ステップS20からステップS24までの処理は、図6のフローチャートと同じである。   FIG. 8 is a flowchart illustrating a second processing example in which a lane change instruction command is issued by a gesture operation. The second processing example is an example when another vehicle exists in the lane change destination lane. The processing from step S20 to step S24 is the same as the flowchart of FIG.

タッチイベント(UP)が検出された座標が同一進行方向の他レーンである場合(S24のY)、判定部11は当該座標が他車アイコンの前方領域であるか否か判定する(S26)。前方領域である場合(S26のY)、指示部13は、他車の追越指示コマンドと車線変更指示コマンドを自動運転コントローラ20に発行する(S27)。後方領域である場合(S26のN)、指示部13は、他車のやり過ごし指示コマンドと車線変更指示コマンドを自動運転コントローラ20に発行する(S28)。つまり、他車が自車より前方に出てから、自車が他車の後ろに入るように車線変更する。   When the coordinate where the touch event (UP) is detected is another lane in the same traveling direction (Y in S24), the determination unit 11 determines whether or not the coordinate is a front area of the other vehicle icon (S26). When it is a front area (Y of S26), the instruction unit 13 issues an overtaking instruction command and a lane change instruction command of another vehicle to the automatic operation controller 20 (S27). If it is the rear region (N in S26), the instruction unit 13 issues an overtaking instruction command and a lane change instruction command for other vehicles to the automatic operation controller 20 (S28). That is, the lane change is performed so that the vehicle enters behind the other vehicle after the other vehicle has come out ahead of the own vehicle.

図9(a)−(d)は、図8のフローチャートに係るジェスチャ操作の一例を示す図である。運転者が第1レーンL1から第2レーンL2の他車の前方に車線変更したい場合、図9(a)に示すように第1レーンL1上の自車アイコンV1をドラッグし、図9(b)に示すように第2レーンL2の他車アイコンV2の前方に自車アイコンV1をドロップする。これにより、追越指示コマンドと車線変更指示コマンドが発行される。運転者が第1レーンL1から第2レーンL2の他車の後方に車線変更したい場合、図9(c)に示すように第1レーンL1上の自車アイコンV1をドラッグし、図9(d)に示すように第2レーンL2の他車アイコンV2の後方に自車アイコンV1をドロップする。これにより、やり過ごし指示コマンドと車線変更指示コマンドが発行される。   9A to 9D are diagrams illustrating an example of the gesture operation according to the flowchart of FIG. When the driver wants to change the lane from the first lane L1 to the front of the other vehicle in the second lane L2, as shown in FIG. 9A, the driver drags the vehicle icon V1 on the first lane L1 and ), The host vehicle icon V1 is dropped in front of the other vehicle icon V2 of the second lane L2. Thereby, an overtaking instruction command and a lane change instruction command are issued. When the driver wants to change the lane from the first lane L1 to the rear of the other vehicle in the second lane L2, as shown in FIG. 9C, the driver drags the vehicle icon V1 on the first lane L1 to ), The host vehicle icon V1 is dropped behind the other vehicle icon V2 of the second lane L2. Thereby, an overtaking instruction command and a lane change instruction command are issued.

図10は、ジェスチャ操作により車線変更指示コマンドを発行する第3処理例を示すフローチャートである。第3処理例は右折または左折専用レーンが存在する場合の例である。ステップS20からステップS23までの処理は、図6のフローチャートと同じである。   FIG. 10 is a flowchart illustrating a third processing example in which a lane change instruction command is issued by a gesture operation. The third processing example is an example when a right turn or left turn dedicated lane exists. The processing from step S20 to step S23 is the same as the flowchart of FIG.

判定部11は、タッチイベント(UP)が検出された座標が右折または左折専用レーンの内部であるか否か判定する(S29)。右折または左折専用レーンの内部である場合(S29のY)、指示部13は車線変更指示コマンドと、右折または左折指示コマンドを自動運転コントローラ20に発行する(S210)。右折または左折専用レーンの内部でない場合(S29のN)、ステップS210の処理は発動されない。   The determination unit 11 determines whether or not the coordinates at which the touch event (UP) is detected are inside a right turn or left turn dedicated lane (S29). When it is inside the right turn or left turn exclusive lane (Y in S29), the instruction unit 13 issues a lane change instruction command and a right turn or left turn instruction command to the automatic operation controller 20 (S210). If it is not inside the right turn or left turn dedicated lane (N in S29), the process of step S210 is not activated.

図11(a)−(b)は、図10のフローチャートに係るジェスチャ操作の一例を示す図である。運転者が直進専用レーンLsから右折専用レーンLrに車線変更したい場合、図11(a)に示すように直進専用レーンLs上の自車アイコンV1をドラッグし、図11(b)に示すように右折専用レーンLr上に自車アイコンV1をドロップする。これにより、車線変更指示コマンドと右折コマンドが発行される。   FIGS. 11A and 11B are diagrams illustrating an example of a gesture operation according to the flowchart of FIG. When the driver wants to change the lane from the straight lane Ls to the right turn lane Lr, as shown in FIG. 11A, the driver drags the vehicle icon V1 on the straight lane Ls as shown in FIG. 11B. The own vehicle icon V1 is dropped on the right turn exclusive lane Lr. Thereby, a lane change instruction command and a right turn command are issued.

図12は、ジェスチャ操作により車線変更指示コマンドを発行する第4処理例を示すフローチャートである。第4処理例はコンテキストに応じて、コマンドの内容を変える例である。ステップS20からステップS24までの処理は、図6のフローチャートと同じである。   FIG. 12 is a flowchart illustrating a fourth processing example in which a lane change instruction command is issued by a gesture operation. The fourth processing example is an example in which the content of the command is changed according to the context. The processing from step S20 to step S24 is the same as the flowchart of FIG.

タッチイベント(UP)が検出された座標が同一進行方向の他レーンである場合(S24のY)、指示部13は車線変更指示コマンドを自動運転コントローラ20に発行する(S27)。同一進行方向の他レーンでない場合(S24のN)、指示部13は進行方向指示コマンド(例えば、右折指示コマンド、左折指示コマンド、Uターン指示コマンド)を自動運転コントローラ20に発行する(S211)。このように、同じタッチ操作が複数の車線情報と組み合わせて複数の制御コマンドを発行できる。運転者は同じジェスチャを行うだけで自車の周辺状況に合った制御コマンドが発行されることで、さらに簡単な操作で適切な運転指示を行える。   When the coordinates at which the touch event (UP) is detected are other lanes in the same traveling direction (Y in S24), the instruction unit 13 issues a lane change instruction command to the automatic driving controller 20 (S27). When it is not another lane in the same traveling direction (N in S24), the instruction unit 13 issues a traveling direction instruction command (for example, a right turn instruction command, a left turn instruction command, a U turn instruction command) to the automatic operation controller 20 (S211). In this way, a plurality of control commands can be issued by combining the same touch operation with a plurality of lane information. The driver can issue an appropriate driving instruction with a simpler operation by issuing a control command suitable for the surrounding situation of the vehicle just by performing the same gesture.

図13(a)−(d)は、図12のフローチャートに係るジェスチャ操作の一例を示す図である。運転者が第1レーンL1から第2レーンL2に車線変更したい場合、図13(a)に示すように第1レーンL1上の自車アイコンV1をドラッグし、図13(b)に示すように第2レーンL2上に自車アイコンV1をドロップする。これにより、車線変更指示コマンドが発行される。一方、運転者が右折したい場合、図13(c)に示すように第1レーンL1上の自車アイコンV1をドラッグし、図13(d)に示すように車線の右外側に自車アイコンV1をドロップする。これにより、右折指示コマンドが発行される。   FIGS. 13A to 13D are diagrams illustrating an example of the gesture operation according to the flowchart of FIG. When the driver wants to change the lane from the first lane L1 to the second lane L2, as shown in FIG. 13 (a), the driver drags the vehicle icon V1 on the first lane L1, and as shown in FIG. 13 (b). The own vehicle icon V1 is dropped on the second lane L2. Thereby, a lane change instruction command is issued. On the other hand, when the driver wants to turn right, the vehicle icon V1 on the first lane L1 is dragged as shown in FIG. 13 (c), and the vehicle icon V1 is placed on the right outside of the lane as shown in FIG. 13 (d). To drop. As a result, a right turn instruction command is issued.

図14は、ジェスチャ操作により車線変更指示コマンドを発行する第5処理例を示すフローチャートである。第5処理例はフリック入力を使用する例である。HMIコントローラ10の判定部11は、タッチパネルからタッチイベント(DOWN)を受信する(S20)。判定部11は、タッチイベント(DOWN)が検出された座標が自車アイコンの表示エリアの内部であるか否か判定する(S21)。表示エリアの外である場合(S21のN)、車線変更指示でないと判定して処理を終了する。   FIG. 14 is a flowchart illustrating a fifth process example of issuing a lane change instruction command by a gesture operation. The fifth processing example is an example using flick input. The determination unit 11 of the HMI controller 10 receives a touch event (DOWN) from the touch panel (S20). The determination unit 11 determines whether or not the coordinate at which the touch event (DOWN) is detected is within the display area of the vehicle icon (S21). If it is outside the display area (N in S21), it is determined that it is not a lane change instruction, and the process ends.

表示エリアの内部である場合(S21のY)、判定部11は自車の進行方向に走行可能なレーンが複数あるか否か判定する(S212)。複数のレーンがある場合(S212のY)、生成部12は自車アイコンの左および/または右に、走行可能なレーンへのレーン変更指示用のドロップエリアを生成し、タッチパネルに表示させる(S213)。複数のレーンがない場合(S212のN)、ステップS213の処理をスキップする。   When it is inside the display area (Y in S21), the determination unit 11 determines whether there are a plurality of lanes that can travel in the traveling direction of the host vehicle (S212). When there are a plurality of lanes (Y in S212), the generation unit 12 generates a drop area for instructing lane change to a lane where the vehicle can run on the left and / or right of the vehicle icon and displays the drop area on the touch panel (S213). ). If there are no multiple lanes (N in S212), the process in step S213 is skipped.

判定部11は、進行方向の一定距離内に交差点があるか否か判定する(S214)。交差点がある場合(S214のY)、生成部12は自車アイコン若しくはレーン変更指示用のドロップエリアの左および/または右に、交差点で進路変更が可能な方向の進路変更指示用のドロップエリアを生成し、タッチパネルに表示させる(S215)。交差点がない場合(S214のN)、ステップS215の処理をスキップする。   The determination unit 11 determines whether there is an intersection within a certain distance in the traveling direction (S214). When there is an intersection (Y in S214), the generation unit 12 displays a drop area for a route change instruction in a direction in which the route can be changed at the intersection on the left and / or right of the own vehicle icon or the drop area for the lane change instruction. Generate and display on the touch panel (S215). When there is no intersection (N of S214), the process of step S215 is skipped.

判定部11はタッチパネルからタッチイベント(UP)を受信する(S216)。判定部11は、タッチイベント(UP)が検出された座標がドロップエリア内であるか否か判定する(S217)。ドロップエリア内でない場合(S217のN)、車線変更指示でないと判定して処理を終了する。タッチイベント(UP)が検出された座標が車線変更指示用のドロップエリア内である場合(S217の車線変更指示用ドロップエリア)、指示部13は車線変更指示コマンドを自動運転コントローラ20に発行する(S218)。タッチイベント(UP)が検出された座標が進路変更指示用のドロップエリア内である場合(S217の進路変更指示用ドロップエリア)、指示部13は進路変更指示コマンドを自動運転コントローラ20に発行する(S219)。   The determination unit 11 receives a touch event (UP) from the touch panel (S216). The determination unit 11 determines whether or not the coordinates where the touch event (UP) is detected are within the drop area (S217). If it is not in the drop area (N in S217), it is determined that it is not a lane change instruction, and the process ends. When the coordinates at which the touch event (UP) is detected are within the lane change instruction drop area (lane change instruction drop area in S217), the instruction unit 13 issues a lane change instruction command to the automatic driving controller 20 ( S218). When the coordinates at which the touch event (UP) is detected are within the route change instruction drop area (the route change instruction drop area in S217), the instruction unit 13 issues a route change instruction command to the automatic operation controller 20 ( S219).

図15(a)−(d)は、図14のフローチャートに係るジェスチャ操作の一例を示す図である。運転者が第1レーンL1から第2レーンL2に車線変更したい場合、図15(a)に示すように第1レーンL1上の自車アイコンV1にタッチする。自車アイコンV1がタッチされると、図15(b)に示すように第2レーンL2への車線変更指示用のドロップエリアA1が表示される。ユーザがこのドロップエリアA1にフリックすると、第2レーンL2への車線変更指示コマンドが発行される。   15A to 15D are diagrams illustrating an example of the gesture operation according to the flowchart of FIG. When the driver wants to change the lane from the first lane L1 to the second lane L2, as shown in FIG. 15A, the driver touches the own vehicle icon V1 on the first lane L1. When the host vehicle icon V1 is touched, a lane change instruction drop area A1 for the second lane L2 is displayed as shown in FIG. 15 (b). When the user flicks to the drop area A1, a lane change instruction command to the second lane L2 is issued.

図15(c)に示すように前方に交差点がある場合においてユーザが自車アイコンV1にタッチすると、図15(d)に示すように右側レーンへの車線変更指示用のドロップエリアA1、左側レーンへの車線変更指示用のドロップエリアA2、右折指示用のドロップエリアA3、及び左折指示用のドロップエリアA4が表示される。ユーザが、いずれかのドロップエリアにフリックすることにより、対応するコマンドが発行される。これにより、さらにユーザの指の移動距離が少量だけで所存の制御コマンドを発行することができる。   When the user touches the own vehicle icon V1 when there is an intersection ahead as shown in FIG. 15C, the lane change instruction drop area A1 to the right lane, the left lane as shown in FIG. 15D A lane change instruction drop area A2, a right turn instruction drop area A3, and a left turn instruction drop area A4 are displayed. When the user flicks to one of the drop areas, a corresponding command is issued. As a result, a desired control command can be issued with only a small movement distance of the user's finger.

図16は、ジェスチャ操作により車線変更指示コマンドを発行する第6処理例を示すフローチャートである。第6処理例は模式図内に自車アイコンの軌道を表示する例である。HMIコントローラ10の判定部11は、タッチパネルからタッチイベント(DOWN)を受信する(S20)。判定部11は、タッチイベント(DOWN)が検出された座標が自車アイコンの表示エリアの内部であるか否か判定する(S21)。表示エリアの外である場合(S21のN)、車線変更指示でないと判定して処理を終了する。   FIG. 16 is a flowchart illustrating a sixth process example of issuing a lane change instruction command by a gesture operation. The sixth processing example is an example in which the track of the own vehicle icon is displayed in the schematic diagram. The determination unit 11 of the HMI controller 10 receives a touch event (DOWN) from the touch panel (S20). The determination unit 11 determines whether or not the coordinate at which the touch event (DOWN) is detected is within the display area of the vehicle icon (S21). If it is outside the display area (N in S21), it is determined that it is not a lane change instruction, and the process ends.

表示エリアの内部である場合(S21のY)、判定部11はタッチパネルからタッチイベント(MOVE/UP)を受信する(S220)。判定部11はタッチイベントの種類を判定する(S221)。タッチイベントの種類が「MOVE」である場合(S221のMOVE)、判定部11は、タッチイベント(MOVE)が検出された座標が同一進行方向の他レーンであるか否か判定する(S222)。他レーンである場合(S222のY)、生成部12は、車線変更を実施したときの予測ルートを生成し、タッチパネルに表示させる(S223)。他レーンでない場合(S222のN)、ステップS223の処理をスキップする。その後、ステップS220に遷移する。本フローチャートでは予測ルートの表示に注目しているため、ステップS221において、タッチイベントの種類が「UP」である場合(S221のUP)以降の処理は省略している。   If it is inside the display area (Y in S21), the determination unit 11 receives a touch event (MOVE / UP) from the touch panel (S220). The determination unit 11 determines the type of touch event (S221). When the type of the touch event is “MOVE” (MOVE in S221), the determination unit 11 determines whether or not the coordinate where the touch event (MOVE) is detected is another lane in the same traveling direction (S222). When it is another lane (Y of S222), the generation unit 12 generates a predicted route when the lane change is performed and displays the predicted route on the touch panel (S223). If it is not another lane (N in S222), the process of step S223 is skipped. Thereafter, the process proceeds to operation S220. In this flowchart, attention is paid to the display of the predicted route, and therefore, the processing after step S221 when the touch event type is “UP” (UP in S221) is omitted.

図17(a)−(d)は、図16のフローチャートに係るジェスチャ操作の一例を示す図である。運転者が第1レーンL1から第2レーンL2に車線変更したい場合、図17(a)に示すように第1レーンL1上の自車アイコンV1をドラッグする。図17(b)に示すように、移動中の自車アイコンV1を現在位置にドロップした場合における、自車が通過する軌道T1が表示される。運転者が交差点を右折したい場合、図17(c)に示すように自車アイコンV1をドラッグする。図17(d)に示すように、移動中の自車アイコンV1を現在位置にドロップした場合における、自車が通過する軌道T1が表示される。なお、軌道の表示に関する詳細な説明は後述する。   17A to 17D are diagrams illustrating an example of a gesture operation according to the flowchart of FIG. When the driver wants to change the lane from the first lane L1 to the second lane L2, as shown in FIG. 17A, the driver drags the own vehicle icon V1 on the first lane L1. As shown in FIG. 17B, the track T1 through which the vehicle passes when the moving vehicle icon V1 is dropped at the current position is displayed. When the driver wants to make a right turn at the intersection, the vehicle icon V1 is dragged as shown in FIG. As shown in FIG. 17D, a track T1 through which the vehicle passes when the moving vehicle icon V1 is dropped at the current position is displayed. A detailed description regarding the display of the trajectory will be described later.

図18は、ジェスチャ操作により車線変更指示コマンドを発行する第7処理例を示すフローチャートである。第7処理例は確定操作を求める例である。ステップS20からステップS24までの処理は、図6のフローチャートと同じである。   FIG. 18 is a flowchart illustrating a seventh processing example in which a lane change instruction command is issued by a gesture operation. The seventh processing example is an example for obtaining a confirmation operation. The processing from step S20 to step S24 is the same as the flowchart of FIG.

タッチイベント(UP)が検出された座標が同一進行方向の他レーンである場合(S24のY)、判定部11が確定ジェスチャの入力を受け付けると(S224のY)、指示部13は車線変更指示コマンドを自動運転コントローラ20に発行する(S25)。確定ジェスチャの入力がない間は(S224のN)、コマンドの発行が保留される。   When the coordinates at which the touch event (UP) is detected are other lanes in the same traveling direction (Y in S24), when the determination unit 11 receives an input of a confirmed gesture (Y in S224), the instruction unit 13 instructs the lane change. A command is issued to the automatic operation controller 20 (S25). While there is no input of the confirmation gesture (N in S224), the issue of the command is suspended.

図19(a)−(c)は、図18のフローチャートに係るジェスチャ操作の一例を示す図である。運転者が第1レーンL1から第2レーンL2の他車の前方に車線変更したい場合、図19(a)に示すように第1レーンL1上の自車アイコンV1をドラッグし、図19(b)に示すように第2レーンL2上に自車アイコンV1を移動させる。自車アイコンV1が移動されると確認用ボタンC1が表示される。図19(c)に示すように第2レーンL2上に自車アイコンV1がドロップされた後、確認用ボタンC1が押下されると、第2レーンL2への車線変更指示コマンドが発行される。これにより、さらに誤操作を防止できる。   FIGS. 19A to 19C are diagrams illustrating an example of a gesture operation according to the flowchart of FIG. When the driver wants to change the lane from the first lane L1 to the front of the other vehicle in the second lane L2, as shown in FIG. 19A, the driver drags the vehicle icon V1 on the first lane L1 to ), The vehicle icon V1 is moved onto the second lane L2. When the host vehicle icon V1 is moved, a confirmation button C1 is displayed. As shown in FIG. 19C, after the vehicle icon V1 is dropped on the second lane L2, when the confirmation button C1 is pressed, a lane change instruction command to the second lane L2 is issued. Thereby, it is possible to further prevent erroneous operation.

図20は、ジェスチャ操作により車線変更指示コマンドを発行する第8処理例を示すフローチャートである。第8処理例は制御中の表示を追加した例である。制御中とは、車線変更指示コマンド発行後に自車が車線変更を完了するまで期間を指す。ステップS20からステップS25までの処理は、図6のフローチャートと同じである。   FIG. 20 is a flowchart illustrating an eighth processing example in which a lane change instruction command is issued by a gesture operation. The eighth processing example is an example in which a display during control is added. “In control” means a period until the vehicle completes the lane change after the lane change instruction command is issued. The process from step S20 to step S25 is the same as the flowchart of FIG.

指示部13が車線変更指示コマンドを自動運転コントローラ20に発行した後(S25)、生成部12は、自車の移動前の座標と移動後の座標に自車アイコンを生成するとともに、自車の予測軌道を生成し、タッチパネルに表示させる(S225)   After the instructing unit 13 issues a lane change instruction command to the automatic driving controller 20 (S25), the generating unit 12 generates the own vehicle icon in the coordinates before moving and the coordinates after moving, and A predicted trajectory is generated and displayed on the touch panel (S225).

図21(a)−(f)は、図20のフローチャートに係るジェスチャ操作の一例を示す図である。運転者が第1レーンL1から第2レーンL2に車線変更したい場合、図21(a)、(d)に示すように第1レーンL1上の自車アイコンV1をドラッグし、図21(b)、(e)に示すように第2レーンL2上に自車アイコンV1をドロップする。これにより、車線変更指示コマンドが発行される。車線変更指示コマンドの実行中、図21(c)、(f)に示すように車線変更開始前の元の位置に自車アイコンV1aが表示され、車線変更完了後の目標位置に自車アイコンV1bが表示される。また図21(f)に示すように自車の予測軌道T1が表示されてもよい。   FIGS. 21A to 21F are diagrams illustrating an example of a gesture operation according to the flowchart of FIG. When the driver wants to change the lane from the first lane L1 to the second lane L2, as shown in FIGS. 21A and 21D, the driver drags the vehicle icon V1 on the first lane L1, and FIG. (E), the own vehicle icon V1 is dropped on the second lane L2. Thereby, a lane change instruction command is issued. During execution of the lane change instruction command, as shown in FIGS. 21C and 21F, the host vehicle icon V1a is displayed at the original position before the start of the lane change, and the host vehicle icon V1b is displayed at the target position after the lane change is completed. Is displayed. Further, as shown in FIG. 21 (f), the predicted trajectory T1 of the own vehicle may be displayed.

図22は、ジェスチャ操作により車線変更指示コマンドを発行した後にキャンセルコマンドを発行する処理例を示すフローチャートである。車線変更指示コマンドが自動運転コントローラ20に発行された後、HMIコントローラ10の判定部11は、タッチパネルからタッチイベント(DOWN)を受信する(S226)。その後、HMIコントローラ10の判定部11は、タッチパネルからタッチイベント(MOVE)を受信する(S227)。その後、HMIコントローラ10の判定部11は、タッチパネルからタッチイベント(UP)を受信する(S228)。判定部11は、タッチイベントの移動軌道と車線変更軌道とに交点が存在するか否か判定する(S229)。交点が存在する場合(S229のY)、指示部13は、先に発行した車線変更指示コマンドをキャンセルするコマンドを自動運転コントローラ20に発行する(S230)。交点が存在しない場合(S229のN)、キャンセルコマンドは発行しない。   FIG. 22 is a flowchart illustrating a processing example in which a cancel command is issued after a lane change instruction command is issued by a gesture operation. After the lane change instruction command is issued to the automatic driving controller 20, the determination unit 11 of the HMI controller 10 receives a touch event (DOWN) from the touch panel (S226). Thereafter, the determination unit 11 of the HMI controller 10 receives a touch event (MOVE) from the touch panel (S227). Thereafter, the determination unit 11 of the HMI controller 10 receives a touch event (UP) from the touch panel (S228). The determination unit 11 determines whether or not there is an intersection between the movement track and the lane change track of the touch event (S229). When the intersection exists (Y in S229), the instruction unit 13 issues a command for canceling the previously issued lane change instruction command to the automatic operation controller 20 (S230). If there is no intersection (N in S229), no cancel command is issued.

図23(a)−(d)は、図22のフローチャートに係るジェスチャ操作の一例を示す図である。図23(a)は予測軌道T1を横切るようにスワイプS1すると、車線変更指示コマンドのキャンセルコマンドが発行される例である。図23(b)は移動後の自車アイコンV1bを横切るようにスワイプS2すると、車線変更指示コマンドのキャンセルコマンドが発行される例である。図23(c)は移動後の自車アイコンV1bを起点にフリックF1すると、車線変更指示コマンドのキャンセルコマンドが発行される例である。図23(d)は予測軌道T1を起点にフリックF1すると、車線変更指示コマンドのキャンセルコマンドが発行される例である。   FIGS. 23A to 23D are diagrams illustrating an example of a gesture operation according to the flowchart of FIG. FIG. 23A shows an example in which a cancel command for a lane change instruction command is issued when swiping S1 across the predicted trajectory T1. FIG. 23B shows an example in which a cancel command for a lane change instruction command is issued when swiping S2 across the vehicle icon V1b after movement. FIG. 23C shows an example in which a cancel command for a lane change instruction command is issued when flicking F1 starts with the own vehicle icon V1b after movement. FIG. 23D shows an example in which a cancel command for a lane change instruction command is issued when a flick F1 is started from the predicted trajectory T1.

図24(a)−(b)は、図22のフローチャートに係るジェスチャ操作の別の例を示す図である。図24(a)に示すように移動後の自車アイコンV1bをドラッグし、図24(b)に示すように移動前の位置に自車アイコンV1cをドロップすると、車線変更指示コマンドのキャンセルコマンドが発行される。   FIGS. 24A and 24B are diagrams illustrating another example of the gesture operation according to the flowchart of FIG. When the vehicle icon V1b after movement is dragged as shown in FIG. 24 (a) and the vehicle icon V1c is dropped at the position before movement as shown in FIG. 24 (b), a cancel command for the lane change instruction command is issued. publish.

以下、図5に戻り、ステップS9fの予測軌道/ルートの候補を描画する処理の詳細を説明する。図16、図17(a)−(d)で説明した処理をさらに具体的に説明するものである。   Hereinafter, returning to FIG. 5, the details of the process of drawing the predicted trajectory / route candidate in step S9f will be described. The processing described in FIGS. 16 and 17A to 17D will be described more specifically.

図25は、図5のステップS9fにおいて、予測軌道/ルートの候補を描画する処理の一例を示すフローチャートである。HMIコントローラ10の判定部11は、タッチパネルから自車アイコンの移動通知を受信しているか否か判定する(S9fa)。受信している場合(S9faのY)、判定部11は自車アイコンの移動位置がレーン上であるか否か判定する(S9fb)。レーン上である場合(S9fbのY)、判定部11は自車アイコンの移動位置が、自車アイコンの移動開始位置のレーンと異なるレーン上であるか否か判定する(S9fc)。異なるレーン上でない場合(同じレーン上である場合)(S9fcのN)、生成部12は、タッチパネルに表示された模式図内の移動軌道を消去する(S9fd)。ステップS9fbにおいて、自車アイコンの移動位置がレーン上でない場合も(S9fbのN)、生成部12は、タッチパネルに表示された模式図内の移動軌道を消去する(S9fd)。   FIG. 25 is a flowchart illustrating an example of processing for drawing a predicted trajectory / route candidate in step S9f of FIG. The determination unit 11 of the HMI controller 10 determines whether a notification of movement of the own vehicle icon is received from the touch panel (S9fa). When receiving (Y of S9fa), the determination part 11 determines whether the moving position of the own vehicle icon is on a lane (S9fb). When it is on the lane (Y of S9fb), the determination unit 11 determines whether or not the movement position of the own vehicle icon is on a lane different from the lane of the movement start position of the own vehicle icon (S9fc). When not on different lanes (when on the same lane) (N in S9fc), the generation unit 12 deletes the movement trajectory in the schematic diagram displayed on the touch panel (S9fd). In step S9fb, even when the moving position of the vehicle icon is not on the lane (N in S9fb), the generation unit 12 deletes the moving track in the schematic diagram displayed on the touch panel (S9fd).

ステップS9fcにおいて、自車アイコンの移動位置が、自車アイコンの移動開始位置のレーンと異なるレーン上である場合(S9fcのY)、判定部11は自車アイコンの移動位置が、車線変更が可能なレーン上であるか否か判定する(S9fe)。車線変更が可能なレーン上でない場合(S9feのN)、生成部12は、タッチパネルにエラー通知を描画する(S9ff)。車線変更が可能なレーン上である場合(S9feのY)、指示部13は自動運転コントローラ20に、自車アイコンのタッチイベント座標を通知し、予測軌道を要求する(S9fg)。生成部12は、自動運転コントローラ20から取得した車線変更の予測軌道をタッチパネルに描画する(S9fh)。以上の処理がタッチパネルから自車アイコンの移動通知を受信しなくなるまで(S9faのN)、継続される。   In step S9fc, when the movement position of the vehicle icon is on a lane different from the lane of the movement start position of the vehicle icon (Y in S9fc), the determination unit 11 can change the lane of the movement position of the vehicle icon. It is determined whether or not the current lane is over (S9fe). When the lane change is not possible on the lane (N in S9fe), the generation unit 12 draws an error notification on the touch panel (S9ff). When the vehicle is on a lane where lane change is possible (Y in S9fe), the instruction unit 13 notifies the automatic operation controller 20 of the touch event coordinates of the vehicle icon and requests a predicted trajectory (S9fg). The generation unit 12 draws the predicted lane change trajectory acquired from the automatic driving controller 20 on the touch panel (S9fh). The above processing is continued until no movement notification of the vehicle icon is received from the touch panel (N in S9fa).

図26は、図5のステップS9fにおいて、予測軌道/ルートの候補を描画する処理の別の例を示すフローチャートである。ステップS9faからステップS9ffまでの処理は、図25のフローチャートと同じである。車線変更が可能なレーン上である場合(S9feのY)、判定部11は車線変更先のレーンに他車が存在するか否か判定する(S9fi)。他車が存在しない場合(S9fiのN)、生成部12は、加減速なしの車線変更の予測軌道をタッチパネルに描画する(S9fj)。   FIG. 26 is a flowchart illustrating another example of the process of drawing the predicted trajectory / route candidate in step S9f of FIG. The processing from step S9fa to step S9ff is the same as the flowchart of FIG. When the vehicle is on a lane where lane change is possible (Y of S9fe), the determination unit 11 determines whether there is another vehicle in the lane of the lane change destination (S9fi). When there is no other vehicle (N in S9fi), the generation unit 12 draws a predicted lane change trajectory without acceleration / deceleration on the touch panel (S9fj).

車線変更先のレーンに他車が存在する場合(S9fiのY)、判定部11は自車アイコンの移動位置が、他車アイコンの前方であるか後方であるか判定する(S9fk)。他車アイコンの前方である場合(S9fkの前)、生成部12は、加速ありの車線変更の予測軌道をタッチパネルに描画する(S9fl)。他車アイコンの後方である場合(S9fkの後)、生成部12は、減速ありの車線変更の予測軌道をタッチパネルに描画する(S9fm)。自車アイコンの移動位置が、他車アイコンの内部である場合(S9fkの他車)、生成部12は、タッチパネルにエラー通知モードを描画する(S9fn)。以上の処理がタッチパネルから自車アイコンの移動通知を受信しなくなるまで(S9faのN)、継続される。   If there is another vehicle in the lane change destination lane (Y in S9fi), the determination unit 11 determines whether the movement position of the own vehicle icon is in front of or behind the other vehicle icon (S9fk). When it is ahead of the other vehicle icon (before S9fk), the production | generation part 12 draws the prediction track | orbit of lane change with acceleration on a touch panel (S9fl). When the vehicle is behind the other vehicle icon (after S9fk), the generation unit 12 draws the predicted trajectory of the lane change with deceleration on the touch panel (S9fm). When the movement position of the own vehicle icon is inside the other vehicle icon (other vehicle of S9fk), the generation unit 12 draws an error notification mode on the touch panel (S9fn). The above processing is continued until no movement notification of the vehicle icon is received from the touch panel (N in S9fa).

図27(a)−(c)は、図26のフローチャートに係るジェスチャ操作の一例を示す図である。図27(a)はステップS9fjの加減速なしの車線変更の予測軌道の例である。図27(b)はステップS9flの加速ありの車線変更の予測軌道の例である。図27(c)はステップS9fmの減速ありの車線変更の予測軌道の例である。   FIGS. 27A to 27C are diagrams illustrating an example of the gesture operation according to the flowchart of FIG. FIG. 27A shows an example of a predicted track for lane change without acceleration / deceleration in step S9fj. FIG. 27B is an example of a predicted trajectory for lane change with acceleration in step S9fl. FIG. 27C is an example of a predicted trajectory for changing lanes with deceleration in step S9fm.

図28(a)−(c)は、エラー表示画面の一例を示す図である。運転者が第1レーンL1から第2レーンL2に車線変更したい場合、図28(a)に示すように第1レーンL1上の自車アイコンV1をドラッグし、図28(b)に示すように第2レーンL2上に自車アイコンV1をドロップする。そのドロップ位置に他車の接近が検出された場合、図28(c)に示すようにポップアップウインドウP1内にエラーメッセージ「後続車のためキャンセルされました」が表示され、自車アイコンV1が第1レーンL1に戻される。   FIGS. 28A to 28C are diagrams illustrating an example of an error display screen. When the driver wants to change the lane from the first lane L1 to the second lane L2, as shown in FIG. 28A, the driver drags the vehicle icon V1 on the first lane L1, and as shown in FIG. The own vehicle icon V1 is dropped on the second lane L2. When an approach of another vehicle is detected at the drop position, as shown in FIG. 28 (c), an error message “Cancelled because of following vehicle” is displayed in the pop-up window P1, and the vehicle icon V1 is Returned to 1 lane L1.

自車アイコンをドラッグしてからドロップするまでの間、生成部12は元の画像(移動前の自車アイコン)を模式図内に残し、ドロップされた時点で元の画像を消してもよい。また自車アイコンをドラッグしてからドロップするまでの間、生成部12は点線でドラッグの軌道を模式図内に描画してもよい。また自車アイコンをドラッグしてからドロップするまでの間、生成部12は道路の色を反転させ、ドロップされた時点で元の色に戻してもよい。なお、移動中のアイコンの色や形などの様態は移動前のアイコンの様態と異ならせても、同一であってもよい。   The generation unit 12 may leave the original image (the vehicle icon before movement) in the schematic diagram until the original image is dropped after being dragged until the original image is dropped. In addition, the drag unit 12 may draw a drag trajectory in the schematic diagram with a dotted line from when the vehicle icon is dragged to when it is dropped. Moreover, the generation unit 12 may invert the color of the road until the vehicle icon is dropped after being dragged, and return it to the original color when the icon is dropped. It should be noted that the state of the moving icon such as color and shape may be different from or the same as the state of the icon before the movement.

また自車アイコンをドラッグしてからドロップするまでの間、生成部12はドロップ不可エリア(反対車線など)があったり、操作(車線変更など)が不可なとき、自車アイコンの色を変更(反転、薄くなど)してもよい。ドロップされた時点で、元の自車位置に自車アイコンを戻し、「操作不可」などのエラーメッセージを表示してもよい。操作不可な場合の例として、後続車の接近、車線変更禁止エリア、制限速度オーバー等がある。   In addition, when the vehicle icon is dragged and dropped, the generation unit 12 changes the color of the vehicle icon when there is a non-dropable area (such as an opposite lane) or when an operation (lane change, etc.) is not possible ( Inversion, thinning, etc.). At the time of dropping, the vehicle icon may be returned to the original vehicle position, and an error message such as “operation not possible” may be displayed. Examples of cases where operation is not possible include approach of a following vehicle, lane change prohibition area, overspeed limit, and the like.

また自車アイコンをドラッグしてからドロップするまでの間、生成部12は、操作が不可なとき、道路など背景の色を変更(反転、薄くなど)してもよい。操作が可能な状況になれば、元の色に戻す。また自車アイコンをドラッグしてからドロップするまでの間、生成部12は、ドロップ不可エリアの色を変更する。また自車アイコンをドラッグしてからドロップするまでの間、生成部12は、ドロップ不可エリアがあったり、操作が不可なとき、エラー音や、振動を通知する。   Also, during the period from dragging the vehicle icon to dropping it, the generation unit 12 may change the color of the background such as a road (inverted, lightened, etc.) when the operation is impossible. When the operation becomes possible, the original color is restored. Further, the generation unit 12 changes the color of the non-dropable area from when the own vehicle icon is dragged to when it is dropped. In addition, when the vehicle icon is dragged and dropped, the generation unit 12 notifies an error sound or vibration when there is a drop-impossible area or when an operation is not possible.

また自車アイコンのドラッグを開始したとき操作開始が不可の場合、生成部12は自車アイコンの色を変更してもよい。またドラッグ操作(自車アイコンの移動)をできない状態にしてもよい。また「操作不可」などのエラーメッセージを表示してもよい。また自車アイコンのドラッグを開始したとき操作開始が不可の場合、生成部12は、道路など背景の色を変更してもよい。操作が可能な状況になれば、元の色に戻す。また自車アイコンのドラッグを開始したとき操作開始が不可の場合、生成部12は、ドラッグ操作(自車アイコンの移動)ができない状態で、エラー音や、振動を通知する。   If the operation cannot be started when dragging the own vehicle icon is started, the generation unit 12 may change the color of the own vehicle icon. Alternatively, the drag operation (movement of the own vehicle icon) may be disabled. Also, an error message such as “operation not possible” may be displayed. If the operation cannot be started when dragging of the vehicle icon is started, the generation unit 12 may change the background color such as a road. When the operation becomes possible, the original color is restored. If the operation cannot be started when the drag of the own vehicle icon is started, the generation unit 12 notifies an error sound or vibration in a state where the drag operation (moving of the own vehicle icon) is not possible.

自車アイコンをドロップしてから自車が目標位置に到達するまでの間、生成部12は車線変更中の自車の状態をゴースト表示し、かつ車線変更の軌道を表示してもよい。また自車アイコンをドロップしてから自車が目標位置に到達するまでの間、生成部12は自車アイコンの表示状態(点滅、色変更、サイズ、位置等)を変更してもよい。また自車アイコンをドロップしてから自車が目標位置に到達するまでの間、判定部11は、追加操作で次の指示をキューイング(現在の制御が完了後に行われる制御の予約)してもよい。自車アイコンをドラッグ中、または、ドロップ時、または、ドロップしてから自車が目的位置に到達するまでの間、予想軌道を自動運転コントローラ20から受け取り、表示部31に描画するようにしてもよい。移動先の車線に車両があったり、工事中であったり、車線変更不可区間であったりして一時的に車線変更が不可の場合、生成部12は、車線変更制御が成立するまで「トライ中」などの表示を行い、実行可能になったタイミングで予想軌道を描画するようにしてもよい。自車アイコンをドラッグ中、または、ドロップしてから自車が目的位置に到達するまでの間、生成部12はドロップしてから目的位置へ到達するまでの予想所要時間や所要残時間を表示したりするようにしてもよい。一時的に車線変更制御が不可の場合、可能になるまで制御を続けるか、あきらめて制御を中止するか、あらかじめ設定できるようにしてもよい。あやまってドラッグ開始してしまったり、ドラッグ後に取り消し操作をしたいときのため、取り消し用のドロップ領域を設けてもよい。自車をドラッグ後、取り消し用のドロップ領域にドロップすることで、コマンドの発行を取りやめることができる。   From the time when the host vehicle icon is dropped until the host vehicle reaches the target position, the generation unit 12 may display a ghost of the state of the host vehicle that is changing lanes, and may display a lane change track. In addition, the generation unit 12 may change the display state (flashing, color change, size, position, etc.) of the own vehicle icon from when the own vehicle icon is dropped until the own vehicle reaches the target position. In addition, from when the own vehicle icon is dropped until the own vehicle reaches the target position, the determination unit 11 queues the next instruction by an additional operation (reservation of control performed after the current control is completed). Also good. The predicted trajectory may be received from the automatic operation controller 20 and drawn on the display unit 31 while the own vehicle icon is being dragged, dropped, or until the own vehicle reaches the target position. Good. If there is a vehicle in the destination lane, the vehicle is under construction, or it is a lane change-impossible zone, and the lane change is temporarily impossible, the generation unit 12 “trying” until the lane change control is established. ”Or the like may be displayed, and the predicted trajectory may be drawn at the timing at which execution becomes possible. While the vehicle icon is being dragged, or between when the vehicle icon is dropped and when the vehicle reaches the target position, the generation unit 12 displays the estimated required time and the remaining time required until the vehicle reaches the target position after the drop. You may make it do. If the lane change control is temporarily impossible, it may be possible to set in advance whether the control is continued until it becomes possible, or the control is given up and stopped. A drop area for canceling may be provided in case the user starts dragging by mistake or wants to cancel after dragging. You can cancel issuing commands by dragging your vehicle and dropping it in the drop area for cancellation.

以上説明したように本実施の形態によれば、タッチパネルに表示されたアイコンをジェスチャで移動させることにより、自動運転コントローラ20に種々の操作内容を伝達することができる。アイコンを動かすジェスチャ操作は簡単な操作であり、運転者がステアリング51を回す、アクセルペダル53を踏み込むなどの従来の運転操作から解放される。例えば、複数のレーンと自車アイコンを含む模式図を表示し、自車アイコンを他のレーンに移動させることにより、簡易に車両変更の指示ができる。運転者は、周辺状況の確認と操作指示をタッチパネル上で同時に行うことができるため、視線移動が発生しない。従って、誤操作する可能性が低下し、より安全な運転を実現できる。なお、車線変更指示コマンドを発行するために、上記操作以外の自車アイコンと他車線とを紐付ける操作であってもよい。また、制御コマンドに対応するジェスチャ操作について、ドラッグアンドドロップなどで説明したが、タッチアンドタッチであってもよい。予め決められたジェスチャや操作であればよいが、運転者がカスタマイズ可能にしてもよい。また、ジェスチャ操作と制御コマンドの対応関係が分かるように、表示部31で説明文やアイコンや矢印を表示したりガイドの表示や音声によるガイダンスをしたりしてもよい。   As described above, according to the present embodiment, various operation details can be transmitted to the automatic operation controller 20 by moving the icon displayed on the touch panel with a gesture. The gesture operation for moving the icon is a simple operation, and is released from conventional driving operations such as the driver turning the steering wheel 51 and depressing the accelerator pedal 53. For example, by displaying a schematic diagram including a plurality of lanes and a vehicle icon and moving the vehicle icon to another lane, it is possible to easily instruct the vehicle change. The driver can check the surrounding situation and perform operation instructions on the touch panel at the same time, so that the line of sight does not move. Therefore, the possibility of erroneous operation is reduced, and safer driving can be realized. In addition, in order to issue the lane change instruction command, an operation for linking the own vehicle icon and another lane other than the above operation may be performed. In addition, although the gesture operation corresponding to the control command has been described by drag and drop, touch and touch may be used. A predetermined gesture or operation may be used, but the driver may be able to customize it. In addition, an explanation, an icon, or an arrow may be displayed on the display unit 31, a guide may be displayed, or voice guidance may be given so that the correspondence between the gesture operation and the control command can be understood.

以上、本発明を実施の形態をもとに説明した。これらの実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. It is understood by those skilled in the art that these embodiments are exemplifications, and that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. By the way.

例えば、HMIコントローラ10は専用のLSIで実装する例を想定したが、表示装置30として使用するスマートフォンやタブレット等の携帯機器内のCPUを用いてHMIコントローラ10の機能を実現してもよい。この場合、表示装置30として使用する携帯機器と自動運転コントローラ20とが直接接続されることになる。またHMIコントローラ10の機能を、カーナビゲーション装置やディスプレイオーディオ等のヘッドユニット内のCPUで実現してもよい。またHMIコントローラ10を実装した専用のLSIをヘッドユニット内に含める構成でもよい。   For example, the HMI controller 10 is assumed to be mounted by a dedicated LSI, but the function of the HMI controller 10 may be realized using a CPU in a mobile device such as a smartphone or a tablet used as the display device 30. In this case, the portable device used as the display device 30 and the automatic operation controller 20 are directly connected. Further, the function of the HMI controller 10 may be realized by a CPU in a head unit such as a car navigation device or display audio. In addition, a configuration in which a dedicated LSI on which the HMI controller 10 is mounted may be included in the head unit.

なお、実施の形態は、以下の項目によって特定されてもよい。   The embodiment may be specified by the following items.

[項目1]
表示部(31)に、自車を表す自車オブジェクトと複数の車線を含む画像を出力する画像出力部(14a)と、
前記表示部(31)に表示された画像内の前記自車オブジェクトを第1車線から第2車線に移動させるユーザの操作を受け付ける操作信号入力部(14b)と、
前記操作を受け付けると、自車の走行車線を前記第1車線から前記第2車線に変更することを指示するコマンドを、自動運転の制御を行う自動運転制御部(20)に出力するコマンド出力部(14c)と、
を備えることを特徴とする運転支援装置(10)。
これにより、ユーザが車線変更を指示する操作を直感的かつ簡便に行うことができる。
[項目2]
前記画像出力部(14a)は、前記第2車線に他車が走行している場合、前記第2車線に、前記他車を表す他車オブジェクトを含む画像を前記表示部(31)に出力し、
前記コマンド出力部(14c)は、前記自車オブジェクトが前記第2車線の前記他車オブジェクトより前に移動された場合、前記第1車線から前記第2車線の前記他車の前方への車線変更を指示するコマンドを前記自動運転制御部(20)に出力し、前記自車オブジェクトが前記第2車線の前記オブジェクトより後ろに移動された場合、前記第1車線から前記第2車線の前記他車の後方への車線変更を指示するコマンドを前記自動運転制御部(20)に出力することを特徴とする項目1に記載の運転支援装置(10)。
これにより、車線変更する際、他車の前に移動するか後ろに移動するかを直感的かつ簡便に指示することができる。
[項目3]
前記コマンド出力部(14c)は、前記自車オブジェクトが前記第2車線に移動されてから所定時間内に、前記自車オブジェクトが前記第1車線に移動された場合、前記第1車線から前記第2車線に車線変更することを指示するコマンドをキャンセルするコマンドを前記自動運転制御部(20)に出力することを特徴とする項目1または2に記載の運転支援装置(10)。
これにより、車線変更をキャンセルする操作を直感的かつ簡便に行うことができる。
[項目4]
前記コマンド出力部(14c)は、前記自車オブジェクトが前記複数の車線の外であり且つ前記複数の車線より右側に移動された場合、自車の右折を指示するコマンドを前記自動運転制御部(20)に出力し、前記自車オブジェクトが前記複数の車線の外であり且つ前記複数の車線より左側である場合、自車の左折を指示するコマンドを前記自動運転制御部(20)に出力することを特徴とする項目1から3のいずれかに記載の運転支援装置(10)。
これにより、右折または左折の操作を直感的かつ簡便に行うことができる。
[項目5]
前記表示部(31)に表示された画像内の前記自車オブジェクトを指示するユーザの操作を前記操作信号入力部(14b)が受け付けると、前記画像出力部(14c)は、前記自車の周辺状況に基づき当該自車が実行可能な少なくとも1つの運転操作候補を表す少なくとも1つの運転操作候補オブジェクトを含む画像を前記表示部(31)に出力することを特徴とする項目1から4のいずれかに記載の運転支援装置(10)。
これにより、ユーザは運転操作候補オブジェクトを選択するだけで足り、直感的かつ簡便に行うことができるとともに、誤操作を抑制できる。
[項目6]
前記画像出力部(14a)は、前記自車オブジェクトの車線変更開始前の位置から車線変更終了後の位置までの軌道を含む画像を前記表示部(31)に出力することを特徴とする項目1から5のいずれかに記載の運転支援装置(10)。
これにより、ユーザに車線変更の軌道を認識させることができる。
[項目7]
画像を表示する表示装置(30)と、
前記表示装置(30)に画像を出力する運転支援装置(10)と、を備え、
前記運転支援装置(10)は、
前記表示装置(30)に、自車を表す自車オブジェクトと複数の車線を含む画像を出力する画像出力部(14a)と、
前記表示装置(30)に表示された画像内の前記自車オブジェクトを第1車線から第2車線に移動させるユーザの操作を受け付ける操作信号入力部(14b)と、
前記操作を受け付けると、自車の走行車線を前記第1車線から前記第2車線に変更することを指示するコマンドを、自動運転の制御を行う自動運転制御部(20)に出力するコマンド出力部(14c)と、
を含むことを特徴とする運転支援装置システム(10、30)。
これにより、ユーザが車線変更を指示する操作を直感的かつ簡便に行うことができる。
[項目8]
表示部(31)に、自車を表す自車オブジェクトと複数の車線を含む画像を出力するステップと、
前記表示部(31)に表示された画像内の前記自車オブジェクトを第1車線から第2車線に移動させるユーザの操作を受け付けるステップと、
前記操作を受け付けると、自車の走行車線を前記第1車線から前記第2車線に変更することを指示するコマンドを、自動運転の制御を行う自動運転制御部(20)に出力するステップと、
を備えることを特徴とする運転支援方法。
これにより、ユーザが車線変更を指示する操作を直感的かつ簡便に行うことができる。
[項目9]
表示部(31)に、自車を表す自車オブジェクトと複数の車線を含む画像を出力する処理と、
前記表示部(31)に表示された画像内の前記自車オブジェクトを第1車線から第2車線に移動させるユーザの操作を受け付ける処理と、
前記操作を受け付けると、自車の走行車線を前記第1車線から前記第2車線に変更することを指示するコマンドを、自動運転の制御を行う自動運転制御部(20)に出力する処理と、
をコンピュータに実行させることを特徴とする運転支援プログラム。
これにより、ユーザが車線変更を指示する操作を直感的かつ簡便に行うことができる。
[項目10]
表示部(31)に、自車を表す自車オブジェクトと複数の車線を含む画像を出力する画像出力部(14a)と、
前記表示部(31)に表示された画像内の前記自車オブジェクトを第1車線から第2車線に移動させるユーザの操作を受け付ける操作信号入力部(14b)と、
前記操作を受け付けると、自車の走行車線を前記第1車線から前記第2車線に変更することを指示するコマンドを出力するコマンド出力部(14c)と、
前記出力されたコマンドを実行する自動運転制御部(20)と、
を備えることを特徴とする自動運転車両(1)。
これにより、ユーザが車線変更を指示する操作を直感的かつ簡便に行うことができる。
[Item 1]
An image output unit (14a) for outputting an image including a vehicle object representing the vehicle and a plurality of lanes to the display unit (31);
An operation signal input unit (14b) for receiving a user operation to move the vehicle object in the image displayed on the display unit (31) from the first lane to the second lane;
When the operation is accepted, a command output unit that outputs a command instructing to change the traveling lane of the host vehicle from the first lane to the second lane to the automatic driving control unit (20) that controls the automatic driving. (14c),
A driving support device (10) comprising:
Thereby, the operation which a user instruct | indicates a lane change can be performed intuitively and simply.
[Item 2]
When the other vehicle is traveling in the second lane, the image output unit (14a) outputs, to the display unit (31), an image including the other vehicle object representing the other vehicle in the second lane. ,
The command output unit (14c) changes the lane from the first lane to the front of the other vehicle in the second lane when the own vehicle object is moved before the other vehicle object in the second lane. When the own vehicle object is moved behind the object in the second lane, the other vehicle in the second lane from the first lane is output to the automatic operation control unit (20). The driving support device (10) according to item 1, wherein a command for instructing a lane change to the rear of the vehicle is output to the automatic driving control unit (20).
Thereby, when changing lanes, it can be intuitively and easily instructed whether to move in front of or behind the other vehicle.
[Item 3]
The command output unit (14c), when the host vehicle object is moved to the first lane within a predetermined time after the host vehicle object is moved to the second lane, from the first lane to the second lane. 3. The driving assistance device (10) according to item 1 or 2, wherein a command for canceling a command for changing the lane to a two-lane is output to the automatic driving control unit (20).
Thereby, the operation which cancels a lane change can be performed intuitively and simply.
[Item 4]
The command output unit (14c) sends a command for instructing the vehicle to turn right when the vehicle object is out of the plurality of lanes and moved to the right side of the plurality of lanes. And when the vehicle object is outside the plurality of lanes and on the left side of the plurality of lanes, a command for instructing the vehicle to turn left is output to the automatic driving control unit (20). The driving support apparatus (10) according to any one of items 1 to 3, characterized in that:
Thereby, the operation of turning right or turning left can be performed intuitively and easily.
[Item 5]
When the operation signal input unit (14b) receives a user operation indicating the own vehicle object in the image displayed on the display unit (31), the image output unit (14c) Any one of Items 1 to 4, wherein an image including at least one driving operation candidate object representing at least one driving operation candidate that can be executed by the host vehicle is output to the display unit (31). The driving assistance device (10) described in 1.
As a result, the user only needs to select the driving operation candidate object, and the user can perform the operation intuitively and easily, and can suppress erroneous operations.
[Item 6]
The image output unit (14a) outputs, to the display unit (31), an image including a trajectory from a position before the start of lane change of the own vehicle object to a position after the end of lane change. To 5. The driving support device (10) according to any one of claims 1 to 5.
Thereby, a user can be made to recognize the track of lane change.
[Item 7]
A display device (30) for displaying an image;
A driving support device (10) for outputting an image to the display device (30),
The driving assistance device (10)
An image output unit (14a) for outputting an image including a vehicle object representing the vehicle and a plurality of lanes to the display device (30);
An operation signal input unit (14b) for receiving a user operation to move the vehicle object in the image displayed on the display device (30) from the first lane to the second lane;
When the operation is accepted, a command output unit that outputs a command instructing to change the traveling lane of the host vehicle from the first lane to the second lane to the automatic driving control unit (20) that controls the automatic driving. (14c),
A driving support apparatus system (10, 30) characterized by comprising:
Thereby, the operation which a user instruct | indicates a lane change can be performed intuitively and simply.
[Item 8]
Outputting to the display unit (31) an image including a vehicle object representing the vehicle and a plurality of lanes;
Receiving a user operation to move the vehicle object in the image displayed on the display unit (31) from the first lane to the second lane;
When receiving the operation, outputting a command instructing to change the traveling lane of the host vehicle from the first lane to the second lane to an automatic driving control unit (20) that controls automatic driving;
A driving support method comprising:
Thereby, the operation which a user instruct | indicates a lane change can be performed intuitively and simply.
[Item 9]
A process of outputting an image including a vehicle object representing the vehicle and a plurality of lanes to the display unit (31);
A process of accepting a user operation to move the vehicle object in the image displayed on the display unit (31) from the first lane to the second lane;
When receiving the operation, a process of outputting a command for instructing to change the traveling lane of the host vehicle from the first lane to the second lane to an automatic driving control unit (20) that controls automatic driving;
A driving support program for causing a computer to execute.
Thereby, the operation which a user instruct | indicates a lane change can be performed intuitively and simply.
[Item 10]
An image output unit (14a) for outputting an image including a vehicle object representing the vehicle and a plurality of lanes to the display unit (31);
An operation signal input unit (14b) for receiving a user operation to move the vehicle object in the image displayed on the display unit (31) from the first lane to the second lane;
When receiving the operation, a command output unit (14c) that outputs a command instructing to change the traveling lane of the host vehicle from the first lane to the second lane;
An automatic operation control unit (20) for executing the output command;
An autonomous driving vehicle (1) comprising:
Thereby, the operation which a user instruct | indicates a lane change can be performed intuitively and simply.

1 車両、 10 HMIコントローラ、 11 判定部、 12 生成部、 13 指示部、 14 入出力部、 20 自動運転コントローラ、 21 制御部、 22 記憶部、 23 入出力部、 30 表示装置、 31 表示部、 32 入力部、 40 検出部、 41 位置情報取得部、 42 センサ、 43 速度情報取得部、 44 地図情報取得部、 50 運転操作部、 51 ステアリング、 52 ブレーキペダル、 53 アクセルペダル、 54 ウインカスイッチ。   DESCRIPTION OF SYMBOLS 1 vehicle, 10 HMI controller, 11 determination part, 12 production | generation part, 13 instruction | indication part, 14 input / output part, 20 automatic operation controller, 21 control part, 22 memory | storage part, 23 input / output part, 30 display apparatus, 31 display part, 32 input unit, 40 detection unit, 41 position information acquisition unit, 42 sensor, 43 speed information acquisition unit, 44 map information acquisition unit, 50 driving operation unit, 51 steering, 52 brake pedal, 53 accelerator pedal, 54 winker switch.

本発明は、自動運転モードを搭載した車両に利用可能である。   The present invention is applicable to a vehicle equipped with an automatic driving mode.

Claims (10)

表示部に、自車を表す自車オブジェクトと複数の車線を含む画像情報を出力する画像出力部と、
前記表示部に表示された画像内の前記自車オブジェクトを第1車線から第2車線に移動させるユーザの操作信号を受け付ける操作信号入力部と、
前記操作信号を受け付けると、自車の走行車線を前記第1車線から前記第2車線に変更することを指示する自動運転制御コマンドを、自動運転の制御を行う自動運転制御部に出力するコマンド出力部と、
を備える運転支援装置。
An image output unit that outputs image information including a vehicle object representing the vehicle and a plurality of lanes to the display unit;
An operation signal input unit for receiving an operation signal of a user for moving the vehicle object in the image displayed on the display unit from the first lane to the second lane;
When the operation signal is received, a command output that outputs an automatic driving control command that instructs to change the traveling lane of the host vehicle from the first lane to the second lane to an automatic driving control unit that controls automatic driving. And
A driving support apparatus comprising:
前記画像出力部は、前記第2車線に他車が走行している場合、前記第2車線に、前記他車を表す他車オブジェクトを含む画像情報を前記表示部に出力し、
前記コマンド出力部は、前記自車オブジェクトが前記第2車線の前記他車オブジェクトより前に移動された場合、前記第1車線から前記第2車線の前記他車の前方への車線変更を指示する自動運転制御コマンドを前記自動運転制御部に出力し、前記自車オブジェクトが前記第2車線の前記オブジェクトより後ろに移動された場合、前記第1車線から前記第2車線の前記他車の後方への車線変更を指示する自動運転制御コマンドを前記自動運転制御部に出力する請求項1に記載の運転支援装置。
When the other vehicle is traveling in the second lane, the image output unit outputs image information including another vehicle object representing the other vehicle to the second lane on the display unit,
The command output unit instructs the lane change from the first lane to the front of the other vehicle in the second lane when the own vehicle object is moved before the other vehicle object in the second lane. When an automatic driving control command is output to the automatic driving control unit and the own vehicle object is moved behind the object in the second lane, the vehicle moves from the first lane to the rear of the other vehicle in the second lane. The driving support device according to claim 1, wherein an automatic driving control command for instructing a lane change is output to the automatic driving control unit.
前記コマンド出力部は、前記自車オブジェクトが前記第2車線に移動されてから所定時間内に、前記自車オブジェクトが前記第1車線に移動された場合、前記第1車線から前記第2車線に車線変更することを指示する自動運転制御コマンドをキャンセルするコマンドを前記自動運転制御部に出力する請求項1または2に記載の運転支援装置。   The command output unit may change from the first lane to the second lane when the own vehicle object is moved to the first lane within a predetermined time after the own vehicle object is moved to the second lane. The driving support device according to claim 1 or 2, wherein a command for canceling an automatic driving control command instructing to change a lane is output to the automatic driving control unit. 前記コマンド出力部は、前記自車オブジェクトが前記複数の車線の外であり且つ前記複数の車線より右側に移動された場合、自車の右折を指示するコマンドを前記自動運転制御部に出力し、前記自車オブジェクトが前記複数の車線の外であり且つ前記複数の車線より左側である場合、自車の左折を指示する自動運転制御コマンドを前記自動運転制御部に出力する請求項1から3のいずれかに記載の運転支援装置。   The command output unit outputs a command instructing a right turn of the host vehicle to the automatic driving control unit when the host vehicle object is outside the plurality of lanes and moved to the right side of the plurality of lanes, The automatic driving control command for instructing a left turn of the own vehicle is output to the automatic driving control unit when the own vehicle object is outside the plurality of lanes and on the left side of the plurality of lanes. The driving support device according to any one of the above. 前記表示部に表示された画像内の前記自車オブジェクトを指示するユーザの操作信号を前記操作信号入力部が受け付けると、前記画像出力部は、前記自車の周辺状況に基づき当該自車が実行可能な少なくとも1つの運転操作候補を表す少なくとも1つの運転操作候補オブジェクトを含む画像情報を前記表示部に出力する請求項1から4のいずれかに記載の運転支援装置。   When the operation signal input unit accepts a user operation signal indicating the vehicle object in the image displayed on the display unit, the image output unit executes the vehicle based on the surrounding situation of the vehicle. The driving support device according to any one of claims 1 to 4, wherein image information including at least one driving operation candidate object representing at least one possible driving operation candidate is output to the display unit. 前記画像出力部は、前記自車オブジェクトの車線変更開始前の位置から車線変更終了後の位置までの軌道を含む画像情報を前記表示部に出力する請求項1から5のいずれかに記載の運転支援装置。   The driving according to any one of claims 1 to 5, wherein the image output unit outputs image information including a track from a position before the start of lane change to a position after the end of lane change of the own vehicle object to the display unit. Support device. 画像を表示する表示装置と、
前記表示装置に画像情報を出力する運転支援装置と、を備え、
前記運転支援装置は、
前記表示装置に、自車を表す自車オブジェクトと複数の車線を含む画像情報を出力する画像出力部と、
前記表示装置に表示された画像内の前記自車オブジェクトを第1車線から第2車線に移動させるユーザの操作信号を受け付ける操作信号入力部と、
前記操作信号を受け付けると、自車の走行車線を前記第1車線から前記第2車線に変更することを指示する自動運転制御コマンドを、自動運転の制御を行う自動運転制御部に出力するコマンド出力部と、
を含む運転支援システム。
A display device for displaying an image;
A driving support device that outputs image information to the display device,
The driving support device includes:
An image output unit that outputs image information including a vehicle object representing the vehicle and a plurality of lanes to the display device;
An operation signal input unit for receiving an operation signal of a user for moving the vehicle object in the image displayed on the display device from the first lane to the second lane;
When the operation signal is received, a command output that outputs an automatic driving control command that instructs to change the traveling lane of the host vehicle from the first lane to the second lane to an automatic driving control unit that controls automatic driving. And
Driving support system including.
表示部に、自車を表す自車オブジェクトと複数の車線を含む画像情報を出力するステップと、
前記表示部に表示された画像内の前記自車オブジェクトを第1車線から第2車線に移動させるユーザの操作信号を受け付けるステップと、
前記操作信号を受け付けると、自車の走行車線を前記第1車線から前記第2車線に変更することを指示する自動運転制御コマンドを、自動運転の制御を行う自動運転制御部に出力するステップと、
を備える運転支援方法。
Outputting to the display unit image information including a vehicle object representing the vehicle and a plurality of lanes;
Receiving a user operation signal for moving the vehicle object in the image displayed on the display unit from the first lane to the second lane;
When receiving the operation signal, outputting an automatic driving control command instructing to change the traveling lane of the own vehicle from the first lane to the second lane to an automatic driving control unit that controls automatic driving; ,
A driving support method comprising:
表示部に、自車を表す自車オブジェクトと複数の車線を含む画像情報を出力する処理と、
前記表示部に表示された画像内の前記自車オブジェクトを第1車線から第2車線に移動させるユーザの操作信号を受け付ける処理と、
前記操作信号を受け付けると、自車の走行車線を前記第1車線から前記第2車線に変更することを指示する自動運転制御コマンドを、自動運転の制御を行う自動運転制御部に出力する処理と、
をコンピュータに実行させる運転支援プログラム。
A process of outputting image information including a vehicle object representing the vehicle and a plurality of lanes to the display unit;
A process of receiving a user operation signal for moving the vehicle object in the image displayed on the display unit from the first lane to the second lane;
When receiving the operation signal, a process of outputting an automatic driving control command instructing to change the traveling lane of the own vehicle from the first lane to the second lane to an automatic driving control unit that controls automatic driving; ,
A driving support program that causes a computer to execute.
表示部に、自車を表す自車オブジェクトと複数の車線を含む画像情報を出力する画像出力部と、
前記表示部に表示された画像内の前記自車オブジェクトを第1車線から第2車線に移動させるユーザの操作信号を受け付ける操作信号入力部と、
前記操作信号を受け付けると、自車の走行車線を前記第1車線から前記第2車線に変更することを指示する自動運転制御コマンドを出力するコマンド出力部と、
前記出力されたコマンドを実行する自動運転制御部と、
を備える自動運転車両。
An image output unit that outputs image information including a vehicle object representing the vehicle and a plurality of lanes to the display unit;
An operation signal input unit for receiving an operation signal of a user for moving the vehicle object in the image displayed on the display unit from the first lane to the second lane;
When receiving the operation signal, a command output unit that outputs an automatic driving control command instructing to change the traveling lane of the own vehicle from the first lane to the second lane;
An automatic operation control unit for executing the output command;
A self-driving vehicle comprising:
JP2016099831A 2016-05-18 2016-05-18 Driving support device, driving support system, driving support method, driving support program, automatic driving vehicle, and automatic driving control system Active JP6671019B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016099831A JP6671019B2 (en) 2016-05-18 2016-05-18 Driving support device, driving support system, driving support method, driving support program, automatic driving vehicle, and automatic driving control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016099831A JP6671019B2 (en) 2016-05-18 2016-05-18 Driving support device, driving support system, driving support method, driving support program, automatic driving vehicle, and automatic driving control system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015152849A Division JP5945999B1 (en) 2015-07-31 2015-07-31 Driving support device, driving support system, driving support method, driving support program, and autonomous driving vehicle

Publications (3)

Publication Number Publication Date
JP2017030727A true JP2017030727A (en) 2017-02-09
JP2017030727A5 JP2017030727A5 (en) 2018-09-13
JP6671019B2 JP6671019B2 (en) 2020-03-25

Family

ID=57987496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016099831A Active JP6671019B2 (en) 2016-05-18 2016-05-18 Driving support device, driving support system, driving support method, driving support program, automatic driving vehicle, and automatic driving control system

Country Status (1)

Country Link
JP (1) JP6671019B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114056341A (en) * 2021-11-03 2022-02-18 天津五八驾考信息技术有限公司 Driving assistance method, device and storage medium in driving training

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004050923A (en) * 2002-07-18 2004-02-19 Honda Motor Co Ltd Onboard indicator
JP2004058918A (en) * 2002-07-31 2004-02-26 Nissan Motor Co Ltd Information presenting device for controlling following of vehicle distance
JP2005041433A (en) * 2003-07-25 2005-02-17 Denso Corp Vehicle guiding device and route judging program
JP2009274594A (en) * 2008-05-15 2009-11-26 Hitachi Ltd Lane change support device
JP2010198578A (en) * 2009-02-27 2010-09-09 Toyota Motor Corp Movement locus generating device
JP2012076483A (en) * 2010-09-30 2012-04-19 Aisin Seiki Co Ltd Parking support device
US20120173069A1 (en) * 2010-12-29 2012-07-05 GM Global Technology Operations LLC Vehicle operation and control system for autonomous vehicles on full windshield display
WO2012160590A1 (en) * 2011-05-20 2012-11-29 本田技研工業株式会社 Lane change assistant information visualization system
JP2014225245A (en) * 2013-04-25 2014-12-04 パナソニックIpマネジメント株式会社 Traffic information presentation system, traffic information presentation method and electronic device
JP2015011458A (en) * 2013-06-27 2015-01-19 株式会社デンソー Vehicle information providing device
JP2015075889A (en) * 2013-10-08 2015-04-20 日産自動車株式会社 Driving support device
JP2015081057A (en) * 2013-10-24 2015-04-27 日産自動車株式会社 Display device for vehicle
JP2015141641A (en) * 2014-01-30 2015-08-03 アイシン・エィ・ダブリュ株式会社 Follow-up support device, follow-up support method, and program
JP2015199439A (en) * 2014-04-09 2015-11-12 日立オートモティブシステムズ株式会社 Travel control device, on-vehicle display device and travel control system

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004050923A (en) * 2002-07-18 2004-02-19 Honda Motor Co Ltd Onboard indicator
JP2004058918A (en) * 2002-07-31 2004-02-26 Nissan Motor Co Ltd Information presenting device for controlling following of vehicle distance
JP2005041433A (en) * 2003-07-25 2005-02-17 Denso Corp Vehicle guiding device and route judging program
JP2009274594A (en) * 2008-05-15 2009-11-26 Hitachi Ltd Lane change support device
JP2010198578A (en) * 2009-02-27 2010-09-09 Toyota Motor Corp Movement locus generating device
JP2012076483A (en) * 2010-09-30 2012-04-19 Aisin Seiki Co Ltd Parking support device
US20120173069A1 (en) * 2010-12-29 2012-07-05 GM Global Technology Operations LLC Vehicle operation and control system for autonomous vehicles on full windshield display
WO2012160590A1 (en) * 2011-05-20 2012-11-29 本田技研工業株式会社 Lane change assistant information visualization system
JP2014225245A (en) * 2013-04-25 2014-12-04 パナソニックIpマネジメント株式会社 Traffic information presentation system, traffic information presentation method and electronic device
JP2015011458A (en) * 2013-06-27 2015-01-19 株式会社デンソー Vehicle information providing device
JP2015075889A (en) * 2013-10-08 2015-04-20 日産自動車株式会社 Driving support device
JP2015081057A (en) * 2013-10-24 2015-04-27 日産自動車株式会社 Display device for vehicle
JP2015141641A (en) * 2014-01-30 2015-08-03 アイシン・エィ・ダブリュ株式会社 Follow-up support device, follow-up support method, and program
JP2015199439A (en) * 2014-04-09 2015-11-12 日立オートモティブシステムズ株式会社 Travel control device, on-vehicle display device and travel control system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114056341A (en) * 2021-11-03 2022-02-18 天津五八驾考信息技术有限公司 Driving assistance method, device and storage medium in driving training
CN114056341B (en) * 2021-11-03 2024-01-26 天津五八驾考信息技术有限公司 Driving assistance method, apparatus and storage medium in driving training

Also Published As

Publication number Publication date
JP6671019B2 (en) 2020-03-25

Similar Documents

Publication Publication Date Title
JP5945999B1 (en) Driving support device, driving support system, driving support method, driving support program, and autonomous driving vehicle
JP5910904B1 (en) Driving support device, driving support system, driving support method, driving support program, and autonomous driving vehicle
JP5957745B1 (en) Driving support device, driving support system, driving support method, driving support program, and autonomous driving vehicle
JP5910903B1 (en) Driving support device, driving support system, driving support method, driving support program, and autonomous driving vehicle
JP5957744B1 (en) Driving support device, driving support system, driving support method, driving support program, and autonomous driving vehicle
JP6621032B2 (en) Driving support device, driving support system, driving support method, driving support program, and autonomous driving vehicle
US20170225691A1 (en) Driving support device, driving support system, driving support method, and automatic drive vehicle
JP6090727B2 (en) Driving support device, driving support system, driving support method, driving support program, and autonomous driving vehicle
JP6575915B2 (en) Driving support device, driving support system, driving support method, driving support program, and autonomous driving vehicle
JP6671019B2 (en) Driving support device, driving support system, driving support method, driving support program, automatic driving vehicle, and automatic driving control system
JP6681604B2 (en) Driving support device, driving support system, driving support method, driving support program, and autonomous driving vehicle
JP6558738B2 (en) Driving support device, driving support system, driving support method, driving support program, and autonomous driving vehicle

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180730

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200213

R150 Certificate of patent or registration of utility model

Ref document number: 6671019

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03