JP6910254B2 - Driving support display method and driving support display device - Google Patents

Driving support display method and driving support display device Download PDF

Info

Publication number
JP6910254B2
JP6910254B2 JP2017175613A JP2017175613A JP6910254B2 JP 6910254 B2 JP6910254 B2 JP 6910254B2 JP 2017175613 A JP2017175613 A JP 2017175613A JP 2017175613 A JP2017175613 A JP 2017175613A JP 6910254 B2 JP6910254 B2 JP 6910254B2
Authority
JP
Japan
Prior art keywords
vehicle
adjacent
locus
image
monitor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017175613A
Other languages
Japanese (ja)
Other versions
JP2019053388A (en
Inventor
草柳 佳紀
佳紀 草柳
渡辺 省吾
省吾 渡辺
拓良 柳
柳  拓良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2017175613A priority Critical patent/JP6910254B2/en
Publication of JP2019053388A publication Critical patent/JP2019053388A/en
Application granted granted Critical
Publication of JP6910254B2 publication Critical patent/JP6910254B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、運転支援表示方法及び運転支援表示装置に関する。 The present invention relates to a driving support display method and a driving support display device.

従来より、自動運転中の車線変更を乗員へ知らせる技術が知られている(特許文献1)。特許文献1に記載された発明は、車線変更の走行コースを示すシンボル画像をディスプレイに表示して、車線変更を行うことを乗員へ知らせる。 Conventionally, a technique for notifying an occupant of a lane change during automatic driving has been known (Patent Document 1). The invention described in Patent Document 1 displays a symbol image showing a traveling course of a lane change on a display to notify an occupant of the lane change.

特開2016−182891号公報Japanese Unexamined Patent Publication No. 2016-182891

自車両が隣接車線に車線変更する場合、この隣接車線を走行する隣接車両が存在する場合がある。このとき、自車両は、隣接車両の前で車線変更する場合と、隣接車両の後ろで車線変更する場合がある。しかしながら、特許文献1に記載された発明は、この点を考慮していない。すなわち、特許文献1に記載された発明において、乗員は、自車両が隣接車両の前で車線変更するのか、あるいは自車両が隣接車両の後ろで車線変更するのか、把握することができず、違和感を感じるおそれがある。 When the own vehicle changes lanes to the adjacent lane, there may be an adjacent vehicle traveling in this adjacent lane. At this time, the own vehicle may change lanes in front of the adjacent vehicle or may change lanes behind the adjacent vehicle. However, the invention described in Patent Document 1 does not take this point into consideration. That is, in the invention described in Patent Document 1, the occupant cannot grasp whether the own vehicle changes lanes in front of the adjacent vehicle or the own vehicle changes lanes behind the adjacent vehicle, and feels uncomfortable. May feel.

本発明は、上記問題に鑑みて成されたものであり、その目的は、乗員が感じる違和感を抑制できる運転支援表示方法及び運転支援表示装置を提供することである。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a driving support display method and a driving support display device capable of suppressing a sense of discomfort felt by an occupant.

本発明の一態様に係る運転支援表示方法は、自車両の周囲を走行する他車両を検出し、自車両が将来走行する自車軌跡と、他車両が将来走行する他車軌跡とを予測する。自車軌跡と、他車軌跡とが交差する場合、運転支援表示方法は、自車両及び他車両が交差する場所を通過する順番をモニタに表示する。他車両は、自車両の走行車線に隣接する隣接車線を走行する隣接車両であり、隣接車線へ車線変更する自車軌跡と隣接車線を走行する他車軌跡とが交差する場合、隣接車両の後ろに、自車両が車線変更するか否か判定し、隣接車両の後ろに自車両が車線変更すると判定した場合、順番として、隣接車両が将来走行する軌跡をモニタに表示した後、自車両が隣接車両の後ろに車線変更することをモニタに表示する。 The driving support display method according to one aspect of the present invention detects another vehicle traveling around the own vehicle, and predicts the own vehicle trajectory that the own vehicle will travel in the future and the other vehicle trajectory that the other vehicle will travel in the future. .. When the locus of the own vehicle and the locus of another vehicle intersect, the driving support display method displays on the monitor the order in which the own vehicle and the other vehicle pass through the intersection. The other vehicle is an adjacent vehicle traveling in an adjacent lane adjacent to the driving lane of the own vehicle, and when the locus of the own vehicle changing to the adjacent lane and the locus of another vehicle traveling in the adjacent lane intersect, the other vehicle is behind the adjacent vehicle. If it is determined whether or not the own vehicle changes lanes and it is determined that the own vehicle changes lanes behind the adjacent vehicle, the order is to display the trajectory of the adjacent vehicle in the future on the monitor and then the own vehicle is adjacent. Display on the monitor that you are changing lanes behind the vehicle.

本発明によれば、乗員が感じる違和感を抑制できる。 According to the present invention, it is possible to suppress the discomfort felt by the occupant.

図1は、本発明の第1実施形態に係る運転支援表示装置の構成図である。FIG. 1 is a configuration diagram of a driving support display device according to the first embodiment of the present invention. 図2は、本発明の第1実施形態に係る車線変更シーンを説明する図である。FIG. 2 is a diagram illustrating a lane change scene according to the first embodiment of the present invention. 図3は、本発明の第1実施形態に係る支援画像を説明する図である。FIG. 3 is a diagram illustrating a support image according to the first embodiment of the present invention. 図4は、本発明の第1実施形態に係る他の支援画像を説明する図である。FIG. 4 is a diagram illustrating another support image according to the first embodiment of the present invention. 図5Aは、本発明の第1実施形態に係るさらに他の支援画像を説明する図である。FIG. 5A is a diagram illustrating still another support image according to the first embodiment of the present invention. 図5Bは、本発明の第1実施形態に係るさらに他の支援画像を説明する図である。FIG. 5B is a diagram illustrating still another support image according to the first embodiment of the present invention. 図6は、本発明の第1実施形態に係るさらに他の支援画像を説明する図である。FIG. 6 is a diagram illustrating still another support image according to the first embodiment of the present invention. 図7は、本発明の第1実施形態に係る動画の表示制御を説明する図である。FIG. 7 is a diagram for explaining the display control of the moving image according to the first embodiment of the present invention. 図8は、本発明の第1実施形態に係るさらに他の支援画像を説明する図である。FIG. 8 is a diagram illustrating still another support image according to the first embodiment of the present invention. 図9は、本発明の第1実施形態に係るさらに他の支援画像を説明する図である。FIG. 9 is a diagram illustrating still another support image according to the first embodiment of the present invention. 図10は、本発明の第1実施形態に係るさらに他の支援画像を説明する図である。FIG. 10 is a diagram illustrating still another support image according to the first embodiment of the present invention. 図11は、本発明の第1実施形態に係るさらに他の支援画像を説明する図である。FIG. 11 is a diagram illustrating still another support image according to the first embodiment of the present invention. 図12は、本発明の第1実施形態に係るさらに他の支援画像を説明する図である。FIG. 12 is a diagram illustrating still another support image according to the first embodiment of the present invention. 図13は、本発明の第1実施形態に係るさらに他の支援画像を説明する図である。FIG. 13 is a diagram illustrating still another support image according to the first embodiment of the present invention. 図14は、交差点における軌跡を説明する図である。FIG. 14 is a diagram illustrating a locus at an intersection. 図15は、本発明の第1実施形態に係る運転支援表示装置の一動作例を説明するフローチャートである。FIG. 15 is a flowchart illustrating an operation example of the driving support display device according to the first embodiment of the present invention. 図16は、本発明の第2実施形態に係る運転支援表示装置の構成図である。FIG. 16 is a configuration diagram of a driving support display device according to a second embodiment of the present invention. 図17は、本発明の第2実施形態に係る車線変更シーンを説明する図である。FIG. 17 is a diagram illustrating a lane change scene according to the second embodiment of the present invention. 図18Aは、本発明の第1実施形態に係るさらに他の支援画像を説明する図である。FIG. 18A is a diagram illustrating still another support image according to the first embodiment of the present invention. 図18Bは、本発明の第1実施形態に係るさらに他の支援画像を説明する図である。FIG. 18B is a diagram illustrating still another support image according to the first embodiment of the present invention.

以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。本実施形態に係る運転支援表示装置は、自動運転と手動運転とを切り替えることが可能な車両に適用される。なお、本実施形態における自動運転とは、例えば、ブレーキ、アクセル、ステアリングなどのアクチュエータの内、少なくとも一つのアクチュエータを運転者の操作なしに制御している状態のことを指す。そのため、少なくとも一つのアクチュエータが制御されている状態であれば、その他のアクチュエータが運転者の操作により作動していたとしても構わない。また、本実施形態における手動運転とは、例えば、ブレーキ、アクセル、ステアリングなど走行のために必要な操作を運転者が操作している状態のことを指す。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same parts are designated by the same reference numerals and the description thereof will be omitted. The driving support display device according to the present embodiment is applied to a vehicle capable of switching between automatic driving and manual driving. The automatic driving in the present embodiment refers to a state in which at least one of the actuators such as the brake, the accelerator, and the steering is controlled without the operation of the driver. Therefore, as long as at least one actuator is controlled, the other actuators may be operated by the operation of the driver. Further, the manual operation in the present embodiment refers to a state in which the driver is operating operations necessary for traveling such as braking, accelerator, and steering.

[第1の実施形態]
[運転支援表示装置の構成]
図1に示すように、第1実施形態に係る運転支援表示装置は、物体検出装置1と、自車位置検出装置2と、地図取得装置3と、センサ群4と、コントローラ10と、自車両の車室内に搭載されたモニタ5と、を備える。なお、以下の説明において、特に断らない限り、乗員は、自車両の乗員を意味する。
[First Embodiment]
[Driving support display device configuration]
As shown in FIG. 1, the driving support display device according to the first embodiment includes an object detection device 1, a vehicle position detection device 2, a map acquisition device 3, a sensor group 4, a controller 10, and a vehicle. It is provided with a monitor 5 mounted in the vehicle interior of the vehicle. In the following description, unless otherwise specified, the occupant means the occupant of the own vehicle.

物体検出装置1は、自車両に搭載された複数の異なる種類の物体検出センサを備える。複数の異なる種類の物体検出センサは、レーザレーダやミリ波レーダ、カメラ、レーザレンジファインダー、車車間通信、路車間通信などである。物体検出装置1は、複数の物体検出センサを用いて自車両の周囲の物体を検出する。より詳しくは、物体検出装置1は、他車両、バイク、自転車、歩行者を含む移動物体、及び駐車車両を含む静止物体を検出する。例えば、物体検出装置1は、移動物体及び静止物体の自車両に対する位置、姿勢(ヨー角)、大きさ、速度、加速度、減速度、ヨーレートを検出する。物体検出装置1は、検出した情報をコントローラ10に出力する。 The object detection device 1 includes a plurality of different types of object detection sensors mounted on the own vehicle. A plurality of different types of object detection sensors include laser radars, millimeter wave radars, cameras, laser rangefinders, vehicle-to-vehicle communication, road-to-vehicle communication, and the like. The object detection device 1 detects an object around the own vehicle by using a plurality of object detection sensors. More specifically, the object detection device 1 detects a moving object including another vehicle, a motorcycle, a bicycle, a pedestrian, and a stationary object including a parked vehicle. For example, the object detection device 1 detects the position, posture (yaw angle), size, speed, acceleration, deceleration, and yaw rate of a moving object and a stationary object with respect to the own vehicle. The object detection device 1 outputs the detected information to the controller 10.

自車位置検出装置2は、自車両に搭載された、GPS(グローバル・ポジショニング・システム)やオドメトリなど自車両の絶対位置を計測する位置検出センサを備える。自車位置検出装置2は、位置検出センサを用いて、自車両の絶対位置、すなわち、所定の基準点に対する自車両の位置や姿勢を検出する。自車位置検出装置2は、検出した情報をコントローラ10に出力する。 The own vehicle position detection device 2 includes a position detection sensor mounted on the own vehicle that measures the absolute position of the own vehicle such as GPS (Global Positioning System) and odometry. The own vehicle position detection device 2 detects the absolute position of the own vehicle, that is, the position and attitude of the own vehicle with respect to a predetermined reference point by using the position detection sensor. The own vehicle position detection device 2 outputs the detected information to the controller 10.

地図取得装置3は、自車両が走行する道路の構造を示す地図情報を取得する。地図取得装置3が取得する地図情報には、車線の絶対位置や車線の接続関係、相対位置関係などの道路構造の情報が含まれる。地図取得装置3は、地図情報を格納した地図データベースを所有してもよいし、クラウドコンピューティングにより地図情報を外部の地図データサーバから取得してもよい。また、地図取得装置3は、車車間通信、路車間通信を用いて地図情報を取得してもよい。地図取得装置3は、検出した情報をコントローラ10に出力する。 The map acquisition device 3 acquires map information indicating the structure of the road on which the own vehicle travels. The map information acquired by the map acquisition device 3 includes road structure information such as absolute lane positions, lane connection relationships, and relative positional relationships. The map acquisition device 3 may own a map database that stores map information, or may acquire map information from an external map data server by cloud computing. Further, the map acquisition device 3 may acquire map information by using vehicle-to-vehicle communication and road-to-vehicle communication. The map acquisition device 3 outputs the detected information to the controller 10.

センサ群4は、自車両の状態を検出する複数のセンサから構成される。センサ群4は、例えば、車速センサ、シフトセンサ、ステアリングセンサなどである。センサ群4は、自車両の車速、シフトポジション、ステアリング角度などを検出し、コントローラ10に出力する。 The sensor group 4 is composed of a plurality of sensors that detect the state of the own vehicle. The sensor group 4 is, for example, a vehicle speed sensor, a shift sensor, a steering sensor, or the like. The sensor group 4 detects the vehicle speed, shift position, steering angle, etc. of the own vehicle and outputs them to the controller 10.

コントローラ10は、各種センサから取得したデータを処理する回路であり、例えばCPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータをコントローラ10として機能させるためのコンピュータプログラムを、マイクロコンピュータにインストールして実行する。これにより、マイクロコンピュータは、コントローラ10として機能する。なお、ここでは、ソフトウェアによってコントローラ10を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、コントローラ10を構成することも可能である。コントローラ10は、複数の情報処理回路として、周囲画像生成部11と、他車行動予測部12と、自車行動決定部13と、軌跡予測部14と、交差判定部15と、通過順番計算部16と、表示決定部17と、画像選択部18と、画像合成部19とを備える。 The controller 10 is a circuit that processes data acquired from various sensors, and is, for example, a general-purpose microcomputer including a CPU (central processing unit), a memory, and an input / output unit. A computer program for operating the microcomputer as the controller 10 is installed and executed on the microcomputer. As a result, the microcomputer functions as the controller 10. Here, an example in which the controller 10 is realized by software is shown, but of course, it is also possible to configure the controller 10 by preparing dedicated hardware for executing each of the following information processing. As a plurality of information processing circuits, the controller 10 includes a surrounding image generation unit 11, another vehicle behavior prediction unit 12, own vehicle behavior determination unit 13, trajectory prediction unit 14, intersection determination unit 15, and passage order calculation unit. A display determination unit 17, an image selection unit 18, and an image composition unit 19 are provided.

周囲画像生成部11は、自車両の周囲の画像に基づき、予め定めた仮想視点、投影面を設定し、自車両の上方から下方(車両の方向)を見たように周囲画像を生成する。なお、周囲画像は、俯瞰画像、鳥瞰画像などでもよく、自車両とその周囲の状況がわかるものであれば画像の形態は問わない。加えて、俯瞰画像、鳥瞰画像の生成方法は既知の技術であるので、詳細な説明を省略する。また、周囲画像生成部11は、自車両の前方上空、または自車両の後方上空に仮想視点を設定することができる。周囲画像生成部11は、生成した周囲画像を画像合成部19及びモニタ5に出力する。 The surrounding image generation unit 11 sets a predetermined virtual viewpoint and projection plane based on the image of the surroundings of the own vehicle, and generates the surrounding image as if the surrounding image is viewed from above to below (direction of the vehicle) of the own vehicle. The surrounding image may be a bird's-eye view image, a bird's-eye view image, or the like, and the form of the image does not matter as long as the situation of the own vehicle and its surroundings can be understood. In addition, since the method of generating the bird's-eye view image and the bird's-eye view image is a known technique, detailed description thereof will be omitted. Further, the surrounding image generation unit 11 can set a virtual viewpoint in the sky above the front of the own vehicle or in the sky behind the own vehicle. The peripheral image generation unit 11 outputs the generated peripheral image to the image synthesis unit 19 and the monitor 5.

他車行動予測部12は、物体検出装置1から取得した情報に基づいて、他車両の行動を予測する。他車行動予測部12は、予測した他車両の行動を軌跡予測部14に出力する。 The other vehicle behavior prediction unit 12 predicts the behavior of the other vehicle based on the information acquired from the object detection device 1. The other vehicle behavior prediction unit 12 outputs the predicted behavior of the other vehicle to the trajectory prediction unit 14.

自車行動決定部13は、自車位置検出装置2、地図取得装置3、及びセンサ群4から取得した情報に基づいて自車両の行動を決定する。自車行動決定部13は、予測した自車両の行動を軌跡予測部14に出力する。 The own vehicle behavior determination unit 13 determines the behavior of the own vehicle based on the information acquired from the own vehicle position detection device 2, the map acquisition device 3, and the sensor group 4. The own vehicle behavior determination unit 13 outputs the predicted behavior of the own vehicle to the locus prediction unit 14.

軌跡予測部14は、他車行動予測部12から取得した情報に基づいて、他車両が将来走行する軌跡を予測する。また、軌跡予測部14は、自車行動決定部13から取得した情報に基づいて、自車両が将来走行する軌跡を予測する。なお、以下では、自車両が将来走行する軌跡を、単に自車軌跡とよぶ場合がある。また、他車両が将来走行する軌跡を、単に他車軌跡とよぶ場合がある。軌跡予測部14は、予測した自車軌跡及び他車軌跡を交差判定部15に出力する。 The locus prediction unit 14 predicts the locus that the other vehicle will travel in the future based on the information acquired from the other vehicle behavior prediction unit 12. Further, the locus prediction unit 14 predicts the locus on which the own vehicle will travel in the future based on the information acquired from the own vehicle action determination unit 13. In the following, the locus on which the own vehicle will travel in the future may be simply referred to as the own vehicle locus. In addition, the locus on which another vehicle will travel in the future may be simply referred to as the locus of another vehicle. The locus prediction unit 14 outputs the predicted own vehicle locus and the other vehicle locus to the intersection determination unit 15.

交差判定部15は、軌跡予測部14によって予測された自車軌跡と他車軌跡とが交差するか否かを判定する。なお、本実施形態において、自車軌跡と他車軌跡とが交差することには、自車軌跡と他車軌跡が重なる場合も含まれる。さらに、自車軌跡と他車軌跡とが交差する場合には、自車軌跡と他車軌跡とが交差する場所を自車両と他車両が所定時間以内に通過する場合が含まれるが、交差する場所を自車両と他車両が所定時間以上離れて通過する場合は含まれない。交差判定部15は、判定した結果を通過順番計算部16に出力する。 The intersection determination unit 15 determines whether or not the locus of the own vehicle predicted by the locus prediction unit 14 intersects with the locus of another vehicle. In the present embodiment, the intersection of the own vehicle locus and the other vehicle locus includes the case where the own vehicle locus and the other vehicle locus overlap. Further, when the own vehicle locus and the other vehicle locus intersect, the case where the own vehicle and the other vehicle pass through the place where the own vehicle locus and the other vehicle locus intersect within a predetermined time is included, but they intersect. It is not included when the own vehicle and another vehicle pass the place more than a predetermined time. The intersection determination unit 15 outputs the determination result to the passage order calculation unit 16.

通過順番計算部16は、交差判定部15によって自車軌跡と他車軌跡とが交差すると判定された場合、自車両と他車両のうち、どちらが先に交差する場所を通過するのか、その順番を計算する。通過順番計算部16は、例えば、自車両及び他車両の位置、速度、加速度などに基づいてどちらが先に交差する場所を通過するのか計算する。通過順番計算部16は、計算した順番を画像選択部18に出力する。 When the intersection determination unit 15 determines that the locus of the own vehicle and the locus of another vehicle intersect, the passing order calculation unit 16 determines the order of which of the own vehicle and the other vehicle passes first. calculate. The passing order calculation unit 16 calculates, for example, which one passes first based on the position, speed, acceleration, etc. of the own vehicle and another vehicle. The passing order calculation unit 16 outputs the calculated order to the image selection unit 18.

画像選択部18は、通過順番計算部16によって計算された順番を示す画像を選択する。画像選択部18が選択する画像は、予めコントローラ10に記憶されているが、これに限定されない。例えば、画像選択部18は、通過順番計算部16によって計算された順番を示す画像を作成してもよい。画像選択部18は、選択した画像を画像合成部19に出力する。 The image selection unit 18 selects an image indicating the order calculated by the passage order calculation unit 16. The image selected by the image selection unit 18 is stored in the controller 10 in advance, but is not limited thereto. For example, the image selection unit 18 may create an image showing the order calculated by the passage order calculation unit 16. The image selection unit 18 outputs the selected image to the image composition unit 19.

画像合成部19は、画像選択部18によって選択された画像を周囲画像に合成する。そして、画像合成部19は、合成した画像をモニタ5に出力する。 The image synthesizing unit 19 synthesizes the image selected by the image selection unit 18 with the surrounding image. Then, the image synthesizing unit 19 outputs the combined image to the monitor 5.

(運転支援表示装置の動作例)
次に、図2及び図3を参照して、運転支援表示装置の動作例について説明する。
(Operation example of driving support display device)
Next, an operation example of the driving support display device will be described with reference to FIGS. 2 and 3.

図2に示す運転シーンは、自車両30が、隣接車線に車線変更するシーンである。図2において、自車両30の走行車線に隣接する隣接車線には、他車両31が存在している。他車両31は、隣接車両である。自車両30の自車軌跡40と、他車両31の他車軌跡41は、場所80にて交差する。通過順番計算部16は、自車両30と他車両31のうち、どちらが先に場所80を通過するのか、その順番を計算する。図2及び図3に示すシーンでは、他車両31が先に場所80を通過するものとして説明する。 The driving scene shown in FIG. 2 is a scene in which the own vehicle 30 changes lanes to an adjacent lane. In FIG. 2, another vehicle 31 exists in an adjacent lane adjacent to the traveling lane of the own vehicle 30. The other vehicle 31 is an adjacent vehicle. The own vehicle locus 40 of the own vehicle 30 and the other vehicle locus 41 of the other vehicle 31 intersect at the place 80. The passing order calculation unit 16 calculates the order of which of the own vehicle 30 and the other vehicle 31 passes through the place 80 first. In the scenes shown in FIGS. 2 and 3, the other vehicle 31 will be described as passing through the location 80 first.

図3の時刻T1に示す周囲画像50は、図2におけるシーンを、自車両30の後方上空から見た画像である。なお、図3において場所80の記載は省略する。図3に示す自車両30は、自車両を模した画像(アイコン)である。同様に、図3に示す他車両31は、他車両を模した画像である。以下の図面においても同様である。図3の時刻T1の周囲画像50に示すように、画像合成部19は、他車両31が先に場所80を通過することを示す支援画像60及び支援画像61を表示する。支援画像61は、他車両31がこれから進む方向を示す矢印つきの画像である。換言すれば、支援画像61は、他車軌跡を示す画像である。支援画像60は、自車両30の前方から他車両31の後方に向かってS字状に延びる画像である。この支援画像60により、乗員は、自車両30が他車両31の後ろに車線変更することを車線変更前に知ることができるようになる。つまり、乗員は、場所80を通過する順番が、他車両31が先で、自車両30が後であることを車線変更前に知ることができるようになる。これにより、乗員が車線変更時に感じる違和感は、抑制される。 The surrounding image 50 shown at time T1 in FIG. 3 is an image of the scene in FIG. 2 viewed from above the rear of the own vehicle 30. The description of the location 80 is omitted in FIG. The own vehicle 30 shown in FIG. 3 is an image (icon) imitating the own vehicle. Similarly, the other vehicle 31 shown in FIG. 3 is an image imitating another vehicle. The same applies to the following drawings. As shown in the surrounding image 50 at time T1 in FIG. 3, the image synthesizing unit 19 displays the support image 60 and the support image 61 indicating that the other vehicle 31 first passes through the place 80. The support image 61 is an image with an arrow indicating the direction in which the other vehicle 31 is heading. In other words, the support image 61 is an image showing the locus of another vehicle. The support image 60 is an image extending in an S shape from the front of the own vehicle 30 toward the rear of the other vehicle 31. The support image 60 enables the occupant to know that the own vehicle 30 changes lanes behind the other vehicle 31 before changing lanes. That is, the occupant can know that the order of passing through the place 80 is that the other vehicle 31 comes first and the own vehicle 30 comes later before changing lanes. As a result, the discomfort felt by the occupant when changing lanes is suppressed.

時間が進み、時刻T2において、画像合成部19は、引き続き、支援画像60及び支援画像61を表示する。これにより、乗員は、自車両30が他車両31の後ろに車線変更することを車線変更前に知ることができる。さらに時間が進み、時刻T3において、画像合成部19は、引き続き、支援画像60及び支援画像61を表示する。これにより、乗員は、自車両30が他車両31の後ろに車線変更することを車線変更前に知ることができる。なお、図3の時刻T3に示す支援画像60は、自車両30が他車両31の後ろに車線変更することを示す画像であり、自車両30の自車軌跡とは異なる画像である。なお、図3の時刻T3に示す支援画像60は、自車両30が将来走行する軌跡を示す画像であってもよい。 As time advances, at time T2, the image synthesizing unit 19 continues to display the support image 60 and the support image 61. As a result, the occupant can know that the own vehicle 30 changes lanes behind the other vehicle 31 before changing lanes. Further time advances, and at time T3, the image synthesizing unit 19 continues to display the support image 60 and the support image 61. As a result, the occupant can know that the own vehicle 30 changes lanes behind the other vehicle 31 before changing lanes. The support image 60 shown at time T3 in FIG. 3 is an image showing that the own vehicle 30 changes lanes behind the other vehicle 31, and is an image different from the own vehicle locus of the own vehicle 30. The support image 60 shown at time T3 in FIG. 3 may be an image showing a trajectory on which the own vehicle 30 will travel in the future.

なお、図3に示す例では、支援画像60の面積は、支援画像61の面積より大きいが、これに限定されない。場所80を通過する順番が先であることを示す支援画像61が、強調されてもよい。例えば、支援画像61の面積は、支援画像60の面積より大きくてもよい。また、支援画像61の色は、赤が好ましい。赤は目立つ色だからである。支援画像60の色は、特に限定されないが、例えば青でよい。また、画像選択部18は、支援画像61の濃度を濃くし、支援画像60の濃度を薄くしてもよい。また、画像選択部18は、支援画像60及び支援画像61の線の種類を変更してもよい。このように支援画像61を強調することにより、乗員は、場所80を通過する順番が、他車両31が先で、自車両30が後であることを車線変更前に知ることができるようになる。 In the example shown in FIG. 3, the area of the support image 60 is larger than the area of the support image 61, but the area is not limited to this. The support image 61, which shows that the order of passing through the place 80 is first, may be emphasized. For example, the area of the support image 61 may be larger than the area of the support image 60. The color of the support image 61 is preferably red. This is because red is a prominent color. The color of the support image 60 is not particularly limited, but may be blue, for example. Further, the image selection unit 18 may increase the density of the support image 61 and decrease the density of the support image 60. Further, the image selection unit 18 may change the line type of the support image 60 and the support image 61. By emphasizing the support image 61 in this way, the occupant can know that the order of passing through the place 80 is that the other vehicle 31 is first and the own vehicle 30 is later before changing lanes. ..

また、図3の時刻T1に示す周囲画像50のように、他車両31が自車両30の後方を走行する場合に、画像合成部19は、自車両30が他車両31の後ろに車線変更することを示す支援画像60をモニタ5に表示してもよい。なお、本実施形態において、自車両30の後方とは、自車両30の車頭が他車両31の車尾より前に出ている場合をいう。 Further, as in the surrounding image 50 shown at time T1 in FIG. 3, when the other vehicle 31 travels behind the own vehicle 30, the image synthesizing unit 19 changes the lane of the own vehicle 30 behind the other vehicle 31. The support image 60 indicating that may be displayed on the monitor 5. In the present embodiment, the term "rear of the own vehicle 30" means that the head of the own vehicle 30 is in front of the tail of the other vehicle 31.

なお、図3の時刻T1及び時刻T2に示す例では、画像合成部19は、自車両30の前方から延びるように支援画像60を表示したが、これに限定されない。例えば、画像合成部19は、図4の時刻T1及び時刻T2に示すように、自車両30の側方から延びるように支援画像60を表示してもよい。 In the examples shown at time T1 and time T2 in FIG. 3, the image synthesizing unit 19 displays the support image 60 so as to extend from the front of the own vehicle 30, but the present invention is not limited to this. For example, the image synthesizing unit 19 may display the support image 60 so as to extend from the side of the own vehicle 30 as shown at the time T1 and the time T2 in FIG.

また、図5A及び図5Bに示すように、支援画像60は、矢印でもよい。この場合、支援画像60は、支援画像61より小さいことが好ましい。これにより、乗員は、自車両30が他車両31の後ろに車線変更することを車線変更前に知ることができるようになる。 Further, as shown in FIGS. 5A and 5B, the support image 60 may be an arrow. In this case, the support image 60 is preferably smaller than the support image 61. As a result, the occupant can know that the own vehicle 30 changes lanes behind the other vehicle 31 before changing lanes.

上述した例では、支援画像60,61を静止画として説明したが、これに限定されない。画像合成部19は、支援画像60,61を動画として表示してもよい。図6を参照して動画による表示について説明する。 In the above-mentioned example, the support images 60 and 61 have been described as still images, but the present invention is not limited to this. The image synthesizing unit 19 may display the support images 60 and 61 as moving images. The display by moving image will be described with reference to FIG.

図6に示すように、画像合成部19は、フレーム1からフレーム6の順に、支援画像60,61を表示する。フレーム6の次は、フレーム1に戻る。フレーム1では、支援画像61の一部分が表示される。次に、フレーム2では、フレーム1と同様に、支援画像61の一部分が表示される。次に、フレーム3では、支援画像61が表示される。次に、フレーム4では、支援画像60の一部分が表示される。次に、フレーム5では、フレーム4と同様に、支援画像60の一部分が表示される。最後に、フレーム6では、支援画像60が、支援画像61の上に表示される。このように、最初に支援画像61が表示され、続いて支援画像60が表示されることにより、乗員は、場所80を通過する順番が、他車両31が先で、自車両30が後であることを車線変更前に知ることができるようになる。 As shown in FIG. 6, the image synthesizing unit 19 displays the support images 60 and 61 in the order of frame 1 to frame 6. After the frame 6, the process returns to the frame 1. In frame 1, a part of the support image 61 is displayed. Next, in the frame 2, a part of the support image 61 is displayed as in the frame 1. Next, in the frame 3, the support image 61 is displayed. Next, in frame 4, a part of the support image 60 is displayed. Next, in the frame 5, a part of the support image 60 is displayed as in the frame 4. Finally, in frame 6, the support image 60 is displayed above the support image 61. In this way, the support image 61 is displayed first, and then the support image 60 is displayed, so that the occupant passes through the place 80 in the order of passing the other vehicle 31 first and the own vehicle 30 later. You will be able to know that before changing lanes.

また、フレーム1からフレーム6において、支援画像61のほうが、支援画像60より長く表示されることになる。長く表示されるほうが、先に場所80を通過することがイメージされやすいため、乗員は、場所80を通過する順番が、他車両31が先で、自車両30が後であることを車線変更前に知ることができるようになる。 Further, in the frames 1 to 6, the support image 61 is displayed longer than the support image 60. Since it is easier to imagine passing through the place 80 first if it is displayed longer, the occupant tells that the order of passing through the place 80 is that the other vehicle 31 is first and the own vehicle 30 is later. You will be able to know.

なお、動画のサイクルは特に限定されないが、例えば画像合成部19は、図7に示すように動画のサイクルを設定することができる。図7において、時間t1が、図6に示すフレーム1からフレーム3までの時間である。時間t2が、図6に示すフレーム4からフレーム6までの時間である。時間t1と時間t2が経過した後に、支援画像60と支援画像61とが、時間t3の間、同時に表示される。時間t3が経過した後に、支援画像60と支援画像61とが同時に消える。その後、時間t4が経過した後に、再度フレーム1が表示される。このように、画像合成部19は、時間t1から時間t4までを1サイクルとして、動画のサイクルを設定することができる。なお、画像合成部19は、時間t2において、点線で示すように、フレーム4からフレーム6までの表示に要する立ち上がり時間を早めてもよい。 The video cycle is not particularly limited, but for example, the image synthesizing unit 19 can set the video cycle as shown in FIG. 7. In FIG. 7, the time t1 is the time from the frame 1 to the frame 3 shown in FIG. The time t2 is the time from frame 4 to frame 6 shown in FIG. After the time t1 and the time t2 have elapsed, the support image 60 and the support image 61 are displayed at the same time during the time t3. After the time t3 elapses, the support image 60 and the support image 61 disappear at the same time. Then, after the time t4 has elapsed, the frame 1 is displayed again. In this way, the image synthesizing unit 19 can set the cycle of the moving image with the time t1 to the time t4 as one cycle. Note that the image synthesizing unit 19 may shorten the rise time required for displaying the frames 4 to 6 at time t2, as shown by the dotted line.

なお、図7に示すように、支援画像60または支援画像61が表示される時間は、時間t1+時間t2+時間t3となる。支援画像60または支援画像61が表示されない時間は、時間t4となる。支援画像60または支援画像61が表示される時間は、支援画像60または支援画像61が表示されない時間より、長いほうが好ましいが、これに限定されない。支援画像60または支援画像61が表示される時間は、支援画像60または支援画像61が表示されない時間より短くてもよい。また、支援画像60または支援画像61が表示される時間は、支援画像60または支援画像61が表示されない時間と同じでもよい。 As shown in FIG. 7, the time when the support image 60 or the support image 61 is displayed is time t1 + time t2 + time t3. The time when the support image 60 or the support image 61 is not displayed is the time t4. The time during which the support image 60 or the support image 61 is displayed is preferably longer than the time during which the support image 60 or the support image 61 is not displayed, but is not limited thereto. The time during which the support image 60 or the support image 61 is displayed may be shorter than the time during which the support image 60 or the support image 61 is not displayed. Further, the time during which the support image 60 or the support image 61 is displayed may be the same as the time during which the support image 60 or the support image 61 is not displayed.

なお、図6に示す例では、支援画像60及び支援画像61は段階的に表示されたが、これに限定されない。例えば、支援画像60及び支援画像61は、図8に示すように、表示されてもよい。図8に示すように、フレーム2では、支援画像61が他車両31に重なるように表示される。次に、フレーム3では、支援画像61が他車両31の前方に移動して表示される。次に、支援画像60が自車両30に重なるように表示される。次に、フレーム5では、支援画像60が自車両30の前方に移動して表示される。次に、フレーム6では、支援画像60及び支援画像61の濃度や色などがリセットされる。最後に、フレーム7では、画像合成部19は、支援画像60及び支援画像61を同時に消去する。このように、最初に支援画像61が表示され、続いて支援画像60が表示されることにより、乗員は、場所80を通過する順番が、他車両31が先で、自車両30が後であることを車線変更前に知ることができるようになる。また、支援画像61が、支援画像60より長くモニタ5に表示されるため、乗員は、他車両31が優先的に進むことを知ることができる。換言すれば、乗員は、支援画像61の後に表示される支援画像60により、自車両30が他車両31の後ろに車線変更することを車線変更前に知ることができるようになる。 In the example shown in FIG. 6, the support image 60 and the support image 61 are displayed in stages, but the present invention is not limited to this. For example, the support image 60 and the support image 61 may be displayed as shown in FIG. As shown in FIG. 8, in the frame 2, the support image 61 is displayed so as to overlap the other vehicle 31. Next, in the frame 3, the support image 61 is moved to the front of the other vehicle 31 and displayed. Next, the support image 60 is displayed so as to overlap the own vehicle 30. Next, in the frame 5, the support image 60 is moved to the front of the own vehicle 30 and displayed. Next, in the frame 6, the density and color of the support image 60 and the support image 61 are reset. Finally, in the frame 7, the image synthesizing unit 19 simultaneously erases the support image 60 and the support image 61. In this way, the support image 61 is displayed first, and then the support image 60 is displayed, so that the occupant passes through the place 80 in the order of passing the other vehicle 31 first and the own vehicle 30 later. You will be able to know that before changing lanes. Further, since the support image 61 is displayed on the monitor 5 longer than the support image 60, the occupant can know that the other vehicle 31 is preferentially advanced. In other words, the support image 60 displayed after the support image 61 allows the occupant to know that the own vehicle 30 changes lanes behind the other vehicle 31 before changing lanes.

また、画像選択部18は、図9に示すように、支援画像60に影をつけてもよい。この影により、乗員は、場所80を通過する順番が、他車両31が先で、自車両30が後であることを車線変更前に知ることができるようになる。 Further, the image selection unit 18 may add a shadow to the support image 60 as shown in FIG. This shadow allows the occupant to know that the order of passing through the place 80 is that the other vehicle 31 is first and the own vehicle 30 is later before changing lanes.

さらに、図10に示すように、画像合成部19は、他車両31を示すアイコン32を表示してもよい。これにより、乗員は、自車両30が他車両31の後ろに車線変更することを車線変更前に知ることができるようになる。 Further, as shown in FIG. 10, the image synthesizing unit 19 may display an icon 32 indicating another vehicle 31. As a result, the occupant can know that the own vehicle 30 changes lanes behind the other vehicle 31 before changing lanes.

上述した例では、他車両31が先に場所80を通過する場合について説明した。次に、図11〜図13を参照して、自車両30が先に場所80を通過する場合について説明する。 In the above-mentioned example, the case where the other vehicle 31 passes through the place 80 first has been described. Next, a case where the own vehicle 30 passes through the place 80 first will be described with reference to FIGS. 11 to 13.

図11に示すように、画像合成部19は、支援画像61より大きい支援画像60を表示する。さらに、画像合成部19は、支援画像61の前方に支援画像60を表示する。これにより、乗員は、自車両30が他車両31の前に車線変更することを車線変更前に知ることができるようになる。また、画像選択部18は、支援画像61に影をつけてもよい。この影により、乗員は、場所80を通過する順番が、自車両30が先で、他車両31が後であることを車線変更前に知ることができるようになる。 As shown in FIG. 11, the image synthesizing unit 19 displays the support image 60 larger than the support image 61. Further, the image synthesizing unit 19 displays the support image 60 in front of the support image 61. As a result, the occupant can know that the own vehicle 30 changes lanes in front of the other vehicle 31 before changing lanes. Further, the image selection unit 18 may add a shadow to the support image 61. This shadow allows the occupant to know that the order of passing through the place 80 is that the own vehicle 30 comes first and the other vehicle 31 comes later before changing lanes.

また、図12に示すように、画像合成部19は、支援画像61を表示しなくてもよい。これにより、乗員は、自車両30が他車両31の前に車線変更することを車線変更前に知ることができるようになる。 Further, as shown in FIG. 12, the image synthesizing unit 19 does not have to display the support image 61. As a result, the occupant can know that the own vehicle 30 changes lanes in front of the other vehicle 31 before changing lanes.

また、図13に示すように、画像合成部19は、他車両31を強調する支援画像62を表示してもよい。支援画像62は、他車両の輪郭を強調する画像である。この支援画像62により、乗員は、自車両30が他車両31を把握していることを知ることができる。これにより、乗員が車線変更時に感じる違和感は、抑制される。 Further, as shown in FIG. 13, the image synthesizing unit 19 may display the support image 62 that emphasizes the other vehicle 31. The support image 62 is an image that emphasizes the contours of other vehicles. From this support image 62, the occupant can know that the own vehicle 30 is grasping the other vehicle 31. As a result, the discomfort felt by the occupant when changing lanes is suppressed.

次に、図14を参照して、交差点における運転支援表示装置の動作例を説明する。 Next, an operation example of the driving support display device at the intersection will be described with reference to FIG.

図14に示すように、自車両30の自車軌跡は、軌跡42,43,44となる。同様に、他車両33の他車軌跡は、軌跡45,46,47となる。自車軌跡と他車軌跡が交差するパターンは、複数あるが、例えば軌跡42と軌跡46が交差する場合、通過順番計算部16は、どちらが先に交差する場所を通過するのか、その順番を計算する。そして、画像合成部19は、通過する順番を示す支援画像を表示する。これにより、乗員は、どちらが先に交差する場所を通過するのか、前もって知ることができるようになる。 As shown in FIG. 14, the own vehicle locus of the own vehicle 30 is the locus 42, 43, 44. Similarly, the locus of the other vehicle 33 is the locus 45, 46, 47. There are a plurality of patterns in which the locus of the own vehicle and the locus of another vehicle intersect. For example, when the locus 42 and the locus 46 intersect, the passing order calculation unit 16 calculates the order of which one passes the place where the locus intersects first. do. Then, the image synthesizing unit 19 displays a support image indicating the passing order. This allows the occupant to know in advance which one will pass the first intersection.

次に、図15のフローチャートを参照して、運転支援表示装置の一動作例を説明する。 Next, an operation example of the driving support display device will be described with reference to the flowchart of FIG.

ステップS101において、物体検出装置1は、自車両30の周囲を走行する他車両31を検出する。処理はステップS102に進み、自車位置検出装置2は、自車両30の位置を検出する。 In step S101, the object detection device 1 detects another vehicle 31 traveling around the own vehicle 30. The process proceeds to step S102, and the own vehicle position detecting device 2 detects the position of the own vehicle 30.

処理は、ステップS103に進み、軌跡予測部14は、ステップS102で取得された情報などを用いて自車両30が将来走行する軌跡を予測する。処理はステップS104に進み、軌跡予測部14は、ステップS101で取得された情報などを用いて他車両31が将来走行する軌跡を予測する。 The process proceeds to step S103, and the locus prediction unit 14 predicts the locus on which the own vehicle 30 will travel in the future using the information acquired in step S102 and the like. The process proceeds to step S104, and the locus prediction unit 14 predicts the locus on which the other vehicle 31 will travel in the future using the information acquired in step S101 and the like.

処理はステップS105に進み、交差判定部15は、ステップS103及びステップS104で予測された自車軌跡と他車軌跡とが交差するか否かを判定する。自車軌跡と他車軌跡とが交差する場合(ステップS105でYes)、処理はステップS106に進む。自車軌跡と他車軌跡とが交差しない場合、一連の処理は終了する。 The process proceeds to step S105, and the intersection determination unit 15 determines whether or not the own vehicle locus predicted in steps S103 and S104 intersects with the other vehicle locus. When the locus of the own vehicle and the locus of another vehicle intersect (Yes in step S105), the process proceeds to step S106. If the locus of the own vehicle and the locus of another vehicle do not intersect, the series of processes ends.

ステップS106において、交差判定部15は、自車軌跡と他車軌跡とが交差する場所を設定する。処理はステップS107に進み、通過順番計算部16は、ステップS106で設定された交差する場所を、自車両30と他車両31のどちらが先に通過するのか、その順番を計算する。 In step S106, the intersection determination unit 15 sets a place where the own vehicle locus and the other vehicle locus intersect. The process proceeds to step S107, and the passing order calculation unit 16 calculates the order in which the own vehicle 30 or the other vehicle 31 passes through the intersecting place set in step S106 first.

自車両30が先に通過する場合(ステップS108でYes)、処理はステップS109に進み、画像選択部18は、自車両30が先に通過することを示す支援画像60を選択する。一方、他車両31が先に通過する場合(ステップS108でNo)、処理はステップS110に進み、画像選択部18は、他車両31が先に通過することを示す支援画像61を選択する。 When the own vehicle 30 passes first (Yes in step S108), the process proceeds to step S109, and the image selection unit 18 selects the support image 60 indicating that the own vehicle 30 passes first. On the other hand, when the other vehicle 31 passes first (No in step S108), the process proceeds to step S110, and the image selection unit 18 selects the support image 61 indicating that the other vehicle 31 passes first.

処理はステップS111に進み、画像合成部19は、ステップS109またはステップS110で選択された画像を周囲画像に合成する。処理はステップS112に進み、画像合成部19は、合成した画像をモニタ5に出力する。 The process proceeds to step S111, and the image synthesizing unit 19 synthesizes the image selected in step S109 or step S110 with the surrounding image. The process proceeds to step S112, and the image synthesizing unit 19 outputs the combined image to the monitor 5.

自車両30が交差する場所を通過した場合(ステップS113でYes)、処理はステップS114に進み、画像合成部19は、支援画像60,61を消去する。一方、自車両30が交差する場所を通過していない場合(ステップS113でNo、処理はステップS111に戻る。 When the own vehicle 30 passes through the intersection (Yes in step S113), the process proceeds to step S114, and the image synthesizing unit 19 erases the support images 60 and 61. On the other hand, when the own vehicle 30 has not passed the intersection (No in step S113, the process returns to step S111.

[作用効果]
以上説明したように、第1実施形態に係る運転支援表示装置によれば、以下の作用効果が得られる。
[Action effect]
As described above, according to the driving support display device according to the first embodiment, the following effects can be obtained.

第1実施形態に係る運転支援表示装置は、自車両30の周囲を走行する他車両31を検出する。運転支援表示装置は、自車両30が将来走行する自車軌跡と、他車両31が将来走行する他車軌跡とを予測する。自車軌跡と、他車軌跡とが交差する場合、運転支援表示装置は、自車両30及び他車両31が自車軌跡と他車軌跡とが交差する場所を通過する順番を自車両30の車室内に搭載されたモニタ5に表示する。これにより、乗員は、自車両30と他車両31のうち、どちらの車両が先に交差する場所を通過するのか、その順番を把握することができるようになる。このように運転支援表示装置は、乗員が感じる違和感を抑制できる。特に、自動運転で走行している乗員にとって、車線変更する場合に、車線変更で他車線に合流する位置や車線変更する事を示すだけでは、乗員が不安に感じることがある。つまり、合流する位置や車線変更する事だけを示されたとしても、他車両より先に行くのか、他車両の後に行くのか、乗員は理解できず、自動運転への不安につながる。そこで、車線変更の制御内容の中でも、通過する順番を優先して表示することで、乗員の安心感につながる。また、車線変更の自動運転制御を実行できる場合は、通過する順番を優先して表示し、車線変更の自動運転制御を実行できない場合は、隣接車線内の車線変更する位置を表示するようにしてもよい。これにより、乗員の乗車状況に合わせて適切な情報を提供することができるようになり、乗員に与える違和感を抑制することができるようになる。なお、車線変更の自動運転制御を実行可能かどうかは、高精度地図の有無や、周囲車両の数、状況で判断するようにしてもよい。高精度地図がある場合、周囲車両の数が少ない場合、高速道路を走行している場合、に車線変更の自動運転制御を実行可能と判定するようにしてもよい。 The driving support display device according to the first embodiment detects another vehicle 31 traveling around the own vehicle 30. The driving support display device predicts the locus of the own vehicle on which the own vehicle 30 will travel in the future and the locus of the other vehicle on which the other vehicle 31 will travel in the future. When the own vehicle locus and the other vehicle locus intersect, the driving support display device sets the order in which the own vehicle 30 and the other vehicle 31 pass through the place where the own vehicle locus and the other vehicle locus intersect. It is displayed on the monitor 5 mounted in the room. As a result, the occupant can grasp the order of which of the own vehicle 30 and the other vehicle 31 passes through the place where the vehicle first intersects. In this way, the driving support display device can suppress the discomfort felt by the occupants. In particular, for an occupant traveling in automatic driving, when changing lanes, the occupant may feel uneasy simply by indicating that the lane is changed to join another lane or the lane is changed. In other words, even if only the merging position or lane change is shown, the occupants cannot understand whether to go ahead of other vehicles or after other vehicles, leading to anxiety about autonomous driving. Therefore, even in the control contents of lane change, by giving priority to the order of passing, it leads to a sense of security for the occupants. In addition, if automatic driving control for changing lanes can be executed, the order of passage is prioritized and displayed, and if automatic driving control for changing lanes cannot be executed, the position for changing lanes in the adjacent lane is displayed. May be good. As a result, it becomes possible to provide appropriate information according to the occupant's riding situation, and it becomes possible to suppress the discomfort given to the occupant. Whether or not automatic driving control for changing lanes can be executed may be determined based on the presence or absence of a high-precision map, the number of surrounding vehicles, and the situation. If there is a high-precision map, the number of surrounding vehicles is small, or the vehicle is traveling on a highway, it may be determined that automatic driving control for changing lanes can be executed.

また、図2に示すように自車両30が隣接車線へ車線変更するシーンにおいて、自車軌跡と隣接車線を走行する他車両31の他車軌跡とが交差する場合、運転支援表示装置は、他車両31の後ろに、自車両30が車線変更するか否か判定する。運転支援表示装置は、他車両31の後ろに、自車両30が車線変更すると判定した場合、交差する場所を通過する順番として、自車両30が他車両31の後ろに車線変更することをモニタ5に表示する。これにより、乗員は、交差する場所を通過する順番が、他車両31が先で、自車両30が後であることを車線変更前に知ることができるようになる。このように運転支援表示装置は、乗員が感じる違和感を抑制できる。 Further, in the scene where the own vehicle 30 changes lanes to the adjacent lane as shown in FIG. 2, when the own vehicle locus and the other vehicle locus of the other vehicle 31 traveling in the adjacent lane intersect, the driving support display device is different. Behind the vehicle 31, it is determined whether or not the own vehicle 30 changes lanes. When the driving support display device determines that the own vehicle 30 changes lanes behind the other vehicle 31, the monitor 5 monitors that the own vehicle 30 changes lanes behind the other vehicle 31 in the order of passing through the intersecting places. Display on. As a result, the occupant can know that the other vehicle 31 is first and the own vehicle 30 is later in the order of passing through the intersecting place before changing lanes. In this way, the driving support display device can suppress the discomfort felt by the occupants.

また、他車両31が自車両30の後方を走行する場合に、運転支援表示装置は、自車両30が他車両31の後ろに車線変更することをモニタ5に表示してもよい。これにより、乗員は、自車両30が他車両31の後ろに車線変更することを車線変更前に知ることができるようになる。 Further, when the other vehicle 31 travels behind the own vehicle 30, the driving support display device may display on the monitor 5 that the own vehicle 30 changes lanes behind the other vehicle 31. As a result, the occupant can know that the own vehicle 30 changes lanes behind the other vehicle 31 before changing lanes.

また、運転支援表示装置は、交差する場所を通過する順番が早いほど、強調した表示形態で順番をモニタ5に表示してもよい。例えば、運転支援表示装置は、図3に示す支援画像61を赤色で示し、支援画像60を青色で示してもよい。また、運転支援表示装置は、図3に示す支援画像61の濃度を濃くし、支援画像60の濃度を薄くしてもよい。このように運転支援表示装置は、通過する順番が早い他車両31を示す支援画像61を強調することにより、乗員は、通過する順番を車線変更前に知ることができるようになる。 Further, the driving support display device may display the order on the monitor 5 in an emphasized display form as the order of passing through the intersecting places is earlier. For example, the driving support display device may show the support image 61 shown in FIG. 3 in red and the support image 60 in blue. Further, the driving support display device may increase the density of the support image 61 shown in FIG. 3 and decrease the density of the support image 60. In this way, the driving support display device emphasizes the support image 61 showing the other vehicle 31 that passes earlier, so that the occupant can know the order of passing before changing lanes.

また、運転支援表示装置は、自車両30が他車両31の後ろに車線変更することの表示として、自車両30が将来走行する軌跡をモニタ5に表示してもよい。これにより、乗員は、自車両30が他車両31の後ろに車線変更することを車線変更前に知ることができるようになる。 Further, the driving support display device may display the trajectory of the own vehicle 30 in the future on the monitor 5 as an indication that the own vehicle 30 changes lanes behind the other vehicle 31. As a result, the occupant can know that the own vehicle 30 changes lanes behind the other vehicle 31 before changing lanes.

また、運転支援表示装置は、図6に示すように、他車両31が将来走行する軌跡をモニタ5に表示した後、自車両30が他車両31の後ろに車線変更することをモニタ5に表示してもよい。これにより、乗員は、自車両30が他車両31の後ろに車線変更することを車線変更前に知ることができるようになる。 Further, as shown in FIG. 6, the driving support display device displays on the monitor 5 the trajectory on which the other vehicle 31 will travel in the future, and then displays on the monitor 5 that the own vehicle 30 changes lanes behind the other vehicle 31. You may. As a result, the occupant can know that the own vehicle 30 changes lanes behind the other vehicle 31 before changing lanes.

また、運転支援表示装置は、図8に示すように、自車両30が他車両31の後ろに車線変更することをモニタ5に表示した後に、他車両31が将来走行する軌跡と、自車両30が他車両31の後ろに車線変更することの表示とを、同時にモニタ5から消去してもよい。このように、最初に支援画像61が表示され、続いて支援画像60が表示されることにより、乗員は、通過する順番が、他車両31が先で、自車両30が後であることを車線変更前に知ることができるようになる。また、支援画像61が、支援画像60より長くモニタ5に表示されるため、乗員は、他車両31が優先的に進むことを知ることができる。換言すれば、乗員は、支援画像61の後に表示される支援画像60により、自車両30が他車両31の後ろに車線変更することを車線変更前に知ることができるようになる。 Further, as shown in FIG. 8, the driving support display device displays on the monitor 5 that the own vehicle 30 changes lanes behind the other vehicle 31, and then the trajectory on which the other vehicle 31 will travel in the future and the own vehicle 30. The display of changing lanes behind the other vehicle 31 may be erased from the monitor 5 at the same time. In this way, the support image 61 is displayed first, and then the support image 60 is displayed, so that the occupant can know that the other vehicle 31 is first and the own vehicle 30 is later in the passing order. You will be able to know before the change. Further, since the support image 61 is displayed on the monitor 5 longer than the support image 60, the occupant can know that the other vehicle 31 is preferentially advanced. In other words, the support image 60 displayed after the support image 61 allows the occupant to know that the own vehicle 30 changes lanes behind the other vehicle 31 before changing lanes.

[第2の実施形態]
[運転支援表示装置の構成]
次に、図16を参照して、第2実施形態に係る運転支援表示装置について説明する。第2実施形態が第1実施形態と異なるのは、第2実施形態が目標交差場所決定部20を備えることである。第1実施形態と重複する構成については符号を引用してその説明は省略する。以下、相違点を中心に説明する。
[Second Embodiment]
[Driving support display device configuration]
Next, the driving support display device according to the second embodiment will be described with reference to FIG. The second embodiment is different from the first embodiment in that the second embodiment includes the target intersection location determination unit 20. Reference numerals will be given to reference to the configuration overlapping with the first embodiment, and the description thereof will be omitted. Hereinafter, the differences will be mainly described.

目標交差場所決定部20は、自車軌跡と他車軌跡とが交差する場所が複数ある場合において、目標交差場所を決定する。具体的には、図17を参照して説明する。図17に示すように、自車両30の走行車線に隣接する隣接車線には、複数の他車両34〜37が存在している。図17において、自車両30の自車軌跡70は、他車両35の他車軌跡73と場所82において交差する。また、自車両30の自車軌跡71は、他車両36の他車軌跡74と場所81において交差する。 The target intersection location determination unit 20 determines the target intersection location when there are a plurality of locations where the own vehicle locus and the other vehicle locus intersect. Specifically, it will be described with reference to FIG. As shown in FIG. 17, a plurality of other vehicles 34 to 37 exist in the adjacent lane adjacent to the traveling lane of the own vehicle 30. In FIG. 17, the own vehicle locus 70 of the own vehicle 30 intersects with the other vehicle locus 73 of the other vehicle 35 at the place 82. Further, the own vehicle locus 71 of the own vehicle 30 intersects with the other vehicle locus 74 of the other vehicle 36 at the place 81.

図17に示すように、複数の交差する場所81,82がある場合、目標交差場所決定部20は、複数の交差する場所81,82のうち、車線変更において好ましい場所を決定する。図17に示す例では、他車両36と他車両37との車間距離は、他車両35と他車両36との車間距離より大きい。そのため、他車両36と他車両37と間に車線変更するほうが、他車両35と他車両36との間に車線変更するより好ましい。そこで、目標交差場所決定部20は、場所81を目標交差場所として決定する。 As shown in FIG. 17, when there are a plurality of intersecting locations 81 and 82, the target intersection location determining unit 20 determines a preferred location for changing lanes among the plurality of intersecting locations 81 and 82. In the example shown in FIG. 17, the inter-vehicle distance between the other vehicle 36 and the other vehicle 37 is larger than the inter-vehicle distance between the other vehicle 35 and the other vehicle 36. Therefore, it is preferable to change lanes between the other vehicle 36 and the other vehicle 37 rather than changing the lane between the other vehicle 35 and the other vehicle 36. Therefore, the target intersection location determination unit 20 determines the location 81 as the target intersection location.

次に、通過順番計算部16は、自車両30が他車両36より先に場所81を通過すると計算する。次に、画像選択部18は、通過順番計算部16によって計算された順番を示す画像を選択する。そして、画像合成部19は、画像選択部18によって選択された画像を周囲画像に合成する。これにより、乗員は、場所81を通過する順番が、自車両30が先で、他車両36が後であることを車線変更前に知ることができるようになる。 Next, the passing order calculation unit 16 calculates that the own vehicle 30 passes through the place 81 before the other vehicle 36. Next, the image selection unit 18 selects an image indicating the order calculated by the passage order calculation unit 16. Then, the image synthesizing unit 19 synthesizes the image selected by the image selection unit 18 with the surrounding image. As a result, the occupant can know that the order of passing through the place 81 is that the own vehicle 30 comes first and the other vehicle 36 comes later before changing lanes.

[その他の実施形態]
上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
[Other Embodiments]
Although embodiments of the invention have been described above, the statements and drawings that form part of this disclosure should not be understood to limit the invention. Various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art from this disclosure.

例えば、図18A及び18Bに示すように、画像合成部19は、支援画像60及び支援画像61を表示し、かつ、交差する場所を通過する順番を示す支援画像63及び支援画像64を表示してもよい。支援画像63及び支援画像64は、視覚的に順番を認識可能な画像であるため、乗員は、交差する場所を通過する順番が、他車両31が先で、自車両30が後であることを車線変更前に知ることができるようになる。 For example, as shown in FIGS. 18A and 18B, the image synthesizing unit 19 displays the support image 60 and the support image 61, and displays the support image 63 and the support image 64 indicating the order of passing through the intersecting places. May be good. Since the support image 63 and the support image 64 are images whose order can be visually recognized, the occupant indicates that the order of passing through the intersecting place is that the other vehicle 31 is first and the own vehicle 30 is later. You will be able to know before changing lanes.

本実施形態に係る運転支援表示装置は、車線変更や交差点だけでなく、合流地点においても適用することができる。 The driving support display device according to the present embodiment can be applied not only at lane changes and intersections, but also at confluences.

1 物体検出装置
2 自車位置検出装置
3 地図取得装置
4 センサ群
5 モニタ
10 コントローラ
11 周囲画像生成部
12 他車行動予測部
13 自車行動決定部
14 軌跡予測部
15 交差判定部
16 通過順番計算部
17 表示決定部
18 画像選択部
19 画像合成部
20 目標交差場所決定部
1 Object detection device 2 Own vehicle position detection device 3 Map acquisition device 4 Sensor group 5 Monitor 10 Controller 11 Surrounding image generation unit 12 Other vehicle behavior prediction unit 13 Own vehicle behavior determination unit 14 Trajectory prediction unit 15 Crossing judgment unit 16 Passing order calculation Unit 17 Display determination unit 18 Image selection unit 19 Image composition unit 20 Target intersection location determination unit

Claims (6)

自車両の周囲を走行する他車両を検出し、
前記自車両が将来走行する自車軌跡と、前記他車両が将来走行する他車軌跡とを予測し、
前記自車軌跡と、前記他車軌跡とが交差する場合、前記自車両及び前記他車両が前記自車軌跡と前記他車軌跡とが交差する場所を通過する順番を前記自車両の車室内に搭載されたモニタに表示することを含み、
前記他車両は、前記自車両の走行車線に隣接する隣接車線を走行する隣接車両であり、
前記隣接車線へ車線変更する前記自車軌跡と前記隣接車線を走行する前記他車軌跡とが交差する場合、前記隣接車両の後ろに、前記自車両が車線変更するか否か判定し、
前記隣接車両の後ろに前記自車両が車線変更すると判定した場合、前記順番として、前記隣接車両が将来走行する軌跡を前記モニタに表示した後、前記自車両が前記隣接車両の後ろに車線変更することを前記モニタに表示する
ことを特徴とする運転支援表示方法。
Detects other vehicles running around your vehicle and
Predicting the locus of the own vehicle on which the own vehicle will travel in the future and the locus of the other vehicle on which the other vehicle will travel in the future,
When the own vehicle locus and the other vehicle locus intersect, the order in which the own vehicle and the other vehicle pass through the place where the own vehicle locus and the other vehicle locus intersect is in the passenger compartment of the own vehicle. Including displaying on the on-board monitor
The other vehicle is an adjacent vehicle traveling in an adjacent lane adjacent to the traveling lane of the own vehicle.
When the locus of the own vehicle that changes lanes to the adjacent lane intersects with the locus of another vehicle traveling in the adjacent lane, it is determined whether or not the own vehicle changes lanes behind the adjacent vehicle.
When it is determined that the own vehicle changes lanes behind the adjacent vehicle, the own vehicle changes lanes behind the adjacent vehicle after displaying the trajectory on which the adjacent vehicle will travel in the future on the monitor in the above order. A driving support display method, characterized in that the fact is displayed on the monitor.
前記隣接車両が前記自車両の後方を走行する場合に、前記自車両が前記隣接車両の後ろに車線変更することを前記モニタに表示することを特徴とする請求項に記載の運転支援表示方法。 The driving support display method according to claim 1 , wherein when the adjacent vehicle travels behind the own vehicle, the monitor displays that the own vehicle changes lanes behind the adjacent vehicle. .. 前記順番が早いほど、強調した表示形態で前記順番を前記モニタに表示することを特徴とする請求項またはに記載の運転支援表示方法。 The driving support display method according to claim 1 or 2 , wherein the earlier the order is, the more the order is displayed on the monitor in a emphasized display form. 前記自車両が前記隣接車両の後ろに車線変更することの表示として、前記自車両が将来走行する軌跡を前記モニタに表示することを特徴とする請求項乃至の何れか一項に記載の運転支援表示方法。 The invention according to any one of claims 1 to 3 , wherein the monitor displays the trajectory on which the own vehicle will travel in the future as an indication that the own vehicle changes lanes behind the adjacent vehicle. Driving support display method. 前記自車両が前記隣接車両の後ろに車線変更することを前記モニタに表示した後に、前記隣接車両が将来走行する軌跡と、前記自車両が前記隣接車両の後ろに車線変更することの表示とを、同時に前記モニタから消去することを特徴とする請求項に記載の運転支援表示方法。 After displaying on the monitor that the own vehicle changes lanes behind the adjacent vehicle, a locus on which the adjacent vehicle will travel in the future and an indication that the own vehicle changes lanes behind the adjacent vehicle are displayed. The driving support display method according to claim 1 , wherein the vehicle is erased from the monitor at the same time. 自車両の周囲を走行する他車両を検出する物体検出装置と、
前記自車両が将来走行する自車軌跡と、前記物体検出装置によって検出された前記他車両が将来走行する他車軌跡とを予測する軌跡予測部と、
前記自車両が将来走行する自車軌跡と、前記他車両が将来走行する他車軌跡とが交差する場合、前記自車両及び前記他車両が前記交差する場所を通過する順番を計算する通過順番計算部と、
前記通過する順番を前記自車両の車室内に表示するモニタと
コントローラと、を備え
前記他車両は、前記自車両の走行車線に隣接する隣接車線を走行する隣接車両であり、
前記コントローラは、
前記隣接車線へ車線変更する前記自車軌跡と前記隣接車線を走行する前記他車軌跡とが交差する場合、前記隣接車両の後ろに、前記自車両が車線変更するか否か判定し、
前記隣接車両の後ろに前記自車両が車線変更すると判定した場合、前記順番として、前記隣接車両が将来走行する軌跡を前記モニタに表示した後、前記自車両が前記隣接車両の後ろに車線変更することを前記モニタに表示する
ことを特徴とする運転支援表示装置。
An object detection device that detects other vehicles traveling around the own vehicle,
And the own vehicle and the vehicle trajectory running future locus prediction unit the other vehicle detected by said object detection device to predict the other vehicle trajectory running in the future,
Wherein the vehicle trajectory which the vehicle is traveling in the future, the case where another vehicle is crossing with another vehicle trajectory traveling future ordinal calculations the vehicle and the other vehicle calculates the order of passing through the location of the intersection Department and
A monitor for displaying an order to the passage to the passenger compartment of the vehicle,
With a controller ,
The other vehicle is an adjacent vehicle traveling in an adjacent lane adjacent to the traveling lane of the own vehicle.
The controller
When the locus of the own vehicle that changes lanes to the adjacent lane intersects with the locus of another vehicle traveling in the adjacent lane, it is determined whether or not the own vehicle changes lanes behind the adjacent vehicle.
When it is determined that the own vehicle changes lanes behind the adjacent vehicle, the own vehicle changes lanes behind the adjacent vehicle after displaying the trajectory on which the adjacent vehicle will travel in the future on the monitor in the above order. A driving support display device characterized in that the fact is displayed on the monitor.
JP2017175613A 2017-09-13 2017-09-13 Driving support display method and driving support display device Active JP6910254B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017175613A JP6910254B2 (en) 2017-09-13 2017-09-13 Driving support display method and driving support display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017175613A JP6910254B2 (en) 2017-09-13 2017-09-13 Driving support display method and driving support display device

Publications (2)

Publication Number Publication Date
JP2019053388A JP2019053388A (en) 2019-04-04
JP6910254B2 true JP6910254B2 (en) 2021-07-28

Family

ID=66015056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017175613A Active JP6910254B2 (en) 2017-09-13 2017-09-13 Driving support display method and driving support display device

Country Status (1)

Country Link
JP (1) JP6910254B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11679782B2 (en) * 2021-01-26 2023-06-20 Honda Research Institute Europe Gmbh Method, system and vehicle for assisting an operator of the vehicle in assessing a traffic situation with shared traffic space
JP7427700B2 (en) 2022-03-25 2024-02-05 本田技研工業株式会社 Control device and control method
JP2024035974A (en) * 2022-09-05 2024-03-15 日立Astemo株式会社 Vehicle control device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4192753B2 (en) * 2003-10-21 2008-12-10 日産自動車株式会社 Vehicle display device
JP2007333502A (en) * 2006-06-14 2007-12-27 Nissan Motor Co Ltd Merging support device, and merging support method
JP2008070998A (en) * 2006-09-13 2008-03-27 Hitachi Ltd Vehicle surroundings information display unit

Also Published As

Publication number Publication date
JP2019053388A (en) 2019-04-04

Similar Documents

Publication Publication Date Title
JP7032170B2 (en) Vehicle control device
JP7048398B2 (en) Vehicle control devices, vehicle control methods, and programs
JP7086798B2 (en) Vehicle control devices, vehicle control methods, and programs
JP6825709B2 (en) Surrounding vehicle display method and surrounding vehicle display device
JP6966489B2 (en) Vehicle control systems, vehicle control methods, and programs
JP6693447B2 (en) Travel control device
JP6666883B2 (en) Driving support device
WO2018105061A1 (en) Control device and control method
JP6929177B2 (en) Driving support display method and driving support display device
JPWO2019043847A1 (en) Travel control device, vehicle, and travel control method
JP7152339B2 (en) Travel control device, travel control method, and program
JP7256668B2 (en) Control device, control method and program
JP6910254B2 (en) Driving support display method and driving support display device
WO2019038904A1 (en) Surrounding vehicle display method and surrounding vehicle display apparatus
JP7379033B2 (en) Driving support method and driving support device
US10948303B2 (en) Vehicle control device
US20230373309A1 (en) Display control device
JP6962996B2 (en) Driving support system and its control method
JP6747019B2 (en) Vehicle display method and vehicle display device
JP2019156295A (en) Travel controller, vehicle and travel control method
JP7311295B2 (en) Control device, control method and program
JP7469167B2 (en) Control device, control method, and vehicle
JP7302311B2 (en) Vehicle display control device, vehicle display control method, vehicle display control program
JP2021143908A (en) Vehicle controller, vehicle, method for controlling vehicle, and program
US20220396285A1 (en) Vehicle display device, display method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210706

R150 Certificate of patent or registration of utility model

Ref document number: 6910254

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150