JP2017182543A - Drive support method and drive support apparatus - Google Patents

Drive support method and drive support apparatus Download PDF

Info

Publication number
JP2017182543A
JP2017182543A JP2016070378A JP2016070378A JP2017182543A JP 2017182543 A JP2017182543 A JP 2017182543A JP 2016070378 A JP2016070378 A JP 2016070378A JP 2016070378 A JP2016070378 A JP 2016070378A JP 2017182543 A JP2017182543 A JP 2017182543A
Authority
JP
Japan
Prior art keywords
vehicle
image
superimposing
virtual image
host vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016070378A
Other languages
Japanese (ja)
Other versions
JP6756135B2 (en
Inventor
草柳 佳紀
Yoshinori Kusayanagi
佳紀 草柳
則政 岸
Norimasa Kishi
則政 岸
吉郎 高松
Yoshiro Takamatsu
吉郎 高松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2016070378A priority Critical patent/JP6756135B2/en
Publication of JP2017182543A publication Critical patent/JP2017182543A/en
Application granted granted Critical
Publication of JP6756135B2 publication Critical patent/JP6756135B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a drive support method and a drive support apparatus, which enable an intuitive grasp of the positional relation between an own vehicle and a following vehicle.SOLUTION: In a drive support method using a drive support apparatus that includes an imaging element for obtaining rearward information of an own vehicle M1 through imaging, a controller for generating a rearward image from the rearward information, and left and right door mirror monitors 40, 50 for displaying the rearward image, virtual images P1 and P2 indicating a position of the own vehicle M1 and that of a following vehicle M2 are overlapped between the own vehicle M1 and the following vehicle M2.SELECTED DRAWING: Figure 2

Description

本発明は、運転支援方法及び運転支援装置に関する。   The present invention relates to a driving support method and a driving support device.

従来より、自車両と後続車両の位置関係を乗員に通知する技術が知られている。例えば、特許文献1では、自車後方を撮影した画像上に所定間隔で並ぶアイコンを重畳し、合成した画像をモニタに表示している。   Conventionally, a technique for notifying an occupant of the positional relationship between the host vehicle and the following vehicle is known. For example, in Patent Document 1, icons arranged at predetermined intervals are superimposed on an image obtained by photographing the rear of the host vehicle, and a synthesized image is displayed on a monitor.

特開2009−29203号公報JP 2009-29203 A

しかしながら、特許文献1では、自車両と後続車両の位置関係を、アイコンを基準として把握する必要があり、乗員が自車両と後続車両の位置関係を直感的に把握することが難しかった。   However, in Patent Document 1, it is necessary to grasp the positional relationship between the host vehicle and the following vehicle on the basis of an icon, and it is difficult for an occupant to intuitively grasp the positional relationship between the host vehicle and the following vehicle.

本発明は、上記問題に鑑みて成されたものであり、その目的は、自車両と後続車両の位置関係を直感的に把握することができる運転支援方法及び運転支援装置を提供することである。   The present invention has been made in view of the above problems, and an object thereof is to provide a driving support method and a driving support device capable of intuitively grasping the positional relationship between the host vehicle and the following vehicle. .

本発明の一態様に係る運転支援方法は、自車両の後方情報を取得し、取得した後方情報より後方画像を生成し、生成した後方画像上の自車両と後続車両との間に、自車両と後続車両の位置を示す仮想画像を重畳し、合成した画像をモニタに表示する。   The driving support method according to an aspect of the present invention acquires rear information of the host vehicle, generates a rear image from the acquired rear information, and between the host vehicle and the following vehicle on the generated rear image. And a virtual image indicating the position of the following vehicle are superimposed and the synthesized image is displayed on the monitor.

本発明によれば、自車両と後続車両との位置関係を直感的に把握することができる。   According to the present invention, it is possible to intuitively grasp the positional relationship between the host vehicle and the following vehicle.

図1は、本発明の実施形態に係る運転支援装置の構成図である。FIG. 1 is a configuration diagram of a driving support apparatus according to an embodiment of the present invention. 図2は、本発明の実施形態に係る運転支援装置がモニタに表示する画像を説明する図である。FIG. 2 is a diagram illustrating an image displayed on the monitor by the driving support apparatus according to the embodiment of the present invention. 図3は、本発明の実施形態に係る運転支援装置の動作例を説明するフローチャートである。FIG. 3 is a flowchart for explaining an operation example of the driving support apparatus according to the embodiment of the present invention. 図4(a)、(b)、(c)は、本発明の実施形態に係る運転支援装置がモニタに表示する他の画像を説明する図である。FIGS. 4A, 4 </ b> B, and 4 </ b> C are diagrams for explaining other images displayed on the monitor by the driving assistance apparatus according to the embodiment of the present invention. 図5は、本発明の実施形態に係る運転支援装置がモニタに表示するさらに他の画像を説明する図である。FIG. 5 is a diagram illustrating still another image displayed on the monitor by the driving support apparatus according to the embodiment of the present invention.

以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same portions are denoted by the same reference numerals, and description thereof is omitted.

図1を参照して本実施形態に係る運転支援装置1について説明する。図1に示すように、運転支援装置1は、右カメラ10と、左カメラ20と、画像処理回路30と、右ドアミラーモニタ40と、左ドアミラーモニタ50とを備える。   A driving assistance apparatus 1 according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the driving support device 1 includes a right camera 10, a left camera 20, an image processing circuit 30, a right door mirror monitor 40, and a left door mirror monitor 50.

右カメラ10は、自車右側の右ドアミラー設置位置の近傍に配置される。左カメラ20は、自車左側の左ドアミラー設置位置の近傍に配置される。右ドアミラー設置位置とは、自車後方の路面を含む後方を鏡に映し出す従来の自車右側のドアミラーの設置位置である。左ドアミラー設置位置も同様に、従来の自車左側のドアミラーの設置位置である。   The right camera 10 is disposed in the vicinity of the right door mirror installation position on the right side of the host vehicle. The left camera 20 is disposed in the vicinity of the left door mirror installation position on the left side of the host vehicle. The right door mirror installation position is an installation position of a conventional door mirror on the right side of the vehicle that projects the rear including the road surface behind the vehicle in a mirror. Similarly, the left door mirror installation position is the installation position of the conventional door mirror on the left side of the vehicle.

右カメラ10及び左カメラ20は、CCD(charge−coupled device)やCMOS(complementary metal oxide semiconductor)などの撮像素子を有したカメラである。右カメラ10及び左カメラ20は、それぞれ自車両の右後方、左後方を撮像することにより後方情報を取得し、取得した後方情報に関する電気信号を画像処理回路30に出力する。   The right camera 10 and the left camera 20 are cameras having an image sensor such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). The right camera 10 and the left camera 20 respectively acquire the rear information by imaging the right rear and the left rear of the host vehicle, and output an electrical signal related to the acquired rear information to the image processing circuit 30.

画像処理回路30(コントローラ、制御部)は、右カメラ10及び左カメラ20から入力される電気信号を処理する回路であり、例えばIC、LSI等により構成される。画像処理回路30は、これを機能的に捉えた場合、ミラー画像生成部31と、後続車両検出部32と、記憶部33と、合成部34とに分類することができる。   The image processing circuit 30 (controller, control unit) is a circuit that processes electrical signals input from the right camera 10 and the left camera 20, and is configured by, for example, an IC, an LSI, or the like. The image processing circuit 30 can classify the image processing circuit 30 into a mirror image generation unit 31, a subsequent vehicle detection unit 32, a storage unit 33, and a synthesis unit 34 when functionally grasping this.

ミラー画像生成部31(生成回路)は、右カメラ10及び左カメラ20から入力される電気信号から右ドアミラーモニタ40及び左ドアミラーモニタ50に表示するミラー画像(後方画像)を生成する。ミラー画像生成部31は、生成したミラー画像を後続車両検出部32に出力する。   The mirror image generation unit 31 (generation circuit) generates a mirror image (rear image) to be displayed on the right door mirror monitor 40 and the left door mirror monitor 50 from electric signals input from the right camera 10 and the left camera 20. The mirror image generation unit 31 outputs the generated mirror image to the subsequent vehicle detection unit 32.

後続車両検出部32は、ミラー画像生成部31によって生成されたミラー画像を用いて、自車後方に存在する後続車両を検出する。後続車両の検出方法については、車両の特徴を探索するパターンマッチングなどの周知の方法を用いることができる。後続車両検出部32は、検出結果を合成部34に出力する。また、後続車両検出部32は、ミラー画像に複数の後続車両が写っている場合には、それら複数の後続車両を検出する。   The following vehicle detection unit 32 uses the mirror image generated by the mirror image generation unit 31 to detect the following vehicle existing behind the host vehicle. As a method for detecting the following vehicle, a known method such as pattern matching for searching for a feature of the vehicle can be used. The subsequent vehicle detection unit 32 outputs the detection result to the synthesis unit 34. Further, when a plurality of subsequent vehicles are reflected in the mirror image, the subsequent vehicle detection unit 32 detects the plurality of subsequent vehicles.

記憶部33には、ミラー画像に重畳するための仮想画像が各種記憶されている。   The storage unit 33 stores various virtual images to be superimposed on the mirror image.

合成部34は、記憶部33に記憶されている仮想画像をミラー画像に重畳する。より詳しくは、合成部34は、自車両及び後続車両の位置を示す仮想画像をミラー画像に重畳する。そして、合成部34は、合成した画像を右ドアミラーモニタ40及び左ドアミラーモニタ50に出力する。   The composition unit 34 superimposes the virtual image stored in the storage unit 33 on the mirror image. More specifically, the composition unit 34 superimposes a virtual image indicating the positions of the host vehicle and the following vehicle on the mirror image. Then, the combining unit 34 outputs the combined image to the right door mirror monitor 40 and the left door mirror monitor 50.

右ドアミラーモニタ40及び左ドアミラーモニタ50は、自車右側の右ドアミラー設置位置、及び自車左側の左ドアミラー設置位置に配置される。右ドアミラーモニタ40及び左ドアミラーモニタ50は、例えば、防水加工を施した液晶ディスプレイ等を採用できる。なお、右ドアミラーモニタ40及び左ドアミラーモニタ50の形状は、従来のドアミラーと同様にラウンドした曲面形状としてもよく、市販モニタと同様に四角形状としてもよい。   The right door mirror monitor 40 and the left door mirror monitor 50 are disposed at the right door mirror installation position on the right side of the host vehicle and the left door mirror installation position on the left side of the host vehicle. As the right door mirror monitor 40 and the left door mirror monitor 50, for example, a waterproof liquid crystal display or the like can be adopted. The shapes of the right door mirror monitor 40 and the left door mirror monitor 50 may be a rounded curved surface shape similar to a conventional door mirror, or may be a quadrangular shape similar to a commercially available monitor.

次に、図2を参照して運転支援装置1が右ドアミラーモニタ40に表示するミラー画像の一例を説明する。   Next, an example of a mirror image displayed on the right door mirror monitor 40 by the driving support device 1 will be described with reference to FIG.

図2に示すように、合成部34は、自車両M1の位置を示す仮想画像P1(第1仮想画像)と、自車両M1から見て右側を走行する後続車両M2の位置を示す仮想画像P2(第2仮想画像)をミラー画像上の自車両M1と後続車両M2との間に重畳する。また、仮想画像P1は、自車両M1が走行する車線から後続車両M2が走行する車線に向かって伸び、車線境界線を越える長さを有する。同様に、仮想画像P2は、後続車両M2が走行する車線から自車両M1が走行する車線に向かって伸び、車線境界線を越える長さを有する。このように仮想画像P1及びP2を、ミラー画像中の自車両M1と後続車両M2との間に重畳することにより、図2の矢印で示すように、乗員は、仮想画像P1から仮想画像P2までが車間距離であると一目で把握できる。すなわち、乗員は、自車両M1と後続車両M2との位置関係を直感的に把握できる。また、仮想画像P1と自車両M1は互いに離間した状態で表示されてもよく、互いに接した状態で表示されてもよい。仮想画像P2と後続車両M2も同様に、互いに離間してもよく、互いに接した状態で表示されてもよい。   As shown in FIG. 2, the combining unit 34 includes a virtual image P1 (first virtual image) indicating the position of the host vehicle M1 and a virtual image P2 indicating the position of the following vehicle M2 that travels on the right side when viewed from the host vehicle M1. The (second virtual image) is superimposed between the host vehicle M1 and the following vehicle M2 on the mirror image. The virtual image P1 extends from the lane in which the host vehicle M1 travels toward the lane in which the subsequent vehicle M2 travels, and has a length exceeding the lane boundary line. Similarly, the virtual image P2 extends from the lane in which the following vehicle M2 travels toward the lane in which the host vehicle M1 travels, and has a length exceeding the lane boundary line. Thus, by superimposing the virtual images P1 and P2 between the host vehicle M1 and the following vehicle M2 in the mirror image, the occupant can move from the virtual image P1 to the virtual image P2, as indicated by the arrows in FIG. It is possible to grasp at a glance that is the distance between vehicles. That is, the occupant can intuitively grasp the positional relationship between the host vehicle M1 and the following vehicle M2. Further, the virtual image P1 and the host vehicle M1 may be displayed in a state of being separated from each other, or may be displayed in a state of being in contact with each other. Similarly, the virtual image P2 and the following vehicle M2 may be separated from each other or displayed in contact with each other.

また、図2に示すように、合成部34は、仮想画像P1及びP2をミラー画像の路面に重畳するのが好ましい。これにより、仮想画像P1及びP2が浮いて見えなくなる。すなわち、仮想画像P1及びP2が路面に張り付いているように見えるため、乗員は、正確な車間距離を把握できる。   Further, as illustrated in FIG. 2, the combining unit 34 preferably superimposes the virtual images P1 and P2 on the road surface of the mirror image. As a result, the virtual images P1 and P2 float and become invisible. That is, since the virtual images P1 and P2 seem to stick to the road surface, the occupant can grasp the accurate inter-vehicle distance.

また、図2に示すように、合成部34は、自車両M1の後端部から後続車両M2の走行車線に向かって伸びる仮想画像P1を重畳し、後続車両M2の先端部から自車両M1の走行車線に向かって伸びる仮想画像P2を重畳するのが好ましい。一般に車間距離とは、自車両M1の後端部から後続車両M2の先端部までの距離である。このため、合成部34が、自車両M1の後端部及び後続車両M2の先端部から伸びるように仮想画像P1及びP2を重畳することにより、乗員は、自車両M1と後続車両M2との車間距離を正確に把握できる。なお、自車両M1の後端部とは、例えば自車両M1のリアバンパである。また、後続車両M2の先端部とは、例えば後続車両M2のフロントバンパである。   Further, as shown in FIG. 2, the combining unit 34 superimposes a virtual image P1 extending from the rear end portion of the host vehicle M1 toward the traveling lane of the subsequent vehicle M2, and from the front end portion of the subsequent vehicle M2 to the host vehicle M1. It is preferable to superimpose a virtual image P2 extending toward the travel lane. In general, the inter-vehicle distance is a distance from the rear end portion of the host vehicle M1 to the front end portion of the succeeding vehicle M2. For this reason, the composite unit 34 superimposes the virtual images P1 and P2 so as to extend from the rear end portion of the host vehicle M1 and the front end portion of the subsequent vehicle M2, thereby allowing the occupant to move between the own vehicle M1 and the subsequent vehicle M2. The distance can be accurately grasped. The rear end portion of the host vehicle M1 is, for example, a rear bumper of the host vehicle M1. Moreover, the front-end | tip part of the succeeding vehicle M2 is a front bumper of the succeeding vehicle M2, for example.

仮想画像P1及びP2は、形や色などが限定されるものではないが、自車両M1及び後続車両M2の影を示す画像であることが好ましい。一般に影は、路面に張り付いて映るため、合成部34が、影を示す画像として仮想画像P1及びP2を重畳することにより、仮想画像P1及びP2が路面に張り付いているように見える。これにより、乗員は、自車両M1と後続車両M2との車間距離を正確に把握できる。さらに、仮想画像P1及びP2が影のように見えることになるため、乗員が仮想画像P1及びP2に対して感じる違和感を低減することができる。   The virtual images P1 and P2 are not limited in shape or color, but are preferably images showing shadows of the host vehicle M1 and the following vehicle M2. In general, since shadows are reflected on the road surface, the combining unit 34 superimposes the virtual images P1 and P2 as images indicating the shadows, so that the virtual images P1 and P2 appear to be attached to the road surface. As a result, the occupant can accurately grasp the inter-vehicle distance between the host vehicle M1 and the following vehicle M2. Furthermore, since the virtual images P1 and P2 look like shadows, it is possible to reduce a sense of discomfort that the occupant feels about the virtual images P1 and P2.

また、合成部34は、仮想画像P1及びP2を走行車線に対し90度となるように重畳してもよく、自車両M1及び後続車両M2に対し90度となるように重畳してもよい。好ましくは、図2に示すように、合成部34は、仮想画像P1及びP2が平行となるように重畳する。このように仮想画像P1及びP2を重畳することにより、乗員は、車間距離の相対的な変化を直感的に把握できる。   Further, the synthesis unit 34 may superimpose the virtual images P1 and P2 so as to be 90 degrees with respect to the traveling lane, or may superimpose the virtual images P1 and P2 so as to be 90 degrees with respect to the own vehicle M1 and the following vehicle M2. Preferably, as shown in FIG. 2, the synthesis unit 34 superimposes the virtual images P1 and P2 so as to be parallel. By superimposing the virtual images P1 and P2 in this way, the occupant can intuitively grasp the relative change in the inter-vehicle distance.

次に、図3に示すフローチャートを参照して、本実施形態に係る運転支援装置1の一動作例について説明する。このフローチャートは、例えばイグニッションスイッチがオンされたときに開始する。   Next, an operation example of the driving support device 1 according to the present embodiment will be described with reference to the flowchart shown in FIG. This flowchart is started when, for example, the ignition switch is turned on.

ステップS101において、右カメラ10及び左カメラ20は、自車後方を撮像し、撮像により取得した後方情報に関する電気信号を出力する。   In step S <b> 101, the right camera 10 and the left camera 20 capture the rear of the vehicle and output an electrical signal related to the rear information acquired by the imaging.

ステップS102において、後続車両検出部32は、電気信号から生成されたミラー画像を用いて後続車両M2を検出する。後続車両検出部32が後続車両M2を検出した場合、ステップS103に処理が進む。後続車両検出部32が後続車両M2を検出しない場合、後続車両検出部32は待機する。   In step S102, the subsequent vehicle detection unit 32 detects the subsequent vehicle M2 using a mirror image generated from the electrical signal. When the subsequent vehicle detection unit 32 detects the subsequent vehicle M2, the process proceeds to step S103. When the subsequent vehicle detection unit 32 does not detect the subsequent vehicle M2, the subsequent vehicle detection unit 32 stands by.

ステップS103において、合成部34は、自車両M1及び後続車両M2の位置を示す仮想画像P1及びP2をミラー画像上に重畳する。   In step S103, the composition unit 34 superimposes virtual images P1 and P2 indicating the positions of the host vehicle M1 and the following vehicle M2 on the mirror image.

ステップS104において、合成部34は、合成画像を右ドアミラーモニタ40及び左ドアミラーモニタ50に出力する。   In step S <b> 104, the composition unit 34 outputs the composite image to the right door mirror monitor 40 and the left door mirror monitor 50.

以上説明したように、本実施形態に係る運転支援装置1によれば、以下の作用効果が得られる。   As described above, according to the driving assistance apparatus 1 according to the present embodiment, the following operational effects can be obtained.

運転支援装置1は、右カメラ10及び左カメラ20が撮像により取得した電気信号からミラー画像を生成し、ミラー画像上の自車両M1と後続車両M2との間に、自車両M1と後続車両M2の位置を示す仮想画像P1及びP2を重畳する。これにより、乗員は、仮想画像P1から仮想画像P2までが車間距離であると一目で把握できる。すなわち、乗員は、自車両M1と後続車両M2との位置関係を直感的に把握できる。   The driving support device 1 generates a mirror image from the electrical signals acquired by the right camera 10 and the left camera 20 by imaging, and the host vehicle M1 and the following vehicle M2 are between the host vehicle M1 and the following vehicle M2 on the mirror image. The virtual images P1 and P2 indicating the positions of are superimposed. Thereby, the crew member can grasp at a glance that the distance from the virtual image P1 to the virtual image P2 is the inter-vehicle distance. That is, the occupant can intuitively grasp the positional relationship between the host vehicle M1 and the following vehicle M2.

また、運転支援装置1は、自車両M1及び後続車両M2の位置を示す仮想画像P1及び仮想画像P2をミラー画像の路面に重畳する。これにより、仮想画像P1及びP2が浮いて見えなくなる。すなわち、仮想画像P1及びP2が路面に張り付いているように見えるため、乗員は、正確な車間距離を把握できる。   In addition, the driving support device 1 superimposes the virtual image P1 and the virtual image P2 indicating the positions of the host vehicle M1 and the following vehicle M2 on the road surface of the mirror image. As a result, the virtual images P1 and P2 float and become invisible. That is, since the virtual images P1 and P2 seem to stick to the road surface, the occupant can grasp the accurate inter-vehicle distance.

仮想画像P1及びP2は、自車両M1及び後続車両M2の影を示す画像である。このように運転支援装置1が影を示す画像として仮想画像P1及びP2を重畳することにより、仮想画像P1及びP2が路面に張り付いているように見える。これにより、乗員は、自車両M1と後続車両M2との車間距離を正確に把握できる。さらに、仮想画像P1及びP2が影のように見えることになるため、乗員が仮想画像P1及びP2に対して感じる違和感を低減することができる。   The virtual images P1 and P2 are images showing shadows of the host vehicle M1 and the following vehicle M2. As described above, the driving support device 1 superimposes the virtual images P1 and P2 as images showing shadows, so that the virtual images P1 and P2 appear to stick to the road surface. As a result, the occupant can accurately grasp the inter-vehicle distance between the host vehicle M1 and the following vehicle M2. Furthermore, since the virtual images P1 and P2 look like shadows, it is possible to reduce a sense of discomfort that the occupant feels about the virtual images P1 and P2.

また、運転支援装置1は、自車両M1の後端部から後続車両M2の走行車線に向かって伸びる仮想画像P1を重畳し、後続車両M2の先端部から自車両M1の走行車線に向かって伸びる仮想画像P2を重畳する。これにより、乗員は、正確な車間距離を把握できる。   Further, the driving support device 1 superimposes a virtual image P1 extending from the rear end portion of the own vehicle M1 toward the traveling lane of the subsequent vehicle M2, and extends from the front end portion of the subsequent vehicle M2 toward the traveling lane of the own vehicle M1. The virtual image P2 is superimposed. Thereby, the passenger | crew can grasp | ascertain the exact distance between vehicles.

また、運転支援装置1は、仮想画像P1及びP2が平行となるように重畳する。これにより、乗員は、車間距離の相対的な変化を直感的に把握できる。   Moreover, the driving assistance device 1 superimposes so that the virtual images P1 and P2 are parallel. Thereby, the passenger | crew can grasp | ascertain intuitively the relative change of the inter-vehicle distance.

上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。   Although the embodiments of the present invention have been described as described above, it should not be understood that the descriptions and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art.

本実施形態では、仮想画像P1及びP2について影を示す画像として説明したが、仮想画像P1及びP2は影を示す画像に限定されない。例えば、図4(a)に示すように、合成部34は、仮想画像P2を線として重畳してもよい。同様に、図4(b)に示すように、合成部34は、仮想画像P1を線として重畳してもよい。また、図4(c)に示すように、合成部34は、仮想画像P1及びP2を線として重畳してもよい。また、線の代わりに楕円でもよい。このような各形状の仮想画像P1及びP2は、予め記憶部33に記憶されていてもよく、画像処理回路30が都度生成してもよい。なお、合成部34は、仮想画像P1及びP2の形状に関わらず、仮想画像P1及びP2が平行になるように重畳するのが好ましい。   In the present embodiment, the virtual images P1 and P2 have been described as images showing shadows, but the virtual images P1 and P2 are not limited to images showing shadows. For example, as illustrated in FIG. 4A, the combining unit 34 may superimpose the virtual image P2 as a line. Similarly, as illustrated in FIG. 4B, the combining unit 34 may superimpose the virtual image P1 as a line. Further, as illustrated in FIG. 4C, the synthesis unit 34 may superimpose the virtual images P1 and P2 as lines. Also, an ellipse may be used instead of a line. The virtual images P1 and P2 having such shapes may be stored in the storage unit 33 in advance, or may be generated each time by the image processing circuit 30. Note that the combining unit 34 preferably superimposes the virtual images P1 and P2 so as to be parallel regardless of the shapes of the virtual images P1 and P2.

また、運転支援装置1は、自車両M1の周囲の環境を取得し、取得した周囲の環境に基づく仮想画像P1及びP2を重畳してもよい。周囲の環境とは、例えば、走行中の時間帯が昼間であるか夜間であるか、路面が雨で濡れているか雪が積もっているかなどの走行中の環境をいう。これらの周囲の環境は、周知のセンサなどで取得することができる。周囲の環境が夜間の場合、仮想画像P1及びP2を影により示す画像として重畳すると視認性が低下する。そこで、合成部34は、仮想画像P1及びP2のコントラストや輝度などを変更し、夜間でも視認性が低下しない仮想画像P1及びP2を重畳する。また、周囲の環境に基づいて仮想画像P1及びP2を透視可能な透明性を有する画像としてもよい。このように、周囲の環境に基づく仮想画像P1及びP2を重畳することにより、乗員は、周囲の環境に関わらず自車両M1と後続車両M2との位置関係を直感的に把握できる。   Moreover, the driving assistance apparatus 1 may acquire the surrounding environment of the own vehicle M1, and may superimpose virtual images P1 and P2 based on the acquired surrounding environment. The surrounding environment refers to an environment during traveling such as whether the traveling time zone is daytime or nighttime, whether the road surface is wet with rain or snow is piled up. These surrounding environments can be acquired by a known sensor or the like. When the surrounding environment is nighttime, the visibility decreases when the virtual images P1 and P2 are superimposed as an image indicated by a shadow. Therefore, the synthesizing unit 34 changes the contrast and brightness of the virtual images P1 and P2, and superimposes the virtual images P1 and P2 whose visibility does not decrease even at night. The virtual images P1 and P2 may be transparent images that can be seen through based on the surrounding environment. Thus, by superimposing the virtual images P1 and P2 based on the surrounding environment, the occupant can intuitively grasp the positional relationship between the host vehicle M1 and the following vehicle M2 regardless of the surrounding environment.

また、仮想画像P1及びP2は車線境界線を越える長さを有する画像として説明したが、車線境界線がない道路の場合は、所定の長さを有する仮想画像P1及びP2を用いればよい。所定の長さについては、実験やシミュレーションを通じて求めることができる。   The virtual images P1 and P2 have been described as images having a length exceeding the lane boundary line. However, in the case of a road having no lane boundary line, the virtual images P1 and P2 having a predetermined length may be used. The predetermined length can be obtained through experiments and simulations.

また、図5に示すように、合成部34は、仮想画像P1及びP2に記号を設定してもよい。ここで、「記号」とは、走行中の車両周囲の流れを示すもので、模様(例えば、波模様、グラデーション、肌理、木目など)、マーク(例えば、三角マーク、四角マークなど)等により示される。また、記号は、必ずしも、模様やマークに限定される必要はなく、疎らに見えるものであれば何でもよい。この記号は、車両走行に併せて動かすことにより、後方画像に写る車両周囲の動きに同化させることができる。これにより、乗員は、後方画像に対する違和感を抑制することができる。本実施形態では、仮想画像P1及びP2はそれぞれ、自車両M1及び後続車両M2の位置を示すので、アスファルトの模様を記号として設定する。なお、記号は、アスファルトの模様に限定されるものではなく、道路上の白線や、路肩など、車両の走行に併せて動いて見えるものを対象物としてもよい。画像処理回路30は、自車両M1の車速や移動方向に基づいて、記号の移動方向、及び記号の移動速度を設定する。また、画像処理回路30は、自車両M1の移動方向の反対となる方向に記号が移動するように記号を設定する。これにより、自車両M1の車速が速いほど記号の移動速度も速くなり、自車両M1の移動方向に応じた方向に記号が移動する。これにより、自車両M1の動きに適合するように記号が移動するため、記号は路面に張り付いているように見える。このように仮想画像P1及びP2に記号を設定することにより、乗員は、正確な車間距離を把握できる。なお、自車両M1の車速や移動方向は、車速センサや舵角センサを用いて取得することができる。   Further, as illustrated in FIG. 5, the synthesis unit 34 may set symbols in the virtual images P1 and P2. Here, the “symbol” indicates the flow around the running vehicle, and is indicated by a pattern (eg, wave pattern, gradation, texture, wood grain, etc.), mark (eg, triangle mark, square mark, etc.), etc. It is. Further, the symbols are not necessarily limited to patterns and marks, and may be anything as long as they appear sparse. This symbol can be assimilated to the movement around the vehicle in the rear image by moving it in conjunction with the vehicle running. Thereby, the passenger | crew can suppress the discomfort with respect to a back image. In the present embodiment, since the virtual images P1 and P2 indicate the positions of the host vehicle M1 and the following vehicle M2, respectively, an asphalt pattern is set as a symbol. Note that the symbols are not limited to asphalt patterns, and may be objects that appear to move as the vehicle travels, such as white lines on the road and road shoulders. The image processing circuit 30 sets the moving direction of the symbol and the moving speed of the symbol based on the vehicle speed and the moving direction of the host vehicle M1. Further, the image processing circuit 30 sets the symbol so that the symbol moves in a direction opposite to the moving direction of the host vehicle M1. As a result, the faster the vehicle speed of the host vehicle M1, the higher the moving speed of the symbol, and the symbol moves in the direction corresponding to the moving direction of the host vehicle M1. As a result, the symbol moves so as to match the movement of the host vehicle M1, so that the symbol appears to stick to the road surface. By setting the symbols in the virtual images P1 and P2 in this way, the occupant can grasp an accurate inter-vehicle distance. The vehicle speed and moving direction of the host vehicle M1 can be acquired using a vehicle speed sensor or a steering angle sensor.

また、仮想画像P1及びP2は、常に表示されていると乗員が煩わしく感じる場合があるため、所定の条件が満たされた場合に限り表示するようにしてもよい。例えば、合成部34は、ウィンカースイッチの信号をトリガとして、仮想画像P1及びP2を重畳するようにしてもよい。詳しくは、合成部34は、ウィンカースイッチの信号を受信するまでは、仮想画像P1及びP2を重畳する処理を実施しないで待機し、ウィンカースイッチの信号を受信すると、仮想画像P1及びP2を重畳する。乗員が後続車両M2との車間距離を確認するシーンの一つは、車線変更時である。そこで、合成部34がウィンカースイッチの信号を受信した場合に仮想画像P1及びP2を重畳することにより、乗員が知りたい情報を、乗員が知りたいときに提供することができる。また、ウィンカースイッチの信号をトリガとして仮想画像P1及びP2を重畳する場合は、運転中常に仮想画像P1及びP2を重畳する場合と比較して、乗員が感じる煩わしさを低減でき、かつ画像処理に要するリソースを節約することができる。なお、車線変更が完了し、ウィンカースイッチの信号を受信しなくなった際には、合成部34は仮想画像P1及びP2を消去する。   The virtual images P1 and P2 may be annoying if the passengers are always displayed, and may be displayed only when a predetermined condition is satisfied. For example, the synthesizing unit 34 may superimpose the virtual images P1 and P2 using the signal of the blinker switch as a trigger. Specifically, the synthesis unit 34 stands by without performing the process of superimposing the virtual images P1 and P2 until the signal of the winker switch is received, and superimposes the virtual images P1 and P2 when the signal of the winker switch is received. . One of the scenes in which the occupant confirms the inter-vehicle distance with the following vehicle M2 is when the lane is changed. Therefore, when the synthesizer 34 receives the signal of the blinker switch, the virtual images P1 and P2 are superimposed so that information that the occupant wants to know can be provided when the occupant wants to know. Further, when the virtual images P1 and P2 are superimposed by using the signal of the blinker switch as a trigger, it is possible to reduce annoyance felt by the occupant compared to the case where the virtual images P1 and P2 are always superimposed during driving, and for image processing. The required resources can be saved. When the lane change is completed and the winker switch signal is not received, the compositing unit 34 deletes the virtual images P1 and P2.

また、左右のドアミラー画像を表示する場所は、右ドアミラーモニタ40及び左ドアミラーモニタ50に限定されない。例えば、インストルメントパネルに設けたディスプレイ、ヘッドアップディスプレイ、カーナビゲーション装置のディスプレイ、ピラーディスプレイなどに表示してもよい。   Further, the place where the left and right door mirror images are displayed is not limited to the right door mirror monitor 40 and the left door mirror monitor 50. For example, it may be displayed on a display provided on the instrument panel, a head-up display, a display of a car navigation device, a pillar display, or the like.

また、合成部34は、車両の属性に応じて仮想画像P1及びP2を重畳してもよい。例えば、自車両M1の後方にバイクが存在する場合、合成部34はバイクの大きさに合わせて仮想画像P2を重畳してもよい。バイクはミラー画像上の大きさが他の車両と比較して小さいため、合成部34が仮想画像P2を重畳することにより、車間距離だけでなく、バイクの存在を乗員に知らせることができる。   Further, the synthesis unit 34 may superimpose virtual images P1 and P2 according to the attributes of the vehicle. For example, when a motorcycle is present behind the host vehicle M1, the combining unit 34 may superimpose the virtual image P2 in accordance with the size of the motorcycle. Since the size of the motorcycle on the mirror image is smaller than that of other vehicles, the synthesizer 34 can notify the occupant not only of the inter-vehicle distance but also the existence of the motorcycle by superimposing the virtual image P2.

また、本実施形態では、ミラー画像に仮想画像P1及びP2を重畳したが、自車両M1の後方を写すミラー自体に仮想画像を重畳するようにしてもよい。自車両M1の後方をミラーで写す場合は、後続車両M2を画像から識別するのではなく、ソナー、カメラなど自車両周囲の状況を検出可能な各種センサにより、後続車両M2を認識するようにしてもよい。   Further, in this embodiment, the virtual images P1 and P2 are superimposed on the mirror image, but the virtual image may be superimposed on the mirror itself that captures the rear of the host vehicle M1. When the rear of the host vehicle M1 is captured by a mirror, the subsequent vehicle M2 is not identified from the image, but the subsequent vehicle M2 is recognized by various sensors capable of detecting the situation around the host vehicle such as a sonar and a camera. Also good.

なお、上述の実施形態の各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置を含む。   Note that each function of the above-described embodiment may be implemented by one or a plurality of processing circuits. The processing circuit includes a programmed processing device such as a processing device including an electrical circuit. The processing circuitry also includes devices such as application specific integrated circuits (ASICs) and conventional circuit components arranged to perform the functions described in the embodiments.

10 右カメラ
20 左カメラ
30 画像処理回路
31 ミラー画像生成部
32 後続車両検出部
33 記憶部
34 合成部
40 右ドアミラーモニタ
50 左ドアミラーモニタ
DESCRIPTION OF SYMBOLS 10 Right camera 20 Left camera 30 Image processing circuit 31 Mirror image generation part 32 Subsequent vehicle detection part 33 Memory | storage part 34 Synthesis | combination part 40 Right door mirror monitor 50 Left door mirror monitor

Claims (8)

撮像により自車両の後方情報を取得する撮像素子と、前記後方情報より後方画像を生成するコントローラと、前記後方画像を表示するモニタと、を備える運転支援装置の運転支援方法において、
前記後方画像上の前記自車両と後続車両との間に、前記自車両と前記後続車両の位置を示す仮想画像を重畳すること
を含むことを特徴とする運転支援方法。
In a driving support method of a driving support device comprising: an imaging element that acquires rear information of the host vehicle by imaging; a controller that generates a rear image from the rear information; and a monitor that displays the rear image.
A driving support method comprising: superimposing a virtual image indicating the positions of the host vehicle and the succeeding vehicle between the host vehicle and the following vehicle on the rear image.
前記仮想画像を重畳することは、
前記仮想画像を路面に重畳することを含むことを特徴とする請求項1に記載の運転支援方法。
Superimposing the virtual image
The driving support method according to claim 1, further comprising superimposing the virtual image on a road surface.
前記仮想画像を重畳することは、
前記自車両と前記後続車両の影を示す前記仮想画像を重畳することを含むことを特徴とする請求項1または2に記載の運転支援方法。
Superimposing the virtual image
The driving support method according to claim 1, further comprising superimposing the virtual images indicating shadows of the host vehicle and the following vehicle.
前記仮想画像を重畳することは、
前記自車両の車速に応じて記号が動作する前記仮想画像を重畳することを含むことを特徴とする請求項1〜3のいずれか1項に運転支援方法。
Superimposing the virtual image
The driving support method according to any one of claims 1 to 3, further comprising superimposing the virtual image in which a symbol operates according to a vehicle speed of the host vehicle.
前記仮想画像を重畳することは、
前記自車両の後端部に第1仮想画像を重畳し、かつ前記後続車両の先端部に第2仮想画像を重畳することを含むことを特徴とする請求項1〜4のいずれか1項に記載の運転支援方法。
Superimposing the virtual image
5. The method according to claim 1, further comprising superimposing a first virtual image on a rear end portion of the host vehicle and superimposing a second virtual image on a front end portion of the succeeding vehicle. The driving assistance method described.
前記仮想画像を重畳することは、
前記第1仮想画像と、前記第2仮想画像とが平行になるように重畳することを含むことを特徴とする請求項5に記載の運転支援方法。
Superimposing the virtual image
The driving support method according to claim 5, further comprising superimposing the first virtual image and the second virtual image so as to be parallel to each other.
前記自車両の周囲の環境を検出することをさらに含み、
前記仮想画像を重畳することは、
検出された前記周囲の環境に応じて前記仮想画像を重畳することを含むことを特徴とする請求項1〜6のいずれか1項に記載の運転支援方法。
Further detecting an environment around the vehicle,
Superimposing the virtual image
The driving support method according to claim 1, further comprising superimposing the virtual image according to the detected surrounding environment.
撮像により自車両の後方情報を取得する撮像素子と、
前記撮像素子によって取得された前記後方情報より後方画像を生成する生成回路と、
前記生成回路によって生成された前記後方画像を表示するモニタと、
前記自車両と後続車両の位置を示す仮想画像を前記後方画像上の前記自車両と前記後続車両との間に重畳する制御部と
を備えることを特徴とする運転支援装置。
An image sensor for acquiring rear information of the host vehicle by imaging;
A generation circuit for generating a rear image from the rear information acquired by the image sensor;
A monitor for displaying the rear image generated by the generation circuit;
A driving support device comprising: a control unit that superimposes between the host vehicle and the succeeding vehicle on the rear image a virtual image indicating the positions of the host vehicle and the following vehicle.
JP2016070378A 2016-03-31 2016-03-31 Driving support method and driving support device Active JP6756135B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016070378A JP6756135B2 (en) 2016-03-31 2016-03-31 Driving support method and driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016070378A JP6756135B2 (en) 2016-03-31 2016-03-31 Driving support method and driving support device

Publications (2)

Publication Number Publication Date
JP2017182543A true JP2017182543A (en) 2017-10-05
JP6756135B2 JP6756135B2 (en) 2020-09-16

Family

ID=60007021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016070378A Active JP6756135B2 (en) 2016-03-31 2016-03-31 Driving support method and driving support device

Country Status (1)

Country Link
JP (1) JP6756135B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020088606A (en) * 2018-11-26 2020-06-04 本田技研工業株式会社 Video display device
JP2020088697A (en) * 2018-11-28 2020-06-04 アイシン精機株式会社 Periphery monitoring device
WO2022250117A1 (en) * 2021-05-27 2022-12-01 株式会社デンソー Vehicle display system, vehicle display method, and vehicle display program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015758A (en) * 2006-07-05 2008-01-24 Honda Motor Co Ltd Driving support device
JP2009029203A (en) * 2007-07-25 2009-02-12 Honda Motor Co Ltd Driving support device
JP2009230225A (en) * 2008-03-19 2009-10-08 Mazda Motor Corp Periphery monitoring device for vehicle
JP2010018102A (en) * 2008-07-09 2010-01-28 Honda Motor Co Ltd Driving support device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015758A (en) * 2006-07-05 2008-01-24 Honda Motor Co Ltd Driving support device
JP2009029203A (en) * 2007-07-25 2009-02-12 Honda Motor Co Ltd Driving support device
JP2009230225A (en) * 2008-03-19 2009-10-08 Mazda Motor Corp Periphery monitoring device for vehicle
JP2010018102A (en) * 2008-07-09 2010-01-28 Honda Motor Co Ltd Driving support device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020088606A (en) * 2018-11-26 2020-06-04 本田技研工業株式会社 Video display device
JP7128096B2 (en) 2018-11-26 2022-08-30 本田技研工業株式会社 Video display device
JP2020088697A (en) * 2018-11-28 2020-06-04 アイシン精機株式会社 Periphery monitoring device
JP7283059B2 (en) 2018-11-28 2023-05-30 株式会社アイシン Perimeter monitoring device
WO2022250117A1 (en) * 2021-05-27 2022-12-01 株式会社デンソー Vehicle display system, vehicle display method, and vehicle display program

Also Published As

Publication number Publication date
JP6756135B2 (en) 2020-09-16

Similar Documents

Publication Publication Date Title
JP5143235B2 (en) Control device and vehicle surrounding monitoring device
CN105308620B (en) Information processing apparatus, proximity object notification method, and program
WO2016002163A1 (en) Image display device and image display method
WO2014199574A1 (en) Vehicle-mounted display device and program product
JP6586849B2 (en) Information display device and information display method
US20170305345A1 (en) Image display control apparatus and image display system
CN105191297A (en) Image display control device and image display system
JP4715718B2 (en) Vehicle display device
JP2007142545A (en) Vehicle periphery image processing apparatus and program
JP2010116086A (en) On-vehicle display, display method, and display program
US20160088260A1 (en) Image processing apparatus
JP2014036326A (en) Bird&#39;s eye image display device
JP2020068515A (en) Image processing apparatus
JP6756135B2 (en) Driving support method and driving support device
US10740909B2 (en) Drive recorder
JP7006460B2 (en) Vehicle display control device, vehicle display system, vehicle display control method, and program
WO2015122124A1 (en) Vehicle periphery image display apparatus and vehicle periphery image display method
CN113060156B (en) Vehicle surroundings monitoring device, vehicle surroundings monitoring method, and program
JP5067136B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
JP2019188855A (en) Visual confirmation device for vehicle
JPWO2017179206A1 (en) Parking assistance display control apparatus and parking assistance display control method
WO2017034026A1 (en) Display control device and display control method
JP2019087909A (en) Image display apparatus and image display system
JP5212920B2 (en) Vehicle display device
CN107925747B (en) Image processing device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200810

R151 Written notification of patent or utility model registration

Ref document number: 6756135

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151