JP2017184012A - Drive support method and drive support apparatus - Google Patents

Drive support method and drive support apparatus Download PDF

Info

Publication number
JP2017184012A
JP2017184012A JP2016068381A JP2016068381A JP2017184012A JP 2017184012 A JP2017184012 A JP 2017184012A JP 2016068381 A JP2016068381 A JP 2016068381A JP 2016068381 A JP2016068381 A JP 2016068381A JP 2017184012 A JP2017184012 A JP 2017184012A
Authority
JP
Japan
Prior art keywords
image
vehicle
display
virtual
front wheel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016068381A
Other languages
Japanese (ja)
Other versions
JP6649619B2 (en
Inventor
草柳 佳紀
Yoshinori Kusayanagi
佳紀 草柳
則政 岸
Norimasa Kishi
則政 岸
吉郎 高松
Yoshiro Takamatsu
吉郎 高松
尚隆 臼井
Hisataka Usui
尚隆 臼井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2016068381A priority Critical patent/JP6649619B2/en
Publication of JP2017184012A publication Critical patent/JP2017184012A/en
Application granted granted Critical
Publication of JP6649619B2 publication Critical patent/JP6649619B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a drive support method and a drive support apparatus, which enable easy grasp of a condition of a front wheel and that of a road.SOLUTION: A drive support apparatus includes an image generation circuit 20 in which a condition determination part 21 determines whether to start display processing in the drive support apparatus on the basis of a given condition. Plural cameras 10 are disposed in a vehicle so that a field angle includes a travel road boundary on one side of the vehicle. An image conversion part 22 converts from output signals of the plural cameras into an image that captures boundary of a travel road and front and rear wheels, and of which a size ratio of a front wheel to a rear wheel is larger than a ratio in an actual space, so that a display image generation part 24 generates a display image, and a display 30 displays the display image.SELECTED DRAWING: Figure 1

Description

本発明は、車両に対する運転者の運転操作を支援する運転支援方法及び運転支援装置に関する。   The present invention relates to a driving support method and a driving support device that support a driver's driving operation on a vehicle.

車両の周囲の画像を表示することにより、狭路等における運転者の運転操作を支援する技術が知られている(特許文献1参照)。このような技術では、狭路等における乗員の運転操作に際して、車両を俯瞰した画像を生成し、生成した画像を表示することにより、車両と走路境界との間隔を把握できるようにしている。   A technique for assisting the driving operation of the driver on a narrow road by displaying an image around the vehicle is known (see Patent Document 1). In such a technique, when an occupant performs a driving operation on a narrow road or the like, an image overlooking the vehicle is generated, and the generated image is displayed so that an interval between the vehicle and the road boundary can be grasped.

特開2004−159186号公報JP 2004-159186 A

しかしながら、従来の技術では、車両を垂直方向に俯瞰した画像を表示するため、車両の進行方向を決定する前輪の状況と、その周辺の道路の状況とを画像から把握することが運転者にとって困難であり、運転し難い場合があった。   However, since the conventional technology displays an image in which the vehicle is viewed in the vertical direction, it is difficult for the driver to grasp the situation of the front wheels that determine the traveling direction of the vehicle and the situation of the surrounding road from the image. In some cases, it was difficult to drive.

本発明は、上記問題点を鑑み、前輪及び道路の状況を容易に把握することができる運転支援方法及び運転支援装置を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide a driving support method and a driving support device that can easily grasp the front wheel and road conditions.

画像生成回路によって、車両の一側方の走路の境界を画角内に含むように車両に配置されたカメラから、走路の境界と車両の前輪及び後輪とが映り、後輪に対する前輪のサイズの比率が実空間における比率よりも大きな表示画像を生成し、ディスプレイによって表示画像を表示する。   The image generation circuit reflects the boundary of the road and the front and rear wheels of the vehicle from a camera arranged on the vehicle so that the boundary of the road on one side of the vehicle is included in the angle of view, and the size of the front wheel relative to the rear wheel A display image having a larger ratio than that in the real space is generated, and the display image is displayed on the display.

本発明によれば、後輪に対する前輪のサイズの比率が実空間における比率よりも大きな画像を表示することにより、前輪及び道路の状況を容易に把握することができる運転支援方法及び運転支援装置を提供できる。   According to the present invention, there is provided a driving support method and a driving support device capable of easily grasping the situation of the front wheels and the road by displaying an image in which the ratio of the size of the front wheels to the rear wheels is larger than the ratio in the real space. Can be provided.

図1は、本発明の実施の形態に係る運転支援装置の基本的な構成を説明するブロック図である。FIG. 1 is a block diagram illustrating a basic configuration of a driving support apparatus according to an embodiment of the present invention. 図2は、本発明の実施の形態に係る運転支援装置が搭載された車両の上面図の一例である。FIG. 2 is an example of a top view of a vehicle equipped with the driving support apparatus according to the embodiment of the present invention. 図3は、車両の側面図において、仮想視点との位置関係を説明する図である。FIG. 3 is a diagram illustrating the positional relationship with the virtual viewpoint in the side view of the vehicle. 図4は、車両の斜視図を用いて、仮想視点及び投影面の位置関係を説明する図である。FIG. 4 is a diagram for explaining the positional relationship between the virtual viewpoint and the projection plane, using a perspective view of the vehicle. 図5は、本発明の実施の形態に係る運転支援装置の表示画像を図示した一例である。FIG. 5 is an example illustrating a display image of the driving support apparatus according to the embodiment of the present invention. 図6は、一側方の前輪及び後輪の全体が映る場合の表示画像を説明する図である。FIG. 6 is a diagram illustrating a display image when the entire front wheel and rear wheel on one side are shown. 図7は、舵角が0の場合の表示画像を説明する図である。FIG. 7 is a diagram illustrating a display image when the steering angle is zero. 図8は、本発明の実施の形態に係る運転支援方法の一例を説明するフローチャートである。FIG. 8 is a flowchart for explaining an example of the driving support method according to the embodiment of the present invention. 図9は、車両を垂直方向から俯瞰した画像を図示した一例である。FIG. 9 is an example illustrating an image of a vehicle viewed from the vertical direction. 図10は、車両の前方が上方となる場合の表示画像を説明する図である。FIG. 10 is a diagram illustrating a display image when the front side of the vehicle is upward.

図面を参照して、本発明の実施の形態を説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。   Embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same or similar parts are denoted by the same or similar reference numerals, and redundant description is omitted.

(運転支援装置)
図1に示すように、本発明の実施の形態に係る運転支援装置は、カメラ10と、画像生成回路20と、ディスプレイ30と、車両センサ40と、入力インターフェース(I/F)50とを備える。
(Drive assist device)
As shown in FIG. 1, the driving support apparatus according to the embodiment of the present invention includes a camera 10, an image generation circuit 20, a display 30, a vehicle sensor 40, and an input interface (I / F) 50. .

図2に示すように、カメラ10は、例えば、車両Aの前端部に搭載されたフロントカメラ11と、車両Aの左側のドアミラー等、車両Aの左端部に搭載されたサイドカメラ12と、車両Aの後端部に搭載されたリアカメラ13とを備える。   As shown in FIG. 2, the camera 10 includes, for example, a front camera 11 mounted on the front end of the vehicle A, a side camera 12 mounted on the left end of the vehicle A, such as a door mirror on the left side of the vehicle A, A rear camera 13 mounted on the rear end of A.

フロントカメラ11、サイドカメラ12及びリアカメラ13は、例えば、それぞれ180°程度の画角を有する広角カメラである。フロントカメラ11は、車両Aの前方を撮影する。サイドカメラ12は、車両Aの左方を撮影する。リアカメラ13は、車両Aの後方を撮影する。フロントカメラ11、サイドカメラ12及びリアカメラ13は、足し合わせた画角が、車両Aの周囲を囲む路面の領域のうち、少なくとも左側(運転席の反対側)の領域を含むように配置される。サイドカメラ12は、左右両側に搭載された2つのカメラであってもよい。この場合、フロントカメラ11、サイドカメラ12及びリアカメラ13は、足し合わせた画角が、車両Aの周囲を囲む路面の領域を含むように配置される。フロントカメラ11、サイドカメラ12及びリアカメラ13は、撮影した画像を示す出力信号を画像生成回路20に出力する。   The front camera 11, the side camera 12, and the rear camera 13 are, for example, wide-angle cameras having an angle of view of about 180 °. The front camera 11 photographs the front of the vehicle A. The side camera 12 captures the left side of the vehicle A. The rear camera 13 photographs the rear of the vehicle A. The front camera 11, the side camera 12, and the rear camera 13 are arranged such that the added angle of view includes at least the left side (opposite side of the driver's seat) area of the road surface surrounding the vehicle A. . The side camera 12 may be two cameras mounted on the left and right sides. In this case, the front camera 11, the side camera 12, and the rear camera 13 are arranged so that the added angle of view includes a road surface area surrounding the vehicle A. The front camera 11, the side camera 12, and the rear camera 13 output an output signal indicating the captured image to the image generation circuit 20.

車両センサ40は、車速センサ41と、舵角センサ42とを備える。車速センサ41は、車両Aの速度を検出し、車速として画像生成回路20に出力する。舵角センサ42は、例えば車両Aのステアリングシャフトの回転角を検出することにより、車両Aの舵角を検出し、画像生成回路20に出力する。   The vehicle sensor 40 includes a vehicle speed sensor 41 and a rudder angle sensor 42. The vehicle speed sensor 41 detects the speed of the vehicle A and outputs it to the image generation circuit 20 as the vehicle speed. The steering angle sensor 42 detects the steering angle of the vehicle A by detecting the rotation angle of the steering shaft of the vehicle A, for example, and outputs it to the image generation circuit 20.

入力I/F50は、乗員による操作を受け付け、操作に応じた信号を画像生成回路20に入力する入力装置である。入力I/F50は、車両Aの乗員が操作可能な車両Aの各種スイッチや、タッチパネルディスプレイ等、種々の入力装置を採用可能である。   The input I / F 50 is an input device that receives an operation by a passenger and inputs a signal corresponding to the operation to the image generation circuit 20. As the input I / F 50, various input devices such as various switches of the vehicle A that can be operated by a passenger of the vehicle A and a touch panel display can be adopted.

ディスプレイ30は、画像生成回路20により生成された表示画像を表示する表示装置である。ディスプレイ30は、タッチパネルディスプレイとして、入力I/F50と一体に構成されてもよい。   The display 30 is a display device that displays a display image generated by the image generation circuit 20. The display 30 may be configured integrally with the input I / F 50 as a touch panel display.

画像生成回路20は、条件判定部21と、画像変換部22と、仮想画像生成部23と、表示画像生成部24と、出力処理部25とを論理構造として有する。画像生成回路20は、例えば、中央処理装置(CPU)、メモリ及び入出力I/F等を備えるマイクロコンピュータにより構成可能である。この場合、マイクロコンピュータは、画像生成回路20による演算処理に必要なコンピュータプログラム(画像生成プログラム)を実行することにより、画像生成回路20として機能する。画像生成回路20を構成する各部は、一体のハードウェアから構成されてもよく、別個の専用ハードウェアから構成されてもよい。画像生成回路20は、車両Aに関わる他の制御に用いる電子制御ユニット(ECU)と兼用されてもよい。   The image generation circuit 20 includes a condition determination unit 21, an image conversion unit 22, a virtual image generation unit 23, a display image generation unit 24, and an output processing unit 25 as a logical structure. The image generation circuit 20 can be configured by, for example, a microcomputer including a central processing unit (CPU), a memory, an input / output I / F, and the like. In this case, the microcomputer functions as the image generation circuit 20 by executing a computer program (image generation program) necessary for arithmetic processing by the image generation circuit 20. Each unit constituting the image generation circuit 20 may be configured by integral hardware or may be configured by separate dedicated hardware. The image generation circuit 20 may also be used as an electronic control unit (ECU) used for other control related to the vehicle A.

条件判定部21は、所定の条件により、本発明の実施の形態に係る運転支援装置における表示処理を開始するか否かを判定する。条件判定部21は、例えば、車両Aの左方の走路境界が車両Aから所定の距離範囲内の状態で、車両Aが左に旋回する場合に、表示処理を開始すると判定する。条件判定部21は、車両Aの走行経路に関する情報をナビゲーション装置等から取得し、走行経路の道幅が閾値以下の場合に、表示処理を開始すると判定するようにしてもよい。   The condition determination unit 21 determines whether to start display processing in the driving support apparatus according to the embodiment of the present invention based on a predetermined condition. For example, the condition determination unit 21 determines to start the display process when the vehicle A turns to the left while the left road boundary of the vehicle A is within a predetermined distance range from the vehicle A. The condition determination unit 21 may acquire information related to the travel route of the vehicle A from a navigation device or the like, and may determine that the display process is started when the road width of the travel route is equal to or less than a threshold value.

また、条件判定部21は、専用のスイッチ等の入力I/F50に対する乗員の操作に応じて、表示処理を開始すると判定するようにしてもよい。例えば、条件判定部21は、方向指示器の動作に連動して表示処理を開始すると判定するようにしてもよい。或いは、条件判定部21は、方向指示器の動作及び走行経路の情報に基づいて、表示処理を開始すると判定するようにしてもよい。   In addition, the condition determination unit 21 may determine to start the display process in response to an occupant's operation on the input I / F 50 such as a dedicated switch. For example, the condition determination unit 21 may determine to start the display process in conjunction with the operation of the direction indicator. Alternatively, the condition determination unit 21 may determine to start the display process based on information on the operation of the direction indicator and the travel route.

図3に示すように、画像変換部22は、各カメラ10の出力信号から取得される画像(生画像データ)を、仮想視点Pから見える画像となるように歪み補正して変換する。各カメラ10は広角カメラであるため、各カメラ10の出力信号から取得される画像(生画像データ)は、実空間と比べて歪みを有する。仮想視点Pは、車両Aの前輪Baの前方且つ上方に設定される。仮想視点Pからの視線方向Qは、後方且つ下方である。即ち、画像変換部22により変換された画像は、仮想視点Pから、後方且つ下方を見た画像である。   As shown in FIG. 3, the image conversion unit 22 converts an image (raw image data) acquired from the output signal of each camera 10 with distortion correction so that the image can be seen from the virtual viewpoint P. Since each camera 10 is a wide-angle camera, an image (raw image data) acquired from the output signal of each camera 10 has distortion compared to real space. The virtual viewpoint P is set in front of and above the front wheel Ba of the vehicle A. The line-of-sight direction Q from the virtual viewpoint P is backward and downward. That is, the image converted by the image conversion unit 22 is an image that is viewed from the virtual viewpoint P in the backward and downward direction.

図4に示すように、画像変換部22は、例えば、各カメラ10から取得された生画像データを、走路Cの境界Dを含む地面を投影面T1、車両Aの一側面の少なくとも一部を投影面T2とする仮想空間上にマッピングすることにより、仮想視点Pから見える画像を生成する。投影面T1は、境界Dを含むように、車両Aからの左方への距離範囲d(図2参照)が、例えば1.5m〜2m程度となるように設計に応じて適宜設定可能である。   As shown in FIG. 4, for example, the image conversion unit 22 uses the raw image data acquired from each camera 10 as a projection plane T1 on the ground including the boundary D of the runway C, and at least a part of one side of the vehicle A. An image that can be seen from the virtual viewpoint P is generated by mapping on the virtual space as the projection plane T2. The projection plane T1 can be appropriately set according to the design so that the distance range d (see FIG. 2) from the vehicle A to the left is, for example, about 1.5 m to 2 m so as to include the boundary D. .

仮想視点Pは、舵角が0の場合に車両Aの前輪Ba及び後輪Bbの各側面が見えるように、車両Aの一側方(左方)に設定される。車輪の側面は、車両Aの側方に対応する面である。但し、カメラ10の画角内に車両Aの領域がない又は少ない場合を含めて、ディスプレイ30に表示される表示画像において、前輪Ba及び後輪Bbを含む車両Aの画像は、必ずしも実写画像ではない。   The virtual viewpoint P is set to one side (left side) of the vehicle A so that each side surface of the front wheel Ba and the rear wheel Bb of the vehicle A can be seen when the steering angle is zero. The side surface of the wheel is a surface corresponding to the side of the vehicle A. However, the image of the vehicle A including the front wheels Ba and the rear wheels Bb in the display image displayed on the display 30 including the case where the area of the vehicle A is not or small in the angle of view of the camera 10 is not necessarily a real image. Absent.

仮想画像生成部23は、仮想視点Pから見える車両Aを模した仮想画像Hを、予め保持するデータから生成する。仮想画像Hは、車両Aの車体を模した仮想車体画像HAと、前輪Ba及び後輪Bbを模した仮想車輪画像HBとからなる。仮想車輪画像HBは、前輪Baを模した仮想前輪画像HBaと、後輪Bbを模した仮想後輪画像HBbとからなる。仮想画像生成部23は、予め保持する画像データから、仮想画像Hを生成する。仮想画像生成部23は、車速センサ41から取得される車速に連動するように、仮想車輪画像HBを変更する。仮想画像生成部23は、舵角センサ42から取得される舵角に連動するように、仮想前輪画像HBaを変更する。   The virtual image generation unit 23 generates a virtual image H imitating the vehicle A that can be seen from the virtual viewpoint P, from data that is stored in advance. The virtual image H includes a virtual vehicle image HA that simulates the vehicle body of the vehicle A, and a virtual wheel image HB that simulates the front wheel Ba and the rear wheel Bb. The virtual wheel image HB includes a virtual front wheel image HBa that imitates the front wheel Ba and a virtual rear wheel image HBb that imitates the rear wheel Bb. The virtual image generation unit 23 generates a virtual image H from image data stored in advance. The virtual image generation unit 23 changes the virtual wheel image HB so as to be interlocked with the vehicle speed acquired from the vehicle speed sensor 41. The virtual image generation unit 23 changes the virtual front wheel image HBa so as to be interlocked with the steering angle acquired from the steering angle sensor 42.

表示画像生成部24は、画像変換部22により変換された画像を左右反転することにより、表示画像Gを生成する。例えば、仮想視点Pからの画角が、図2の表示範囲Rのように設定される場合、各カメラ10の画角により、車両Aの上部が表示画像Gに含まれない可能性がある。この為、表示画像生成部24は、仮想前輪画像HBa、仮想後輪画像HBb及び仮想車体画像HAを、それぞれ、前輪Ba、後輪Bb及び車両Aの車体として、表示画像Gに重畳する。   The display image generation unit 24 generates the display image G by inverting the image converted by the image conversion unit 22 left and right. For example, when the angle of view from the virtual viewpoint P is set as in the display range R of FIG. 2, the upper part of the vehicle A may not be included in the display image G due to the angle of view of each camera 10. Therefore, the display image generation unit 24 superimposes the virtual front wheel image HBa, the virtual rear wheel image HBb, and the virtual vehicle body image HA on the display image G as the front wheel Ba, the rear wheel Bb, and the vehicle body of the vehicle A, respectively.

図5に示すように、表示画像Gは、車両Aの車体、前輪Ba及び後輪Bbに対応する領域に、仮想車体画像HA、仮想前輪画像HBa及び仮想後輪画像HBbがそれぞれ映る。また、仮想視点Pが前輪Baの前方に設定されている為、表示画像Gにおける仮想後輪画像HBbに対する仮想前輪画像HBaのサイズの比率は、実空間における後輪Bbに対する前輪Baのサイズの比率よりも大きい。   As shown in FIG. 5, in the display image G, a virtual vehicle body image HA, a virtual front wheel image HBa, and a virtual rear wheel image HBb are shown in areas corresponding to the vehicle body, the front wheel Ba, and the rear wheel Bb of the vehicle A, respectively. Further, since the virtual viewpoint P is set in front of the front wheel Ba, the ratio of the size of the virtual front wheel image HBa to the virtual rear wheel image HBb in the display image G is the ratio of the size of the front wheel Ba to the rear wheel Bb in real space. Bigger than.

また、図6に示すように、仮想車体画像HAは、透過性を有する画像や、仮想車輪画像HBの下層として重畳される画像であってもよい。これにより、表示画像Gにおいて、仮想車輪画像HBの全体が映り、挙動を更に視認し易くなる。なお、図7に示すように、表示画像Gは、仮想視点Pが車両Aの左方に設定されている為、舵角が0の場合に仮想前輪画像HBaの側面及び仮想後輪画像HBbの側面が映る。なお、後輪Bbに相当する仮想後輪画像HBbの側面は、必ずしも表示画像Gに映らなくてよい。   Further, as shown in FIG. 6, the virtual vehicle body image HA may be an image having transparency or an image superimposed as a lower layer of the virtual wheel image HB. Thereby, in the display image G, the whole virtual wheel image HB is reflected, and it becomes easier to visually recognize the behavior. As shown in FIG. 7, since the virtual viewpoint P is set to the left of the vehicle A, the display image G has a side surface of the virtual front wheel image HBa and a virtual rear wheel image HBb when the steering angle is 0. The side is reflected. Note that the side surface of the virtual rear wheel image HBb corresponding to the rear wheel Bb does not necessarily appear in the display image G.

出力処理部25は、表示画像生成部24により生成された表示画像Gを示す信号をディスプレイ30に出力し、表示画像Gをディスプレイ30に表示させる。ディスプレイ30は、出力処理部25による制御に応じて、表示画像Gを表示する。   The output processing unit 25 outputs a signal indicating the display image G generated by the display image generation unit 24 to the display 30 and causes the display 30 to display the display image G. The display 30 displays the display image G according to control by the output processing unit 25.

(運転支援方法)
図8のフローチャートを参照して、本発明の実施の形態に係る運転支援装置の動作の一例を説明する。図8のフローチャートに示す一連のタスクは、運転支援装置による運転支援方法の一例であり、各ステップは、種々の条件に応じて、省略、順序及び内容の変更等がなされてよい。
(Driving support method)
With reference to the flowchart of FIG. 8, an example of operation | movement of the driving assistance device which concerns on embodiment of this invention is demonstrated. A series of tasks shown in the flowchart of FIG. 8 is an example of a driving support method by the driving support device, and each step may be omitted, changed in order, contents, or the like according to various conditions.

先ず、ステップS101において、条件判定部21は、車両Aが左折を行うことが検出されたか、又は、入力I/F50に対する表示処理の開始を示す操作が検出されたか等の所定の条件により、ステップS102以降の表示処理を開始するか否かを判定する。条件判定部21は、表示処理を開始すると判定する場合、ステップS102に処理を進め、表示処理を開始すると判定しない場合、ステップS101の処理を繰り返す。   First, in step S101, the condition determination unit 21 determines whether or not the vehicle A has detected a left turn or an operation indicating the start of display processing for the input I / F 50 has been detected. It is determined whether or not display processing after S102 is started. If the condition determination unit 21 determines to start the display process, the process proceeds to step S102. If the condition determination unit 21 does not determine to start the display process, the condition determination unit 21 repeats the process of step S101.

ステップS102において、画像変換部22は、各カメラ10の出力信号から各カメラ10により撮影された画像を取得する。   In step S <b> 102, the image conversion unit 22 acquires an image photographed by each camera 10 from the output signal of each camera 10.

ステップS103において、画像変換部22は、車両Aに対する相対的な仮想空間において、画像を投影する投影面と、仮想視点Pとを設定する。仮想視点Pは、車両Aの前輪Baの前方且つ上方、車両Aの左方に設定される。仮想視点Pからの視線方向Qは、後方且つ下方である。仮想視点Pからの画角は、前輪Ba及び後輪Bbを含むように設定される。   In step S <b> 103, the image conversion unit 22 sets a projection plane for projecting an image and a virtual viewpoint P in a virtual space relative to the vehicle A. The virtual viewpoint P is set in front of and above the front wheel Ba of the vehicle A and to the left of the vehicle A. The line-of-sight direction Q from the virtual viewpoint P is backward and downward. The angle of view from the virtual viewpoint P is set so as to include the front wheel Ba and the rear wheel Bb.

ステップS104において、画像変換部22は、ステップS103において設定された投影面に各カメラ10から取得される画像をマッピングし、仮想視点Pから見た画像を生成することにより、各カメラ10から取得される画像に対して、視点の変換処理を行う。   In step S104, the image conversion unit 22 maps the image acquired from each camera 10 onto the projection plane set in step S103, and generates an image viewed from the virtual viewpoint P, thereby acquiring the image from each camera 10. A viewpoint conversion process is performed on the image to be processed.

ステップS105において、表示画像生成部24は、ステップS104において変換された画像を左右反転することにより表示画像Gを生成し、仮想画像生成部23により生成された仮想車体画像HAを、車両Aの車体に対応するように、表示画像Gに重畳する。   In step S <b> 105, the display image generation unit 24 generates a display image G by inverting the image converted in step S <b> 104 left and right, and uses the virtual vehicle body image HA generated by the virtual image generation unit 23 as the vehicle body of the vehicle A. Is superimposed on the display image G so as to correspond to.

ステップS106において、表示画像生成部24は、仮想画像生成部23により生成された仮想前輪画像HBa及び仮想後輪画像HBbを、前輪Ba及び後輪Bbにそれぞれ対応するように、表示画像Gに重畳する。   In step S106, the display image generation unit 24 superimposes the virtual front wheel image HBa and the virtual rear wheel image HBb generated by the virtual image generation unit 23 on the display image G so as to correspond to the front wheel Ba and the rear wheel Bb, respectively. To do.

ステップS107において、仮想画像生成部23は、舵角センサ42の出力(舵角)を監視し、出力に変化があるか否かを判定する。仮想画像生成部23は、舵角の変化量に閾値を設定し、閾値以上の場合に出力が変化したと判定するようにしてもよい。仮想画像生成部23は、出力に変化があると判定する場合、ステップS108に処理を進め、出力に変化がないと判定する場合、ステップS109に処理を進める。   In step S107, the virtual image generation unit 23 monitors the output (steering angle) of the steering angle sensor 42 and determines whether or not there is a change in the output. The virtual image generation unit 23 may set a threshold value for the amount of change in the steering angle, and may determine that the output has changed when it is equal to or greater than the threshold value. When it is determined that there is a change in the output, the virtual image generation unit 23 proceeds to step S108, and when it is determined that there is no change in the output, the virtual image generation unit 23 proceeds to step S109.

ステップS108において、仮想画像生成部23は、舵角センサ42により検出された舵角に連動するように、表示画像Gに重畳された仮想前輪画像HBaを変更する。これにより、仮想前輪画像HBaは、表示画像Gにおいて、車両Aの操舵方向に連動する。   In step S108, the virtual image generation unit 23 changes the virtual front wheel image HBa superimposed on the display image G so as to be interlocked with the steering angle detected by the steering angle sensor 42. Thereby, the virtual front wheel image HBa is linked to the steering direction of the vehicle A in the display image G.

ステップS109において、仮想画像生成部23は、車速センサ41の出力(車速)を監視し、出力に変化があるか否かを判定する。仮想画像生成部23は、車速の変化量に閾値を設定し、閾値以上の場合に出力が変化したと判定するようにしてもよい。仮想画像生成部23は、出力に変化があると判定する場合、ステップS110に処理を進め、出力に変化がないと判定する場合、ステップS111に処理を進める。   In step S109, the virtual image generation unit 23 monitors the output (vehicle speed) of the vehicle speed sensor 41 and determines whether or not there is a change in the output. The virtual image generation unit 23 may set a threshold value for the amount of change in the vehicle speed, and may determine that the output has changed when the threshold value is equal to or greater than the threshold value. When it is determined that there is a change in the output, the virtual image generation unit 23 proceeds to step S110, and when it is determined that there is no change in the output, the virtual image generation unit 23 proceeds to step S111.

ステップS110において、仮想画像生成部23は、舵角センサ42により検出された車速に連動するように、表示画像Gに重畳された仮想車輪画像HBを変更する。これにより、仮想車輪画像HBは、表示画像Gにおいて、車両Aの速度に連動する。仮想画像生成部23は、表示画像Gにおいて仮想後輪画像HBbよりも大きく表示された仮想前輪画像HBaのみを車速に連動するようにしてもよい。   In step S110, the virtual image generation unit 23 changes the virtual wheel image HB superimposed on the display image G so as to be interlocked with the vehicle speed detected by the steering angle sensor 42. Thereby, the virtual wheel image HB is interlocked with the speed of the vehicle A in the display image G. The virtual image generation unit 23 may link only the virtual front wheel image HBa displayed larger than the virtual rear wheel image HBb in the display image G with the vehicle speed.

ステップS111において、出力処理部25は、ステップS102からステップS110までの処理により生成された表示画像Gを、ディスプレイ30に表示させる。   In step S111, the output processing unit 25 causes the display 30 to display the display image G generated by the processing from step S102 to step S110.

ステップS112において、条件判定部21は、左折を終了したか、又は、入力I/F50に対する表示処理の終了を示す操作が検出されたか等の所定の条件により、ステップS102からステップS111までの表示処理を終了するか否かを判定する。条件判定部21は、表示処理を終了すると判定する場合、一連のタスクを終了し、表示処理を終了すると判定しない場合、ステップS102に処理を戻す。   In step S112, the condition determination unit 21 performs the display process from step S102 to step S111 depending on a predetermined condition such as whether the left turn is completed or an operation indicating the end of the display process for the input I / F 50 is detected. It is determined whether or not to end. When determining that the display process is to be ended, the condition determining unit 21 ends the series of tasks, and when not determining to end the display process, the condition determining unit 21 returns the process to step S102.

ここで、図9を用いて、車両Aを垂直方向に俯瞰した画像を見ながら左旋回する場合の運転者の行動の一例を説明する。先ず、運転者は、ハンドルを左方向に操作し、前輪Baの舵角を画像から把握する。次に、運転者は、舵角から後輪Bb車軸上の旋回中心Eの位置をイメージし、舵角と旋回中心Eとに基づいて、後輪Bbの軌跡を予測する。これにより、運転者は、前輪と後輪との軌跡の差(内輪差)を予測する。   Here, with reference to FIG. 9, an example of the driver's behavior when turning left while viewing an image obtained by overlooking the vehicle A in the vertical direction will be described. First, the driver operates the steering wheel in the left direction to grasp the rudder angle of the front wheel Ba from the image. Next, the driver imagines the position of the turning center E on the rear wheel Bb axle from the rudder angle, and predicts the locus of the rear wheel Bb based on the rudder angle and the turning center E. As a result, the driver predicts a trajectory difference (inner wheel difference) between the front wheels and the rear wheels.

このように、日頃見慣れていない画像を見ながらの旋回では、内輪差を正確に予測することが困難である。それに加えて、垂直方向に俯瞰した画像において、車輪の推定軌跡を合わせて表示することが考えられるが、走行しながら操舵する場合、速度及び舵角が一定でない為、推定軌跡を実際の軌跡に一致させることは非常に困難である。なお、図9に示す例において、運転者の操作入力に応じた前輪Baの舵角が最も運転者が認識可能な情報となる。   In this way, it is difficult to accurately predict the inner ring difference when turning while looking at an image that is not familiar to the user. In addition to this, it is conceivable to display the estimated trajectory of the wheels together in an image viewed in the vertical direction, but when steering while traveling, the estimated trajectory becomes the actual trajectory because the speed and steering angle are not constant. It is very difficult to match. In the example shown in FIG. 9, the rudder angle of the front wheel Ba according to the driver's operation input is the information that the driver can recognize most.

一方、本発明の実施の形態に係る運転支援装置によれば、ディスプレイ30に表示される表示画像Gにおいて、後輪Bbに対する前輪Baのサイズの比率が、実空間における比率よりも大きい。よって、運転者は、表示画像Gを見ることによって、僅かな前輪Baの舵角の変化であっても認識することが可能となる。また、前輪Baから一定距離に位置する後輪Bbが前輪Baと合わせて表示されることにより、前輪Ba及び後輪Bbの軌跡がイメージし易くなるため、内輪差による巻き込み回避等の為の操舵タイミングの予測精度が向上する。更に、表示画像Gは、車両Aの側面を表示することにより、走路C又は境界Dに対する車両Aの角度を把握し易い。   On the other hand, according to the driving assistance apparatus according to the embodiment of the present invention, in the display image G displayed on the display 30, the ratio of the size of the front wheel Ba to the rear wheel Bb is larger than the ratio in real space. Therefore, the driver can recognize even a slight change in the steering angle of the front wheel Ba by looking at the display image G. Further, since the rear wheel Bb positioned at a certain distance from the front wheel Ba is displayed together with the front wheel Ba, the trajectory of the front wheel Ba and the rear wheel Bb can be easily imagined, and therefore steering for avoiding the entrainment due to the inner wheel difference, etc. Timing prediction accuracy is improved. Furthermore, the display image G displays the side surface of the vehicle A so that the angle of the vehicle A with respect to the runway C or the boundary D can be easily grasped.

また、表示画像Gには前輪Ba及び前輪Ba近傍の境界Dが大きく映るため、運転者は、死角を含む前輪Ba近傍の領域の多くの情報を得ることができ、前輪Ba及び走路Cの状況を容易に把握することができる。特に、垂直方向に俯瞰した画像では、境界Dが走路Cより高い縁石の場合等、前輪Ba近傍の立体的な障害物を認識することが困難な場合があるが、表示画像Gは、前輪Ba近傍が大きく映るため、前輪Ba近傍の立体的な障害物を認識することが容易になる。特に、本実施形態では、仮想視点を俯瞰画像を撮影する位置から前方に傾斜した位置に設定し、さらに仮想視点を車両の後方に向けて設定しているため、縁石など、車両周囲の障害物の高さを認識することができるようになる。   In addition, since the front image Ba and the boundary D in the vicinity of the front wheel Ba are greatly reflected in the display image G, the driver can obtain a lot of information on the region in the vicinity of the front wheel Ba including the blind spot, and the situation of the front wheel Ba and the runway C Can be easily grasped. In particular, in an image viewed in the vertical direction, it may be difficult to recognize a three-dimensional obstacle in the vicinity of the front wheel Ba, such as when the boundary D is a curb higher than the runway C, but the display image G is displayed on the front wheel Ba. Since the vicinity appears large, it is easy to recognize a three-dimensional obstacle near the front wheel Ba. In particular, in this embodiment, the virtual viewpoint is set to a position inclined forward from the position at which the overhead image is taken, and the virtual viewpoint is set toward the rear of the vehicle. You will be able to recognize the height.

また、本発明の実施の形態に係る運転支援装置によれば、表示画像Gにおいて、舵角が0の場合に前輪Baの側面及び後輪Bbの側面が映るので、各車輪の接地位置が境界Dに最も近くなるように映る。この為、車両Aの側面と境界Dとの間隔の変化を認識することが容易になり、旋回時等の運転の操作性が更に向上する。   Further, according to the driving support apparatus according to the embodiment of the present invention, in the display image G, when the rudder angle is 0, the side surface of the front wheel Ba and the side surface of the rear wheel Bb are reflected. It appears to be closest to D. For this reason, it becomes easy to recognize the change of the space | interval of the side surface of the vehicle A, and the boundary D, and the operativity of driving | operating at the time of turning etc. further improves.

また、本発明の実施の形態に係る運転支援装置によれば、仮想前輪画像HBa及び仮想後輪画像HBbが、前輪Ba及び後輪Bbの画像として表示画像Gに重畳される。一般的に、車輪と路面とは類似した色を有する為、画面介して車輪の輪郭を把握することが困難な場合がある。運転者は、仮想前輪画像HBa及び仮想後輪画像HBbにより、車輪の挙動を把握し易くなる。仮想前輪画像HBa及び仮想後輪画像HBbが、運転者にとって視認容易な色調であったり、車両Aの車体を透過して視認可能であったりすれば、車輪の挙動の把握が更に容易になる。   In addition, according to the driving assistance apparatus according to the embodiment of the present invention, the virtual front wheel image HBa and the virtual rear wheel image HBb are superimposed on the display image G as images of the front wheel Ba and the rear wheel Bb. Generally, since the wheel and the road surface have similar colors, it may be difficult to grasp the contour of the wheel via the screen. The driver can easily grasp the behavior of the wheel from the virtual front wheel image HBa and the virtual rear wheel image HBb. If the virtual front wheel image HBa and the virtual rear wheel image HBb have a color tone that is easy for the driver to visually recognize or can be viewed through the vehicle body of the vehicle A, the behavior of the wheels can be further easily understood.

また、本発明の実施の形態に係る運転支援装置によれば、仮想前輪画像HBaが操舵輪である前輪Baの舵角に連動して表示される。これにより、運転者は、操舵と、操舵に応じた走路Cにおける前輪Baの位置関係の把握が容易になり、境界Dへの幅寄せ等における操作性が向上する。   In addition, according to the driving support apparatus according to the embodiment of the present invention, the virtual front wheel image HBa is displayed in conjunction with the steering angle of the front wheel Ba, which is a steered wheel. Thereby, the driver can easily grasp the positional relationship of the front wheels Ba on the road C according to the steering, and the operability in the width adjustment to the boundary D is improved.

また、本発明の実施の形態に係る運転支援装置によれば、仮想車輪画像HBが車両Aの速度に連動して表示される。これにより、運転者は、画面を介して車速を把握することが可能となり、車速に合わせた運転操作が容易になる。   In addition, according to the driving support apparatus according to the embodiment of the present invention, the virtual wheel image HB is displayed in conjunction with the speed of the vehicle A. Thereby, the driver can grasp the vehicle speed via the screen, and the driving operation in accordance with the vehicle speed becomes easy.

また、本発明の実施の形態に係る運転支援装置によれば、表示画像Gが、仮想視点Pから見た画像に対して、左右反転されているので、操舵方向が車両Aの左右方向において実空間と一致する。これにより、運転者は、ドアミラーに映るような、画像を見ながら運転操作を行うことができるため、運転の操作性が更に向上する。   Further, according to the driving support apparatus according to the embodiment of the present invention, the display image G is reversed left and right with respect to the image viewed from the virtual viewpoint P, so that the steering direction is actual in the left and right direction of the vehicle A. Match the space. As a result, the driver can perform the driving operation while viewing the image as reflected on the door mirror, so that the driving operability is further improved.

(その他の実施の形態)
上記のように、本発明を実施の形態によって記載したが、この開示の一部をなす論述及び図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
(Other embodiments)
As mentioned above, although this invention was described by embodiment, it should not be understood that the description and drawing which form a part of this indication limit this invention. From this disclosure, various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art.

例えば、既に述べた実施の形態において、表示画像Gは、図10に示すように、仮想視点Pから見た画像が左右反転され、更に上下反転された画像であってもよい。即ち、表示画像Gにおいて、車両Aの前方は、ディスプレイ30の上方に対応する。これにより、例えばナビゲーション装置等の車両の前方が上方となるように表示された画像を見ながら運転することに慣れている運転者は、違和感なく表示画像Gを見ながら運転操作を行うことができる。この場合も、後輪Bbに対する前輪Baのサイズの比率が、実空間における比率よりも大きく表示される為、前輪Ba及び走路Cの状況を容易に把握することができる。また、入力I/F50に対する表示方法の切り替えを示す操作に応じて、表示画像Gの上下方向を反転可能な構成を採用してもよい。これにより、運転者の嗜好に応じた表示画像Gを表示できるようになる。   For example, in the above-described embodiment, the display image G may be an image obtained by horizontally inverting an image viewed from the virtual viewpoint P and further inverting the image as shown in FIG. That is, in the display image G, the front of the vehicle A corresponds to the upper side of the display 30. Thus, for example, a driver who is accustomed to driving while looking at an image displayed such that the front of the vehicle such as a navigation device is upward can perform a driving operation while looking at the display image G without a sense of incongruity. . Also in this case, since the ratio of the size of the front wheel Ba to the rear wheel Bb is displayed larger than the ratio in the real space, the situation of the front wheel Ba and the road C can be easily grasped. Further, a configuration in which the vertical direction of the display image G can be reversed according to an operation indicating switching of the display method with respect to the input I / F 50 may be employed. Thereby, it becomes possible to display the display image G according to the driver's preference.

また、既に述べた実施の形態において、条件判定部21は、他の種々の条件により、運転支援装置における表示処理を開始又は終了するようにしてもよい。本発明の実施の形態に係る運転支援装置は、幅寄せの他、狭路、S字カーブ、交差点等の場面で有用である。条件判定部21は、予め保持する地図情報における、所定の位置に対する車両Aの位置に基づいて、表示処理を開始又は終了するようにしてもよい。   Further, in the above-described embodiment, the condition determination unit 21 may start or end the display process in the driving assistance device according to various other conditions. The driving assistance apparatus according to the embodiment of the present invention is useful in scenes such as narrow roads, S-curves, intersections, etc., in addition to width adjustment. The condition determination unit 21 may start or end the display process based on the position of the vehicle A with respect to a predetermined position in the map information held in advance.

また、既に述べた実施の形態において、画像生成回路20は、左右のドアミラー等にそれぞれ配置された2つのサイドカメラ12を用いて、車両Aの両側を映す表示画像Gを生成するようにしてもよい。或いは、画像生成回路20は、入力I/F50に対する表示範囲の切り替えを示す操作に応じて、右側及び左側の表示画像Gを切り替えるようにしてもよい。   In the above-described embodiment, the image generation circuit 20 may generate the display image G that reflects both sides of the vehicle A using the two side cameras 12 respectively disposed on the left and right door mirrors. Good. Alternatively, the image generation circuit 20 may switch the display images G on the right side and the left side according to an operation indicating switching of the display range with respect to the input I / F 50.

また、表示画像Gは、必ずしも仮想車体画像HA及び仮想車輪画像HBが映らず、実写による前輪Ba及び後輪Bbが映るようにしてもよい。具体的には、境界Dと前輪Ba及び後輪とが映り、後輪Bbに対する前輪Baのサイズの比率が実空間における比率よりも大きく映るように画角等の条件が決定されたカメラにより撮影された画像を表示画像Gとしてもよい。よって、表示画像Gは、必ずしも仮想視点Pから見た画像でなくてもよい。この場合、画像処理のための回路構成や演算負荷を低減し、運転支援装置の製造コストを低減することができる。   Further, the display image G may not necessarily show the virtual vehicle body image HA and the virtual wheel image HB, but may show the front wheel Ba and the rear wheel Bb by actual shooting. Specifically, the image is taken by a camera whose conditions such as the angle of view are determined so that the boundary D, the front wheel Ba and the rear wheel are reflected, and the ratio of the size of the front wheel Ba to the rear wheel Bb is larger than the ratio in the real space. The displayed image may be used as the display image G. Therefore, the display image G is not necessarily an image viewed from the virtual viewpoint P. In this case, the circuit configuration and calculation load for image processing can be reduced, and the manufacturing cost of the driving support device can be reduced.

上述の実施の形態に記載される各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含むようにしてもよい。   Each function described in the above embodiments can be implemented by one or a plurality of processing circuits. The processing circuit includes a programmed processing device such as a processing device including an electrical circuit. The processing circuitry may also include devices such as application specific integrated circuits (ASICs) and circuit components arranged to perform the described functions.

上記の他、上記の実施形態において説明される各構成を任意に応用した構成等、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。   In addition to the above, the present invention includes various embodiments and the like that are not described here, such as a configuration in which each configuration described in the above embodiment is arbitrarily applied. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.

10 カメラ
11 フロントカメラ(カメラ)
12 サイドカメラ(カメラ)
13 リアカメラ(カメラ)
20 画像生成回路
30 ディスプレイ
A 車両
Ba 前輪
Bb 後輪
C 走路
D 境界
G 表示画像
HBa 仮想前輪画像
HBb 仮想後輪画像
P 仮想視点
10 Camera 11 Front camera (camera)
12 Side camera (camera)
13 Rear camera (camera)
20 Image generation circuit 30 Display A Vehicle Ba Front wheel Bb Rear wheel C Runway D Boundary G Display image HBa Virtual front wheel image HBb Virtual rear wheel image P Virtual viewpoint

Claims (9)

車両の一側方の走路の境界を画角内に含むように前記車両に配置されたカメラと、前記カメラの出力信号から表示画像を生成する画像生成回路と、前記表示画像を表示するディスプレイとを備える運転支援装置の運転支援方法において、
前記画像生成回路によって、前記境界と前記車両の前輪及び後輪とが映り、前記後輪に対する前記前輪のサイズの比率が実空間における前記比率よりも大きな前記表示画像を生成すること
を含むこと特徴とする運転支援方法。
A camera disposed in the vehicle so as to include a boundary of a road on one side of the vehicle within an angle of view; an image generation circuit that generates a display image from an output signal of the camera; and a display that displays the display image In a driving support method of a driving support device comprising:
The image generation circuit includes generating the display image in which the boundary and the front and rear wheels of the vehicle are reflected, and the ratio of the size of the front wheels to the rear wheels is larger than the ratio in real space. Driving support method.
前記表示画像は、舵角が0の場合に前記前輪の側面が映ることを特徴とする請求項1に記載の運転支援方法。   The driving support method according to claim 1, wherein the display image shows a side surface of the front wheel when the steering angle is zero. 前記画像生成回路によって、前記前輪を模した仮想前輪画像を、前記前輪として前記表示画像に重畳させることを更に含むことを特徴とする請求項1又は2に記載の運転支援方法。   The driving support method according to claim 1, further comprising superimposing a virtual front wheel image simulating the front wheel on the display image as the front wheel by the image generation circuit. 前記仮想前輪画像は、前記前輪の舵角に連動することを特徴とする請求項3に記載の運転支援方法。   The driving support method according to claim 3, wherein the virtual front wheel image is linked to a steering angle of the front wheel. 前記仮想前輪画像は、前記車両の速度に連動することを特徴とする請求項3又は4に記載の運転支援方法。   The driving support method according to claim 3 or 4, wherein the virtual front wheel image is linked to a speed of the vehicle. 前記表示画像における前記車両の前方は、前記ディスプレイの上方に対応することを特徴とする請求項1乃至5のいずれか1項に記載の運転支援方法。   6. The driving support method according to claim 1, wherein a front side of the vehicle in the display image corresponds to an upper side of the display. 前記画像生成回路によって、前記カメラの出力信号から取得される画像を、前記前輪の前方且つ上方に設定された仮想視点から、後方且つ下方を見た画像に変換することにより、前記表示画像を生成することを特徴とする請求項1乃至6の何れか1項に記載の運転支援方法。   The display image is generated by converting the image acquired from the output signal of the camera by the image generation circuit into an image viewed rearward and downward from a virtual viewpoint set frontward and upward of the front wheel. The driving support method according to any one of claims 1 to 6, wherein: 前記表示画像は、前記仮想視点から見た画像に対して、左右反転されていることを特徴とする請求項7に記載の運転支援方法。   The driving support method according to claim 7, wherein the display image is horizontally reversed with respect to the image viewed from the virtual viewpoint. 車両の一側方の走路の境界を画角内に含むように前記車両に配置されたカメラと、
前記カメラの出力信号から表示画像を生成する画像生成回路と、
前記表示画像を表示するディスプレイとを備え、
前記画像生成回路は、前記境界と前記車両の前輪及び後輪とが映り、前記後輪に対する前記前輪のサイズの比率が実空間における前記比率よりも大きな前記表示画像を生成することを特徴とする運転支援装置。

A camera disposed on the vehicle so as to include a boundary of a runway on one side of the vehicle within an angle of view;
An image generation circuit for generating a display image from an output signal of the camera;
A display for displaying the display image,
The image generation circuit generates the display image in which the boundary and front wheels and rear wheels of the vehicle are reflected, and a ratio of the size of the front wheels to the rear wheels is larger than the ratio in real space. Driving assistance device.

JP2016068381A 2016-03-30 2016-03-30 Driving support method and driving support device Active JP6649619B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016068381A JP6649619B2 (en) 2016-03-30 2016-03-30 Driving support method and driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016068381A JP6649619B2 (en) 2016-03-30 2016-03-30 Driving support method and driving support device

Publications (2)

Publication Number Publication Date
JP2017184012A true JP2017184012A (en) 2017-10-05
JP6649619B2 JP6649619B2 (en) 2020-02-19

Family

ID=60007697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016068381A Active JP6649619B2 (en) 2016-03-30 2016-03-30 Driving support method and driving support device

Country Status (1)

Country Link
JP (1) JP6649619B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003159994A (en) * 2001-11-22 2003-06-03 Mitsubishi Motors Corp Vehicle circumference monitoring apparatus
JP2003175766A (en) * 2001-12-10 2003-06-24 Mitsubishi Motors Corp Vehicle circumference monitor
JP2007158426A (en) * 2005-11-30 2007-06-21 Alpine Electronics Inc Vehicle periphery image display device
JP2009056848A (en) * 2007-08-30 2009-03-19 Nissan Motor Co Ltd Driving support system
JP2010114618A (en) * 2008-11-06 2010-05-20 Clarion Co Ltd Monitoring system around vehicle
JP2013211035A (en) * 2013-05-20 2013-10-10 Denso Corp Vehicle periphery display device
JP2015065659A (en) * 2009-05-29 2015-04-09 富士通テン株式会社 Image processing system, electronic device, and image processing method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003159994A (en) * 2001-11-22 2003-06-03 Mitsubishi Motors Corp Vehicle circumference monitoring apparatus
JP2003175766A (en) * 2001-12-10 2003-06-24 Mitsubishi Motors Corp Vehicle circumference monitor
JP2007158426A (en) * 2005-11-30 2007-06-21 Alpine Electronics Inc Vehicle periphery image display device
JP2009056848A (en) * 2007-08-30 2009-03-19 Nissan Motor Co Ltd Driving support system
JP2010114618A (en) * 2008-11-06 2010-05-20 Clarion Co Ltd Monitoring system around vehicle
JP2015065659A (en) * 2009-05-29 2015-04-09 富士通テン株式会社 Image processing system, electronic device, and image processing method
JP2013211035A (en) * 2013-05-20 2013-10-10 Denso Corp Vehicle periphery display device

Also Published As

Publication number Publication date
JP6649619B2 (en) 2020-02-19

Similar Documents

Publication Publication Date Title
JP6281289B2 (en) Perimeter monitoring apparatus and program
CA3069114C (en) Parking assistance method and parking assistance device
JP6275007B2 (en) Parking assistance device
JP6380410B2 (en) Image display control device and image display system
JP6507626B2 (en) Vehicle perimeter monitoring device
JP5212748B2 (en) Parking assistance device
JP4914458B2 (en) Vehicle periphery display device
JP6446925B2 (en) Image display control device and image display system
JP5549235B2 (en) Driving assistance device
EP2990265A1 (en) Vehicle control apparatus
US10807643B2 (en) Peripheral monitoring device
JP2016060239A (en) Parking support device
EP3800111A1 (en) Periphery monitoring device
JP2017094922A (en) Periphery monitoring device
JP6642307B2 (en) Perimeter monitoring device
JP7009785B2 (en) Peripheral monitoring device
JP6977318B2 (en) Peripheral display device
JP6649619B2 (en) Driving support method and driving support device
JP6610140B2 (en) Perimeter monitoring device
JP6953915B2 (en) Peripheral monitoring device
JP6665630B2 (en) Driving support method and driving support device
US20230311990A1 (en) Vehicle-mounted camera device and method of generating a display image
US20230057848A1 (en) Remote operation device, remote driving system, remote operation method, and non-transitory computer-readable medium storing a remote operation program
JP2016060237A (en) Parking support device and parking support system
JP5582057B2 (en) Driving assistance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191231

R151 Written notification of patent or utility model registration

Ref document number: 6649619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151