JP2017195533A - Display method and driving support apparatus - Google Patents

Display method and driving support apparatus Download PDF

Info

Publication number
JP2017195533A
JP2017195533A JP2016085245A JP2016085245A JP2017195533A JP 2017195533 A JP2017195533 A JP 2017195533A JP 2016085245 A JP2016085245 A JP 2016085245A JP 2016085245 A JP2016085245 A JP 2016085245A JP 2017195533 A JP2017195533 A JP 2017195533A
Authority
JP
Japan
Prior art keywords
vehicle
transparency
virtual viewpoint
axis
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016085245A
Other languages
Japanese (ja)
Other versions
JP6662175B2 (en
Inventor
草柳 佳紀
Yoshinori Kusayanagi
佳紀 草柳
拓良 柳
Hiroyoshi Yanagi
柳  拓良
渡辺 省吾
Shogo Watanabe
省吾 渡辺
則政 岸
Norimasa Kishi
則政 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2016085245A priority Critical patent/JP6662175B2/en
Publication of JP2017195533A publication Critical patent/JP2017195533A/en
Application granted granted Critical
Publication of JP6662175B2 publication Critical patent/JP6662175B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a surrounding situation image with which a blind spot caused by an icon of its own vehicle drawn in the surrounding situation image can be reduced and a distance between the vehicle and surrounding objects can be easily perceived.SOLUTION: The method includes: capturing an image of the surroundings of its own vehicle 1; generating surrounding situation images (11, 15, 17) indicating the surrounding situation of the vehicle 1 as viewed from a virtual viewpoint (10z, 10x, 10y) on the basis of the captured image; setting a plurality of areas having different transparency indicating the vehicle 1 in accordance with the position of the virtual viewpoint (10z, 10x, 10y) at icons 12 to draw in the surrounding situation images (11, 15, 17), and displaying the surrounding situation images (11, 15, 17) in which the icons 12 having different transparencies of the plurality of areas are drawn.SELECTED DRAWING: Figure 6

Description

本発明は、表示方法及び運転支援装置に関する。   The present invention relates to a display method and a driving support device.

自車両の周囲状況を示す周囲状況画像内に描画された自車両のアイコンを表示する技術として、アイコンの一部を半透明にすることによりアイコンの死角となる領域の視認を可能にする技術が知られている(例えば特許文献1)。   As a technique for displaying the icon of the own vehicle drawn in the surrounding situation image indicating the surrounding situation of the own vehicle, there is a technique that makes it possible to visually recognize the area that becomes the blind spot of the icon by making part of the icon translucent. Known (for example, Patent Document 1).

特表2013−541915号公報Special table 2013-541915 gazette

しかしながら、自車両のアイコン中で半透明にする部分が固定されている従来の技術では、仮想視点を適宜設定することができず、仮想視点によっては自車両のアイコンによる死角が生じるという課題があった。
本発明は、周囲状況画像内に描画された自車両のアイコンにより生じる死角を低減するとともに、自車両と周囲の物体との間の距離を容易に知覚できる周囲状況画像を提供することを目的とする。
However, in the conventional technology in which the part to be translucent in the icon of the own vehicle is fixed, the virtual viewpoint cannot be set as appropriate, and depending on the virtual viewpoint, there is a problem that a blind spot is caused by the icon of the own vehicle. It was.
An object of the present invention is to provide a surrounding situation image that can reduce a blind spot caused by an icon of the host vehicle drawn in the surrounding situation image and can easily perceive a distance between the host vehicle and a surrounding object. To do.

本発明の一態様に係る表示方法では、自車両の周囲の撮像画像に基づき仮想視点から見た自車両の周囲状況を示す周囲状況画像を生成し、仮想視点の位置に応じて、自車両を示すアイコンの中で、透明度が異なる領域を設定して、透明度が高い領域を周囲状況画像内に描画する。   In the display method according to an aspect of the present invention, a surrounding situation image indicating the surrounding situation of the host vehicle viewed from the virtual viewpoint is generated based on the captured images around the host vehicle, and the host vehicle is displayed according to the position of the virtual viewpoint. An area with different transparency is set in the icon shown, and an area with high transparency is drawn in the surrounding situation image.

本発明によれば、仮想視点に応じて、自車両のアイコンの中で透明度を低くする領域を設定することができるため、仮想視点から見た時にアイコンにより生じる死角を抑制することができる。   According to the present invention, since a region where the transparency is lowered can be set in the icon of the host vehicle according to the virtual viewpoint, it is possible to suppress the blind spot caused by the icon when viewed from the virtual viewpoint.

実施形態に係る運転支援装置を備える車両の構成例を示す図である。It is a figure showing an example of composition of vehicles provided with a driving support device concerning an embodiment. 仮想視点の設定例の説明図である。It is explanatory drawing of the example of a setting of a virtual viewpoint. 周囲状況画像の第1例を示す図である。It is a figure which shows the 1st example of a surrounding condition image. 周囲状況画像の第2例を示す図である。It is a figure which shows the 2nd example of a surrounding condition image. 周囲状況画像の第3例を示す図である。It is a figure which shows the 3rd example of a surrounding condition image. 上面及び右側面が半透明なアイコンが描画された周囲状況画像の一例を示す図である。It is a figure which shows an example of the surrounding condition image by which the icon whose upper surface and right side were translucent was drawn. 右側面及び左側面が半透明なアイコンが描画された周囲状況画像の一例を示す図である。It is a figure which shows an example of the surrounding condition image by which the icon with a translucent right side and left side was drawn. 前面及び背面が半透明なアイコンが描画された周囲状況画像の一例を示す図である。It is a figure which shows an example of the surrounding condition image by which the icon whose front and back were translucent was drawn. 第1実施形態に係る運転支援装置の一例の機能構成を示す図である。It is a figure which shows the function structure of an example of the driving assistance device which concerns on 1st Embodiment. 第1実施形態に係る表示方法の一例を説明するフローチャートである。It is a flowchart explaining an example of the display method which concerns on 1st Embodiment. 第2実施形態に係る運転支援装置の一例の機能構成を示す図である。It is a figure which shows the function structure of an example of the driving assistance device which concerns on 2nd Embodiment. 第2実施形態に係る表示方法の一例を説明するフローチャートである。It is a flowchart explaining an example of the display method which concerns on 2nd Embodiment.

以下、本発明の実施形態について、図面を参照しつつ説明する。
(第1実施形態)
(構成)
図1を参照する。実施形態に係る運転支援装置は、例えば車両1に搭載される。参照番号2FR、2FL、2RR及び2RLは、それぞれ車両1の右前輪、左前輪、右後輪、左後輪を示す。
実施形態に係る運転支援装置は、各々撮像素子としての前方カメラ3F、後方カメラ3B、右側方カメラ3R、及び左側方カメラ3Lと、コントローラ4と、ディスプレイ装置5を備える。
前方カメラ3Fは、車両1の前端の車幅方向の中心付近に、前方かつ45°下方を向けて設置された広角(例えば180°)カメラであり、車両1の前端及び前方の周囲を撮影する。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
(Constitution)
Please refer to FIG. The driving support device according to the embodiment is mounted on, for example, the vehicle 1. Reference numbers 2FR, 2FL, 2RR, and 2RL indicate the right front wheel, the left front wheel, the right rear wheel, and the left rear wheel of the vehicle 1, respectively.
The driving support apparatus according to the embodiment includes a front camera 3F, a rear camera 3B, a right camera 3R, a left camera 3L, a controller 4, and a display device 5 as image sensors.
The front camera 3F is a wide-angle (for example, 180 °) camera that is installed near the center of the front end of the vehicle 1 in the vehicle width direction and facing downward by 45 °, and photographs the front end of the vehicle 1 and the surroundings in front. .

後方カメラ3Bは、車両1の後端の車幅方向の中心付近に、後方かつ45°下方を向けて設置された広角(例えば180°)カメラであり、車両1の後端及び後方の周囲を撮影する。
右側方カメラ3Rは、車両1の右ドアミラー付近に、略下方を向けて設置された広角(例えば180°)カメラであり、車両1の右側面及び右側面の周囲を撮影する。
左側方カメラ3Lは、車両1の左ドアミラー付近に、略下方を向けて設置された広角(例えば180°)カメラであり、車両1の左側面及び左側面の周囲を撮影する。
The rear camera 3B is a wide-angle (for example, 180 °) camera installed in the vicinity of the center of the rear end of the vehicle 1 in the vehicle width direction and facing downward by 45 °. Take a picture.
The right-side camera 3R is a wide-angle (for example, 180 °) camera that is installed in the vicinity of the right door mirror of the vehicle 1 so as to face substantially downward, and captures the periphery of the right side surface and the right side surface of the vehicle 1.
The left-side camera 3L is a wide-angle (for example, 180 °) camera that is installed in the vicinity of the left door mirror of the vehicle 1 so as to face substantially downward, and captures the periphery of the left side surface and the left side surface of the vehicle 1.

前方カメラ3F、後方カメラ3B、右側方カメラ3R、及び左側方カメラ3Lは、各々撮影して得られた画像をコントローラ4へ出力する。
コントローラ4は、CPU(Central Processing Unit)と、ROM(Read Only Memory)およびRAM(Random Access Memory)等のCPU周辺部品とを含む電子制御ユニットである。コントローラ4は、前方カメラ3F、後方カメラ3B、右側方カメラ3R、及び左側方カメラ3Lから出力された画像を加工して、仮想視点から見た車両1の周囲状況を示す周囲状況画像を生成する。
The front camera 3F, the rear camera 3B, the right side camera 3R, and the left side camera 3L each output an image obtained by shooting to the controller 4.
The controller 4 is an electronic control unit including a CPU (Central Processing Unit) and CPU peripheral components such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The controller 4 processes the images output from the front camera 3F, the rear camera 3B, the right side camera 3R, and the left side camera 3L, and generates a surrounding situation image indicating the surrounding situation of the vehicle 1 viewed from the virtual viewpoint. .

さらに、コントローラ4は、周囲状況画像内における車両1の位置に車両1を示すアイコンを描写し、車両1を示すアイコンが描写された周囲状況画像をディスプレイ装置5に出力する。
ディスプレイ装置5は、車両1の運転者が視認可能な位置に設けられ、コントローラ4から受信した車両1を示すアイコンが描写された周囲状況画像を表示することにより、周囲状況画像を運転者に呈示する。
Further, the controller 4 draws an icon indicating the vehicle 1 at the position of the vehicle 1 in the surrounding situation image, and outputs the surrounding situation image in which the icon showing the vehicle 1 is drawn to the display device 5.
The display device 5 is provided at a position where the driver of the vehicle 1 can visually recognize, and presents the surrounding situation image to the driver by displaying the surrounding situation image in which the icon indicating the vehicle 1 received from the controller 4 is depicted. To do.

図2を参照する。周囲状況画像の視点の例として仮想視点10z、10x、10yを例示する。仮想視点の座標は、例えば3次元直交座標系で表現され、3次元直交座標系は、それぞれ第1軸、第2軸及び第3軸であるX軸、Y軸及びZ軸を有する。ここでは、X軸を車幅方向の軸に設定し、Y軸を前後方向の軸に設定し、Z軸を高さ方向の軸に設定する。
仮想視点10zは、車両1の斜め上方にある視点であり、X軸、Y軸及びZ軸を含んだ3軸のうちZ軸が仮想視点10zに最も近く、Z軸からX軸方向である左方向にずれた位置に設定される。すなわち、X軸、Y軸及びZ軸のうちX軸が2番目に仮想視点10zに近く、Y軸が仮想視点10zから最も遠い。
Please refer to FIG. Virtual viewpoints 10z, 10x, and 10y are illustrated as examples of the viewpoints of the surrounding situation images. The coordinates of the virtual viewpoint are represented by, for example, a three-dimensional orthogonal coordinate system, and the three-dimensional orthogonal coordinate system has an X axis, a Y axis, and a Z axis, which are a first axis, a second axis, and a third axis, respectively. Here, the X-axis is set as the vehicle width direction axis, the Y-axis is set as the front-rear direction axis, and the Z-axis is set as the height direction axis.
The virtual viewpoint 10z is a viewpoint that is obliquely above the vehicle 1, and of the three axes including the X axis, the Y axis, and the Z axis, the Z axis is closest to the virtual viewpoint 10z, and the left is the X axis direction from the Z axis. It is set at a position shifted in the direction. That is, among the X axis, the Y axis, and the Z axis, the X axis is the second closest to the virtual viewpoint 10z, and the Y axis is the farthest from the virtual viewpoint 10z.

仮想視点10xは、車両1の斜め側方にある視点であり、X軸、Y軸及びZ軸のうちX軸が仮想視点10xに最も近く、X軸からY軸方向である後方にずれた位置に設定される。すなわち、X軸、Y軸及びZ軸のうちY軸が2番目に仮想視点10xに近く、Z軸が仮想視点10xから最も遠い。
仮想視点10yは、車両1の略後方にある視点であり、X軸、Y軸、Z軸のうちY軸が仮想視点10yに最も近く、Y軸からZ軸方向である上方にずれた位置に設定される。すなわち、X軸、Y軸及びZ軸のうちZ軸が2番目に仮想視点10yに近く、X軸が仮想視点10yから最も遠い。
なお、以下の説明において仮想視点10x、10y及び10zを総称して「仮想視点10」と表記することがある。
The virtual viewpoint 10x is an oblique viewpoint of the vehicle 1, and the X axis of the X axis, the Y axis, and the Z axis is closest to the virtual viewpoint 10x, and is a position shifted backward from the X axis in the Y axis direction. Set to That is, of the X, Y, and Z axes, the Y axis is second closest to the virtual viewpoint 10x, and the Z axis is farthest from the virtual viewpoint 10x.
The virtual viewpoint 10y is a viewpoint substantially behind the vehicle 1, and the Y axis of the X axis, the Y axis, and the Z axis is closest to the virtual viewpoint 10y and is shifted upward from the Y axis in the Z axis direction. Is set. That is, among the X, Y, and Z axes, the Z axis is second closest to the virtual viewpoint 10y, and the X axis is farthest from the virtual viewpoint 10y.
In the following description, the virtual viewpoints 10x, 10y, and 10z may be collectively referred to as “virtual viewpoint 10”.

仮想視点10zから見た周囲状況画像の一例を図3に示す。参照符号11は、仮想視点10zから見た周囲状況画像を示す。
参照符号12は、周囲状況画像11内に描画された車両1を示すアイコンを示す。アイコン12は、上面、底面、前面、背面、左側面及び右側面を含んだ6つの面を有する立体モデルである。参照符号13FL及び13RLは、アイコン12の左前輪及び左後輪である。
An example of the surrounding situation image viewed from the virtual viewpoint 10z is shown in FIG. Reference numeral 11 indicates an ambient situation image viewed from the virtual viewpoint 10z.
Reference numeral 12 indicates an icon indicating the vehicle 1 drawn in the surrounding situation image 11. The icon 12 is a three-dimensional model having six surfaces including a top surface, a bottom surface, a front surface, a back surface, a left side surface, and a right side surface. Reference numerals 13FL and 13RL are the left front wheel and the left rear wheel of the icon 12, respectively.

周囲状況画像11における左前輪13FL及び左後輪13RLの位置が現実の周囲状況における車両1の左前輪2FL及び左後輪2RLの位置に対応するように、アイコン12の描画位置が定められている。
参照符号14は、周囲状況画像11に現れる車両1が走行中の道路の左走行路境界を示す。
周囲状況画像11では、仮想視点10zがZ軸(すなわち高さ方向の軸)に最も近いため、Z軸に直交する2軸方向であるX軸方向(すなわち車幅方向)及びY軸方向(すなわち前後方向)の位置関係が把握し易い。
The drawing position of the icon 12 is determined so that the positions of the left front wheel 13FL and the left rear wheel 13RL in the surrounding situation image 11 correspond to the positions of the left front wheel 2FL and the left rear wheel 2RL of the vehicle 1 in the actual surrounding situation. .
Reference numeral 14 indicates a left traveling road boundary of a road on which the vehicle 1 appears in the surrounding situation image 11.
In the surrounding situation image 11, since the virtual viewpoint 10z is closest to the Z axis (that is, the axis in the height direction), the X axis direction (that is, the vehicle width direction) and the Y axis direction (that is, the vehicle width direction) that are perpendicular to the Z axis. It is easy to grasp the positional relationship in the front-rear direction).

これに加えて周囲状況画像11では、仮想視点10zがZ軸上になく、Z軸からX軸方向にずれている。仮に仮想視点10zがZ軸上にあると、アイコン12の左前輪13FL及び左後輪13RLがアイコン12の車体の死角になり接地位置を視認しにくい。仮想視点10zがZ軸からX軸方向にずれていることにより、アイコン12の左前輪13FL及び左後輪13RLの接地位置を視認し易いため、左前輪13FL及び左後輪13RLと左走行路境界14との相対位置が視認し易くなる。この結果、例えば車両1が狭路を走行する際に周囲状況画像11を見ることにより、運転者は、車両1を左走行路境界14に寄せ易くなる。   In addition to this, in the surrounding situation image 11, the virtual viewpoint 10z is not on the Z axis, but is shifted from the Z axis in the X axis direction. If the virtual viewpoint 10z is on the Z axis, the left front wheel 13FL and the left rear wheel 13RL of the icon 12 become blind spots of the body of the icon 12 and it is difficult to visually recognize the ground contact position. Since the virtual viewpoint 10z is shifted from the Z-axis in the X-axis direction, it is easy to visually recognize the ground contact positions of the left front wheel 13FL and the left rear wheel 13RL of the icon 12, so the left front wheel 13FL and the left rear wheel 13RL and the left road boundary The relative position with respect to 14 becomes easy to visually recognize. As a result, for example, when the vehicle 1 travels on a narrow road, the driver can easily bring the vehicle 1 to the left travel path boundary 14 by viewing the surrounding situation image 11.

仮想視点10xから見た周囲状況画像の一例を図4に示す。参照符号15は、仮想視点10xから見た周囲状況画像を示す。参照番号16は、車両1の右後方を走行する他車両の位置を表すアイコンを示す。周囲状況画像15におけるアイコン12及び16の描画位置は、現実の周囲状況における車両1と他車両の位置に対応するように定められている。
周囲状況画像15では、仮想視点10xがX軸(すなわち車幅方向の軸)に最も近いため、X軸に直交するY軸方向(すなわち前後方向)の位置関係が把握し易い。
An example of the surrounding situation image viewed from the virtual viewpoint 10x is shown in FIG. Reference numeral 15 indicates an ambient situation image viewed from the virtual viewpoint 10x. Reference numeral 16 indicates an icon representing the position of another vehicle that travels right behind the vehicle 1. The drawing positions of the icons 12 and 16 in the surrounding situation image 15 are determined so as to correspond to the positions of the vehicle 1 and other vehicles in the actual surrounding situation.
In the surrounding situation image 15, since the virtual viewpoint 10x is closest to the X axis (that is, the axis in the vehicle width direction), it is easy to grasp the positional relationship in the Y axis direction (that is, the front-rear direction) orthogonal to the X axis.

これに加えて周囲状況画像15では、仮想視点10xがX軸上になく、X軸からY軸方向にずれている。仮に仮想視点10xがX軸上にあると、X軸方向におけるアイコン12とアイコン16の位置関係が視認しにくい。このため、例えば他車両が車両1と同じ車線を走行しているか、隣接車線を走行しているか、さらに1本隣の車線を走行しているのか把握しにくい。
仮想視点10xがX軸からY軸方向にずれていることにより、運転者はX軸方向の奥行き感を得ることができる。例えば合流車線の走行時や車線変更時に周囲状況画像15を見るにことより、運転者は、車両1と他車両との間の車間距離を把握し易いだけでなく、合流又は車線変更しようとしている移動先の車線に他車両がいるか否かを把握し易くなる。
In addition to this, in the surrounding situation image 15, the virtual viewpoint 10x is not on the X axis, but is shifted from the X axis in the Y axis direction. If the virtual viewpoint 10x is on the X axis, the positional relationship between the icon 12 and the icon 16 in the X axis direction is difficult to visually recognize. For this reason, for example, it is difficult to grasp whether another vehicle is traveling in the same lane as the vehicle 1, is traveling in an adjacent lane, or is traveling in the next adjacent lane.
Since the virtual viewpoint 10x is displaced from the X axis in the Y axis direction, the driver can obtain a sense of depth in the X axis direction. For example, by looking at the surrounding situation image 15 when traveling in a merged lane or changing lanes, the driver not only easily grasps the distance between the vehicle 1 and another vehicle, but also intends to merge or change lanes. It becomes easy to grasp whether there is another vehicle in the destination lane.

仮想視点10yから見た周囲状況画像の一例を図5に示す。参照符号17は、仮想視点10yから見た周囲状況画像を示す。周囲状況画像17におけるアイコン12及び16の描画位置は、現実の周囲状況における車両1と他車両との位置に対応するように定められている。
周囲状況画像17では、仮想視点10yがY軸(すなわち車幅方向の軸)に最も近いため、Y軸に直交するX軸方向(すなわち前後方向)の位置関係が把握し易い。
An example of the surrounding situation image viewed from the virtual viewpoint 10y is shown in FIG. Reference numeral 17 indicates an ambient situation image viewed from the virtual viewpoint 10y. The drawing positions of the icons 12 and 16 in the surrounding situation image 17 are determined so as to correspond to the positions of the vehicle 1 and other vehicles in the actual surrounding situation.
In the surrounding situation image 17, since the virtual viewpoint 10y is closest to the Y axis (that is, the axis in the vehicle width direction), it is easy to grasp the positional relationship in the X axis direction (that is, the front-rear direction) orthogonal to the Y axis.

これに加えて周囲状況画像17では、仮想視点10yがY軸上になく、Y軸からZ軸方向にずれている。仮に仮想視点10yがY軸上にあると、Y軸方向におけるアイコン12とアイコン16の位置関係が視認しにくい。このため例えば、他車両と車両1との間の車間距離が把握しにくい。
仮想視点10yがY軸からZ軸方向にずれていることにより、運転者はY軸方向の奥行き感を得ることができる。この結果、例えば合流車線の走行時や車線変更時に周囲状況画像17を見ることにより、運転者は、合流又は車線変更しようとしている移動先の車線に他車両がいるか否かを把握し易いだけでなく、車両1と他車両との間の車間距離を把握し易くなる。
In addition, in the surrounding situation image 17, the virtual viewpoint 10 y is not on the Y axis and is shifted from the Y axis in the Z axis direction. If the virtual viewpoint 10y is on the Y axis, it is difficult to visually recognize the positional relationship between the icon 12 and the icon 16 in the Y axis direction. For this reason, for example, it is difficult to grasp the inter-vehicle distance between the other vehicle and the vehicle 1.
Since the virtual viewpoint 10y is displaced from the Y axis in the Z axis direction, the driver can obtain a sense of depth in the Y axis direction. As a result, for example, by looking at the surrounding situation image 17 when traveling in a merged lane or changing lanes, the driver can easily understand whether there is another vehicle in the destination lane to be merged or changed lanes. It becomes easy to grasp the inter-vehicle distance between the vehicle 1 and the other vehicle.

以上のように、仮想視点10を、3軸のいずれからもずれた位置に設定することにより、周囲状況がより認識し易い周囲状況画像を生成することができる。
さらに本発明の実施形態では、アイコン12の領域の透明度を部分的に比較的高くして描画することによりアイコン12の死角となる領域の視認を可能にし、アイコン12が生じる周囲状況画像の死角領域を低減する。しかし、アイコン12の透明度を高くするとアイコン12とその外側との境界が不明瞭になるため、透明度を高くした部位によっては車両1と周囲の物体との間の距離が知覚しにくくなる。
As described above, by setting the virtual viewpoint 10 at a position deviated from any of the three axes, it is possible to generate an ambient situation image in which the ambient situation is easier to recognize.
Furthermore, in the embodiment of the present invention, the area of the icon 12 is rendered with a relatively high transparency, thereby enabling the area that becomes the blind spot of the icon 12 to be visually recognized. Reduce. However, if the transparency of the icon 12 is increased, the boundary between the icon 12 and the outside of the icon 12 becomes unclear, so that the distance between the vehicle 1 and surrounding objects is difficult to perceive depending on the portion where the transparency is increased.

例えば、図3に示す仮想視点10zから見た周囲状況画像11の場合に、左前輪13FL及び左後輪13RLを含んだアイコン12の左側面の透明度を高めて半透明にすると、左前輪13FL及び左後輪13RLの接地位置を視認しにくくなる。このため、左前輪13FL及び左後輪13RLと左走行路境界14との間隔が知覚しにくくなる。
例えば、図4に示す仮想視点10xから見た周囲状況画像15の場合に、アイコン12の前面及び背面の透明度を高めて半透明にすると、アイコン12の前端及び下端を視認しにくくなり、先行車及び後続車と車両1との間の車間距離が知覚しにくくなる。
For example, in the case of the surrounding situation image 11 viewed from the virtual viewpoint 10z shown in FIG. 3, when the transparency of the left side surface of the icon 12 including the left front wheel 13FL and the left rear wheel 13RL is increased to be translucent, the left front wheel 13FL and It becomes difficult to visually recognize the ground contact position of the left rear wheel 13RL. For this reason, it becomes difficult to perceive the distance between the left front wheel 13FL and the left rear wheel 13RL and the left traveling road boundary 14.
For example, in the case of the surrounding situation image 15 viewed from the virtual viewpoint 10x shown in FIG. 4, if the transparency of the front and back of the icon 12 is increased to be translucent, the front end and the lower end of the icon 12 become difficult to see, and the preceding vehicle In addition, the inter-vehicle distance between the following vehicle and the vehicle 1 becomes difficult to perceive.

また例えば、図5に示す仮想視点10xから見た周囲状況画像17の場合に、アイコン12の右側面及び左側面の透明度を高めて半透明にすると、アイコン12の右端及び左端を視認しにくくなり、隣接車線の他車両と車両1との間隔が把握しにくくなる。
そこで、本発明の実施形態では、仮想視点10の位置に応じてアイコン12に透明度が異なる複数領域を設定して周囲状況画像内に描画し、部分的にアイコン12の透明度を下げることにより車両1と周囲の物体との間の距離を知覚し易くする。
Further, for example, in the case of the surrounding situation image 17 viewed from the virtual viewpoint 10x shown in FIG. 5, if the transparency of the right side surface and the left side surface of the icon 12 is increased to be translucent, the right end and the left end of the icon 12 become difficult to see. This makes it difficult to grasp the distance between the other vehicle in the adjacent lane and the vehicle 1.
Therefore, in the embodiment of the present invention, a plurality of regions having different transparency are set for the icon 12 according to the position of the virtual viewpoint 10 and drawn in the surrounding situation image, and the vehicle 1 is partially reduced by lowering the transparency of the icon 12. Makes it easier to perceive the distance between objects and surrounding objects.

例えば、3軸のうちいずれの軸が仮想視点10に最も近いかに応じてアイコン12の複数領域の透明度を設定してもよい。
例えば、図3に示す仮想視点10zから見た周囲状況画像11の例では、アイコン12の右側面及び底面の少なくとも一方並びに上面に比較的高い透明度を設定してよい。また、アイコン12の、前面、背面、右側面、左側面、上面及び底面のうち、右側面、上面及び底面以外の左側面、前面及び背面の少なくとも1つに比較的低い透明度を設定してよい。
なお、領域に比較的高い透明度を設定するとは、領域を半透明にするほか透明にする場合を含む。また、領域に比較的低い透明度を設定するとは、領域を不透明にするほか、比較的高い透明度が設定された領域よりも透明度が低い半透明にすることも含む。
For example, the transparency of the plurality of regions of the icon 12 may be set according to which of the three axes is closest to the virtual viewpoint 10.
For example, in the example of the surrounding situation image 11 viewed from the virtual viewpoint 10z illustrated in FIG. 3, relatively high transparency may be set on at least one of the right side surface and the bottom surface and the top surface of the icon 12. In addition, among the front surface, back surface, right side surface, left side surface, top surface, and bottom surface of the icon 12, at least one of the left side surface, front surface, and back surface other than the right side surface, top surface, and bottom surface may be set to a relatively low transparency. .
Note that setting a relatively high transparency in a region includes making the region translucent as well as semi-transparent. In addition, setting a relatively low transparency in an area includes making the area opaque and making it translucent having a lower transparency than an area set with a relatively high transparency.

例えば図6の周囲状況画像11の例では、上面20T及び右側面20Rに比較的高い透明度を設定し、左側面20L、前面20F、及び背面20Bに比較的低い透明度を設定する。車両1の下方が撮影可能な場合には底面20Sに比較的高い透明度を設定してもよく、車両1の下方が撮影できない場合には底面20Sを不透明にしてもよい。
なお、以下の説明において前面20F、背面20B、右側面20R、左側面20L、上面20T及び底面20Sを「アイコン12の6面」と表記することがある。
For example, in the example of the surrounding situation image 11 in FIG. 6, relatively high transparency is set for the top surface 20T and the right side surface 20R, and relatively low transparency is set for the left side surface 20L, the front surface 20F, and the back surface 20B. When the lower part of the vehicle 1 can be photographed, a relatively high transparency may be set on the bottom surface 20S, and when the lower part of the vehicle 1 cannot be photographed, the bottom surface 20S may be opaque.
In the following description, the front surface 20F, the back surface 20B, the right side surface 20R, the left side surface 20L, the top surface 20T, and the bottom surface 20S may be referred to as “six surfaces of the icon 12”.

すなわち、3軸のうちZ軸が仮想視点10zに最も近い場合には、Z軸との法線のなす角が小さい順に上位2つの上面20T及び底面20Sのうち仮想視点10zに比較的近い上面20Tが周囲状況画像17に大きく描画される。このため、死角をより多く低減する上で上面20Tに比較的高い透明度を設定することが好適である。
上面20Tの死角になる領域は、底面20S及び右側面20Rの死角にもなっている。したがって、上面20Tに比較的高い透明度を設定する場合には、底面20S及び右側面20Rの少なくとも一方に比較的高い透明度を設定しなければ死角は減少しない。
That is, when the Z axis of the three axes is closest to the virtual viewpoint 10z, the upper surface 20T that is relatively close to the virtual viewpoint 10z among the upper two upper surfaces 20T and the bottom surface 20S in the order of the angle formed by the normal to the Z axis. Is drawn large in the surrounding situation image 17. For this reason, it is preferable to set a relatively high transparency on the upper surface 20T in order to further reduce the blind spot.
The region that becomes the blind spot of the top surface 20T is also the blind spot of the bottom surface 20S and the right side surface 20R. Therefore, when a relatively high transparency is set on the upper surface 20T, the blind spot does not decrease unless a relatively high transparency is set on at least one of the bottom surface 20S and the right side surface 20R.

なお、底面20Sは、上面20T及び底面20Sのうち仮想視点10zに比較的遠い面である。
また、右側面20Rは、仮想視点10zがZ軸上の位置からX軸方向へずれた位置に設定される周囲状況画像11において、X軸との法線のなす角が小さい順に上位2つの左側面20L及び右側面20Rのうち仮想視点10zに比較的遠い面である。
The bottom surface 20S is a surface that is relatively far from the virtual viewpoint 10z among the top surface 20T and the bottom surface 20S.
Further, the right side surface 20R is the upper left side in the order of decreasing angle formed by the normal to the X axis in the surrounding situation image 11 in which the virtual viewpoint 10z is set at a position shifted from the position on the Z axis in the X axis direction. Of the surface 20L and the right surface 20R, the surface is relatively far from the virtual viewpoint 10z.

このため、上面20Tに加えて、底面20S及び右側面20Rの少なくともいずれか一方に比較的高い透明度を設定する。これにより、底面20S及び右側面20Rの少なくともいずれか一方と上面20Tによって生じていた死角を低減できる。
すなわち、アイコン12における複数領域であるアイコン12の6面の透明度は、それぞれの面が周囲状況画像11に生じるそれぞれの死角に応じて設定される。
本実施形態では、底面20Sよりも右側面20Rの死角になっている領域を視認できる方が好ましいため右側面20Rに比較的高い透明度を設定する。
For this reason, in addition to the upper surface 20T, a relatively high transparency is set on at least one of the bottom surface 20S and the right side surface 20R. Thereby, the blind spot produced by at least one of the bottom surface 20S and the right side surface 20R and the top surface 20T can be reduced.
That is, the transparency of the six faces of the icon 12 that is a plurality of areas in the icon 12 is set in accordance with each blind spot in which the respective faces appear in the surrounding situation image 11.
In the present embodiment, since it is preferable to visually recognize an area that is a blind spot of the right side surface 20R rather than the bottom surface 20S, a relatively high transparency is set on the right side surface 20R.

車両1の下方が車体の死角になって前方カメラ3F、後方カメラ3B、右側方カメラ3R、及び左側方カメラ3Lにより撮影できない場合には底面20Sを不透明にしてもよい。車両1の下方が撮影可能な場合には、底面20Sにも比較的高い透明度を設定してもよい。
一方で、アイコン12の6面のうち上面20T、底面20S及び右側面20R以外の左側面20L、前面20F及び背面20Bの少なくとも1つに比較的低い透明度を設定する。これにより、それぞれ左方、前方、又は後方の物体と車両1との距離を容易に知覚できるようになる。
The bottom surface 20S may be made opaque when the lower part of the vehicle 1 becomes a blind spot of the vehicle body and cannot be photographed by the front camera 3F, the rear camera 3B, the right side camera 3R, and the left side camera 3L. When the lower part of the vehicle 1 can be photographed, a relatively high transparency may be set for the bottom surface 20S.
On the other hand, a relatively low transparency is set for at least one of the left surface 20L, the front surface 20F, and the back surface 20B other than the upper surface 20T, the bottom surface 20S, and the right surface 20R among the six surfaces of the icon 12. Thereby, it becomes possible to easily perceive the distance between the vehicle 1 and the object on the left, the front, or the rear.

特に、Z軸上の位置から左方へずれた仮想視点10zからは、上面20Tの次に左側面20Lが見易い。
このため、左側面20Lに比較的低い透明度を設定して左側面20Lとその外側との境界を明瞭にすることにより、左側面20Lと左方の物体との間の距離が容易に知覚できるようにしてよい。
例えば図6の周囲状況画像11において、アイコン12の左側面20Lに比較的低い透明度を設定して左前輪13FL及び左後輪13RLの透明度を低くする。これにより、左前輪13FL及び左後輪13RLの接地位置が視認し易くなり、左走行路境界14との間の距離が容易に知覚できるようになる。
In particular, from the virtual viewpoint 10z shifted to the left from the position on the Z axis, the left side surface 20L is easy to see next to the top surface 20T.
Therefore, the distance between the left side 20L and the left object can be easily perceived by setting a relatively low transparency on the left side 20L and clarifying the boundary between the left side 20L and the outside thereof. You can do it.
For example, in the surrounding situation image 11 of FIG. 6, the transparency of the left front wheel 13FL and the left rear wheel 13RL is lowered by setting a relatively low transparency on the left side 20L of the icon 12. As a result, the ground contact positions of the left front wheel 13FL and the left rear wheel 13RL are easily visible, and the distance to the left traveling road boundary 14 can be easily perceived.

同様に、例えば図4に示す仮想視点10xから見た周囲状況画像15の例では、アイコン12の前面及び右側面の少なくとも一方並びに左側面に、比較的高い透明度を設定してよい。また、アイコン12の6面のうち前面、右側面及び左側面以外の背面、上面及び底面の少なくとも1つに比較的低い透明度を設定してよい。車両1の下方の物体との間隔を知覚し易くする必要がない場合には、底面を除いた背面及び上面の少なくとも1つに比較的低い透明度を設定してよい。車両1の下方及び上方の物体との間隔を知覚し易くする必要がない場合には、上面及び底面を除いた背面に比較的低い透明度を設定してよい。
例えば図7の周囲状況画像15の例では、左側面20L及び右側面20Rに比較的高い透明度を設定し、前面20F、背面20B、上面20T及び底面20Sに比較的低い透明度を設定する。
Similarly, for example, in the example of the surrounding situation image 15 viewed from the virtual viewpoint 10x illustrated in FIG. 4, relatively high transparency may be set on at least one of the front surface and the right side surface and the left side surface of the icon 12. Moreover, you may set comparatively low transparency to at least 1 of the back surface, upper surface, and bottom face other than a front surface, a right side surface, and a left side surface among six surfaces of the icon 12. FIG. When it is not necessary to make it easy to perceive the distance from the object below the vehicle 1, a relatively low transparency may be set on at least one of the back surface and the top surface excluding the bottom surface. When it is not necessary to easily perceive the distance between the lower and upper objects of the vehicle 1, relatively low transparency may be set on the back surface except for the top surface and the bottom surface.
For example, in the example of the surrounding situation image 15 in FIG. 7, relatively high transparency is set for the left side 20L and the right side 20R, and relatively low transparency is set for the front surface 20F, the back surface 20B, the top surface 20T, and the bottom surface 20S.

すなわち、3軸のうちX軸が仮想視点10xに最も近い場合には、X軸との法線のなす角が小さい順に上位2つの左側面20L及び右側面20Rのうち仮想視点10xに比較的近い左側面20Lが周囲状況画像15に大きく描画される。このため、死角をより多く低減する上で左側面20Lに比較的高い透明度を設定することが好適である。
左側面20Lの死角になる領域は、右側面20R及び前面20Fの死角にもなっている。したがって左側面20Lに比較的高い透明度を設定する場合には、右側面20R及び前面20Fの少なくとも一方に比較的高い透明度を設定しなければ死角は減少しない。
That is, when the X axis among the three axes is closest to the virtual viewpoint 10x, the upper left side surface 20L and the right side surface 20R are relatively close to the virtual viewpoint 10x in order of increasing angle with the normal to the X axis. The left side surface 20L is greatly drawn on the surrounding situation image 15. For this reason, in order to further reduce the blind spot, it is preferable to set a relatively high transparency on the left side surface 20L.
The region that becomes the blind spot of the left side surface 20L is also the blind spot of the right side surface 20R and the front surface 20F. Therefore, when a relatively high transparency is set on the left side surface 20L, the blind spot does not decrease unless a relatively high transparency is set on at least one of the right side surface 20R and the front surface 20F.

なお、右側面20Rは、右側面20R及び左側面20Lのうち仮想視点10xに比較的遠い面である。
また、前面20Fは、仮想視点10xがX軸上の位置からY軸方向へずれた位置に設定される周囲状況画像15において、Y軸との法線のなす角が小さい順に上位2つの前面20F及び背面20Bのうち仮想視点10xに比較的遠い面である。
The right side surface 20R is a surface that is relatively far from the virtual viewpoint 10x among the right side surface 20R and the left side surface 20L.
Further, the front surface 20F is the upper two front surfaces 20F in order of decreasing angle formed by the normal to the Y axis in the surrounding situation image 15 in which the virtual viewpoint 10x is set at a position shifted from the position on the X axis in the Y axis direction. And the rear surface 20B is a surface relatively far from the virtual viewpoint 10x.

このため、左側面20Lに加えて、右側面20R及び前面20Fの少なくともいずれか一方に比較的高い透明度を設定する。
すなわち、アイコン12における複数領域であるアイコン12の6面の透明度は、それぞれの面が周囲状況画像15に生じるそれぞれの死角に応じて設定される。
本実施形態では、3軸のうちX軸が仮想視点10xに最も近い周囲状況画像15では、Y方向の位置関係が把握し易いため、車両1の前端の境界を明瞭にして車両1と前方の物体との間隔を把握し易くすることが好ましい。したがって、右側面20Rに比較的高い透明度を設定し、前面20Fに比較的低い透明度を設定する。
For this reason, in addition to the left side surface 20L, a relatively high transparency is set on at least one of the right side surface 20R and the front surface 20F.
That is, the transparency of the six faces of the icon 12 that is a plurality of areas in the icon 12 is set in accordance with each blind spot in which the respective faces appear in the surrounding situation image 15.
In this embodiment, in the surrounding situation image 15 in which the X axis of the three axes is closest to the virtual viewpoint 10x, the positional relationship in the Y direction is easy to grasp. It is preferable to make it easy to grasp the distance from the object. Accordingly, a relatively high transparency is set for the right side surface 20R, and a relatively low transparency is set for the front surface 20F.

一方で、アイコン12の6面のうち、左側面20L、右側面20R及び前面20F以外の背面20B、上面20T及び底面20Sの少なくとも1つに比較的低い透明度を設定すると、後方、上方及び下方の物体と車両1との距離を容易に知覚できるようになる。
特に、X軸上の位置から後方へずれた仮想視点10zからは、左側面20Lの次に背面20Bが見易い。
On the other hand, if relatively low transparency is set for at least one of the rear surface 20B, the upper surface 20T, and the bottom surface 20S other than the left surface 20L, the right surface 20R, and the front surface 20F among the six surfaces of the icon 12, the rear, upper, and lower The distance between the object and the vehicle 1 can be easily perceived.
In particular, from the virtual viewpoint 10z shifted backward from the position on the X-axis, the back surface 20B is easy to see next to the left side surface 20L.

このため、背面20Bに比較的低い透明度を設定して背面20Bとその外側との境界を明瞭にすることにより、背面20Bと後方の物体との間の距離が容易に知覚できるようにしてよい。
例えば図7の周囲状況画像15において、アイコン12の背面20Bに比較的低い透明度を設定する。これにより、背面20Bと後続車のアイコン16との距離が容易に知覚できるようになる。
なお、上面20Tには、比較的低い透明度を設定してもよく比較的高い透明度を設定してもよい。
For this reason, the distance between the back surface 20B and the rear object may be easily perceived by setting a relatively low transparency on the back surface 20B and clarifying the boundary between the back surface 20B and the outside thereof.
For example, in the surrounding situation image 15 in FIG. 7, a relatively low transparency is set on the back surface 20 </ b> B of the icon 12. As a result, the distance between the back surface 20B and the icon 16 of the following vehicle can be easily perceived.
Note that a relatively low transparency or a relatively high transparency may be set on the upper surface 20T.

同様に、例えば図5に示す仮想視点10yから見た周囲状況画像17の例では、アイコン12の前面及び底面の少なくとも一方並びに背面に比較的高い透明度を設定してよい。また、アイコン12の6面のうち前面、背面及び底面以外の右側面、左側面及び上面の少なくとも1つに比較的低い透明度を設定してよい。車両1の上方の物体との間隔を知覚し易くする必要がない場合には、上面を除いた右側面及び左側面の少なくとも1つに比較的低い透明度を設定してよい。
例えば図8の周囲状況画像17の例では、背面20B及び前面20Fに比較的高い透明度を設定し、右側面20R、左側面20L、上面20T及び底面20Sに比較的低い透明度を設定する。
Similarly, in the example of the surrounding situation image 17 viewed from the virtual viewpoint 10y illustrated in FIG. 5, for example, relatively high transparency may be set on at least one of the front surface and the bottom surface of the icon 12 and the back surface. Moreover, you may set comparatively low transparency to at least 1 of the right side, left side, and upper surface other than a front surface, a back surface, and a bottom surface among six surfaces of the icon 12. FIG. When it is not necessary to easily perceive the distance from the object above the vehicle 1, a relatively low transparency may be set on at least one of the right side surface and the left side surface excluding the upper surface.
For example, in the example of the surrounding situation image 17 in FIG. 8, relatively high transparency is set for the back surface 20B and the front surface 20F, and relatively low transparency is set for the right side surface 20R, the left side surface 20L, the top surface 20T, and the bottom surface 20S.

すなわち、3軸のうちY軸が仮想視点10yに最も近い場合には、Y軸との法線のなす角が小さい順に上位2つの背面20B及び前面20Fのうち仮想視点10yに比較的近い背面20Bが周囲状況画像17に大きく描画される。このため、死角をより多く低減する上で背面20Bに比較的高い透明度を設定することが好適である。
背面20Bの死角になる領域は、前面20F及び底面20Sの死角にもなっている。したがって背面20Bを半透明にする場合には、前面20F及び底面20Sの少なくとも一方に比較的高い透明度を設定しなければ死角は減少しない。
That is, when the Y axis among the three axes is closest to the virtual viewpoint 10y, the back surface 20B that is relatively close to the virtual viewpoint 10y among the top two back surfaces 20B and the front surface 20F in order of increasing angle with the normal to the Y axis. Is drawn large in the surrounding situation image 17. For this reason, in order to further reduce the blind spot, it is preferable to set a relatively high transparency on the back surface 20B.
The region that becomes the blind spot of the back surface 20B is also the blind spot of the front surface 20F and the bottom surface 20S. Therefore, when the back surface 20B is made translucent, the blind spot does not decrease unless a relatively high transparency is set for at least one of the front surface 20F and the bottom surface 20S.

なお、前面20Fは、背面20B及び前面20Fのうち仮想視点10yに比較的遠い面である。
また、底面20Sは、仮想視点10yがY軸上の位置からZ軸方向へずれた位置に設定される周囲状況画像17において、Z軸との法線のなす角が小さい順に上位2つの上面20T及び底面20Sのうち仮想視点10yに比較的遠い面である。
このため、背面20Bに加えて、前面20F及び底面20Sの少なくともいずれか一方に比較的高い透明度を設定する。
すなわち、アイコン12における複数領域であるアイコン12の6面の透明度は、それぞれの面が周囲状況画像17に生じるそれぞれの死角に応じて設定される。
The front surface 20F is a surface that is relatively far from the virtual viewpoint 10y among the back surface 20B and the front surface 20F.
In addition, the bottom surface 20S includes the top two top surfaces 20T in order of decreasing angle formed by the normal to the Z axis in the surrounding situation image 17 in which the virtual viewpoint 10y is set at a position shifted from the position on the Y axis in the Z axis direction. The bottom surface 20S is a surface relatively far from the virtual viewpoint 10y.
For this reason, in addition to the back surface 20B, a relatively high transparency is set on at least one of the front surface 20F and the bottom surface 20S.
That is, the transparency of the six faces of the icon 12 that is a plurality of areas in the icon 12 is set in accordance with each blind spot in which the respective faces appear in the surrounding situation image 17.

本実施形態では、底面20Sよりも前面20Fの死角になっている領域を視認できる方が好ましいため前面20Fに比較的高い透明度を設定する。車両1の下方を撮影できない場合には底面20Sを不透明にしてもよく、撮影可能な場合には底面20Sにも比較的高い透明度を設定してもよい。
一方で、アイコン12の6面のうち背面20B、前面20F及び底面20S以外の右側面20R、左側面20L、上面20Tの少なくとも1つに比較的低い透明度を設定すると、それぞれ右方、左方又は上方の物体と車両1との距離を容易に知覚できるようになる。
In the present embodiment, it is preferable to be able to visually recognize an area that is a blind spot of the front surface 20F rather than the bottom surface 20S, and therefore relatively high transparency is set on the front surface 20F. If the lower part of the vehicle 1 cannot be photographed, the bottom surface 20S may be opaque, and if the photograph is possible, a relatively high transparency may be set for the bottom surface 20S.
On the other hand, when relatively low transparency is set for at least one of the right side 20R, the left side 20L, and the top side 20T other than the back side 20B, the front side 20F, and the bottom side 20S among the six sides of the icon 12, the right side, the left side, The distance between the upper object and the vehicle 1 can be easily perceived.

特に、3軸のうちY軸が仮想視点10yに最も近い周囲状況画像17では、X方向の位置関係が把握し易いため、車両1の右端及び左端の境界を明瞭にして側方の物体との間隔や、車両1と車線境界との間隔を把握し易くすることが好ましい。
このため、例えば図8の周囲状況画像17において、アイコン12の右側面20R及び左側面20Lに比較的低い透明度を設定する。これにより、車両1の横方向位置を容易に知覚できるので、後続車が車両1の側方に移動したときの間隔が容易に知覚できる。
なお、上面20Tには、比較的低い透明度を設定してもよく比較的高い透明度を設定してもよい。
In particular, in the surrounding situation image 17 in which the Y axis of the three axes is closest to the virtual viewpoint 10y, the positional relationship in the X direction can be easily grasped, so the boundary between the right end and the left end of the vehicle 1 is clarified and It is preferable to make it easy to grasp the interval and the interval between the vehicle 1 and the lane boundary.
For this reason, for example, in the surrounding state image 17 of FIG. 8, relatively low transparency is set on the right side surface 20R and the left side surface 20L of the icon 12. Thereby, since the lateral position of the vehicle 1 can be easily perceived, the interval when the succeeding vehicle moves to the side of the vehicle 1 can be easily perceived.
Note that a relatively low transparency or a relatively high transparency may be set on the upper surface 20T.

以上のとおり本発明の実施形態では、仮想視点10の位置に応じてアイコン12に透明度が異なる複数領域を設定して周囲状況画像内に描画する。
このため、部分的に透明度を高くしてアイコン12が生じる死角領域を低減しつつ、仮想視点10の位置に応じて周囲との間隔を把握し易い部位の透明度を下げて境界を明瞭にすることにより、車両1と周囲の物体との間隔を知覚し易くできる。
As described above, in the embodiment of the present invention, a plurality of regions having different transparency are set in the icon 12 according to the position of the virtual viewpoint 10 and rendered in the surrounding situation image.
For this reason, partially increasing the transparency to reduce the blind spot region where the icon 12 is generated, and lowering the transparency of the part where the distance from the surroundings can be easily grasped according to the position of the virtual viewpoint 10 to clarify the boundary Thus, it is possible to easily perceive the distance between the vehicle 1 and surrounding objects.

次に、図9を参照して第1実施形態に係る運転支援装置の一例の機能構成を説明する。上述したように運転支援装置30は、前方カメラ3Fと、後方カメラ3Bと、右側方カメラ3Rと、及び左側方カメラ3Lと、コントローラ4と、ディスプレイ装置5を備える。
コントローラ4は、仮想視点設定部32と、周囲状況画像生成部33と、透明度制御部34と、アイコン記憶部35と、アイコン描画部36を備える。例えば、コントローラ4が備えるCPUは、所定のコンピュータプログラムを実行することによって、これら仮想視点設定部32、周囲状況画像生成部33、透明度制御部34、及びアイコン描画部36が行なうべき処理を実行する。
Next, a functional configuration of an example of the driving support apparatus according to the first embodiment will be described with reference to FIG. As described above, the driving support device 30 includes the front camera 3F, the rear camera 3B, the right side camera 3R, the left side camera 3L, the controller 4, and the display device 5.
The controller 4 includes a virtual viewpoint setting unit 32, a surrounding situation image generation unit 33, a transparency control unit 34, an icon storage unit 35, and an icon drawing unit 36. For example, the CPU provided in the controller 4 executes a process to be performed by the virtual viewpoint setting unit 32, the surrounding situation image generation unit 33, the transparency control unit 34, and the icon drawing unit 36 by executing a predetermined computer program. .

仮想視点設定部32は、仮想視点10を設定する。仮想視点設定部32は、例えば運転者によるコントローラ4の操作に応じて仮想視点10をしてもよく、車両1の走行状況に応じて自動的に仮想視点10を設定してもよい。車両1の走行状況に応じた仮想視点10を設定の例は、後述の第2実施形態で説明する。仮想視点設定部32は、設定した仮想視点10を、周囲状況画像生成部33と透明度制御部34に出力する。
周囲状況画像生成部33は、前方カメラ3F、後方カメラ3B、右側方カメラ3R、及び左側方カメラ3Lにより各々撮影して得られた画像に基づいて、仮想視点設定部32が設定した仮想視点10から見た車両1の周囲状況を示す周囲状況画像を生成する。
The virtual viewpoint setting unit 32 sets the virtual viewpoint 10. For example, the virtual viewpoint setting unit 32 may set the virtual viewpoint 10 according to the operation of the controller 4 by the driver, or may automatically set the virtual viewpoint 10 according to the traveling state of the vehicle 1. An example of setting the virtual viewpoint 10 according to the traveling state of the vehicle 1 will be described in a second embodiment described later. The virtual viewpoint setting unit 32 outputs the set virtual viewpoint 10 to the surrounding situation image generation unit 33 and the transparency control unit 34.
The surrounding situation image generation unit 33 is a virtual viewpoint 10 set by the virtual viewpoint setting unit 32 based on images obtained by the front camera 3F, the rear camera 3B, the right side camera 3R, and the left side camera 3L. The surrounding situation image which shows the surrounding situation of the vehicle 1 seen from is produced | generated.

周囲状況画像生成部33は、視点変換部37と、合成部38を備える。視点変換部37は、前方カメラ3F、後方カメラ3B、右側方カメラ3R、及び左側方カメラ3Lから出力された画像を、仮想視点10から見た画像に変換して合成部38に出力する。
合成部38は、視点変換部37から出力される個別の視点変換された画像を合成し、車両1の周囲を仮想視点10から見た周囲状況画像を生成し、アイコン描画部36に出力する。
The surrounding situation image generation unit 33 includes a viewpoint conversion unit 37 and a synthesis unit 38. The viewpoint conversion unit 37 converts the images output from the front camera 3F, the rear camera 3B, the right side camera 3R, and the left side camera 3L into an image viewed from the virtual viewpoint 10, and outputs the image to the synthesis unit 38.
The synthesizing unit 38 synthesizes the individual viewpoint-converted images output from the viewpoint converting unit 37, generates a surrounding situation image in which the periphery of the vehicle 1 is viewed from the virtual viewpoint 10, and outputs it to the icon drawing unit 36.

透明度制御部34は、予め生成されアイコン記憶部35に格納された車両1のアイコン12を読み出す。例えば、アイコン12は複数領域に分割されてアイコン記憶部35に格納され、透明度制御部34は、分割された複数領域に異なる透明度を設定する。すなわち透明度制御部34は、分割されたアイコン12の複数領域のいずれかの透明度を他の領域の透明度と異ならせる。
例えば、透明度制御部34による透明度の設定態様は、図6〜図8を参照して前述したとおりであり、アイコン12は上面20T、底面20S、前面20F、背面20B、左側面20L及び右側面20Rの6つの領域に分割される。
The transparency control unit 34 reads the icon 12 of the vehicle 1 generated in advance and stored in the icon storage unit 35. For example, the icon 12 is divided into a plurality of regions and stored in the icon storage unit 35, and the transparency control unit 34 sets different transparency in the divided plurality of regions. That is, the transparency control unit 34 makes the transparency of any of the plurality of regions of the divided icon 12 different from the transparency of the other regions.
For example, the transparency setting mode by the transparency control unit 34 is as described above with reference to FIGS. 6 to 8, and the icons 12 are the upper surface 20T, the bottom surface 20S, the front surface 20F, the back surface 20B, the left side surface 20L, and the right side surface 20R. Are divided into six regions.

透明度制御部34は、複数領域の透明度が異なるアイコン12をアイコン描画部36へ出力する。
アイコン描画部36は、周囲状況画像生成部33が生成した周囲状況画像内に、透明度制御部34により透明度が設定されたアイコン12を描画し、複数領域の透明度が異なるアイコン12が描画された周囲状況画像をディスプレイ装置5へ出力する。ディスプレイ装置5は、アイコン描画部36が出力した周囲状況画像を表示する。
The transparency control unit 34 outputs icons 12 having different transparency levels in a plurality of areas to the icon drawing unit 36.
The icon drawing unit 36 draws the icon 12 in which the transparency is set by the transparency control unit 34 in the surrounding situation image generated by the surrounding situation image generation unit 33, and the surroundings in which icons 12 having different transparency in a plurality of regions are drawn. The situation image is output to the display device 5. The display device 5 displays the surrounding situation image output by the icon drawing unit 36.

(動作)
続いて、第1実施形態の運転支援装置30の動作を説明する。図10を参照する。
ステップS10において運転支援装置30は、ディスプレイ装置5への周囲状況画像の表示がオンになっているか否かを判断する。周囲状況画像の表示がオンになっている場合(S10:Y)に処理はステップS11に進む。周囲状況画像の表示がオンになっていない場合(S10:N)に処理はステップS10に戻る。
(Operation)
Then, operation | movement of the driving assistance apparatus 30 of 1st Embodiment is demonstrated. Please refer to FIG.
In step S10, the driving support device 30 determines whether or not the display of the surrounding situation image on the display device 5 is on. If the display of the surrounding situation image is on (S10: Y), the process proceeds to step S11. If the display of the surrounding situation image is not turned on (S10: N), the process returns to step S10.

ステップS11において仮想視点設定部32は、仮想視点10を設定する。
ステップS12において透明度制御部34は、3軸のうちZ軸が仮想視点10に最も近い軸であるか否かを判断する。Z軸が仮想視点10に最も近い軸である場合(S12:Y)に処理はステップS13に進む。Z軸が仮想視点10に最も近い軸でない場合(S12:N)に処理はステップS14に進む。
ステップS13において透明度制御部34は、アイコン12の上面20T及び右側面20Rの透明度を上げて比較的高い透明度を設定し、左側面20L、前面20F、背面20B及び底面20Sに比較的低い透明度を設定したままにする。その後処理はステップS17へ進む。
In step S11, the virtual viewpoint setting unit 32 sets the virtual viewpoint 10.
In step S <b> 12, the transparency control unit 34 determines whether or not the Z axis among the three axes is the closest axis to the virtual viewpoint 10. If the Z axis is the axis closest to the virtual viewpoint 10 (S12: Y), the process proceeds to step S13. If the Z axis is not the closest axis to the virtual viewpoint 10 (S12: N), the process proceeds to step S14.
In step S13, the transparency control unit 34 increases the transparency of the upper surface 20T and the right side 20R of the icon 12 to set relatively high transparency, and sets relatively low transparency to the left side 20L, the front surface 20F, the back surface 20B, and the bottom surface 20S. Leave. Thereafter, the process proceeds to step S17.

ステップS14において透明度制御部34は、3軸のうちX軸が仮想視点10に最も近い軸であるか否かを判断する。X軸が仮想視点10に最も近い軸である場合(S14:Y)に処理はステップS15に進む。X軸が仮想視点10に最も近い軸でない場合(S14:N)に処理はステップS16に進む。
ステップS15において透明度制御部34は、アイコン12の右側面20R及び左側面20Lの透明度を上げて比較的高い透明度を設定し、前面20F、背面20B、上面20T、及び底面20Sに比較的低い透明度を設定したままにする。その後処理はステップS17へ進む。
In step S <b> 14, the transparency control unit 34 determines whether or not the X axis of the three axes is the axis closest to the virtual viewpoint 10. If the X axis is the axis closest to the virtual viewpoint 10 (S14: Y), the process proceeds to step S15. If the X axis is not the closest axis to the virtual viewpoint 10 (S14: N), the process proceeds to step S16.
In step S15, the transparency control unit 34 sets a relatively high transparency by increasing the transparency of the right side surface 20R and the left side surface 20L of the icon 12, and sets a relatively low transparency on the front surface 20F, the back surface 20B, the top surface 20T, and the bottom surface 20S. Leave it set. Thereafter, the process proceeds to step S17.

ステップS16において透明度制御部34は、アイコン12の前面20F及び背面20Bの透明度を上げて比較的高い透明度を設定し、右側面20R、左側面20L、上面20T、及び底面20Sに比較的低い透明度を設定したままにする。その後処理はステップS17へ進む。
ステップS17において周囲状況画像生成部33は、仮想視点設定部32が設定した仮想視点10から見た周囲状況画像を生成する。
In step S16, the transparency control unit 34 sets a relatively high transparency by increasing the transparency of the front surface 20F and the back surface 20B of the icon 12, and sets a relatively low transparency on the right side surface 20R, the left side surface 20L, the top surface 20T, and the bottom surface 20S. Leave it set. Thereafter, the process proceeds to step S17.
In step S <b> 17, the ambient situation image generation unit 33 generates an ambient situation image viewed from the virtual viewpoint 10 set by the virtual viewpoint setting unit 32.

ステップS18においてアイコン描画部36は、周囲状況画像生成部33が生成した周囲状況画像内に、透明度制御部34により透明度が設定されたアイコン12を描画する。ディスプレイ装置5は、透明度制御部34により透明度が設定されたアイコン12が描画された周囲状況画像を表示する。
ステップS19において運転支援装置30は、ディスプレイ装置5への周囲状況画像の表示がオフになっているか否かを判断する。周囲状況画像の表示がオフになっている場合(S19:Y)に処理は終了する。周囲状況画像の表示がオフになっていない場合(S19:N)に処理はステップS20に進む。
ステップSにおいて仮想視点設定部32は、仮想視点10を変更すべきか否かを判断する。仮想視点10を変更する場合(S20:Y)に処理はステップS11へ戻る。仮想視点10を変更しない場合(S20:N)に処理はステップS17に戻る。
In step S <b> 18, the icon drawing unit 36 draws the icon 12 whose transparency is set by the transparency control unit 34 in the surrounding situation image generated by the surrounding situation image generating unit 33. The display device 5 displays an ambient state image in which the icon 12 with the transparency set by the transparency control unit 34 is drawn.
In step S <b> 19, the driving support device 30 determines whether the display of the surrounding situation image on the display device 5 is turned off. If the display of the surrounding situation image is off (S19: Y), the process ends. If the display of the surrounding situation image is not turned off (S19: N), the process proceeds to step S20.
In step S, the virtual viewpoint setting unit 32 determines whether or not the virtual viewpoint 10 should be changed. When the virtual viewpoint 10 is changed (S20: Y), the processing returns to step S11. If the virtual viewpoint 10 is not changed (S20: N), the process returns to step S17.

(変形例)
(1)仮想視点10の座標を表現する座標系は3次元直交座標系に限定されず、例えば、互いに直交する第1軸及び第2軸を少なくとも有する3次元座標系であってよい。このような3次元座標系の例は、動径の2個の偏角の基準となる2軸を有する球座標や、動径の1個の偏角の基準となる1軸と高さ方向の座標軸を有する円柱座標であってよい。
透明度制御部34は、互いに直交する第1軸及び第2軸、並びに第1軸と第2軸との交点を通り第1軸及び第2軸に直交する仮想直線のうち、いずれの直線が仮想視点10に最も近いかに応じて、アイコン12に透明度の異なる複数領域を設定してよい。
なお、3次元直交座標系を使用する場合には、第1軸、第2軸、並びに第1軸と第2軸との交点を通り第1軸及び第2軸に直交する仮想直線は、X軸、Y軸、Z軸の3軸に対応する。
(Modification)
(1) The coordinate system that expresses the coordinates of the virtual viewpoint 10 is not limited to a three-dimensional orthogonal coordinate system, and may be, for example, a three-dimensional coordinate system having at least a first axis and a second axis that are orthogonal to each other. Examples of such a three-dimensional coordinate system include a spherical coordinate having two axes serving as a reference for two declinations of a radius vector, and one axis and a height direction serving as a reference for one argument of a radius vector. It may be a cylindrical coordinate having a coordinate axis.
The transparency control unit 34 includes a first axis and a second axis that are orthogonal to each other, and an imaginary line that passes through the intersection of the first axis and the second axis and is orthogonal to the first axis and the second axis. Depending on whether it is closest to the viewpoint 10, a plurality of areas with different transparency may be set for the icon 12.
When a three-dimensional orthogonal coordinate system is used, the imaginary straight line passing through the first axis, the second axis, and the intersection of the first axis and the second axis and orthogonal to the first axis and the second axis is X This corresponds to the three axes of the axis, Y axis, and Z axis.

(2)アイコン12の6面のうちのある面に比較的高い透明度を設定する際に、この面の全範囲を比較的高い透明度にしなくてもよく、一部の領域のみを比較的高い透明度にしてもよい。同様に比較的低い透明度を設定する際に、この面の全範囲を比較的低い透明度にしなくてもよく、一部の領域のみを比較的低い透明度にしてもよい。
また、アイコン12は、予め複数の領域に分割されている必要はなく、仮想視点の位置に応じて透明度を設定すべきアイコン12の部分を決定すればよい。例えば、仮想視点10zが設定された周囲状況画像11(図6参照)において、左側面20Lのうち左前輪13FL及び左後輪13RLのみに比較的低い透明度を設定して、接地位置を視認し易くしてもよい。また、左側面20Lのうち地面から所定の高さの領域のみに比較的低い透明度を設定してもよい。
(2) When relatively high transparency is set for a certain one of the six faces of the icon 12, the entire range of this face does not have to be relatively high, and only a part of the area has relatively high transparency. It may be. Similarly, when setting a relatively low transparency, the entire range of this surface may not be set to a relatively low transparency, and only a part of the area may be set to a relatively low transparency.
Moreover, the icon 12 does not need to be divided into a plurality of regions in advance, and the portion of the icon 12 whose transparency should be set may be determined according to the position of the virtual viewpoint. For example, in the surrounding situation image 11 (see FIG. 6) in which the virtual viewpoint 10z is set, relatively low transparency is set only for the left front wheel 13FL and the left rear wheel 13RL in the left side surface 20L, so that the ground contact position is easily visible. May be. Moreover, you may set comparatively low transparency only to the area | region of predetermined height from the ground among the left side surfaces 20L.

(3)X軸、Y軸、Z軸の3軸のうち仮想視点10に最も近い軸と仮想視点10との間の距離が短いほど、比較的低い透明度が設定される領域が小さくなる。例えば、図6に示す仮想視点10zから見た周囲状況画像11において、左側面20Lに部分的に比較的低い透明度を設定する場合を想定する。左側面20LはZ軸に平行なので、Z軸と仮想視点10zとの間の距離が短くなると、左側面20Lにおいて比較的低い透明度を部分的に設定した領域が周囲状況画像11に占める面積が小さくなる。このため、左方の物体と車両1との間隔が視認しにくくなる。
したがって、X軸、Y軸、Z軸の3軸のうち仮想視点10に最も近い軸と仮想視点10との間の距離が短いほど比較的低い透明度を設定する領域を大きくして、比較的低い透明度が設定される領域の減少を緩和してもよい。
(3) The region where the relatively low transparency is set becomes smaller as the distance between the axis closest to the virtual viewpoint 10 and the virtual viewpoint 10 among the three axes of the X axis, the Y axis, and the Z axis is shorter. For example, in the surrounding situation image 11 viewed from the virtual viewpoint 10z shown in FIG. 6, it is assumed that a relatively low transparency is partially set on the left side surface 20L. Since the left side surface 20L is parallel to the Z-axis, when the distance between the Z-axis and the virtual viewpoint 10z is shortened, the area that the relatively low transparency is partially set on the left-side surface 20L occupies a small area in the surrounding situation image 11. Become. For this reason, it becomes difficult to visually recognize the distance between the left object and the vehicle 1.
Therefore, the region where the relatively low transparency is set is increased as the distance between the virtual viewpoint 10 and the axis closest to the virtual viewpoint 10 among the three axes of the X axis, the Y axis, and the Z axis is relatively low. You may reduce the reduction | decrease of the area | region where transparency is set.

(4)アイコン12は、アイコン記憶部35に予め格納されていてもよく、透明度制御部34がその都度生成してもよい。すなわち、透明度制御部34は、予め生成された不透明なアイコン12をアイコン記憶部35から読み出して、アイコン記憶部35から読み出したアイコン12の一部の透明度を変更してもよく、部分的に透明度が異なるアイコン12を初めから生成してもよい。   (4) The icon 12 may be stored in advance in the icon storage unit 35, or may be generated each time by the transparency control unit 34. In other words, the transparency control unit 34 may read the previously generated opaque icon 12 from the icon storage unit 35 and change the transparency of a part of the icon 12 read from the icon storage unit 35, and may be partially transparent. May be generated from the beginning.

(第1実施形態の効果)
(1)透明度制御部34は、仮想視点10の位置に応じて、車両1を示すアイコン12の中で、透明度が異なる領域を設定する。これにより、仮想視点に応じて生じる死角を抑制することができるようになる。さらに、アイコンの中で、一部の領域の透明度を低くすることにより、部分的に透明度を高くしてアイコン12が生じる死角領域を低減しつつ、仮想視点10の位置に応じて周囲との間隔を把握し易い部位の透明度を下げて明瞭にすることで、車両1と周囲の物体との距離を容易に知覚できる周囲状況画像を提供できる。
(Effect of 1st Embodiment)
(1) The transparency control unit 34 sets areas with different transparency in the icon 12 indicating the vehicle 1 according to the position of the virtual viewpoint 10. Thereby, it becomes possible to suppress a blind spot generated according to the virtual viewpoint. Further, by lowering the transparency of some areas in the icon, partially increasing the transparency to reduce the blind spot area where the icon 12 is generated, and the distance from the surroundings according to the position of the virtual viewpoint 10 It is possible to provide an ambient situation image that can easily perceive the distance between the vehicle 1 and the surrounding object by lowering the transparency of the part where it is easy to grasp the above.

(2)透明度制御部34は、アイコン12により周囲状況画像に生じる死角に応じて、アイコンの中で透明度が高い領域を設定する。これにより、アイコン12が生じる死角領域を低減するように透明度を高める領域を決定することができる。
(3)仮想視点10の座標は、互いに直交する第1軸及び第2軸を少なくとも有する座標系で表現される。透明度制御部34は、第1軸、第2軸、並びに第1軸と第2軸との交点を通り第1軸及び第2軸に直交する仮想直線のうちいずれの直線が仮想視点に最も近いかに応じて複数領域の透明度を設定する。
これにより、アイコン12が生じる死角領域を低減するように透明度を高める複数領域を決定できるとともに、仮想視点10の位置に応じて周囲との間隔を把握し易い領域を決定してその透明度を下げることで、車両1と周囲の物体との距離を知覚し易くできる。
(2) The transparency control unit 34 sets a region with high transparency in the icon according to the blind spot generated in the surrounding situation image by the icon 12. Thereby, the area | region which raises transparency can be determined so that the blind spot area | region where the icon 12 produces may be reduced.
(3) The coordinates of the virtual viewpoint 10 are expressed by a coordinate system having at least a first axis and a second axis that are orthogonal to each other. The transparency control unit 34 determines which one of the virtual straight lines passing through the first axis, the second axis, and the intersection of the first axis and the second axis and orthogonal to the first axis and the second axis is closest to the virtual viewpoint. Set the transparency of multiple areas according to how.
Thereby, it is possible to determine a plurality of areas for increasing transparency so as to reduce the blind spot area where the icon 12 is generated, and to determine an area where the distance from the surrounding can be easily grasped according to the position of the virtual viewpoint 10 and to reduce the transparency. Thus, the distance between the vehicle 1 and surrounding objects can be easily perceived.

(第2実施形態)
次に、第2実施形態を説明する。第2実施形態に係る運転支援装置30は、車両1の走行状況を検出し、検出した走行状況に応じてアイコン12に透明度が異なる複数領域を設定して周囲状況画像内に描画する。
走行状況として、例えば運転支援装置30は、車両1が走行する道路の形態を示す道路形態を検出してよい。道路形態には、例えば、狭路、合流、分岐、交差点等の道路の構造のほか、一般道、高速道路等の道路の種別が含まれる。
(Second Embodiment)
Next, a second embodiment will be described. The driving support device 30 according to the second embodiment detects the traveling state of the vehicle 1, sets a plurality of regions with different transparency in the icon 12 according to the detected traveling state, and draws the region in the surrounding state image.
For example, the driving support device 30 may detect a road form indicating the form of the road on which the vehicle 1 travels. The road form includes, for example, road types such as narrow roads, merges, branches, intersections, and road types such as general roads and highways.

また、例えば運転支援装置30は、車両1の周囲の物体のうち、車両1が走行する道路の道路形態に特有の運転者が注意すべき物体を走行状況として検出してもよい。道路の道路形態に特有の運転者が注意すべき物体は、例えば狭路における左走行路境界や、合流車線における本線上の先行車又は後続車である。
また、例えば運転支援装置30は、車両1の動作を検出し、車両1の周囲の物体のうち車両1の動作に特有の運転者が注意すべき物体を走行状況として検出してもよい。車両1の動作に特有の運転者が注意すべき物体は、例えば車線変更時における隣接車線の先行車又は後続車である。運転支援装置30は、運転者によるステアリングホイール、アクセルペダル、ブレーキ又はウインカーの操作により車両1の動作を検出してよい。
Further, for example, the driving support device 30 may detect an object that should be noted by the driver, which is specific to the road form of the road on which the vehicle 1 travels, among the objects around the vehicle 1 as the traveling state. The objects that should be noted by the driver specific to the road form of the road are, for example, the left traveling road boundary in a narrow road, and the preceding or succeeding vehicle on the main line in the merging lane.
Further, for example, the driving support device 30 may detect the operation of the vehicle 1, and may detect an object that should be noted by the driver peculiar to the operation of the vehicle 1 among the surrounding objects of the vehicle 1 as the traveling state. An object that should be noted by the driver specific to the operation of the vehicle 1 is, for example, a preceding vehicle or a succeeding vehicle in an adjacent lane when the lane is changed. The driving support device 30 may detect the operation of the vehicle 1 by an operation of a steering wheel, an accelerator pedal, a brake, or a winker by a driver.

図11を参照する。第2実施形態に係る運転支援装置30の構成要素のうち、第1実施形態に係る運転支援装置30と同様な構成要素には同一の符号を付する。
運転支援装置30は、環境検出部50と、物体検出部51と、走行状況判断部52とを備える。コントローラ4が備えるCPUは、所定のコンピュータプログラムを実行することによって、走行状況判断部52が行なうべき処理を実行する。
環境検出部50、物体検出部51、及び走行状況判断部52は、車両1の走行状況を検出する走行状況検出部を形成する。
Please refer to FIG. Among the components of the driving support device 30 according to the second embodiment, the same components as those of the driving support device 30 according to the first embodiment are denoted by the same reference numerals.
The driving support device 30 includes an environment detection unit 50, an object detection unit 51, and a traveling state determination unit 52. The CPU included in the controller 4 executes a process to be performed by the traveling state determination unit 52 by executing a predetermined computer program.
The environment detection unit 50, the object detection unit 51, and the traveling state determination unit 52 form a traveling state detection unit that detects the traveling state of the vehicle 1.

環境検出部50は、車両1の周囲の環境として、車両1が走行する道路の形態を示す道路形態を検出する。例えば、環境検出部50は、所定の地域内に存在する道路の道路形態のデータが格納されたデータベースを備えるナビゲーション装置であってもよい。環境検出部50は、例えばグローバル・ポジショニング・システム(GPS:Global Positioning System)や慣性航法装置により測定した車両1の現在位置情報に基づいて、車両1が走行する道路の形態を示す道路形態を検出してよい。環境検出部50は、検出した道路形態の情報を走行状況判断部52に出力する。   The environment detection unit 50 detects a road form indicating the form of the road on which the vehicle 1 travels as the environment around the vehicle 1. For example, the environment detection unit 50 may be a navigation device that includes a database that stores road form data of roads existing in a predetermined area. The environment detection unit 50 detects a road form indicating the form of the road on which the vehicle 1 travels based on current position information of the vehicle 1 measured by, for example, a global positioning system (GPS) or an inertial navigation device. You can do it. The environment detection unit 50 outputs the detected road form information to the traveling state determination unit 52.

物体検出部51は、車両1の周囲に存在する物体の有無や物体までの距離を検出する。物体検出部51は、例えばレーザレンジファインダーや、ミリ波レーダ等のセンサであってもよい。車両1の周囲の物体を撮影する前方カメラ3F、後方カメラ3B、右側方カメラ3R、及び左側方カメラ3Lを、物体検出部51として兼用してもよい。物体検出部51は、車両1の周囲の物体の検出結果を走行状況判断部52に出力する。   The object detection unit 51 detects the presence or absence of an object existing around the vehicle 1 and the distance to the object. The object detection unit 51 may be, for example, a sensor such as a laser range finder or a millimeter wave radar. The front camera 3 </ b> F, the rear camera 3 </ b> B, the right side camera 3 </ b> R, and the left side camera 3 </ b> L that capture an object around the vehicle 1 may also be used as the object detection unit 51. The object detection unit 51 outputs a detection result of objects around the vehicle 1 to the traveling state determination unit 52.

走行状況判断部52は、環境検出部50及び物体検出部51の検出結果に基づいて、検出された走行状況が、走行状況に応じた仮想視点10を設定すべき走行状況であるかを判断する。
例えば、環境検出部50によって車両1の走行路が狭路であると検出された場合に、走行状況判断部52は、車両1の走行状況がZ軸に近い仮想視点10zを設定すべき走行状況だと判断してよい。又は、車両1の走行路が狭路であると検出され、且つ物体検出部51によって左走行路境界との間隔が所定値以下であると検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10zを設定すべき走行状況だと判断してもよい。
Based on the detection results of the environment detection unit 50 and the object detection unit 51, the traveling state determination unit 52 determines whether the detected traveling state is a traveling state in which the virtual viewpoint 10 corresponding to the traveling state should be set. .
For example, when the environment detection unit 50 detects that the travel path of the vehicle 1 is a narrow road, the travel condition determination unit 52 sets the virtual viewpoint 10z in which the travel condition of the vehicle 1 is close to the Z axis. You may judge that. Alternatively, when the travel path of the vehicle 1 is detected as a narrow road and the object detection unit 51 detects that the distance from the left travel path boundary is equal to or less than a predetermined value, the travel condition determination unit 52 It may be determined that the driving situation 1 is a driving situation in which the virtual viewpoint 10z should be set.

また例えば、運転者によるウインカーの操作により車両1の車線変更を車両1の動作として検出した場合に、走行状況判断部52は、車両1の走行状況がX軸に近い仮想視点10xを設定すべき走行状況だと判断してよい。又は、車両1の車線変更が検出され、且つ物体検出部51によって後続車のみが検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。又は、車両1の車線変更が検出され、後続車のみが検出され、且つ環境検出部50によって車両1の走行路が高速道路であると検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。   Further, for example, when a lane change of the vehicle 1 is detected as an operation of the vehicle 1 by a driver operating a turn signal, the traveling state determination unit 52 should set a virtual viewpoint 10x in which the traveling state of the vehicle 1 is close to the X axis. You may judge that it is a driving situation. Alternatively, when a lane change of the vehicle 1 is detected and only the subsequent vehicle is detected by the object detection unit 51, the traveling state determination unit 52 is a traveling state in which the traveling state of the vehicle 1 should set the virtual viewpoint 10x. You may judge. Alternatively, when the lane change of the vehicle 1 is detected, only the following vehicle is detected, and the environment detection unit 50 detects that the traveling path of the vehicle 1 is a highway, the traveling state determination unit 52 It may be determined that the travel situation is a travel situation in which the virtual viewpoint 10x should be set.

又は、車両1の車線変更が検出され、且つ物体検出部51によって後続車及び先行車が検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。又は、車両1の車線変更が検出され、後続車及び先行車が検出され、且つ車両1の走行路が高速道路であると検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。   Alternatively, when a lane change of the vehicle 1 is detected and a subsequent vehicle and a preceding vehicle are detected by the object detection unit 51, the traveling state determination unit 52 travels the traveling state of the vehicle 1 that should set the virtual viewpoint 10x. You may judge that this is the situation. Alternatively, when the lane change of the vehicle 1 is detected, the following vehicle and the preceding vehicle are detected, and the traveling path of the vehicle 1 is detected to be a highway, the traveling state determination unit 52 determines the traveling state of the vehicle 1. May be determined as a traveling situation in which the virtual viewpoint 10x should be set.

また例えば、環境検出部50によって車両1の走行路が合流車線であると検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してよい。又は、車両1の走行路が合流車線であると検出され、且つ後続車のみが検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。又は、車両1の走行路が合流車線であると検出され、後続車のみが検出され、且つ車両1の走行路が高速道路であると検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。   In addition, for example, when the environment detection unit 50 detects that the traveling path of the vehicle 1 is a merged lane, the traveling state determination unit 52 determines that the traveling state of the vehicle 1 is a traveling state in which the virtual viewpoint 10x should be set. You can do it. Alternatively, when the travel path of the vehicle 1 is detected as a merged lane and only the following vehicle is detected, the travel status determination unit 52 is the travel status where the travel status of the vehicle 1 should set the virtual viewpoint 10x. You may judge. Alternatively, when the travel path of the vehicle 1 is detected as a merge lane, only the following vehicle is detected, and the travel path of the vehicle 1 is detected as an expressway, the travel status determination unit 52 It may be determined that the travel situation is a travel situation in which the virtual viewpoint 10x should be set.

又は、車両1の走行路が合流車線であると検出され、且つ後続車及び先行車が検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。又は、車両1の走行路が合流車線であると検出され、後続車及び先行車が検出され、且つ車両1の走行路が高速道路であると検出された場合に、走行状況判断部52は、車両1の走行状況が仮想視点10xを設定すべき走行状況だと判断してもよい。
走行状況判断部52は、これらの判断結果を仮想視点設定部32へ出力する。
Alternatively, when the travel path of the vehicle 1 is detected as a merged lane, and the subsequent vehicle and the preceding vehicle are detected, the travel state determination unit 52 travels the travel state of the vehicle 1 that should set the virtual viewpoint 10x. You may judge that this is the situation. Alternatively, when the travel path of the vehicle 1 is detected as a merging lane, the following vehicle and the preceding vehicle are detected, and the travel path of the vehicle 1 is detected as an expressway, the travel situation determination unit 52 It may be determined that the traveling state of the vehicle 1 is a traveling state in which the virtual viewpoint 10x should be set.
The traveling state determination unit 52 outputs these determination results to the virtual viewpoint setting unit 32.

さらに走行状況判断部52は、環境検出部50及び物体検出部51の検出結果に基づき、検出された走行状況が、透明度が異なる複数領域を設定すべき走行状況であるかを判断する。
例えば、車両1の走行路が狭路であると検出された場合に、走行状況判断部52は、車両1の走行状況が、少なくとも左側面20Lに比較的低い透明度を設定し上面20T及び右側面20Rに比較的高い透明度を設定すべき走行状況だと判断してよい。
又は、車両1の走行路が狭路であると検出され、且つ左走行路境界との間隔が所定値以下であると検出された場合に、少なくとも左側面20Lに比較的低い透明度を設定し上面20T及び右側面20Rに比較的高い透明度を設定すべき走行状況だと判断してもよい。
すなわち、車両1の周囲の物体である左走行路境界を検出した場合に、左走行路境界に対向する左側面20Lに比較的低い透明度を設定してよい。
Further, the traveling state determination unit 52 determines whether the detected traveling state is a traveling state in which a plurality of areas having different transparency levels should be set based on the detection results of the environment detection unit 50 and the object detection unit 51.
For example, when it is detected that the traveling path of the vehicle 1 is a narrow road, the traveling state determination unit 52 sets the relatively low transparency of the traveling state of the vehicle 1 at least on the left side surface 20L and sets the upper surface 20T and the right side surface. You may judge that it is the driving | running | working condition which should set comparatively high transparency to 20R.
Alternatively, when it is detected that the travel path of the vehicle 1 is a narrow path and the distance from the left travel path boundary is less than or equal to a predetermined value, at least the left side surface 20L is set with a relatively low transparency and the upper surface You may judge that it is the driving | running | working condition which should set comparatively high transparency to 20T and right side 20R.
That is, when a left travel road boundary that is an object around the vehicle 1 is detected, a relatively low transparency may be set on the left side surface 20L facing the left travel road boundary.

また例えば、車両1の車線変更を検出した場合に、走行状況判断部52は、車両1の走行状況が、少なくとも背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してよい。
又は、車両1の車線変更が検出され、且つ後続車のみが検出された場合に、少なくとも背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。すなわち、車両1の周囲の物体である後続車を検出した場合に、後続車に対向する背面20Bに比較的低い透明度を設定すべき走行状況だと判断してよい。
又は、車両1の車線変更が検出され、後続車のみが検出され、且つ車両1の走行路が高速道路であると検出された場合に、少なくとも背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。
Further, for example, when the lane change of the vehicle 1 is detected, the traveling state determination unit 52 sets the traveling state of the vehicle 1 to a relatively low transparency at least on the back surface 20B and relatively high on the right side surface 20R and the left side surface 20L. You may judge that it is a driving situation where transparency should be set.
Alternatively, when a lane change of the vehicle 1 is detected and only the following vehicle is detected, at least a relatively low transparency is set on the back surface 20B and a relatively high transparency is set on the right side surface 20R and the left side surface 20L. You may judge that this is the situation. That is, when a succeeding vehicle that is an object around the vehicle 1 is detected, it may be determined that it is a traveling situation in which a relatively low transparency should be set on the back surface 20B facing the succeeding vehicle.
Alternatively, when a lane change of the vehicle 1 is detected, only the following vehicle is detected, and it is detected that the travel path of the vehicle 1 is a highway, at least the rear surface 20B is set with a relatively low transparency and the right side surface 20R. In addition, it may be determined that the driving situation should set a relatively high transparency on the left side surface 20L.

又は、車両1の車線変更が検出され、且つ後続車及び先行車が検出された場合に、少なくとも前面20F及び背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。
すなわち、車両1の周囲の物体である先行車及び後続車を検出した場合に、先行車及び後続車にそれぞれ対向する前面20F及び背面20Bに比較的低い透明度を設定してよい。
又は、車両1の車線変更が検出され、後続車及び先行車が検出され、且つ車両1の走行路が高速道路であると検出された場合、少なくとも前面20F及び背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。
Alternatively, when a lane change of the vehicle 1 is detected and a subsequent vehicle and a preceding vehicle are detected, at least a relatively low transparency is set for the front surface 20F and the back surface 20B, and a relatively high transparency is set for the right side surface 20R and the left side surface 20L. It may be determined that the driving situation should be set.
That is, when the preceding vehicle and the following vehicle, which are objects around the vehicle 1, are detected, relatively low transparency may be set on the front surface 20F and the back surface 20B that face the preceding vehicle and the following vehicle, respectively.
Alternatively, when a lane change of the vehicle 1 is detected, a subsequent vehicle and a preceding vehicle are detected, and it is detected that the travel path of the vehicle 1 is an expressway, at least a relatively low transparency is set on the front surface 20F and the rear surface 20B. However, it may be determined that the driving situation should be set to a relatively high transparency on the right side surface 20R and the left side surface 20L.

また例えば、車両1の走行路が合流車線であると検出された場合に、走行状況判断部52は、車両1の走行状況が、少なくとも背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してよい。
又は、車両1の走行路が合流車線であると検出され、且つ後続車のみが検出された場合に、少なくとも背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。
すなわち、車両1の周囲の物体である後続車を検出した場合に、後続車に対向する背面20Bに比較的低い透明度を設定してよい。
又は、車両1の走行路が合流車線であると検出され、後続車のみが検出され、且つ車両1の走行路が高速道路であると検出された場合に、少なくとも背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。
Further, for example, when it is detected that the traveling path of the vehicle 1 is a merged lane, the traveling state determination unit 52 sets a relatively low transparency of the traveling state of the vehicle 1 at least on the back surface 20B and sets the right side surface 20R and the left side surface. You may judge that it is the driving | running | working condition which should set comparatively high transparency to the surface 20L.
Alternatively, when the travel path of the vehicle 1 is detected as a merge lane and only the following vehicle is detected, a relatively low transparency is set on at least the back surface 20B, and a relatively high transparency is set on the right side surface 20R and the left side surface 20L. It may be determined that the driving situation should be set.
That is, when a subsequent vehicle that is an object around the vehicle 1 is detected, a relatively low transparency may be set on the back surface 20B facing the subsequent vehicle.
Or, when the travel path of the vehicle 1 is detected as a merge lane, only the following vehicle is detected, and when the travel path of the vehicle 1 is detected as an expressway, at least the rear surface 20B has a relatively low transparency. You may judge that it is the driving | running | working condition which should set and set comparatively high transparency to the right side 20R and the left side 20L.

又は、車両1の走行路が合流車線であると検出され、且つ後続車及び先行車が検出された場合に、少なくとも前面20F及び背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。すなわち、車両1の周囲の物体である先行車及び後続車を検出した場合に、先行車及び後続車にそれぞれ対向する前面20F及び背面20Bに比較的低い透明度を設定してよい。
又は、車両1の走行路が合流車線であると検出され、後続車及び先行車が検出され、且つ車両1の走行路が高速道路であると検出された場合に、少なくとも前面20F及び背面20Bに比較的低い透明度を設定し右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断してもよい。
走行状況判断部52は、これらの判断結果を透明度制御部34へ出力する。
Alternatively, when the traveling path of the vehicle 1 is detected as a merge lane, and a subsequent vehicle and a preceding vehicle are detected, a relatively low transparency is set on at least the front surface 20F and the rear surface 20B, and the right side surface 20R and the left side surface 20L. It may be determined that the driving situation should be set to a relatively high transparency. That is, when the preceding vehicle and the following vehicle, which are objects around the vehicle 1, are detected, relatively low transparency may be set on the front surface 20F and the back surface 20B that face the preceding vehicle and the following vehicle, respectively.
Alternatively, when the travel path of the vehicle 1 is detected as a merge lane, the following vehicle and the preceding vehicle are detected, and the travel path of the vehicle 1 is detected as an expressway, at least on the front surface 20F and the rear surface 20B You may judge that it is the driving | running | working condition which should set comparatively low transparency and should set comparatively high transparency to the right side 20R and the left side 20L.
The traveling state determination unit 52 outputs these determination results to the transparency control unit 34.

仮想視点設定部32は、走行状況判断部52が出力した判断結果に基づいて仮想視点10を設定する。
透明度制御部34は、走行状況判断部52が出力した判断結果に基づいてアイコン12の上面20T、底面20S、前面20F、背面20B、左側面20L及び右側面20Rの透明度を設定する。例えば、車両1の走行状況が上面20Tに比較的高い透明度を設定すべき走行状況であると走行状況判断部52が判断した場合に上面20Tに比較的高い透明度を設定し、比較的低い透明度を設定すべき走行状況であると比較的低い透明度を設定する。底面20S、前面20F、背面20B、左側面20L及び右側面20Rについても同様である。
The virtual viewpoint setting unit 32 sets the virtual viewpoint 10 based on the determination result output by the traveling state determination unit 52.
The transparency control unit 34 sets the transparency of the upper surface 20T, the bottom surface 20S, the front surface 20F, the back surface 20B, the left side surface 20L, and the right side surface 20R of the icon 12 based on the determination result output by the traveling state determination unit 52. For example, when the traveling state determination unit 52 determines that the traveling state of the vehicle 1 is a traveling state where a relatively high transparency should be set on the upper surface 20T, the relatively high transparency is set on the upper surface 20T. A relatively low transparency is set for the driving situation to be set. The same applies to the bottom surface 20S, the front surface 20F, the back surface 20B, the left side surface 20L, and the right side surface 20R.

さらに、透明度制御部34は、物体検出部51により検出された先行車及び後続車までの距離を走行状況判断部52から取得してもよい。透明度制御部34は、先行車までの距離に応じて異なる透明度を前面20Fに設定してもよく、後続車までの距離に応じて異なる透明度を背面20Bに設定してもよい。
例えば、透明度制御部34は、先行車までの距離が短いほど、先行車に対向し比較的低い領域の透明度が設定された前面20Fの透明度をより低くしてもよい。また、透明度制御部34は、後続車までの距離が短いほど、後続車に対向し比較的低い領域の透明度が設定された背面20Bの透明度をより低くしてもよい。
Further, the transparency control unit 34 may acquire the distance to the preceding vehicle and the subsequent vehicle detected by the object detection unit 51 from the traveling state determination unit 52. The transparency control unit 34 may set different transparency on the front surface 20F depending on the distance to the preceding vehicle, and may set different transparency on the back surface 20B depending on the distance to the following vehicle.
For example, as the distance to the preceding vehicle is shorter, the transparency control unit 34 may lower the transparency of the front surface 20F that is opposed to the preceding vehicle and in which a relatively low region of transparency is set. In addition, the transparency control unit 34 may lower the transparency of the back surface 20 </ b> B in which the transparency of the relatively low area facing the succeeding vehicle is set as the distance to the succeeding vehicle is shorter.

続いて、第2実施形態の運転支援装置30の動作を説明する。図12を参照する。
ステップS30において運転支援装置30は、ディスプレイ装置5への周囲状況画像の表示がオンになっているか否かを判断する。周囲状況画像の表示がオンになっている場合(S30:Y)に処理はステップS31に進む。周囲状況画像の表示がオンになっていない場合(S30:N)に処理はステップS30に戻る。
ステップS31において環境検出部50は、車両1の走行路の道路形態を車両1の周囲の環境として検出する。
Then, operation | movement of the driving assistance apparatus 30 of 2nd Embodiment is demonstrated. Please refer to FIG.
In step S <b> 30, the driving support device 30 determines whether the display of the surrounding situation image on the display device 5 is on. If the display of the surrounding situation image is on (S30: Y), the process proceeds to step S31. If the display of the surrounding situation image is not turned on (S30: N), the process returns to step S30.
In step S <b> 31, the environment detection unit 50 detects the road form of the travel path of the vehicle 1 as the environment around the vehicle 1.

ステップS32において走行状況判断部52は、車両1の走行路が狭路又は高速道路であるか否かを判断する。車両1の走行路が狭路である場合(S32:狭路)に処理はステップS33に進む。車両1の走行路が高速道路である場合(S32:高速道路)に処理はステップS36に進む。車両1の走行路が狭路でも高速道路でもない場合(S32:どちらでもない)に処理はステップS45に進む。   In step S32, the traveling state determination unit 52 determines whether the traveling path of the vehicle 1 is a narrow road or an expressway. When the traveling path of the vehicle 1 is a narrow road (S32: narrow road), the process proceeds to step S33. If the travel path of the vehicle 1 is a highway (S32: highway), the process proceeds to step S36. If the travel path of the vehicle 1 is neither a narrow road nor a highway (S32: Neither), the process proceeds to step S45.

ステップS33において物体検出部51は、車両1の左端と左走行路境界との間隔を検出する。走行状況判断部52は、車両1の左端と左走行路境界との間隔が所定値以下であるか否かを判断する。車両1の左端と左走行路境界との間隔が所定値以下である場合(S33:Y)に、走行状況判断部52は、車両1の走行状況が、Z軸に近い仮想視点10zを設定すべき走行状況だと判断する。さらに、走行状況判断部52は、少なくとも左側面20Lに比較的低い透明度を設定し上面20T及び右側面20Rに比較的高い透明度を設定すべき走行状況だと判断する。そして処理はステップS34に進む。   In step S33, the object detection unit 51 detects the interval between the left end of the vehicle 1 and the left travel path boundary. The traveling state determination unit 52 determines whether or not the interval between the left end of the vehicle 1 and the left traveling road boundary is equal to or less than a predetermined value. When the distance between the left end of the vehicle 1 and the left travel path boundary is equal to or smaller than a predetermined value (S33: Y), the travel status determination unit 52 sets a virtual viewpoint 10z in which the travel status of the vehicle 1 is close to the Z axis. Judge that it is a driving situation. Furthermore, the traveling state determination unit 52 determines that it is a traveling state in which a relatively low transparency is set on at least the left side surface 20L and a relatively high transparency is set on the upper surface 20T and the right side surface 20R. Then, the process proceeds to step S34.

車両1の左端と左走行路境界との間隔が所定値以下でない場合(S33:N)に処理はステップS45へ進む。
ステップS34において仮想視点設定部32は仮想視点10zを設定する。
ステップS35において透明度制御部34は、少なくとも左側面20Lに比較的低い透明度を設定し上面20T及び右側面20Rに比較的高い透明度を設定する。その後に処理はステップS45へ進む。
When the interval between the left end of the vehicle 1 and the left travel path boundary is not less than or equal to the predetermined value (S33: N), the process proceeds to step S45.
In step S34, the virtual viewpoint setting unit 32 sets the virtual viewpoint 10z.
In step S35, the transparency control unit 34 sets a relatively low transparency on at least the left side surface 20L and sets a relatively high transparency on the upper surface 20T and the right side surface 20R. Thereafter, the process proceeds to step S45.

ステップS36において走行状況判断部52は、車両1が合流又は車線変更するか否かを判断する。車両1が合流又は車線変更する場合(S36:Y)に処理はステップS37に進む。車両1が合流又は車線変更しない場合(S35:N)に処理はステップS45へ進む。
ステップS37において物体検出部51は、車両1の周囲の物体の有無を検出する。走行状況判断部52は、後続車及び先行車があるか否かを判断する。後続車のみがある場合(S37:後続車のみ)に走行状況判断部52は、車両1の走行状況が、X軸に近い仮想視点10xを設定すべき走行状況だと判断する。さらに、走行状況判断部52は、少なくとも背面20Bに比較的低い透明度を設定し、右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断する。そして処理はステップS38に進む。
In step S <b> 36, the traveling state determination unit 52 determines whether the vehicle 1 joins or changes lanes. When the vehicle 1 joins or changes lanes (S36: Y), the process proceeds to step S37. If the vehicle 1 does not merge or change lanes (S35: N), the process proceeds to step S45.
In step S <b> 37, the object detection unit 51 detects the presence or absence of objects around the vehicle 1. The traveling state determination unit 52 determines whether there are a following vehicle and a preceding vehicle. When there is only the subsequent vehicle (S37: only the subsequent vehicle), the traveling state determination unit 52 determines that the traveling state of the vehicle 1 is a traveling state in which the virtual viewpoint 10x close to the X axis is to be set. Furthermore, the traveling state determination unit 52 determines that the traveling state should set a relatively low transparency on at least the back surface 20B and set a relatively high transparency on the right side surface 20R and the left side surface 20L. Then, the process proceeds to step S38.

後続車及び先行車の両方がある場合(S37:両方あり)に走行状況判断部52は、車両1の走行状況が、X軸に近い仮想視点10xを設定すべき走行状況だと判断する。さらに走行状況判断部52は、少なくとも前面20F及び背面20Bに比較的低い透明度を設定し、右側面20R及び左側面20Lに比較的高い透明度を設定すべき走行状況だと判断する。そして処理はステップS40に進む。
後続車も先行車もない場合(S:なし)に処理はステップS42に進む。
When there are both the following vehicle and the preceding vehicle (S37: both are present), the traveling state determination unit 52 determines that the traveling state of the vehicle 1 is a traveling state in which a virtual viewpoint 10x close to the X axis is to be set. Further, the traveling state determination unit 52 determines that it is a traveling state in which relatively low transparency is set on at least the front surface 20F and the back surface 20B, and relatively high transparency is set on the right side surface 20R and the left side surface 20L. Then, the process proceeds to step S40.
If there is no succeeding vehicle or preceding vehicle (S: none), the process proceeds to step S42.

ステップS38において仮想視点設定部32は、仮想視点10xを設定する。ステップS39において透明度制御部34は、なくとも背面20Bに比較的低い透明度を設定し、右側面20R及び左側面20Lに比較的高い透明度を設定する。その後に処理はステップS43に進む。
ステップS40において仮想視点設定部32は、仮想視点10xを設定する。ステップS41において透明度制御部34は、少なくとも前面20F及び背面20Bに比較的低い透明度を設定し、右側面20R及び左側面20Lに比較的高い透明度を設定する。その後に処理はステップS43に進む。
ステップS42において仮想視点設定部32は、仮想視点10xを設定する。その後、アイコン12の透明度を変更することなく(例えば、アイコン12の全体に比較的低い透明度を設定したまま)処理はステップS45に進む。
In step S38, the virtual viewpoint setting unit 32 sets the virtual viewpoint 10x. In step S39, the transparency control unit 34 sets a relatively low transparency on the back surface 20B, and sets a relatively high transparency on the right side surface 20R and the left side surface 20L. Thereafter, the process proceeds to step S43.
In step S40, the virtual viewpoint setting unit 32 sets the virtual viewpoint 10x. In step S41, the transparency control unit 34 sets relatively low transparency on at least the front surface 20F and the back surface 20B, and sets relatively high transparency on the right side surface 20R and the left side surface 20L. Thereafter, the process proceeds to step S43.
In step S42, the virtual viewpoint setting unit 32 sets the virtual viewpoint 10x. Thereafter, the process proceeds to step S45 without changing the transparency of the icon 12 (for example, while the relatively low transparency is set for the entire icon 12).

ステップS37において後続車のみが検出された場合に、ステップS43において透明度制御部34は、後続車との車間距離が所定値以下であるか否かを判断する。後続車との車間距離が所定値以下である場合(ステップS43:Y)に処理はステップS44に進む。後続車との車間距離が所定値以下でない場合(ステップS43:N)に処理はステップS45へ進む。ステップS44において透明度制御部34は、ステップS39で透明度を下げた背面20Bの透明度をさらに下げる。その後に処理はステップS45へ進む。   When only the following vehicle is detected in step S37, in step S43, the transparency control unit 34 determines whether or not the inter-vehicle distance from the following vehicle is equal to or less than a predetermined value. If the inter-vehicle distance with the following vehicle is equal to or smaller than the predetermined value (step S43: Y), the process proceeds to step S44. If the inter-vehicle distance with the following vehicle is not less than the predetermined value (step S43: N), the process proceeds to step S45. In step S44, the transparency control unit 34 further lowers the transparency of the back surface 20B whose transparency has been lowered in step S39. Thereafter, the process proceeds to step S45.

ステップS37において先行車及び後続車のみが検出された場合に、ステップS43において透明度制御部34は、先行車との車間距離及び後続車との車間距離の各々が所定値以下であるか否かを判断する。後続車との車間距離及び後続車と車間距離のどちらも所定値以下でない場合(ステップS43:N)に処理はステップS45へ進む。
先行車との車間距離が所定値以下である場合(ステップS43:Y)に処理はステップS44へ進む。ステップS44において透明度制御部34は、ステップS41で透明度を下げた前面20Fの透明度をさらに下げる。その後に処理はステップS45へ進む。
また、後続車との車間距離が所定値以下である場合(ステップS43:Y)に処理はステップS44へ進む。ステップS44において透明度制御部34は、ステップS41において透明度を下げた背面20Bの透明度をさらに下げる。その後に処理はステップS45へ進む。
When only the preceding vehicle and the following vehicle are detected in step S37, in step S43, the transparency control unit 34 determines whether or not each of the inter-vehicle distance with the preceding vehicle and the inter-vehicle distance with the following vehicle is equal to or less than a predetermined value. to decide. If neither the distance between the following vehicle nor the distance between the following vehicle and the following vehicle is less than the predetermined value (step S43: N), the process proceeds to step S45.
If the inter-vehicle distance with the preceding vehicle is equal to or less than the predetermined value (step S43: Y), the process proceeds to step S44. In step S44, the transparency control unit 34 further lowers the transparency of the front surface 20F whose transparency has been lowered in step S41. Thereafter, the process proceeds to step S45.
If the inter-vehicle distance with the following vehicle is equal to or smaller than the predetermined value (step S43: Y), the process proceeds to step S44. In step S44, the transparency control unit 34 further lowers the transparency of the back surface 20B whose transparency has been lowered in step S41. Thereafter, the process proceeds to step S45.

ステップS45において周囲状況画像生成部33は、仮想視点設定部32が設定した仮想視点10から見た周囲状況画像を生成する。
ステップS46においてアイコン描画部36は、周囲状況画像生成部33が生成した周囲状況画像内に、透明度制御部34により透明度が設定されたアイコン12を描画する。ディスプレイ装置5は、透明度制御部34により透明度が設定されたアイコン12が描画された周囲状況画像を表示する。
ステップS47において運転支援装置30は、ディスプレイ装置5への周囲状況画像の表示がオフになっているか否かを判断する。周囲状況画像の表示がオフになっている場合(S47:Y)に処理は終了する。周囲状況画像の表示がオフになっていない場合(S47:N)に処理はステップS31に戻る。
In step S <b> 45, the ambient situation image generation unit 33 generates an ambient situation image viewed from the virtual viewpoint 10 set by the virtual viewpoint setting unit 32.
In step S <b> 46, the icon drawing unit 36 draws the icon 12 whose transparency is set by the transparency control unit 34 in the surrounding situation image generated by the surrounding situation image generating unit 33. The display device 5 displays an ambient state image in which the icon 12 with the transparency set by the transparency control unit 34 is drawn.
In step S47, the driving support device 30 determines whether or not the display of the surrounding situation image on the display device 5 is turned off. If the display of the surrounding situation image is off (S47: Y), the process ends. If the display of the surrounding situation image is not turned off (S47: N), the process returns to step S31.

(変形例)
(1)透明度制御部34は、走行状況判断部52による判断結果に応じて仮想視点設定部32が設定した仮想視点10の位置に応じて、アイコン12の中で、透明度が高い領域をアイコン12に設定する。仮想視点10に応じた透明度の設定方法は第1実施形態の設定方法と同じである。このため、車両1の走行状況に応じて仮想視点10が設定された周囲状況画像において、アイコン12が生じる死角領域を低減しつつ、仮想視点10の位置に応じて周囲との間隔を把握し易くなり、車両1と周囲の物体との距離の知覚を容易にできる。
(2)物体検出部51及び走行状況判断部52は、車両1の走行状況として車両1の周囲の物体を検出する。透明度制御部34は、検出した物体がアイコンによる死角に入る場合に、透明度が高い領域をアイコンの中に設定する。
走行状況判断部52は、物体検出部51が検出した車両1の周囲の物体が、周囲状況画像においてアイコン12により生じる死角に入るか否かを、仮想視点設定部32が設定した仮想視点10の位置に応じて判断してもよい。
透明度制御部34は、物体検出部51が検出した物体がいずれかの領域の死角に入ると走行状況判断部52が判断した場合に、透明度が高い領域をアイコン12の中に設定する。これにより、アイコン12により生じる死角に車両1の周囲の物体が入り運転者が見落とすことを防止できる。
また、透明度制御部34は、物体検出部51が検出した物体がアイコン12により生じる死角に入らないと走行状況判断部52が判断した場合に、透明度が低い領域をアイコン12の中に設定する。これにより、アイコン12の縁を明瞭に表示されるので、車両1の周囲の物体との間隔を知覚し易くなる。
(Modification)
(1) The transparency control unit 34 selects an area with high transparency in the icon 12 according to the position of the virtual viewpoint 10 set by the virtual viewpoint setting unit 32 according to the determination result by the traveling state determination unit 52. Set to. The transparency setting method according to the virtual viewpoint 10 is the same as the setting method of the first embodiment. For this reason, in the surrounding situation image in which the virtual viewpoint 10 is set according to the traveling state of the vehicle 1, it is easy to grasp the distance from the surroundings according to the position of the virtual viewpoint 10 while reducing the blind spot area where the icon 12 is generated. Thus, the distance between the vehicle 1 and surrounding objects can be easily perceived.
(2) The object detection unit 51 and the traveling state determination unit 52 detect objects around the vehicle 1 as the traveling state of the vehicle 1. The transparency control unit 34 sets a region with high transparency in the icon when the detected object enters the blind spot by the icon.
The traveling state determination unit 52 determines whether the virtual viewpoint 10 set by the virtual viewpoint setting unit 32 determines whether or not an object around the vehicle 1 detected by the object detection unit 51 enters a blind spot caused by the icon 12 in the surrounding state image. You may judge according to a position.
The transparency control unit 34 sets a region with high transparency in the icon 12 when the traveling state determination unit 52 determines that the object detected by the object detection unit 51 enters the blind spot of any region. As a result, it is possible to prevent an object around the vehicle 1 from entering the blind spot caused by the icon 12 and overlooked by the driver.
Further, the transparency control unit 34 sets a region with low transparency in the icon 12 when the traveling state determination unit 52 determines that the object detected by the object detection unit 51 does not enter the blind spot caused by the icon 12. Thereby, since the edge of the icon 12 is displayed clearly, it becomes easy to perceive the space | interval with the surrounding object of the vehicle 1. FIG.

(3)仮想視点設定部32は、走行状況毎に予め定められた仮想視点10のうちから検出された走行状況に応じた仮想視点10を選択してもよく、走行状況に応じて仮想視点10を計算して仮想視点10を定めてもよい。例えば、物体検出部51により検出された車両1の左端と左走行路境界との間隔や、周囲の他車両との車間距離や、車両1の速度等の連続的な変化に伴って連続的に変化するように仮想視点10を定めてもよい。   (3) The virtual viewpoint setting unit 32 may select the virtual viewpoint 10 according to the traveling situation detected from the virtual viewpoints 10 determined in advance for each traveling situation, and the virtual viewpoint 10 according to the traveling situation. The virtual viewpoint 10 may be determined by calculating For example, the distance between the left end of the vehicle 1 detected by the object detection unit 51 and the left road boundary, the inter-vehicle distance from other surrounding vehicles, the speed of the vehicle 1 and the like are continuously changed. The virtual viewpoint 10 may be determined so as to change.

(第2実施例の効果)
(1)環境検出部50、物体検出部51及び走行状況判断部52は、車両1の走行状況を検出し、透明度制御部34は、検出した走行状況に応じて、アイコン12の中で、透明度が低い領域を設定する。
これにより、部分的に透明度を高くしてアイコン12が生じる死角領域を低減しつつ、走行状況に応じた車両1の周囲の注意対象に近い部位の透明度を下げて境界を明瞭にすることにより、車両1と注意対象との距離の知覚が容易になる。
(Effect of the second embodiment)
(1) The environment detection unit 50, the object detection unit 51, and the traveling state determination unit 52 detect the traveling state of the vehicle 1, and the transparency control unit 34 determines the transparency in the icon 12 according to the detected traveling state. Set the area where is low.
Thereby, by partially increasing the transparency and reducing the blind spot area where the icon 12 is generated, by lowering the transparency of the part near the attention object around the vehicle 1 according to the driving situation, It becomes easy to perceive the distance between the vehicle 1 and the attention object.

(2)物体検出部51及び走行状況判断部52は、走行状況として車両1の周囲の物体を検出する。透明度制御部34は、アイコン12の複数領域のうち検出した物体に対向する領域に比較的低い透明度を設定する。これにより、車両1の周囲の注意対象の物体に近い部位の透明度を下げて境界を明瞭にすることにより、車両1と注意対象との距離の知覚が容易になる。
(3)透明度制御部34は、検出した物体と車両1との距離が短いほど、検出した物体に対向する領域の透明度を下げる。これにより、注意対象の物体との距離が大きいときは透明度が高い領域を増やして死角を低減できるとともに、注意対象の物体との距離が短いときは注意対象に近い部位の透明度を下げて車両1と注意対象との距離の知覚が容易にすることができる。
(2) The object detection unit 51 and the traveling state determination unit 52 detect objects around the vehicle 1 as the traveling state. The transparency control unit 34 sets a relatively low transparency in a region facing the detected object among the plurality of regions of the icon 12. Thereby, the perception of the distance between the vehicle 1 and the attention object is facilitated by lowering the transparency of a portion near the object of attention around the vehicle 1 to make the boundary clear.
(3) The transparency control unit 34 decreases the transparency of the area facing the detected object as the distance between the detected object and the vehicle 1 is shorter. Thereby, when the distance to the attention target object is large, the area with high transparency can be increased to reduce the blind spot, and when the distance to the attention target object is short, the transparency of the part close to the attention target is decreased to reduce the vehicle 1 And the perception of the distance from the attention object can be facilitated.

1…車両、2FR…右前輪、2FL…左前輪、2RR…右後輪、2RL…左後輪、3F…前方カメラ、3B…後方カメラ、3R…右側方カメラ、3L…左側方カメラ、4…コントローラ、5…ディスプレイ装置、10x、10y、10z…仮想視点、11、15、17…周囲状況画像、12…アイコン、30…運転支援装置、32…仮想視点設定部、33…周囲状況画像生成部、34…透明度制御部、35…アイコン記憶部、36…アイコン描画部、37…視点変換部、38…合成部、50…環境検出部、51…物体検出部、52…走行状況判断部   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2FR ... Right front wheel, 2FL ... Left front wheel, 2RR ... Right rear wheel, 2RL ... Left rear wheel, 3F ... Front camera, 3B ... Rear camera, 3R ... Right side camera, 3L ... Left side camera, 4 ... Controller, 5 ... Display device, 10x, 10y, 10z ... Virtual viewpoint, 11, 15, 17 ... Ambient situation image, 12 ... Icon, 30 ... Driving support device, 32 ... Virtual viewpoint setting unit, 33 ... Ambient situation image generation unit 34 ... Icon storage unit, 36 ... Icon drawing unit, 37 ... View point conversion unit, 38 ... Composition unit, 50 ... Environment detection unit, 51 ... Object detection unit, 52 ... Travel condition determination unit

Claims (15)

自車両の周囲の画像を撮像し、
撮像された前記画像に基づき仮想視点から見た前記自車両の周囲状況を示す周囲状況画像を生成し、
前記仮想視点の位置に応じて、前記自車両を示すアイコンの中で、透明度が異なる領域を設定して、透明度が高い領域を前記周囲状況画像内に描画し、
前記仮想視点の位置に応じて設定された前記透明度が高い領域を描画した前記周囲状況画像を表示する、
ことを特徴とする表示方法。
Take an image of the surroundings of your vehicle,
Based on the captured image, generate a surrounding situation image showing the surrounding situation of the host vehicle viewed from a virtual viewpoint,
According to the position of the virtual viewpoint, in the icon indicating the host vehicle, a region with different transparency is set, and a region with high transparency is drawn in the surrounding situation image,
Displaying the surrounding situation image in which the region with high transparency set according to the position of the virtual viewpoint is drawn;
A display method characterized by that.
前記アイコンにより前記周囲状況画像に生じる死角に応じて、前記透明度が高い領域を設定することを特徴とする請求項1に記載の表示方法。   The display method according to claim 1, wherein the high transparency region is set according to a blind spot generated in the surrounding situation image by the icon. 前記自車両の走行状況を検出し、
検出した前記走行状況に応じて前記仮想視点を設定することを特徴とする請求項1又は2に記載の表示方法。
Detecting the running situation of the vehicle,
The display method according to claim 1, wherein the virtual viewpoint is set according to the detected traveling situation.
前記走行状況として前記自車両の周囲の物体を検出し、
前記アイコンの中で、前記物体に対向する領域に比較的低い透明度を設定することを特徴とする請求項3に記載の表示方法。
Detecting objects around the host vehicle as the driving situation,
The display method according to claim 3, wherein a relatively low transparency is set in a region facing the object in the icon.
前記自車両と前記物体との距離が短いほど透明度を低くすることを特徴とする請求項4に記載の表示方法。   The display method according to claim 4, wherein the transparency is lowered as the distance between the host vehicle and the object is shorter. 互いに直交する第1軸及び第2軸を少なくとも有する座標系で前記仮想視点の座標を表現し、
前記第1軸、前記第2軸、並びに前記第1軸と前記第2軸との交点を通り前記第1軸及び前記第2軸に直交する仮想直線のうちいずれの直線が前記仮想視点に最も近いかに応じて、前記透明度が高い領域を設定することを特徴とする請求項1〜5のいずれか一項に記載の表示方法。
Expressing the coordinates of the virtual viewpoint in a coordinate system having at least a first axis and a second axis orthogonal to each other;
Any one of the first axis, the second axis, and a virtual line that passes through the intersection of the first axis and the second axis and is orthogonal to the first axis and the second axis is the most suitable for the virtual viewpoint. The display method according to claim 1, wherein an area having a high transparency is set according to whether the area is close.
前記仮想視点は、前記第1軸、前記第2軸及び前記仮想直線のうち前記仮想視点に最も近い第1直線上の位置から、前記第1軸、前記第2軸及び前記仮想直線のうち前記仮想視点に2番目に近い第2直線が伸びる方向へずれた位置に設定され、
前記アイコンとして、上面、底面、前面、背面、左側面及び右側面を含む6つの面を有する立体モデルを描画し、
前記6つの面のうち、前記第1直線との法線のなす角が小さい順に上位2つの面が、前記仮想視点に比較的近い第1面と比較的遠い第2面とを含み、前記第2直線との法線のなす角が小さい順に上位2つの面が、前記仮想視点に比較的近い第3面と比較的遠い第4面とを含む場合に、前記第2面及び前記第4面の少なくとも一方並びに前記第1面に比較的高い透明度を設定し、
前記6つの面のうち前記第1面、前記第2面及び前記第4面以外の3つの面のうち少なくとも1つに比較的低い透明度を設定することを特徴とする請求項6に記載の表示方法。
The virtual viewpoint is a position on the first straight line that is closest to the virtual viewpoint among the first axis, the second axis, and the virtual straight line, and the first axis, the second axis, and the virtual straight line. The second straight line that is second closest to the virtual viewpoint is set at a position shifted in the extending direction,
As the icon, a three-dimensional model having six surfaces including a top surface, a bottom surface, a front surface, a back surface, a left side surface, and a right side surface is drawn.
Of the six surfaces, the top two surfaces in ascending order of the angle formed by the normal to the first straight line include a first surface that is relatively close to the virtual viewpoint and a second surface that is relatively far away, When the upper two surfaces in the order of decreasing angle formed by the normal to two straight lines include the third surface relatively close to the virtual viewpoint and the fourth surface relatively distant, the second surface and the fourth surface A relatively high transparency on at least one of the first surface and the first surface,
The display according to claim 6, wherein a relatively low transparency is set on at least one of the six surfaces other than the first surface, the second surface, and the fourth surface. Method.
前記第1直線と前記仮想視点との間の距離が短いほど比較的低い透明度が設定される領域を広くすることを特徴とする請求項6又は7に記載の表示方法。   The display method according to claim 6 or 7, wherein a region where a relatively low transparency is set is made wider as a distance between the first straight line and the virtual viewpoint is shorter. 自車両の周囲の画像を撮像し、
前記自車両の走行状況を検出し、
撮像された前記画像に基づき仮想視点から見た前記自車両の周囲状況を示す周囲状況画像を生成し、
検出した前記走行状況に応じて、前記自車両を示すアイコンの中で、透明度が異なる領域を設定して、透明度が高い領域を前記周囲状況画像内に描画し、
前記走行状況に応じて設定された前記透明度が高い領域を描画した前記周囲状況画像を表示する、
ことを特徴とする表示方法。
Take an image of the surroundings of your vehicle,
Detecting the running situation of the vehicle,
Based on the captured image, generate a surrounding situation image showing the surrounding situation of the host vehicle viewed from a virtual viewpoint,
In accordance with the detected driving situation, in the icon indicating the host vehicle, a region with different transparency is set, and a region with high transparency is drawn in the surrounding situation image,
Displaying the surrounding situation image in which the region with high transparency set according to the running situation is drawn;
A display method characterized by that.
前記走行状況として前記自車両の周囲の物体を検出し、
前記アイコンの中で、前記物体に対向する領域に比較的低い透明度を設定することを特徴とする請求項9に記載の表示方法。
Detecting objects around the host vehicle as the driving situation,
The display method according to claim 9, wherein a relatively low transparency is set in a region facing the object in the icon.
前記自車両と前記物体との距離が短いほど透明度を低くすることを特徴とする請求項10に記載の表示方法。   The display method according to claim 10, wherein the transparency is lowered as the distance between the host vehicle and the object is shorter. 前記走行状況として前記自車両の周囲の物体を検出し、
前記物体が、前記アイコンにより生じる死角に入る場合に、前記透明度が高い領域を前記アイコンの中に設定することを特徴とする請求項9に記載の表示方法。
Detecting objects around the host vehicle as the driving situation,
The display method according to claim 9, wherein when the object enters a blind spot caused by the icon, the region with the high transparency is set in the icon.
前記走行状況として前記自車両の周囲の物体を検出し、
前記物体が、前記アイコンにより生じる死角に入らない場合に、前記透明度が高い領域よりも透明度が低い領域を前記アイコンの中に設定することを特徴とする請求項9に記載の表示方法。
Detecting objects around the host vehicle as the driving situation,
The display method according to claim 9, wherein when the object does not enter a blind spot caused by the icon, a region having a lower transparency than the region having a high transparency is set in the icon.
自車両の周囲の画像を撮像する撮像素子と、
前記撮像素子により撮像された前記画像に基づき仮想視点から見た前記自車両の周囲状況を示す周囲状況画像を生成し、前記仮想視点の位置に応じて前記自車両を示すアイコンの中に透明度が異なる領域を設定して、透明度が高い領域を前記周囲状況画像内に描画するコントローラと、
前記仮想視点の位置に応じて設定された前記透明度が高い領域を描画した前記周囲状況画像を表示するディスプレイと、
を備えることを特徴とする運転支援装置。
An image sensor for capturing an image of the surroundings of the host vehicle;
Based on the image picked up by the image pickup device, a surrounding situation image showing the surrounding situation of the host vehicle viewed from a virtual viewpoint is generated, and transparency is displayed in an icon indicating the host vehicle according to the position of the virtual viewpoint. A controller that sets different regions and draws a region with high transparency in the surrounding situation image;
A display for displaying the surrounding situation image in which the region with high transparency set according to the position of the virtual viewpoint is drawn;
A driving support apparatus comprising:
自車両の周囲の画像を撮像する撮像素子と、
前記撮像素子により撮像された前記画像に基づき仮想視点から見た前記自車両の周囲状況を示す周囲状況画像を生成し、前記自車両の走行状況に応じて前記自車両を示すアイコンの中に透明度が異なる領域を設定して、透明度が高い領域を前記周囲状況画像内に描画するコントローラと、
前記走行状況に応じて設定された前記透明度が高い領域を描画した前記周囲状況画像を表示するディスプレイと、
を備えることを特徴とする運転支援装置。
An image sensor for capturing an image of the surroundings of the host vehicle;
Based on the image picked up by the image pickup device, a surrounding state image showing the surrounding state of the host vehicle viewed from a virtual viewpoint is generated, and transparency is displayed in an icon indicating the host vehicle according to the traveling state of the host vehicle. Set different areas, and draw a high transparency area in the ambient situation image;
A display for displaying the surrounding situation image in which the region with high transparency set according to the traveling situation is drawn;
A driving support apparatus comprising:
JP2016085245A 2016-04-21 2016-04-21 Display method and driving support device Active JP6662175B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016085245A JP6662175B2 (en) 2016-04-21 2016-04-21 Display method and driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016085245A JP6662175B2 (en) 2016-04-21 2016-04-21 Display method and driving support device

Publications (2)

Publication Number Publication Date
JP2017195533A true JP2017195533A (en) 2017-10-26
JP6662175B2 JP6662175B2 (en) 2020-03-11

Family

ID=60156559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016085245A Active JP6662175B2 (en) 2016-04-21 2016-04-21 Display method and driving support device

Country Status (1)

Country Link
JP (1) JP6662175B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110316064A (en) * 2018-03-30 2019-10-11 深圳市掌网科技股份有限公司 A kind of vehicle blind zone display system
JP2020088697A (en) * 2018-11-28 2020-06-04 アイシン精機株式会社 Periphery monitoring device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093567A (en) * 2008-10-08 2010-04-22 Panasonic Corp Image processing apparatus
JP2010231276A (en) * 2009-03-25 2010-10-14 Fujitsu Ltd Method and apparatus for processing image
JP2014060646A (en) * 2012-09-19 2014-04-03 Fujitsu Ten Ltd Image processing apparatus, image processing method, and image processing system
JP2014068308A (en) * 2012-09-27 2014-04-17 Fujitsu Ten Ltd Image generation device, image display system, and image generation method
JP2016119558A (en) * 2014-12-19 2016-06-30 株式会社デンソー Video processing device and on-vehicle video processing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093567A (en) * 2008-10-08 2010-04-22 Panasonic Corp Image processing apparatus
JP2010231276A (en) * 2009-03-25 2010-10-14 Fujitsu Ltd Method and apparatus for processing image
JP2014060646A (en) * 2012-09-19 2014-04-03 Fujitsu Ten Ltd Image processing apparatus, image processing method, and image processing system
JP2014068308A (en) * 2012-09-27 2014-04-17 Fujitsu Ten Ltd Image generation device, image display system, and image generation method
JP2016119558A (en) * 2014-12-19 2016-06-30 株式会社デンソー Video processing device and on-vehicle video processing system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110316064A (en) * 2018-03-30 2019-10-11 深圳市掌网科技股份有限公司 A kind of vehicle blind zone display system
CN110316064B (en) * 2018-03-30 2022-08-16 深圳市掌网科技股份有限公司 Vehicle blind area display system
JP2020088697A (en) * 2018-11-28 2020-06-04 アイシン精機株式会社 Periphery monitoring device
JP7283059B2 (en) 2018-11-28 2023-05-30 株式会社アイシン Perimeter monitoring device

Also Published As

Publication number Publication date
JP6662175B2 (en) 2020-03-11

Similar Documents

Publication Publication Date Title
US11656091B2 (en) Content visualizing method and apparatus
US10733462B2 (en) Travel assistance device and computer program
US10789845B2 (en) Parking assistance method and parking assistance device
CN105984464B (en) Controller of vehicle
JP6486474B2 (en) Display control device, display device, and display control method
CN109643439B (en) Peripheral monitoring device
JP6695049B2 (en) Display device and display control method
JP6666883B2 (en) Driving support device
US11525694B2 (en) Superimposed-image display device and computer program
US10549693B2 (en) Bird&#39;s-eye view video generation device, bird&#39;s-eye view video generation system, bird&#39;s-eye view video generation method and program
CN111052733A (en) Surrounding vehicle display method and surrounding vehicle display device
US11511667B2 (en) Surrounding vehicle display method and surrounding vehicle display device
CN107923761A (en) Display control unit, display device and display control method
US10223920B2 (en) Display device for vehicle
CN114077306A (en) Apparatus and method for implementing content visualization
JP2009206702A (en) Image processor and image processing method
JP6186905B2 (en) In-vehicle display device and program
JP6662175B2 (en) Display method and driving support device
JP2017021019A (en) Vehicular display apparatus and vehicular display method
JP4529080B2 (en) Navigation device
JP2007057809A (en) Map display device
JP6634947B2 (en) Display method and driving support device
US11893812B2 (en) Vehicle display device, vehicle display system, vehicle display method, and non-transitory storage medium stored with program
JP6708227B2 (en) Vehicle display
JP2009248630A (en) Information display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200127

R151 Written notification of patent or utility model registration

Ref document number: 6662175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151