JP6657937B2 - Display device for vehicles - Google Patents

Display device for vehicles Download PDF

Info

Publication number
JP6657937B2
JP6657937B2 JP2015254570A JP2015254570A JP6657937B2 JP 6657937 B2 JP6657937 B2 JP 6657937B2 JP 2015254570 A JP2015254570 A JP 2015254570A JP 2015254570 A JP2015254570 A JP 2015254570A JP 6657937 B2 JP6657937 B2 JP 6657937B2
Authority
JP
Japan
Prior art keywords
image
display
vehicle
area
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015254570A
Other languages
Japanese (ja)
Other versions
JP2017117350A (en
Inventor
雄平 岡
雄平 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015254570A priority Critical patent/JP6657937B2/en
Publication of JP2017117350A publication Critical patent/JP2017117350A/en
Application granted granted Critical
Publication of JP6657937B2 publication Critical patent/JP6657937B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両用表示装置に関する。   The present invention relates to a display device for a vehicle.

従来、車載カメラにより撮像された周辺の画像の自車両が映る部分に、自車両が現在位置に到達する前に撮像された過去画像の対応する部分(自車両で見えない部分)を重ねた合成画像を車体の輪郭線と共に表示する技術が知られている(例えば、特許文献1)。   2. Description of the Related Art Conventionally, a composition in which a corresponding part (a part that cannot be seen by the own vehicle) of a past image imaged before the own vehicle reaches the current position is superimposed on a part of the surrounding image captured by the on-vehicle camera that reflects the own vehicle. A technique for displaying an image together with a contour line of a vehicle body is known (for example, Patent Document 1).

かかる技術により、運転者は、車両の陰になって見えない死角領域の状況を把握しながら、運転操作を行うことができる。   With this technique, the driver can perform the driving operation while grasping the situation of the blind spot area that is not visible behind the vehicle.

特開2003−244688号公報JP 2003-244688 A

しかしながら、カメラ自体の死角(撮像範囲外)の空中部分等が表示されないため、運転者等が、かかる死角を認識しにくい場合がある。   However, since the aerial portion of the blind spot (outside the imaging range) of the camera itself is not displayed, it may be difficult for the driver or the like to recognize the blind spot.

そこで、上記課題に鑑み、自車両の周辺を撮像するカメラの撮像画像に基づく表示によって、運転者等が死角を認識しやすくできる表示装置を提供することを目的とする。   In view of the above problems, it is an object of the present invention to provide a display device that enables a driver or the like to easily recognize a blind spot by displaying based on a captured image of a camera that captures an area around a host vehicle.

上記目的を達成するため、一実施形態において、車両用表示装置は、
自車両の周辺を撮像する撮像部と、
前記撮像部によって撮像される範囲外となる領域のうち、空中の領域を立体的に示す画像と、前記撮像部により撮像される前記自車両の周辺を示す画像又は前記撮像部により撮像される画像を視点変換して生成される仮想視点画像とを合わせて1つの画像で表示する表示画像を生成する画像生成部と、
前記表示画像を表示する表示部とを備え
前記表示部は、
前記撮像部によって撮像される範囲外となる領域の角部分を表示し、かつ、前記角部分以外を省略して表示する
In order to achieve the above object, in one embodiment, the vehicle display device includes:
An imaging unit for imaging the periphery of the vehicle,
An image three-dimensionally showing an aerial region among regions outside the range imaged by the imaging unit, and an image showing the periphery of the own vehicle imaged by the imaging unit or an image imaged by the imaging unit An image generation unit that generates a display image to be displayed as one image by combining a virtual viewpoint image generated by performing viewpoint conversion on
A display unit for displaying the display image ,
The display unit,
A corner portion of a region outside the range imaged by the imaging section is displayed, and the portion other than the corner portion is omitted and displayed .

本実施の形態によれば、自車両の周辺を撮像するカメラの撮像画像に基づく表示によって、運転者等が死角を認識しやすくできる表示装置を提供することができる。   According to the present embodiment, it is possible to provide a display device that allows a driver or the like to easily recognize a blind spot by displaying based on a captured image of a camera that captures an area around the own vehicle.

本実施形態に係る表示装置の構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a configuration of a display device according to the embodiment. カメラの撮像範囲を説明する図である。FIG. 3 is a diagram illustrating an imaging range of a camera. ベース画像生成処理により生成されるベース画像の一例を示す図である。FIG. 4 is a diagram illustrating an example of a base image generated by a base image generation process. 撮像される範囲外となる領域の一例を示す図である。FIG. 6 is a diagram illustrating an example of an area outside a range where an image is captured. 表示画像の第1例を示す図である。It is a figure showing the 1st example of a display picture. 表示画像の第2例を示す図である。It is a figure showing the 2nd example of a display picture. 表示画像の第3例を示す図である。It is a figure showing the 3rd example of a display picture.

以下、図面を参照して発明を実施するための形態について説明する。   Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings.

図1は、本実施形態に係る表示装置1の構成の一例を示すブロック図である。   FIG. 1 is a block diagram illustrating an example of a configuration of a display device 1 according to the present embodiment.

表示装置1は、カメラ10、ECU(Electric Control Unit)20及びディスプレイ30を含み、カメラ10により撮像される自車両(表示装置1が搭載される車両)周辺の様子をディスプレイ30に表示する。これにより、自車両の運転者は、ディスプレイ30に表示される自車両周辺の様子を確認しながら、運転操作を行うことができる。   The display device 1 includes a camera 10, an ECU (Electric Control Unit) 20, and a display 30, and displays an image of the surroundings of the own vehicle (the vehicle on which the display device 1 is mounted) captured by the camera 10 on the display 30. Thereby, the driver of the own vehicle can perform the driving operation while checking the situation around the own vehicle displayed on the display 30.

カメラ10は、例えば、CMOS(Complementary Metal Oxide−Semiconductor)等の撮像素子を含み、自車両周辺を撮像する撮像手段である。カメラ10は、それぞれ、自車両の前方、後方、左側方及び右側方を撮像するカメラ10a、カメラ10b、カメラ10c及びカメラ10dを含む。   The camera 10 is an imaging unit that includes an imaging element such as a CMOS (Complementary Metal Oxide-Semiconductor) and captures the surroundings of the vehicle. The cameras 10 include a camera 10a, a camera 10b, a camera 10c, and a camera 10d that capture images of the front, rear, left, and right sides of the host vehicle, respectively.

カメラ10aは、例えば、自車両のフロントグリル中央部に設けられ、自車両の前方を撮像する。   The camera 10a is provided, for example, at the center of the front grill of the host vehicle and captures an image of the front of the host vehicle.

カメラ10bは、例えば、自車両のリアウインドウ上端中央部に設けられ、自車両の後方を撮像する。   The camera 10b is provided, for example, at the center of the upper end of the rear window of the host vehicle, and captures an image of the rear of the host vehicle.

カメラ10cは、例えば、自車両左側のドアミラー下部に設けられ、自車両の左側方を撮像する。   The camera 10c is provided, for example, below the door mirror on the left side of the host vehicle and captures an image of the left side of the host vehicle.

カメラ10dは、例えば、自車両右側のドアミラー下部に設けられ、自車両の右側方を撮像する。   The camera 10d is provided, for example, below the door mirror on the right side of the host vehicle and captures an image of the right side of the host vehicle.

カメラ10a〜10dは、それぞれ、一対一の通信線や車載LAN等によりECU20と通信可能に接続され、撮像画像は、ECU20に送信される。   Each of the cameras 10a to 10d is communicably connected to the ECU 20 via a one-to-one communication line, an in-vehicle LAN, or the like, and a captured image is transmitted to the ECU 20.

ここで、図2を用いて、カメラ10の撮像範囲について説明する。   Here, the imaging range of the camera 10 will be described with reference to FIG.

図2は、カメラ10の撮像範囲の一例を表す図である。   FIG. 2 is a diagram illustrating an example of an imaging range of the camera 10.

なお、図中、カメラ10b、10dは、自車両の陰になって視認することができない状態である。   In addition, in the figure, the cameras 10b and 10d are in a state where they cannot be visually recognized behind the own vehicle.

図2で図示するように、カメラ10a〜10dは、それぞれ、自車両の前方、後方、左側方及び右側方に隣接する路面部分A1a〜A1dを撮像可能な撮像範囲を有する。そのため、カメラ10a〜10dは、自車両の室内(以下、車室内と称する。)からは視認できない領域(例えば、比較的車高の高い車両における運転者から見た助手席側のフロントフェンダーに隣接する路面部分等である。)の様子を撮像することができる。   As illustrated in FIG. 2, the cameras 10a to 10d have imaging ranges that can image road surface portions A1a to A1d adjacent to the front, rear, left, and right sides of the vehicle, respectively. Therefore, the cameras 10a to 10d are adjacent to a front fender on the passenger seat side viewed from a driver in a vehicle having a relatively high vehicle height, which cannot be visually recognized from the interior of the vehicle (hereinafter, referred to as a vehicle interior). Road surface, etc.).

また、路面部分A1a〜A1dを重ね合わせた路面部分A1は、自車両を取り囲んでいる。すなわち、カメラ10は、自車両を360°取り囲む路面部分A1を撮像可能な撮像範囲を有する。   Further, a road surface portion A1 in which the road surface portions A1a to A1d are overlapped surrounds the host vehicle. That is, the camera 10 has an imaging range in which the road surface portion A1 surrounding the own vehicle by 360 ° can be imaged.

但し、カメラ10a〜10dは、路面部分A1の内側(自車両側)の路面部分A2を撮像することができない。つまり、カメラ10は、自車両周辺のうち、自車両に隣接する死角(撮像範囲外の領域)を有する場合がある。例えば、自車両の前端は、平面視で、ある程度の曲率を有する曲線で左右側面部分と繋がる外観形状を有するため、左右端に近づくほどカメラ10aの撮像範囲から離れる傾向にある。そのため、カメラ10aの死角は、自車両前端の中央部の前方に隣接する路面部分よりも、左右端部の前方に隣接する路面部分で広くなり、かかる路面部分に存在する障害物をカメラ10aで撮像することができない場合がある。   However, the cameras 10a to 10d cannot capture an image of the road surface portion A2 inside (on the side of the host vehicle) the road surface portion A1. That is, the camera 10 may have a blind spot (area outside the imaging range) adjacent to the own vehicle in the vicinity of the own vehicle. For example, the front end of the host vehicle has an appearance shape connected to the left and right side portions by a curve having a certain curvature in a plan view, and thus tends to be farther away from the imaging range of the camera 10a as approaching the left and right ends. Therefore, the blind spot of the camera 10a is wider on the road surface portion adjacent to the left and right end portions than on the road surface portion adjacent to the front portion of the central portion of the front end of the vehicle, and obstacles existing on the road surface portion are detected by the camera 10a. It may not be possible to take an image.

図1に戻り、ECU20は、表示装置1における主たる制御処理を実行する電子制御ユニットである。ECU20は、例えば、マイクロコンピュータ等により構成され、ROMに格納される各種制御プログラムをCPU上で実行することにより各種制御処理を実現する。具体的には、カメラ10a〜10dから受信する各撮像画像に基づき、ディスプレイ30(表示領域30a)に表示する表示画像を生成する。ディスプレイ30に表示する表示画像は、自車両から見た全方位の様子を表す画像であってもよいし、自車両から見た特定の方位角範囲の様子を表す画像であってもよい。すなわち、ECU20は、カメラ10a〜10dにより撮像される画像の一部又は全部を用いて、表示画像を生成する。ECU20は、じか線や車載LAN等によりディスプレイ30と通信可能に接続され、生成される表示画像(に対応する画像信号)は、ディスプレイ30に送信される。   Returning to FIG. 1, the ECU 20 is an electronic control unit that executes main control processing in the display device 1. The ECU 20 is configured by, for example, a microcomputer or the like, and implements various control processes by executing various control programs stored in the ROM on the CPU. Specifically, a display image to be displayed on the display 30 (display area 30a) is generated based on each captured image received from the cameras 10a to 10d. The display image displayed on the display 30 may be an image representing an omnidirectional situation viewed from the host vehicle, or may be an image representing a specific azimuth angle range viewed from the host vehicle. That is, the ECU 20 generates a display image using a part or all of the images captured by the cameras 10a to 10d. The ECU 20 is communicably connected to the display 30 through a direct line, an in-vehicle LAN, or the like, and a generated display image (an image signal corresponding to the display image) is transmitted to the display 30.

なお、表示画像として、特定の方位角範囲の様子をディスプレイ30に表示可能な場合、運転者等によって、ディスプレイ30に表示させる方位角範囲の設定が可能な操作手段が設けられてよい。   Note that when a state of a specific azimuth range can be displayed on the display 30 as a display image, an operation unit that can set an azimuth range to be displayed on the display 30 by a driver or the like may be provided.

ディスプレイ30は、カメラ10により撮像される自車両周辺の様子を表示する表示手段であり、例えば、液晶パネル等を含む。ディスプレイ30は、ECU20から送信される画像信号に基づき、表示画像を自身の表示領域30a(例えば、16:9のアスペクト比を有する長方形領域)に表示させる。   The display 30 is a display unit that displays a state around the own vehicle captured by the camera 10, and includes, for example, a liquid crystal panel or the like. The display 30 displays the display image in its own display area 30a (for example, a rectangular area having an aspect ratio of 16: 9) based on the image signal transmitted from the ECU 20.

なお、ディスプレイ30は、車室内における運転者等が視認容易な任意の位置に設置されてよく、例えば、インパネのセンタースタック上部等に設けられる。   The display 30 may be installed at an arbitrary position in the vehicle cabin where the driver or the like is easily visible, and is provided, for example, above the center stack of the instrument panel.

次に、ECU20による表示画像の生成処理について説明する。   Next, a process of generating a display image by the ECU 20 will be described.

まず、ECU20は、カメラ10(10a〜10d)から受信する撮像画像に対する既知の視点変換処理を施し、あらかじめ定められる車室内の仮想視点から見た画像(仮想視点画像)を生成する。仮想視点としては、例えば、統計上、標準的な運転者の体格に対応するアイポイント(目の位置)を設定してよい。   First, the ECU 20 performs a known viewpoint conversion process on a captured image received from the camera 10 (10a to 10d) to generate an image (virtual viewpoint image) viewed from a predetermined virtual viewpoint in the vehicle interior. As the virtual viewpoint, for example, an eye point (eye position) corresponding to a statistically standard physique of a driver may be set.

なお、本実施形態における視点変換処理は、カメラ10(10a〜10d)の撮像画像の各座標(の画素)を仮想視点から見た座標系の座標に変換する処理を意味し、ベース画像を生成する処理(ベース画像生成処理)を含まない。但し、実装上、ベース画像生成処理は、視点変換処理の一部として実現されてよい。   Note that the viewpoint conversion process in the present embodiment means a process of converting (pixels) of each coordinate of a captured image of the camera 10 (10a to 10d) into coordinates of a coordinate system viewed from a virtual viewpoint, and generates a base image. (Base image generation processing). However, the base image generation processing may be realized as a part of the viewpoint conversion processing in terms of mounting.

続いて、ECU20は、生成される仮想視点画像とカメラ10(10a〜10d)の死角領域を表す画像(死角領域画像)を合成して、表示画像のベースとなるベース画像を生成する処理(ベース画像生成処理)を行う。   Subsequently, the ECU 20 combines the generated virtual viewpoint image with an image (blind spot area image) representing the blind spot area of the camera 10 (10a to 10d) to generate a base image serving as a base of the display image (base). Image generation processing).

ここで、図3は、ベース画像生成処理により生成されるベース画像BPの一例を示す図である。   Here, FIG. 3 is a diagram illustrating an example of the base image BP generated by the base image generation processing.

なお、本例では、自車両の左前方に対応する方位角範囲の様子(右ハンドル車の運転席から死角になる左側のフロントフェンダー横の路面部分を含む方位角範囲)を表す表示画像をディスプレイ30に表示させる場合のベース画像BPを表している。   In this example, a display image showing an azimuth angle range corresponding to the front left of the own vehicle (an azimuth angle range including a road surface portion next to the left front fender from the driver's seat of a right-hand drive vehicle to a blind spot) is displayed. 30 shows a base image BP to be displayed on 30.

図3を参照するに、ベース画像BPは、自車両が停車している駐車場の駐車区画線や駐車場内の歩行者等を映す仮想視点画像VPに、死角領域画像BSP1、BSP2を合成することにより生成される。死角領域画像BSP1は、自車両に接近する側におけるカメラ10a及び10cの死角領域(撮像範囲外の領域)に相当する。また、ベース画像BPのうち、死角領域画像BSP2は、自車両から離れる側におけるカメラ10cの死角領域(撮像範囲外の領域)に相当する。   Referring to FIG. 3, the base image BP is obtained by combining the blind spot area images BSP1 and BSP2 with a virtual viewpoint image VP showing a parking lane marking of a parking lot where the vehicle is stopped, a pedestrian in the parking lot, and the like. Generated by The blind spot area image BSP1 corresponds to a blind spot area (an area outside the imaging range) of the cameras 10a and 10c on the side approaching the own vehicle. Further, in the base image BP, the blind spot area image BSP2 corresponds to a blind spot area (an area outside the imaging range) of the camera 10c on the side away from the host vehicle.

このように、仮想視点画像VPに、カメラ10(10a、10c)の死角領域を表す死角領域画像BSP1、BSP2等を合成すると、カメラ10により撮像される自車両周辺の自車両に接近する側と離れる側に死角領域が存在することを運転者等に認識させることができる。   As described above, when the blind spot area images BSP1 and BSP2 representing the blind spot area of the camera 10 (10a, 10c) are combined with the virtual viewpoint image VP, the side approaching the own vehicle around the own vehicle captured by the camera 10 It is possible to make the driver or the like recognize that the blind spot area exists on the far side.

図4は、撮像される範囲外となる領域の一例を示す図である。図示するように、撮像される範囲外となる領域、すなわち、死角領域は、空中にも存在する場合が多い。具体的には、図示する例では、撮像される範囲外となる領域のうち、空中の部分を含む領域は、領域DP等である。この領域DPが表示画像において平面的に表示されると、運転者等は、空中の部分に死角があることを認識しにくい。そこで、表示画像は、例えば、以下に説明する画像を表示する。   FIG. 4 is a diagram illustrating an example of an area that is out of an imaged range. As shown in the drawing, an area outside the range to be imaged, that is, a blind spot area often exists in the air. Specifically, in the example shown in the drawing, an area including an aerial portion among the areas outside the imaging range is the area DP or the like. When this area DP is displayed in a plane on the display image, it is difficult for a driver or the like to recognize that there is a blind spot in the air. Thus, the display image displays, for example, an image described below.

図5は、表示画像の第1例を示す図である。図5(A)は、撮像画像に基づいて生成される自車両から見た全方位の様子を示す画像と、領域DPを示す画像とを合成して生成した表示画像の例である。この例は、自車両の周辺を示す画像と、領域DPをバリケード状の印等で立体的に示す画像とを合成して表示画像が生成された例である。このような表示画面が表示されると、運転者は、空中部分にも死角があることを認識できる。   FIG. 5 is a diagram illustrating a first example of a display image. FIG. 5A is an example of a display image generated by synthesizing an image showing an omnidirectional situation viewed from the own vehicle generated based on the captured image and an image showing the area DP. This example is an example in which a display image is generated by synthesizing an image showing the periphery of the host vehicle and an image showing the area DP three-dimensionally with a barricade-like mark or the like. When such a display screen is displayed, the driver can recognize that there is also a blind spot in the air.

また、表示画像は、仮想視点画像と、領域DPを示す画像とを合成して生成されてもよい。具体的には、表示画像は、図5(B)のような画像であってもよい。   Further, the display image may be generated by synthesizing the virtual viewpoint image and the image indicating the area DP. Specifically, the display image may be an image as shown in FIG.

図6は、表示画像の第2例を示す図である。表示画像は、図6に示すような画像であってもよい。具体的には、自車両の周辺を示す画像と、領域DPをバリケード状の印で示す画像とを合成して生成される表示画像は、図6(A)のような画像でもよい。図5(A)と比較すると、図6(A)に示す表示画像では、領域DPのうち、中央部分DPCが省略されて表示される点が異なる。このように、領域DPは、一部が省略されて表示されてもよい。このように、領域DPのうち、角の部分だけが表示されると、運転者等が煩わしさを感じるのを少なくできる。   FIG. 6 is a diagram illustrating a second example of the display image. The display image may be an image as shown in FIG. Specifically, a display image generated by combining an image indicating the periphery of the host vehicle with an image indicating the area DP with a barricade-like mark may be an image as illustrated in FIG. Compared to FIG. 5 (A), the display image shown in FIG. 6 (A) is different in that the central portion DPC of the region DP is omitted and displayed. As described above, the area DP may be partially omitted and displayed. In this manner, when only the corners of the area DP are displayed, the driver or the like can be less annoyed.

また、図6(B)に示すように、仮想視点画像と、領域DPを示す画像とを合成して生成される表示画像において、図6(A)と同様に、領域DPは、一部が省略されて表示されてもよい。   As shown in FIG. 6B, in the display image generated by combining the virtual viewpoint image and the image indicating the area DP, the area DP partially includes It may be omitted and displayed.

図7は、表示画像の第3例を示す図である。表示画像は、図7に示すような画像であってもよい。具体的には、自車両の周辺を示す画像と、領域DPをバリケード状の印で示す画像とを合成して生成される表示画像は、図7(A)のような画像でもよい。図6(A)と比較すると、図7(A)に示す表示画像では、領域DPが透過処理されて表示される点が異なる。このように、領域DPは、透過処理されて表示されてもよい。このように、領域DPが透過処理されて表示されると、運転者等が煩わしさを感じるのを少なくできる。   FIG. 7 is a diagram illustrating a third example of the display image. The display image may be an image as shown in FIG. Specifically, a display image generated by combining an image indicating the periphery of the vehicle and an image indicating the area DP with a barricade-like mark may be an image as illustrated in FIG. Compared to FIG. 6A, the display image shown in FIG. 7A is different in that the area DP is displayed after being subjected to the transmission processing. As described above, the area DP may be displayed after being subjected to the transparency processing. As described above, when the area DP is displayed after being subjected to the transmission processing, the driver or the like can be less annoyed.

また、図7(B)に示すように、仮想視点画像と、領域DPを示す画像とを合成して生成される表示画像において、図7(A)と同様に、領域DPは、透過処理されて表示されてもよい。   Also, as shown in FIG. 7B, in the display image generated by combining the virtual viewpoint image and the image indicating the area DP, the area DP is subjected to the transmission processing as in FIG. 7A. May be displayed.

なお、各画像は、例えば、撮像された画像から生成され、ECU20の内部メモリ等にあらかじめ格納されている。そのため、ECU20は、仮想視点画像VPとして表示する自車両から見た方位角範囲及びクリアランスソナー等の検出情報に応じて決定される画像を内部メモリ等から読み出すことで、表示画像を生成することができる。   Each image is generated from, for example, a captured image and is stored in advance in an internal memory or the like of the ECU 20. For this reason, the ECU 20 can generate a display image by reading from the internal memory or the like an image determined according to detection information such as the azimuth angle range and the clearance sonar viewed from the own vehicle displayed as the virtual viewpoint image VP. it can.

図5乃至図7に示すような形式で表示画像が表示されると、運転者等は、死角エリアを立体的に認識することができる。   When the display image is displayed in a format as shown in FIGS. 5 to 7, the driver or the like can three-dimensionally recognize the blind spot area.

以上、本発明を実施するための形態について詳述したが、本発明はかかる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   As described above, the embodiments for carrying out the present invention have been described in detail. However, the present invention is not limited to the specific embodiments, and various modifications may be made within the scope of the present invention described in the appended claims. Can be modified and changed.

例えば、上述した実施形態では、仮想視点画像VPに、カメラ10の死角領域(領域DP)を表す画像を合成して図5乃至図7に示す表示画像を生成するが、かかる態様には、限定されない。すなわち、カメラ10により撮像された画像そのものに、カメラ10の死角領域を表す画像を合成して表示画像を生成してもよい。これにより、上述した実施形態と同様の作用・効果(運転者等がカメラの死角を認識しやすくできる。)を奏する。   For example, in the above-described embodiment, the display images shown in FIGS. 5 to 7 are generated by combining the virtual viewpoint image VP with an image representing the blind spot area (area DP) of the camera 10. Not done. That is, a display image may be generated by combining an image representing the blind spot area of the camera 10 with the image itself captured by the camera 10. Accordingly, the same operation and effect as those of the above-described embodiment (a driver or the like can easily recognize the blind spot of the camera) can be obtained.

1 表示装置
10、10a〜10d カメラ(撮像部)
20 ECU(画像生成部)
30 ディスプレイ(表示部)
30a 表示領域
1 display device 10, 10a to 10d camera (imaging unit)
20 ECU (image generation unit)
30 Display (display unit)
30a display area

Claims (2)

自車両の周辺を撮像する撮像部と、
前記撮像部によって撮像される範囲外となる領域のうち、空中の領域を立体的に示す画像と、前記撮像部により撮像される前記自車両の周辺を示す画像又は前記撮像部により撮像される画像を視点変換して生成される仮想視点画像とを合わせて1つの画像で表示する表示画像を生成する画像生成部と、
前記表示画像を表示する表示部と
を備え
前記表示部は、
前記撮像部によって撮像される範囲外となる領域の角部分を表示し、かつ、前記角部分以外を省略して表示する
車両用表示装置。
An imaging unit for imaging the periphery of the vehicle,
An image three-dimensionally showing an aerial region among regions outside the range imaged by the imaging unit, and an image showing the periphery of the own vehicle imaged by the imaging unit or an image imaged by the imaging unit An image generation unit that generates a display image to be displayed as one image by combining a virtual viewpoint image generated by performing viewpoint conversion on
A display unit for displaying the display image ,
The display unit,
A display device for a vehicle, which displays a corner portion of a region outside a range to be imaged by the imaging unit and omits and displays a portion other than the corner portion .
前記表示部は、
前記撮像部によって撮像される範囲外となる領域を透過処理して表示する
請求項1に記載の車両用表示装置。
The display unit,
The display device for a vehicle according to claim 1, wherein an area outside a range imaged by the imaging unit is subjected to transmission processing and displayed.
JP2015254570A 2015-12-25 2015-12-25 Display device for vehicles Active JP6657937B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015254570A JP6657937B2 (en) 2015-12-25 2015-12-25 Display device for vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015254570A JP6657937B2 (en) 2015-12-25 2015-12-25 Display device for vehicles

Publications (2)

Publication Number Publication Date
JP2017117350A JP2017117350A (en) 2017-06-29
JP6657937B2 true JP6657937B2 (en) 2020-03-04

Family

ID=59234375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015254570A Active JP6657937B2 (en) 2015-12-25 2015-12-25 Display device for vehicles

Country Status (1)

Country Link
JP (1) JP6657937B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101925930A (en) * 2008-03-27 2010-12-22 松下电器产业株式会社 Blind spot display device
JP5067632B2 (en) * 2008-11-28 2012-11-07 アイシン精機株式会社 Bird's-eye image generator
JP5813944B2 (en) * 2010-12-06 2015-11-17 富士通テン株式会社 Image display system, image processing apparatus, and image display method
JP2012191545A (en) * 2011-03-14 2012-10-04 Panasonic Corp Display device

Also Published As

Publication number Publication date
JP2017117350A (en) 2017-06-29

Similar Documents

Publication Publication Date Title
JP7245295B2 (en) METHOD AND DEVICE FOR DISPLAYING SURROUNDING SCENE OF VEHICLE-TOUCHED VEHICLE COMBINATION
EP1513101A1 (en) Drive assisting system
WO2014199574A1 (en) Vehicle-mounted display device and program product
JP5953824B2 (en) Vehicle rear view support apparatus and vehicle rear view support method
WO2016035580A1 (en) Image display control device and image display system
US20190100145A1 (en) Three-dimensional image driving assistance device
US10919450B2 (en) Image display device
JP2008077628A (en) Image processor and vehicle surrounding visual field support device and method
JP7039879B2 (en) Display control device
KR20130089143A (en) Method for displaying an image on a display device in a vehicle, driver assistance system and vehicle
US20130314539A1 (en) Monitoring of the Close Proximity Around a Commercial Vehicle
JP2018052216A5 (en)
JP2009206747A (en) Ambient condition monitoring system for vehicle, and video display method
JP2006268076A (en) Driving assistance system
WO2015122124A1 (en) Vehicle periphery image display apparatus and vehicle periphery image display method
JP2017111739A (en) Driving support apparatus and driving support method
JP2016213708A (en) Vehicle display device
TW201605247A (en) Image processing system and method
JP2014235639A (en) Vehicle display device
JP2014235640A (en) Vehicle display device
JP5305750B2 (en) Vehicle periphery display device and display method thereof
JP7139324B2 (en) Connector device, in-vehicle camera device, and connector system
JP6657937B2 (en) Display device for vehicles
JP6855254B2 (en) Image processing device, image processing system, and image processing method
WO2016088151A1 (en) Vehicle-mounted display device, vehicle, and display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200120

R151 Written notification of patent or utility model registration

Ref document number: 6657937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151