WO2016088151A1 - 車載用表示装置、車両及び表示方法 - Google Patents

車載用表示装置、車両及び表示方法 Download PDF

Info

Publication number
WO2016088151A1
WO2016088151A1 PCT/JP2014/005995 JP2014005995W WO2016088151A1 WO 2016088151 A1 WO2016088151 A1 WO 2016088151A1 JP 2014005995 W JP2014005995 W JP 2014005995W WO 2016088151 A1 WO2016088151 A1 WO 2016088151A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
vehicle
display
display area
mirror
Prior art date
Application number
PCT/JP2014/005995
Other languages
English (en)
French (fr)
Inventor
草柳 佳紀
尚隆 臼井
裕史 高田
則政 岸
吉郎 高松
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to PCT/JP2014/005995 priority Critical patent/WO2016088151A1/ja
Publication of WO2016088151A1 publication Critical patent/WO2016088151A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an in-vehicle display device, a vehicle, and a display method.
  • a vehicle surrounding display device described in Patent Document 1 is known as a technique for presenting a situation on the rear side of a vehicle driven by a driver.
  • the vehicle surrounding display device includes an imaging unit provided in a vehicle interior of a vehicle so as to capture an image including a scenery reflected in a side mirror of the vehicle, and a display unit provided in the vehicle interior to display a captured image of the imaging unit. And have.
  • the vehicle surrounding display device described in Patent Literature 1 displays an image at a position unrelated to the installation positions of the left and right side mirrors. For this reason, an unfamiliar driver may temporarily not know which of the right and left side mirrors is displayed.
  • a virtual image of a mirror image reflected in the rear-view mirror on the right side and the left side of the vehicle is presented in the vehicle interior, whether the presented virtual image is a mirror image reflected in the rear-view mirror on the right side or the left side
  • the purpose is to make it easier to recognize.
  • An in-vehicle display device includes a first image including a virtual image of a mirror image reflected in a first rearview mirror when the first rearview mirror is provided on the right side of the vehicle, and a left side of the vehicle.
  • a second image including a virtual image of the mirror image reflected in the second rearview mirror is generated.
  • the in-vehicle display device displays the first image and the second image side by side in a horizontal direction at a position in the passenger compartment that is visible to the driver of the vehicle.
  • the edge which shows the frame of a rear-view mirror is provided to a 1st image and a 2nd image.
  • the presented virtual image is displayed on the rear-view mirror on either the right side or the left side. It becomes easy to recognize whether it is a mirror image.
  • the vehicle-mounted display device is disposed, for example, in a vehicle cabin.
  • Reference numeral 1 indicates a steering wheel operated by a driver of the vehicle
  • reference numeral 2 indicates a windshield of the vehicle
  • reference numeral 3 indicates a dashboard
  • reference numeral 4 indicates a speedometer, a fuel gauge, etc. Shows the instrument.
  • the in-vehicle display device is disposed at a position that can be viewed by a driver seated in a driver's seat and can display an image such as a captured image or a computer graphic (CG) image. Is provided.
  • CG computer graphic
  • the display unit 5 has a first display area 5a in which these images are displayed.
  • the display unit 5 is disposed on the dashboard 3 facing the driver seat and the passenger seat.
  • the display unit 5 may be disposed at a position facing the driver's seat, that is, in front of the driver's seat.
  • the display unit 5 may be disposed between the steering wheel 1 and the windshield 2.
  • the first image 10 and the second image 11 are displayed in the first display area 5a.
  • the first image 10 may be an image including a virtual image of a mirror image reflected in the first rearview mirror when the first rearview mirror is provided on the right side of the vehicle.
  • the second image 11 may be an image including a virtual image of a mirror image reflected in the second rearview mirror when the second rearview mirror is provided on the left side of the vehicle.
  • the first rear-view mirror and the second rear-view mirror may be, for example, a vehicle rear-view mirror provided outside the vehicle compartment.
  • the first rearview mirror and the second rearview mirror may be, for example, side mirrors, door mirrors, or fender mirrors, but are not limited thereto.
  • the first image 10 and the second image 11 are assistance display images used for facilitating the driver to check the situation on the rear side of the vehicle, and for assisting in lane change and merging into the driving lane. It's okay.
  • each embodiment will be described using an example in which the first and second rearview mirrors are door mirrors, but the first and second rearview mirrors are limited to door mirrors. It is not intended.
  • the first rear-view mirror and the second rear-view mirror may be other types of rear-view mirrors as long as they reflect the right and left rear sides of the vehicle.
  • the first image 10 and the second image 11 are arranged side by side in the horizontal side direction of the first display area 5 a, and the first image 10 is arranged on the right side of the second image 11.
  • the driver is a virtual image of the mirror image in which the first image 10 is reflected on the right door mirror of the vehicle, and the second image 11 is the left door mirror of the vehicle. It can be easily recognized that it is a virtual image of a mirror image reflected on the screen.
  • the driver only needs to confirm one of the right rear side and the left rear side, but the in-vehicle display device of the first embodiment is a virtual image of a mirror image reflected on the right door mirror.
  • the first image 10 and the second image 11 may include edge images 12 and 14 indicating the frame of the rearview mirror, respectively.
  • the first image 10 and the second image 11 may include an edge image 12 indicating the frame of the right door mirror and an edge image 14 indicating the frame of the left door mirror, respectively.
  • the edge images 12 and 14 may show the boundary between the reflecting surface and the outside of the reflecting surface of a rear-view mirror, such as a door mirror.
  • an icon indicating a door mirror frame may be created by CG and superimposed on the first image 10 and the second image 11.
  • the first image 10 and the second image 11 may include images 13 and 15 showing a part of the right side surface and the left side surface of the vehicle, respectively.
  • the shooting ranges of the first image 10 and the second image 11 may be set so as to include the side surface of the vehicle within the angle of view.
  • a captured image of a side surface of a vehicle captured in advance or an icon of a side surface of a vehicle generated in advance by CG may be superimposed on the first image 10 and the second image 11.
  • a vehicle 20 including the on-vehicle display device includes a steering wheel 1, a display unit 5, wheels 21, a first rear camera 22, a second rear camera 23, a steering angle sensor 24, A controller 30 is provided.
  • the first rear camera 22 is a camera that captures a range that includes the rear side of the right side of the vehicle 20, and the second rear camera 23 is a camera that captures a range that includes the rear side of the left side of the vehicle 20.
  • the first rear camera 22 is a camera installed, for example, in the vicinity of the right pillar of the vehicle 20 toward the rear side of the right side of the vehicle 20, and captures a range from the rear side of the right side of the vehicle 20 to the right side.
  • the second rear camera 23 is a camera installed, for example, in the vicinity of the left pillar of the vehicle 20 toward the rear side of the left side of the vehicle 20, and captures a range from the rear side of the left side of the vehicle 20 to the left side. .
  • Reference numeral 25 indicates an example of the angle of view of the first rear camera 22, and reference numeral 26 indicates the angle of view of the right door mirror.
  • the angle of view 25 of the first rear camera 22 may be wider than the angle of view 26 of the real right door mirror.
  • the first image 10 may be generated by being cut out from an image captured by the first rear camera 22 and may have an angle of view corresponding to the angle of view 26 of a real right door mirror.
  • the first image 10 may have an angle of view wider than the angle of view 26 of the real right door mirror.
  • the angle of view of the first image 10 may also include a side region 27 located in front of the driver's seat in the front-rear direction of the vehicle 20.
  • the side region 27 included in the angle of view of the first image 10 may be, for example, a range in front of the driver's seat in the front-rear direction of the vehicle 20 and behind the installation position of the door mirror.
  • the first rear camera 22 may be disposed at a position ahead of the steering wheel 1. That is, the first rear camera 22 may be disposed in front of the driver's seat or the driver's eye point.
  • the front-rear direction of the vehicle and the vehicle width direction of the vehicle are simply referred to as “front-rear direction” and “vehicle width direction”.
  • a plane including the front-rear direction and the vehicle width direction may be referred to as a “vehicle horizontal plane”.
  • the horizontal plane of the vehicle may be simply referred to as “horizontal plane”.
  • the angle of view of the first image 10 includes a range ahead of the driver's seat, it is possible to reduce a blind spot that is not reflected in the first image 10 and does not enter the front field of view through the windshield 2.
  • the angle of view of the second rear camera 23 may be wider than the angle of view of the real left door mirror.
  • the second image 11 may be generated by being cut out from an image photographed by the second rear camera 23 and may have an angle of view corresponding to the angle of view of a real left door mirror.
  • the second image 11 may have an angle of view wider than the angle of view of the real left door mirror.
  • the angle of view of the second image 11 may also include a side region located in front of the driver's seat in the front-rear direction.
  • the side region included in the angle of view of the second image 11 may be, for example, a range in front of the driver's seat in the front-rear direction and behind the installation position of the door mirror. For this reason, the second rear camera 23 may be disposed at a position ahead of the steering wheel 1.
  • the image of the said description part is produced using techniques, such as viewpoint conversion, without being limited to the camera installation position, direction, angle of view, etc. which were demonstrated in (a) of FIG. 4 and (b) of FIG. Even in this case, the same effect can be obtained.
  • the first rear camera 22 and the second rear camera 23 each output an image obtained by photographing to the controller 30.
  • images taken by the first rear camera 22 and the second rear camera 23 may be referred to as “first rear image” and “second rear image”, respectively.
  • the steering angle sensor 24 detects the steering angle of the steering wheel 1 and outputs steering angle information indicating the detected steering angle to the controller 30.
  • the steering angle sensor 24 is provided on a steering shaft or the like. The steering angle sensor 24 may detect the steered wheel turning angle and detect it as steering angle information.
  • the controller 30 is an electronic control unit including a CPU (Central Processing Unit) and CPU peripheral components such as a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the controller 30 processes the first rear image to generate the first image 10, and processes the second rear image to generate the second image 11.
  • the controller 30 synthesizes the first image 10 and the second image 11 so that the first image 10 and the second image 11 are displayed side by side in the horizontal direction of the first display area 5a of the display unit 5. Generate.
  • the controller 30 outputs the composite image to the display unit 5.
  • the in-vehicle display device 40 includes a display unit 5 and a virtual image generation unit 41. Processing described later by the virtual image generation unit 41 is executed by the controller 30.
  • the virtual image generation unit 41 includes a first viewpoint conversion unit 42, a first extraction unit 43, a second viewpoint conversion unit 44, a second extraction unit 45, and a first synthesis unit 46.
  • the first viewpoint conversion unit 42 receives the first rear image from the first rear camera 22.
  • the 1st viewpoint conversion part 42 converts the viewpoint of a 1st back image, and produces
  • the first viewpoint conversion unit 42 outputs the viewpoint conversion image to the first extraction unit 43.
  • the 1st extraction part 43 extracts the 1st image 10 which is a partial image corresponding to a predetermined angle of view from the received viewpoint conversion image.
  • the first extraction unit 43 outputs the first image 10 to the first synthesis unit 46.
  • the second viewpoint conversion unit 44 receives the second rear image from the second rear camera 23.
  • the 2nd viewpoint conversion part 44 converts the viewpoint of a 2nd back image, and produces
  • the second viewpoint conversion unit 44 outputs the viewpoint conversion image to the second extraction unit 45.
  • the second extraction unit 45 extracts the second image 11 that is a partial image corresponding to a predetermined angle of view from the received viewpoint conversion image.
  • the second extraction unit 45 outputs the second image 11 to the first synthesis unit 46.
  • the first composition unit 46 receives the first image 10 and the second image 11, respectively.
  • the first combining unit 46 combines the first image 10 and the second image 11 so that the first image 10 and the second image 11 are displayed side by side in the horizontal direction of the first display area 5a of the display unit 5.
  • Generate a composite image For example, the first synthesis unit 46 joins the left vertical side of the first image 10 and the right vertical side of the second image 11 to generate a composite image.
  • the first synthesizing unit 46 may superimpose the edge image indicating the frame of the door mirror on the first image 10 and the second image 11.
  • the first combining unit 46 may superimpose an icon indicating a door mirror frame generated and stored in advance by CG on the first image 10 and the second image 11.
  • the first synthesis unit 46 When the first image 10 and the second image 11 output from the first extraction unit 43 and the second extraction unit 45 do not include an image showing a part of the side surface of the vehicle 20, the first synthesis unit 46. May superimpose an image showing a part of the side surface of the vehicle 20 on the first image 10 and the second image 11.
  • the first combining unit 46 may superimpose the captured image of the side surface of the vehicle that has been captured and stored in advance and the icon of the side surface of the vehicle that has been generated and stored in advance by CG on the first image 10 and the second image 11.
  • the first combining unit 46 outputs a combined image of the first image 10 and the second image 11 to the display unit 5.
  • the display unit 5 displays the received composite image in the first display area 5a.
  • step S ⁇ b> 10 the first rear camera 22 and the second rear camera 23 capture the rear side of the right side and the left side of the vehicle 20, respectively, and generate a first rear image and a second rear image, respectively.
  • step S ⁇ b> 11 the virtual image generation unit 41 generates the first image 10 including a virtual image of a mirror image reflected on the right door mirror of the vehicle 20 based on the first rear image.
  • the virtual image generation unit 41 generates a second image 11 including a virtual image of a mirror image reflected on the left door mirror of the vehicle 20 based on the second rear image.
  • the virtual image generation unit 41 combines the first image 10 and the second image 11 so that the first image 10 and the second image 11 are displayed side by side in the horizontal direction of the first display area 5a of the display unit 5. Generate a composite image.
  • the virtual image generation unit 41 outputs the composite image to the display unit 5.
  • the display unit 5 displays the first image 10 and the second image 11 side by side in the horizontal direction in the first display area 5a at a position in the passenger compartment that is visible to the driver.
  • the in-vehicle display device 40 includes a first image 10 including a virtual image of a mirror image reflected in the first rearview mirror when the first rearview mirror is provided on the right side of the vehicle 20; When the second rearview mirror is provided on the left side of the vehicle 20, the second image 11 including the virtual image of the mirror image reflected in the second rearview mirror is generated.
  • the first image 10 and the second image 11 are displayed side by side in a lateral direction at a position in the passenger compartment that is visible to the driver of the vehicle 20.
  • the driver is a virtual image of a mirror image in which the first image 10 is reflected in the first rear-view mirror on the right side of the vehicle
  • a second image 11 is a virtual image of the mirror image in the second rear-view mirror on the left side of the vehicle.
  • the first image 10 and the second image 11 are provided with an edge indicating the frame of the rearview mirror. Thereby, it becomes possible to easily recognize that the first image 10 and the second image 11 show mirror images reflected on the door mirror.
  • the first image 10 and the second image 11 are given images showing the side surfaces of the vehicle body of the vehicle 20.
  • the angles of view of the first image 10 and the second image 11 are set so as to include the front of the driver's seat of the vehicle 20. Thereby, the blind spot which is not reflected in the first image 10 and does not enter the front visual field through the windshield 2 can be reduced.
  • the installation positions of the first rear camera 22 and the second rear camera 23 are not limited to the vicinity of the front pillar.
  • the first rear camera 22 is installed at a position where the right rear side area of the vehicle 20 can be photographed.
  • the right rear surface from the vicinity of the installation position of the right door mirror to the rear end of the right rear bumper. It may be installed in any area.
  • the second rear camera 23 it is sufficient for the second rear camera 23 to be installed at a position where the left rear side region of the vehicle 20 can be photographed.
  • the left side from the vicinity of the installation position of the left door mirror to the rear end of the left rear bumper. You may install in any surface area.
  • the first image 10 and the second image 11 may be generated by extracting a partial image from a captured image of a wide-angle camera used to generate an overhead image around the vehicle 20.
  • the dedicated camera for generating the first image 10 and the second image 11 may be omitted.
  • the display unit 5 includes a first display area 5a and a second display area 5b that can display images such as captured images and CG images.
  • the first length L1 of the first lateral side 50 extending in the lateral direction of the first display area 5a is longer than the second length L2 of the second lateral side 51 extending in the lateral direction of the second display area 5b.
  • the second length L2 may be 20% to 50% of the first length L1, but is not limited thereto.
  • the horizontal direction of the second display area 5b and the horizontal direction of the first display area 5a are parallel. That is, the second display area 5b is disposed adjacent to the first display area 5a so that the second horizontal side 51 of the second display area 5b is along the first horizontal side 50 of the first display area 5a. .
  • the horizontal direction of the first display area 5a and the second display area 5b is indicated as the X direction.
  • the lateral direction X may be substantially parallel to the vehicle width direction.
  • the front-rear direction is indicated as the Y direction
  • the vertical direction of the vehicle is indicated as the Z direction.
  • the first display area 5a and the second display area 5b are arranged side by side in the front-rear direction Y, and the first display area 5a is arranged in front of the second display area 5b.
  • the first display area 5a is installed above the second display area 5b. Therefore, when the first display area 5a and the second display area 5b are arranged below the windshield 2 as shown in FIG. 7, the distance between the first display area 5a and the windshield 2 is the second display area. It becomes shorter than the distance of 5b and the windshield 2.
  • FIG. As a result, the distance between the driver's gazing point and the first display area 5a is shorter than the distance between the gazing point and the second display area 5b.
  • Reference numeral 55 indicates the center line of the first lateral side 50, that is, the vertical bisector, and reference numeral 56 indicates the center line of the second lateral side 51.
  • the lateral position of the center of the first lateral side 50 may coincide with the lateral position of the center of the second lateral side 51.
  • the position in the vehicle width direction of the center of the first lateral side 50 and the center of the second lateral side 51 may coincide with the center position of the driver's seat in the vehicle width direction.
  • an angle ⁇ formed by the first display surface 52 of the first display area 5a and the second display surface 54 of the second display area 5b is 90 degrees or more and less than 180 degrees.
  • the angle ⁇ formed by the first display surface 52 and the second display surface 54 is a straight line perpendicular to the lateral direction X in the first display surface 52, for example, the center line 55 and the second display surface 54. It may be an angle formed by a straight line perpendicular to the lateral direction X, for example, the center line 56.
  • the angle ⁇ formed by the first display surface 52 and the second display surface 54 may be, for example, an obtuse angle or 90 degrees to 150 degrees, but is not limited thereto.
  • Reference sign ⁇ 1 indicates the angle of inclination of the first display surface 52 with respect to the horizontal plane
  • reference sign ⁇ 2 indicates the angle of inclination of the second display surface 54 with respect to the horizontal plane.
  • the inclination of the first display surface 52 with respect to the horizontal plane is larger than the inclination of the second display surface 54 with respect to the horizontal plane. That is, the inclination angle ⁇ 1 of the first display surface 52 is larger than the inclination angle ⁇ 2 of the second display surface 54. Therefore, when viewed from the driver, the second display surface 54 is closer to the horizontal than the first display surface 52, and the first display surface 52 is closer to the vertical than the second display surface 54.
  • the bird's-eye view image 60 includes an image indicating a relative position on the road surface of an object existing on the side, rear side, and rear of the vehicle 20 with respect to the vehicle 20.
  • the bird's-eye view image 60 may be a bird's-eye view image including a range behind the door mirror installation position when it is assumed that a door mirror is installed on the vehicle 20.
  • the bird's-eye view image 60 may include only a range behind the door mirror installation position when it is assumed that the door mirror is installed in the vehicle 20.
  • the bird's-eye view image 60 includes a position display that indicates the relative positions of the objects existing on the side, rear side, and rear of the vehicle 20 with respect to the vehicle 20.
  • the position display may be, for example, an icon, a plot, or an arrow, but is not limited thereto.
  • the bird's-eye view image 60 includes an icon 63 for indicating the relative position of the object 61 with respect to the vehicle 20 and an icon 64 for indicating the relative position of the object 62 with respect to the vehicle 20.
  • the front-rear direction of the vehicle 20 in the overhead image 60 may coincide with the vertical direction of the second display region 5b.
  • the vehicle display device described in the patent document Japanese Patent Application Laid-Open No. 2008-094292
  • a display screen installed in a peripheral part of the visual field away from the central visual field when gazing at the side mirror.
  • Information indicating another vehicle that travels in substantially the same traveling direction as the vehicle is displayed.
  • the side mirror and the display screen are separated from each other, it may be difficult to grasp the arrangement of these objects when a plurality of objects exist on the rear side of the vehicle. For example, it may be difficult to associate an object reflected on a door mirror with a vehicle displayed on a display screen.
  • the arrangement of a plurality of objects on the rear side of the vehicle 20 such as the objects 61 and 62 shown in FIG. 9 may be difficult to grasp. For this reason, for example, it may be difficult to determine whether another vehicle reflected in the door mirror is in the lane to which the vehicle 20 is to merge or in another lane.
  • the display unit 5 of the second embodiment includes a first display area 5a in which a virtual image of a mirror image of the side mirror is displayed and a second display area 5b in which an overhead image is displayed in the first lateral side. 50 are arranged adjacent to each other along the second lateral side 51. For this reason, it becomes easy to associate the object reflected in the virtual image of the mirror image of the side mirror displayed in the first display area 5a with the object reflected in the overhead image displayed in the second display area 5b. As a result, it becomes easy to grasp the arrangement of the object shown in the virtual image of the mirror image of the side mirror. For this reason, for example, it becomes easy to determine whether the other vehicle reflected in the virtual image of the mirror image of the side mirror is in the lane where the vehicle 20 is to merge or in another lane.
  • the display unit 5 has a horizontal plane between the first display surface 52 on which the first image 10 and the second image 11 are displayed and the second display surface 54 on which the overhead image 60 is displayed.
  • the depression angle or elevation angle of the line of sight when looking at the rear side of the vehicle 20.
  • the depression angle of the line of sight when the driver views the bird's-eye view image 60 is closer to the depression angle of the line of sight when looking around the vehicle 20 than the depression angle or elevation angle of the line of sight when viewing the rear side of the vehicle 20. Can do.
  • the first image 10 and the second image 11 may be arranged symmetrically with respect to the center line 65 in the vehicle width direction in the overhead image 60. Such an arrangement makes it easy to perceive the correspondence between the first image 10 and the second image 11 and the overhead view image 60, and the surroundings of the vehicle 20 reflected in the first image 10, the second image 11, and the overhead view image 60. It becomes easier to grasp the situation.
  • the bird's-eye view image 60 may include a position display indicating the position of the vehicle 20 in the bird's-eye view image 60.
  • the position display indicating the position of the vehicle 20 may be, for example, an icon, a plot, or an arrow, but is not limited thereto.
  • the bird's-eye view image 60 includes an icon 66 indicating the vehicle 20 as a position display indicating the position of the vehicle 20.
  • the icon 66 may be, for example, an icon indicating the shape of the vehicle 20 from a viewpoint looking down from directly above the vehicle 20.
  • the plurality of icons corresponding to the plurality of objects included in the overhead image 60 may be the same color icon.
  • the driver can easily notice that the color of the icon displayed in the overhead image 60 is different from the color of the actual object. For this reason, it becomes difficult for the driver to try to find an object having the same color as the icon color from the first image 10 and the second image 11 by mistake.
  • the icon of the object included in the overhead image 60 may be displayed in a wire frame.
  • the center line in the vehicle width direction of the icon 66 indicating the vehicle 20 may coincide with the center line 65 in the vehicle width direction in the overhead image 60.
  • the first image 10 and the second image 11 may be arranged symmetrically with respect to the center line of the icon 66 in the vehicle width direction.
  • the bird's-eye view image 60 may include a road marking image for showing lanes around the vehicle 20.
  • the road marking may include, for example, a roadway center line, a lane boundary line, a roadway outer line, and the like, but is not limited thereto.
  • the bird's-eye view image 60 includes a road marking image, which makes it easy to determine whether another vehicle in the bird's-eye view image 60 is in the lane to which the vehicle 20 is to merge or in another lane.
  • the bird's-eye view image 60 includes an image of the lane boundary line 67.
  • the bird's-eye view image 60 may include an auxiliary line 68 indicating a certain range on the rear side.
  • the range in the vehicle width direction of the road surface displayed in the overhead image 60 may be, for example, a range including the traveling lane of the vehicle 20 and the right and left adjacent lanes, but is not limited thereto.
  • the traveling lane of the vehicle 20, the right side adjacent lane of two or more lanes, and the left side adjacent lane of two or more lanes may be included.
  • the range in the front-rear direction of the road surface displayed in the bird's-eye view image 60 may be, for example, a range from the door mirror installation position of the vehicle 20 to the rear 30 m, but is not limited thereto.
  • the inclination of the second display surface 54 with respect to the horizontal plane is smaller than the inclination of the first display surface 52 with respect to the horizontal plane. Accordingly, when the vertical dimension of the second display area 5b increases, the length of the installation space of the second display area 5b in the front-rear direction is likely to increase. For this reason, the longitudinal direction side of the second display area 5b may be reduced to save the length in the front-rear direction of the installation space of the second display area 5b in the dashboard 3. In this case, the overhead image 60 may be reduced according to the vertical side of the reduced second display area 5b so that the desired range of the overhead image is displayed in the second display area 5b.
  • the second length L2 of the second horizontal side 51 is reduced according to the reduction of the vertical side of the second display area 5b, and the second length L2 is reduced to the first horizontal side of the first display area 5a.
  • the vehicle 20 including the in-vehicle display device 40 according to the second embodiment includes a third rear camera 70, a right side camera 71, a left side camera 72, a first distance sensor 73, and a second distance sensor 74.
  • the third rear camera 70, the right-side camera 71, and the left-side camera 72 are cameras that capture images around the vehicle 20 included in the overhead image 60.
  • the third rear camera 70 is a wide-angle (for example, 180 °) camera installed in the vicinity of the center of the rear end of the vehicle 20 in the vehicle width direction and facing downward by 45 °.
  • the right-side camera 71 is a wide-angle (for example, 180 °) camera that is installed in the vicinity of the right door mirror of the vehicle 20 and faces the lower side.
  • the left-side camera 72 is a wide-angle (for example, 180 °) camera that is installed in the vicinity of the left door mirror of the vehicle 20 so as to face downward.
  • the image of the said description part is produced using techniques, such as viewpoint conversion, without being limited to the camera installation position, direction, angle of view, etc. which were demonstrated in (a) of FIG. 11 and (b) of FIG. Even in this case, the same effect can be obtained.
  • the third rear camera 70, the right side camera 71, and the left side camera 72 are each output to the controller 30 images obtained by photographing.
  • images taken by the third rear camera 70, the right side camera 71, and the left side camera 72 are referred to as “third rear image”, “right side image”, and “left side image”, respectively.
  • the first distance sensor 73 and the second distance sensor 74 are provided at the right rear end and the left rear end of the vehicle 20, respectively.
  • the first distance sensor 73 measures the distance from the surrounding object of the vehicle 20 and the direction of the surrounding object in a range from the right side of the vehicle 20 to the rear of the vehicle 20.
  • the second distance sensor 74 measures the distance from the surrounding object of the vehicle 20 and the direction of the surrounding object in a range from the left side of the vehicle 20 to the rear of the vehicle 20.
  • the first distance sensor 73 and the second distance sensor 74 may be, for example, a laser range finder, an ultrasonic sensor, a millimeter wave sensor, or the like, but are not limited thereto.
  • the first distance sensor 73 and the second distance sensor 74 output information indicating the measured distance to the object and the direction of the object to the controller 30. Information indicating the distance to the measured object and the direction of the object may be referred to as “measurement information”.
  • the controller 30 processes the third rear image, the right side image, and the left side image to generate an overhead image 60 around the vehicle 20.
  • the controller 30 detects an object around the vehicle 20 based on the measurement information, and calculates a display position for displaying the position display of the detected object in the overhead image 60.
  • the controller 30 superimposes a position display indicating the position of the detected object on the calculated display position.
  • the controller 30 outputs a bird's-eye view image 60 on which the position display of objects around the vehicle 20 is superimposed to the display unit 5.
  • the in-vehicle display device 40 includes an overhead image generation unit 80. Processing described later by the overhead image generation unit 80 is executed by the controller 30.
  • the overhead image generation unit 80 includes a third viewpoint conversion unit 81, a surrounding object detection unit 82, a surrounding object image addition unit 83, and a second composition unit 84.
  • the third viewpoint conversion unit 81 receives the third rear image, the right side image, and the left side image from the third rear camera 70, the right side camera 71, and the left side camera 72, respectively.
  • the third viewpoint conversion unit 81 converts the viewpoints of the third rear image, the right side image, and the left side image, and generates an overhead image 60 around the vehicle 20.
  • the surrounding object detection unit 82 receives measurement information from the first distance sensor 73 and the second distance sensor 74.
  • the surrounding object detection unit 82 detects an object around the vehicle 20 whose distance and direction measured by the first distance sensor 73 and the second distance sensor 74 are measured.
  • the surrounding object detection unit 82 outputs the position information of the detected object to the surrounding object image addition unit 83.
  • the surrounding object image adding unit 83 calculates a display position for displaying the position display of the detected object in the overhead image 60 based on the position information received from the surrounding object detection unit 82.
  • the surrounding object image adding unit 83 outputs the calculated display position and the image data of the position display stored in advance to the second combining unit 84.
  • the second synthesizing unit 84 adds the position display image data received from the surrounding object image adding unit 83 to the display position received from the surrounding object image adding unit 83 in the overhead image 60 received from the third viewpoint converting unit 81. Superimpose.
  • the second synthesis unit 84 outputs the bird's-eye view image 60 on which the position display of the object detected by the surrounding object detection unit 82 is superimposed to the display unit 5.
  • the second synthesis unit 84 may superimpose a position display indicating the position of the vehicle 20 and an auxiliary line indicating a certain range on the rear side on the overhead image 60 output to the display unit 5.
  • the display unit 5 displays the received composite image in the second display area 5b.
  • step S ⁇ b> 20 the first rear camera 22 and the second rear camera 23 photograph the rear side of the right side and the left side of the vehicle 20, respectively, and generate a first rear image and a second rear image, respectively.
  • the third rear camera 70, the right side camera 71, and the left side camera 72 take images around the vehicle 20, and generate a third rear image, a right side image, and a left side image, respectively.
  • the first distance sensor 73 and the second distance sensor 74 measure the distance to the surrounding object of the vehicle 20 and the direction of the surrounding object, and generate measurement information on the measured surrounding object.
  • the operation in step S22 is the same as the operation in step S11 shown in FIG.
  • step S ⁇ b> 23 the overhead image generation unit 80 generates an overhead image 60 around the vehicle 20 based on the third rear image, the right side image, and the left side image.
  • the overhead image generation unit 80 superimposes an icon indicating an object around the vehicle 20 on the display position in the overhead image generation unit 80 calculated based on the measurement information.
  • the overhead image generation unit 80 may superimpose a position display indicating the position of the vehicle 20 or an auxiliary line indicating a certain range on the rear side on the overhead image 60.
  • the operation in step S24 is the same as the operation in step S12 shown in FIG.
  • step S ⁇ b> 25 the overhead image generation unit 80 outputs the overhead image 60 to the display unit 5.
  • the display unit 5 displays the bird's-eye view image 60 in the second display area 5b located at a position in the passenger compartment that is visible to the driver.
  • the in-vehicle display device 40 further includes an overhead image generation unit 80 that generates an overhead image 60 around the vehicle 20.
  • the display unit 5 includes a first display area 5a in which the first image 10 and the second image 11 are displayed, and a second display area 5b in which the overhead image 60 is displayed.
  • the second display area 5b is arranged adjacent to the first display area 5a so that the first horizontal side 50 of the first display area 5a is along the second horizontal side 51 of the second display area 5b. For this reason, it becomes easy to associate the object shown in the virtual image of the mirror image of the rearview mirror displayed in the first display area 5a with the object shown in the overhead image displayed in the second display area 5b. As a result, it becomes easy to grasp the arrangement of the object shown in the virtual image of the mirror image of the rearview mirror.
  • the range of the bird's-eye view image 60 includes the rear side of the installation position when the vehicle 20 is provided with the door mirror, the arrangement of the objects behind the door mirror shown in the first image 10 and the second image 11 is grasped. It becomes easy.
  • Icons indicating a plurality of objects around the vehicle 20 included in the overhead image 60 are displayed in the same color or wire frame. Accordingly, when the actual color of the object is not reflected in the icon color, the driver easily notices that the color of the icon displayed in the overhead image 60 is different from the actual color of the object. As a result, it is difficult for the driver to try to find an object having the same color as the icon color from the first image 10 and the second image 11 by mistake.
  • the first image 10 and the second image 11 are arranged symmetrically with respect to the center in the vehicle width direction of the vehicle 20 in the overhead view image 60. Such an arrangement makes it easy to perceive the correspondence between the first image 10 and the second image 11 and the overhead view image 60, and the surroundings of the vehicle 20 reflected in the first image 10, the second image 11, and the overhead view image 60. It becomes easier to grasp the situation.
  • the angle ⁇ formed by the first display surface 52 of the first display area 5a and the second display surface 54 of the second display area 5b is not less than 90 degrees and less than 180 degrees. Thereby, a difference in inclination with respect to the horizontal plane is given between the first display surface 52 on which the first image 10 and the second image 11 are displayed and the second display surface 54 on which the overhead image 60 is displayed.
  • the situation shown in the image 10, the second image 11, and the overhead image 60 can be easily understood by the driver. That is, by giving a difference in inclination with respect to the horizontal plane, the depression angle or elevation direction of the line of sight when the driver views the first image 10 and the second image 11 is determined from the depression angle of the line of sight when looking around the vehicle 20.
  • the depression angle or elevation angle of the line of sight when looking at the rear side of the vehicle 20 it is possible to approach the depression angle or elevation angle of the line of sight when looking at the rear side of the vehicle 20.
  • the depression angle of the line of sight when the driver views the bird's-eye view image 60 is closer to the depression angle of the line of sight when looking around the vehicle 20 than the depression angle or elevation angle of the line of sight when viewing the rear side of the vehicle 20. Can do.
  • the depression angle or elevation angle of the line of sight when viewing the first image 10 and the second image 11 is brought close to the depression angle or elevation angle of the line of sight when viewing the rear side of the vehicle 20, and the depression angle of the line of sight viewing the overhead image 60 is set. Close to the angle of gaze when looking around. For this reason, it becomes easy to grasp the situation around the vehicle 20 three-dimensionally.
  • the inclination of the first display surface 52 with respect to the horizontal plane of the vehicle 20 is greater than the inclination of the second display surface 54 with respect to the horizontal plane, a difference in inclination with respect to the horizontal plane between the first display surface 52 and the second display surface 54 is obtained. Can be given.
  • the second display surface 54 is less inclined with respect to the horizontal plane of the vehicle 20 than the first display surface 52.
  • the longitudinal length of the second display area 5b may be reduced to reduce the front-rear length of the installation space of the second display area 5b.
  • the overhead image 60 may be reduced according to the vertical side of the second display area 5b so that a desired range around the vehicle 20 can be displayed in the second display area 5b.
  • the second length L2 of the second lateral side 51 of the second display area 5b is reduced, and the second length L2 is reduced to the first length L1 of the first lateral side 50 of the first display area 5a.
  • the angle ⁇ formed by the first display surface 52 and the second display surface 54 is 150 degrees or less, an appropriate inclination difference is given between the first display surface 52 and the second display surface 54. be able to.
  • the driver can easily reproduce the situation around the vehicle 20 shown in the first image 10, the second image 11, and the overhead image 60 in a three-dimensional manner.
  • the angle ⁇ formed by the first display surface 52 and the second display surface 54 is set to 90 degrees or more, the range of viewpoints in which the first display surface 52 and the second display surface 54 are easy to see is expanded, and the driver's The amount of movement of the viewpoint can be reduced.
  • the distance between the gazing point of the driver who is moving forward and the first display area 5a is set, and the gazing point and the second display area 5b are displayed. And shorter than the distance. For this reason, when the first image 10 and the second image 11 are higher priority images, it is possible to reduce the amount of line-of-sight movement between the first image 10 and the second image 11 and the gazing point.
  • the first display area 5a and the second display area 5b are arranged so that the center of the first horizontal side 50 and the center of the second horizontal side 51 coincide.
  • the first image 10 and the second image 11 are arranged symmetrically with respect to the center in the vehicle width direction of the vehicle 20 in the overhead view image 60, the right side image and the left side of the center in the vehicle width direction of the overhead view image 60 The first image 10 and the second image 11 are easily displayed evenly.
  • the position in the vehicle width direction at the center of the first lateral side 50 in the first display area 5a and the position in the vehicle width direction at the center of the second lateral side 51 in the second display area 5b are in the vehicle width direction. May not coincide with the center position of the driver's seat.
  • the position in the vehicle width direction at the center of the first lateral side 50 and the position in the vehicle width direction at the center of the second lateral side 51 may coincide with the center of the vehicle 20 in the vehicle width direction.
  • the relative position between the object around the vehicle 20 and the vehicle 20 may be detected from the third rear image, the right side image, and the left side image.
  • the surrounding object detection unit 82 determines the position of the object around the vehicle 20 based on the contact position between the object around the vehicle 20 and the road surface shown in the third rear image, the right side image, and the left side image. May be calculated.
  • the surrounding object detection unit 82 is based on the contact positions of the tires and road surfaces of other vehicles around the vehicle 20 shown in the third rear image, the right side image, and the left side image.
  • the position of another vehicle may be calculated.
  • the first distance sensor 73 and the second distance sensor 74 may be omitted.
  • the road environment may include roads, fixed and semi-fixed objects on the road, and fixed and semi-fixed objects around the road.
  • the road environment may include roads around the vehicle 20 and features unique to the roads.
  • the features unique to the road may be, for example, road markings, traffic lights, road signs, lane markers (road surface markers), but are not limited thereto.
  • the road environment may include buildings and landmarks around the road.
  • an overhead image of the road environment around the vehicle 20 may be referred to as an “environment image”.
  • the environment image generated based on the position information of the vehicle 20 and the map information may be combined with the overhead image 60 generated from the third rear image, the right side image, and the left side image.
  • the vehicle 20 includes a position measurement unit 90 and a map information storage unit 91.
  • the overhead image generation unit 80 includes an environment detection unit 92 and an environment image addition unit 93.
  • the position measuring unit 90 measures the position of the vehicle 20.
  • the position measurement unit 90 may be, for example, a global positioning system (GPS) or an inertial navigation device, but is not limited thereto.
  • GPS global positioning system
  • the position measuring unit 90 also detects the vehicle 20 in the road based on the third rear image, the right side image, and the left side image captured by the third rear camera 70, the right side camera 71, and the left side camera 72.
  • the traveling position in the vehicle width direction may be measured.
  • the position measurement unit 90 outputs the measured position information of the vehicle 20 to the environment detection unit 92.
  • the map information storage unit 91 stores map information of a predetermined area.
  • the map information includes, for example, information on the road structure of the road and features unique to the road.
  • the road structure may include, for example, the curvature of the road (curvature of the curved road), the boundary between the roadway and the sidewalk, the intersection, the branch, the merge, the bank of the road surface, the unevenness of the road surface, etc., but is not limited thereto. Absent.
  • the environment detection unit 92 Based on the position information of the vehicle 20 received from the position measurement unit 90, the environment detection unit 92 extracts road structure and feature information to be displayed on the overhead image 60 from the map information. The environment detection unit 92 outputs the extracted road structure and feature information to the environment image addition unit 93. The environment image adding unit 93 generates road and feature images to be displayed in the overhead image 60 based on the road structure and feature information received from the environment detection unit 92. The environment image adding unit 93 calculates a display position at which images of roads and features are displayed in the overhead image 60.
  • the environment image adding unit 93 outputs road and feature image data and display positions thereof to the second combining unit 84.
  • the second synthesis unit 84 superimposes the road and feature image data received from the environment image adding unit 93 on the display position received from the environment image adding unit 93 in the overhead image 60.
  • SYMBOLS 5 Display part, 5a ... 1st display area, 5b ... 2nd display area, 10 ... 1st image, 11 ... 2nd image, 12 ... Edge image which shows the frame of a right door mirror, 13 ... Right side surface of a vehicle Image showing part, 14 ... Image of edge showing frame of left door mirror, 15 ... Image showing part of left side of vehicle, 20 ... Vehicle, 22 ... First rear camera, 23 ... Second rear camera, 30 DESCRIPTION OF SYMBOLS ... Controller 40 ... In-vehicle display device 41 ... Virtual image generation part 42 ... 1st viewpoint conversion part 43 ... 1st extraction part 44 ... 2nd viewpoint conversion part 45 ... 2nd extraction part 46 ...

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

 車載用表示装置(40)は、車両(20)の右側に第1後写鏡を設けた場合に第1後写鏡に映る鏡像の仮想画像を含んだ第1画像(10)と、車両(20)の左側に第2後写鏡を設けた場合に第2後写鏡に映る鏡像の仮想画像を含んだ第2画像(11)と、を生成する仮想画像生成部(41)と、車両(20)の運転者から視認可能な車室内の位置に配置され、第1画像(10)及び第2画像(11)を横方向に並べて表示する表示部(5)とを備える。仮想画像生成部(41)は、後写鏡の枠を示す縁(12、14)を第1画像(10)及び第2画像(11)に付与する。

Description

車載用表示装置、車両及び表示方法
 本発明は、車載用表示装置、車両及び表示方法に関する。
 運転者が運転する車両の後側方の状況を提示する技術として、例えば、特許文献1に記載の車両周囲表示装置が知られている。この車両周囲表示装置は、車両のサイドミラーに映る景色を含む画像を撮像するように車両の車室内に設けられた撮像手段と、車室内に設けられて撮像手段の撮像画像を表示する表示手段とを有する。
特開2005‐193838号公報
 特許文献1に記載の車両周囲表示装置は、左右のサイドミラーの設置位置とは無関係な位置に画像を表示する。このため、不慣れな運転手は、右側及び左側のどちらのサイドミラーに映る景色が表示されているかが一時的に分からなくなるおそれがある。
 本発明は、車両の右側及び左側の後写鏡に映る鏡像の仮想画像を車室内で提示する際に、提示された仮想画像が、右側及び左側のどちらの後写鏡に映る鏡像であるかを認識しやすくすることを目的とする。
 本発明の一態様に係る車載用表示装置は、車両の右側に第1後写鏡を設けた場合に第1後写鏡に映る鏡像の仮想画像を含んだ第1画像と、車両の左側に第2後写鏡を設けた場合に第2後写鏡に映る鏡像の仮想画像を含んだ第2画像と、を生成する。車載用表示装置は、車両の運転者から視認可能な車室内の位置に、第1画像及び第2画像を横方向に並べて表示する。また、後写鏡の枠を示す縁を第1画像及び第2画像に付与する。
 本発明の実施態様によれば、車両の右側及び左側の後写鏡に映る鏡像の仮想画像を車室内で提示する際に、提示された仮想画像が、右側及び左側のどちらの後写鏡に映る鏡像であるかを認識しやすくなる。
第1実施形態に係る車載用表示装置の表示部の配置位置の一例の説明図である。 第1実施形態に係る第1画像の一例及び第2画像の一例の説明図である。 第1実施形態に係る車載用表示装置を備える車両の構成例を示す図である。 (a)及び(b)は、第1後方カメラ及び第2後方カメラの配置位置の一例の説明図である。 第1実施形態に係る車載用表示装置の一例の機能構成を示す図である。 第1実施形態に係る車載用表示装置の動作の一例の説明図である。 第2実施形態に係る車載用表示装置の表示部の配置位置の一例の説明図である。 (a)は第1表示領域と第2表示領域の大きさ及び位置関係の一例の説明図であり、(b)は車両の水平面に対する第1表示面と第2表示面の傾きの一例の説明図である。 第2実施形態に係る第1画像の一例、第2画像の一例、及び俯瞰画像の一例の説明図である。 第2実施形態に係る車載用表示装置を備える車両の構成例を示す図である。 (a)及び(b)は、第3後方カメラ、右側方カメラ、左側方カメラの配置位置の一例の説明図である。 第2実施形態に係る車載用表示装置の一例の機能構成を示す図である。 第2実施形態に係る車載用表示装置の動作の一例の説明図である。 第2実施形態に係る車載用表示装置の変形例の機能構成を示す図である。
 以下、本発明の実施形態について、図面を参照しつつ説明する。
 (第1実施形態)
 (構成)
 図1を参照する。第1実施形態に係る車載用表示装置は、例えば車両の車室内に配置される。参照番号1は車両の運転者が操作するステアリングホイールを示し、参照番号2は車両のフロントガラスを示し、参照番号3はダッシュボード、いわゆるインパネを示し、参照番号4は、速度計及び燃料計等の計器を示す。第1実施形態に係る車載用表示装置は、運転席に着座した運転者から視認可能な位置に配置され、撮像画像やコンピュータグラフィック(CG:Computer Graphic)画像等の画像を表示可能な表示部5を備える。表示部5は、これらの画像が表示される第1表示領域5aを有する。
 例えば、表示部5は、運転席及び助手席に対向するダッシュボード3に配置される。例えば表示部5は、運転席に対向する位置、すなわち運転席の正面に配置されてもよい。また、例えば表示部5は、ステアリングホイール1とフロントガラス2の間に配置されてもよい。
 図2を参照する。第1表示領域5aには、第1画像10及び第2画像11が表示される。第1画像10は、車両の右側に第1後写鏡を設けた場合に第1後写鏡に映る鏡像の仮想画像を含んだ画像であってよい。また、第2画像11は、車両の左側に第2後写鏡を設けた場合に第2後写鏡に映る鏡像の仮想画像を含んだ画像であってよい。第1後写鏡及び第2後写鏡は、例えば、車両の車室外に設けられる車外後写鏡であってよい。第1後写鏡及び第2後写鏡は、例えば、サイドミラーであってよく、ドアミラーやフェンダーミラーであってよいが、これらに限定されるものではない。
 第1画像10及び第2画像11は、運転者が車両の後側方の状況を確認することを容易にし、車線変更や走行車線への合流を支援するために使用される支援表示画像であってよい。なお、本明細書では、第1後写鏡及び第2後写鏡がドアミラーである例示を用いて各実施形態を説明するが、第1後写鏡及び第2後写鏡をドアミラーに限定することを意図するものではない。第1後写鏡及び第2後写鏡は、車両の右側及び左側の後側方を映すものであれば、他の種類の後写鏡であってよい。
 第1画像10及び第2画像11は、第1表示領域5aの横辺方向に並べて配置され、第1画像10は、第2画像11の右側に配置される。このように第1画像10及び第2画像11が配置されることにより、運転者は、第1画像10が車両の右ドアミラーに映る鏡像の仮想画像であり、第2画像11が車両の左ドアミラーに映る鏡像の仮想画像であることを容易に認識できる。
 通常、運転者は、右後側方及び左後側方のうち関心のある何れか一方のみを確認すれば足りるが、第1実施形態の車載用表示装置は、右ドアミラーに映る鏡像の仮想画像と左ドアミラーに映る鏡像の仮想画像を同時に並べて表示する。このように、これら2つの仮想画像を横方向に並べて同時に提示することで、右ドアミラーに映る鏡像の仮想画像と左ドアミラーに映る鏡像の仮想画像との間の峻別が容易になる。
 第1画像10及び第2画像11は、後写鏡の枠を示す縁の画像12及び14をそれぞれ含んでいてもよい。例えば、第1画像10及び第2画像11は、右ドアミラーの枠を示す縁の画像12及び左ドアミラーの枠を示す縁の画像14をそれぞれ含んでいてもよい。縁の画像12及び14は、後写鏡、例えばドアミラーの、反射面と反射面の外側との境界を示してもよい。縁の画像12及び14は、例えば、ドアミラーの枠を示すアイコンをCGで作成し、第1画像10及び第2画像11に重畳してもよい。ドアミラーの枠を示すことにより、第1画像10及び第2画像11がドアミラーに映る鏡像であることを容易に認識できるようになる。また、左右のドアミラーの枠の形状の相違により、右ドアミラーに映る鏡像と左ドアミラーに映る鏡像との間の峻別がより容易になる。
 第1画像10及び第2画像11は、それぞれ車両の右側面及び左側面の一部を示す画像13及び15を含んでよい。例えば、第1画像10及び第2画像11の撮影範囲は、画角内に車両の側面を含むように設定されてもよい。また、例えば、予め撮像された車両の側面の撮像画像や予めCGで生成された車両の側面のアイコンを第1画像10及び第2画像11に重畳してもよい。
 第1画像10及び第2画像11に含まれる車両の側面の画像を基準に使用することで、第1画像10及び第2画像11に映る物体との距離感が向上したり、この物体の方向が認識しやすくなる。
 図3を参照する。第1実施形態に係る車載用表示装置を備える車両20は、ステアリングホイール1と、表示部5と、車輪21と、第1後方カメラ22と、第2後方カメラ23と、操舵角センサ24と、コントローラ30を備える。第1後方カメラ22は、車両20の右側の後側方を含む範囲を撮影するカメラであり、第2後方カメラ23は、車両20の左側の後側方を含む範囲を撮影するカメラである。
 図4の(a)及び図4の(b)を参照する。第1後方カメラ22は、例えば車両20の右側ピラー付近に、車両20の右側の後側方に向けて設置されたカメラで、車両20の右側の後側方から右側方に至る範囲を撮影する。第2後方カメラ23は、例えば車両20の左側ピラー付近に、車両20の左側の後側方に向けて設置されたカメラで、車両20の左側の後側方から左側方に至る範囲を撮影する。
 参照番号25は第1後方カメラ22の画角の一例を示し、参照番号26は、右ドアミラーの画角を示す。例えば、第1後方カメラ22の画角25は、本物の右ドアミラーの画角26よりも広くてもよい。第1画像10は、第1後方カメラ22により撮影された画像から切り出されて生成され、本物の右ドアミラーの画角26に相当する画角を有していてもよい。
 第1画像10は、本物の右ドアミラーの画角26よりも広い画角を有していてもよい。例えば、第1画像10の画角は、運転席よりも車両20の前後方向の前方に位置する側方領域27をも含んでいてよい。第1画像10の画角に含まれる側方領域27は、例えば、運転席よりも車両20の前後方向の前方かつドアミラーの設置位置より後方の範囲であってもよい。
 このため、第1後方カメラ22は、ステアリングホイール1よりも前方の位置に配置されていてもよい。すなわち、第1後方カメラ22は、運転席や運転者のアイポイントよりも前方に配置されてもよい。
 なお、以下の説明において、車両の前後方向及び車両の車幅方向を、単に「前後方向」及び「車幅方向」と表記する。前後方向と車幅方向とを含む平面を「車両の水平面」と表記することがある。また、車両の水平面を単に「水平面」と表記することがある。
 第1画像10の画角が運転席よりも前方の範囲も含んでいることにより、第1画像10に映らずフロントガラス2越しの前方視野にも入らない死角を低減することができる。
 同様に、第2後方カメラ23の画角は、本物の左ドアミラーの画角よりも広くてもよい。第2画像11は、第2後方カメラ23により撮影された画像から切り出されて生成され、本物の左ドアミラーの画角に相当する画角を有していてもよい。第2画像11は、本物の左ドアミラーの画角よりも広い画角を有していてもよい。例えば、第2画像11の画角は、運転席よりも前後方向の前方に位置する側方領域をも含んでいてよい。第2画像11の画角に含まれる側方領域は、例えば、運転席よりも前後方向の前方かつドアミラーの設置位置より後方の範囲であってよい。このため、第2後方カメラ23は、ステアリングホイール1よりも前方の位置に配置されていてもよい。
 なお、図4の(a)及び図4の(b)で説明したカメラ設置位置や向き、画角等に限定されることなく、視点変換等の技術を使って、上記説明箇所の画像を作成しても同等の効果を得ることができる。
 図3を参照する。第1後方カメラ22、及び第2後方カメラ23は、各々撮影して得られた画像をコントローラ30へ出力する。以下の説明において、第1後方カメラ22、及び第2後方カメラ23が撮影した画像をそれぞれ「第1後方画像」、及び「第2後方画像」と表記することがある。
 操舵角センサ24は、ステアリングホイール1の操舵角を検出し、検出した操舵角を示す操舵角情報をコントローラ30へ出力する。操舵角センサ24は、ステアリング軸などに設けられる。操舵角センサ24は、操向輪の転舵角を検出し操舵角情報として検出してもよい。
 コントローラ30は、CPU(Central Processing Unit)と、ROM(Read Only Memory)およびRAM(Random Access Memory)等のCPU周辺部品とを含む電子制御ユニットである。コントローラ30は、第1後方画像を加工して第1画像10を生成し、第2後方画像を加工して第2画像11を生成する。コントローラ30は、第1画像10及び第2画像11が表示部5の第1表示領域5aの横方向に並べて表示されるように、第1画像10及び第2画像11を合成して合成画像を生成する。コントローラ30は、表示部5に合成画像を出力する。
 以下、コントローラ30により実現される第1実施形態の車載用表示装置の処理を説明する。図5を参照する。車載用表示装置40は、表示部5と、仮想画像生成部41を備える。仮想画像生成部41による後述の処理は、コントローラ30によって実行される。仮想画像生成部41は、第1視点変換部42と、第1抽出部43と、第2視点変換部44と、第2抽出部45と、第1合成部46を備える。
 第1視点変換部42は、第1後方カメラ22から第1後方画像を受信する。第1視点変換部42は、第1後方画像の視点を変換して、仮想視点である右ドアミラーの設置位置から車両20の右後側方を見る視界の視点変換画像を生成する。第1視点変換部42は、視点変換画像を第1抽出部43へ出力する。第1抽出部43は、受信した視点変換画像から所定の画角に対応する部分画像である第1画像10を抽出する。第1抽出部43は、第1画像10を第1合成部46へ出力する。
 第2視点変換部44は、第2後方カメラ23から第2後方画像を受信する。第2視点変換部44は、第2後方画像の視点を変換して、仮想視点である左ドアミラーの設置位置から車両20の左後側方を見る視界の視点変換画像を生成する。第2視点変換部44は、視点変換画像を第2抽出部45へ出力する。第2抽出部45は、受信した視点変換画像から所定の画角に対応する部分画像である第2画像11を抽出する。第2抽出部45は、第2画像11を第1合成部46へ出力する。
 第1合成部46は、第1画像10及び第2画像11をそれぞれ受信する。第1合成部46は、第1画像10及び第2画像11が表示部5の第1表示領域5aの横方向に並べて表示されるように、第1画像10及び第2画像11を合成して合成画像を生成する。例えば、第1合成部46は、第1画像10の左側の縦方向辺と第2画像11の右側の縦方向辺を接合して合成画像を生成する。第1合成部46は、ドアミラーの枠を示す縁の画像を第1画像10及び第2画像11に重畳してもよい。例えば、第1合成部46は、予めCGで生成され記憶されたドアミラーの枠を示すアイコンを第1画像10及び第2画像11に重畳してもよい。
 第1抽出部43及び第2抽出部45から出力される第1画像10及び第2画像11に、車両20の側面の一部を示す画像が含まれていない場合には、第1合成部46は、車両20の側面の一部を示す画像を第1画像10及び第2画像11に重畳してもよい。第1合成部46は、予め撮像され記憶された車両の側面の撮像画像や予めCGで生成され記憶された車両の側面のアイコンを第1画像10及び第2画像11に重畳してもよい。
 第1合成部46は、第1画像10及び第2画像11の合成画像を表示部5へ出力する。表示部5は受信した合成画像を第1表示領域5aに表示する。
 (動作)
 次に、第1実施形態に係る車載用表示装置40の動作について説明する。図6を参照する。ステップS10において第1後方カメラ22及び第2後方カメラ23は、それぞれ車両20の右側及び左側の後側方を撮影し、第1後方画像及び第2後方画像をそれぞれ生成する。
 ステップS11において仮想画像生成部41は、第1後方画像に基づいて車両20の右ドアミラーに映る鏡像の仮想画像を含む第1画像10を生成する。仮想画像生成部41は、第2後方画像に基づいて車両20の左ドアミラーに映る鏡像の仮想画像を含んだ第2画像11を生成する。仮想画像生成部41は、第1画像10及び第2画像11が表示部5の第1表示領域5aの横方向に並べて表示されるように、第1画像10及び第2画像11を合成して合成画像を生成する。
 ステップS12において仮想画像生成部41は、表示部5に合成画像を出力する。表示部5は、運転者から視認可能な車室内の位置にある第1表示領域5aに、第1画像10及び第2画像11を横方向に並べて表示する。
 (第1実施形態の効果)
 (1)第1実施形態に係る車載用表示装置40は、車両20の右側に第1後写鏡を設けた場合に第1後写鏡に映る鏡像の仮想画像を含む第1画像10と、車両20の左側に第2後写鏡を設けた場合に第2後写鏡に映る鏡像の仮想画像を含む第2画像11を生成する。第1画像10及び第2画像11は、車両20の運転者から視認可能な車室内の位置に横方向に並べて表示される。このため、運転者は、第1画像10が車両の右側の第1後写鏡に映る鏡像の仮想画像であり、第2画像11が車両の左側の第2後写鏡に映る鏡像の仮想画像であることを容易に認識できる。
 また、第1画像10及び第2画像11は後写鏡の枠を示す縁が付与される。これにより、第1画像10及び第2画像11がドアミラーに映る鏡像を示すことを容易に認識できるようになる。
 (2)第1画像10及び第2画像11には車両20の車体の側面を示す画像が付与される。車両20の側面の画像を基準に使用することで、第1画像10及び第2画像11に映る物体との距離感が向上したり、この物体の方向が認識しやすくなる。
 (3)第1画像10及び第2画像11の画角は、車両20の運転席の前方も含むように設定される。これにより、第1画像10に映らずフロントガラス2越しの前方視野にも入らない死角を低減することができる。
 (変形例)
 第1後方カメラ22及び第2後方カメラ23の設置位置は、前部ピラー付近に限定されるものではない。例えば、第1後方カメラ22は、車両20の右後側方の領域を撮影可能な位置に設置すれば足り、例えば、右ドアミラーの設置位置付近から、右後方のバンパーの後端までの右側面領域のいずれに設置してもよい。同様に、第2後方カメラ23は、車両20の左後側方の領域を撮影可能な位置に設置すれば足り、例えば、左ドアミラーの設置位置付近から、左後方のバンパーの後端までの左側面領域のいずれに設置してもよい。
 また、車両20周囲の俯瞰画像を生成するために使用される広角カメラの撮影画像から部分画像を抽出して第1画像10及び第2画像11を生成してもよい。俯瞰画像用の広角カメラを使用することにより、第1画像10及び第2画像11を生成するための専用カメラを省略してもよい。
 (第2実施形態)
 (構成)
 次に、本発明の第2実施形態に係る車載用表示装置40を説明する。図7を参照する。図1に示す構成要素と同様な構成要素には同一の符号を付する。表示部5は、撮像画像やCG画像等の画像を表示可能な第1表示領域5aと第2表示領域5bを有する。
 図8の(a)を参照する。第1表示領域5aの横方向に延びる第1横方向辺50の第1長さL1は、第2表示領域5bの横方向に延びる第2横方向辺51の第2長さL2よりも長い。例えば第2長さL2は、第1長さL1の20%~50%の長さであってよいが、これに限定されるものではない。
 第2表示領域5bの横方向と第1表示領域5aの横方向は平行である。すなわち、第2表示領域5bの第2横方向辺51が第1表示領域5aの第1横方向辺50に沿うように、第2表示領域5bは第1表示領域5aに隣接して配置される。
 添付図面において、第1表示領域5a及び第2表示領域5bの横方向をX方向と示す。例えば、横方向Xは、車幅方向に略平行であってもよい。また、添付図面において前後方向をY方向と示し、車両の垂直方向をZ方向と示す。
 例えば、第1表示領域5a及び第2表示領域5bは、前後方向Yに並べて配置され、第1表示領域5aは第2表示領域5bよりも前方に配置される。また、第1表示領域5aは第2表示領域5bよりも上方に設置される。このため、図7に示すように第1表示領域5a及び第2表示領域5bがフロントガラス2より下方に配置されると、第1表示領域5aとフロントガラス2との距離は、第2表示領域5bとフロントガラス2との距離よりも短くなる。この結果、前進中の運転手の注視点と第1表示領域5aとの距離は、注視点と第2表示領域5bとの距離よりも短くなる。
 参照番号55は、第1横方向辺50の中心線すなわち垂直二等分線を示し、参照番号56は、第2横方向辺51の中心線を示す。第1横方向辺50の中心の横方向位置と、第2横方向辺51の中心の横方向位置は一致していてもよい。さらに、第1横方向辺50の中心及び第2横方向辺51の中心の車幅方向の位置が、車幅方向における運転席の中心位置と一致していてもよい。
 第1表示領域5aと第2表示領域5bは、第1表示領域5aの第1表示面52と第2表示領域5bの第2表示面54とがなす角度θが90度以上180度未満となるように配置される。ここで、第1表示面52と第2表示面54とがなす角度θとは、第1表示面52内の横方向Xに垂直な直線、例えば中心線55と、第2表示面54内の横方向Xに垂直な直線、例えば中心線56とがなす角であってよい。第1表示面52と第2表示面54とがなす角度θは、例えば、鈍角や、90度以上150度以下であってよいが、これに限定されるものではない。
 図8の(b)を参照する。参照符号α1は水平面に対する第1表示面52の傾きの角度を示し、参照符号α2は水平面に対する第2表示面54の傾きの角度を示す。水平面に対する第1表示面52の傾きは、水平面に対する第2表示面54の傾きよりも大きい。すなわち、第1表示面52の傾き角α1は、第2表示面54の傾き角α2よりも大きい。このため、運転者から見て、第2表示面54は第1表示面52よりも水平に近くなり、第1表示面52は第2表示面54よりも垂直に近くなる。
 図9を参照する。図2に示す構成要素と同様な構成要素には同一の符号を付する。図9の例では、第1画像10に、車両20の右側の後側方の物体61及び62が映っている。
 一方、第2表示領域5bには、車両20の周囲の俯瞰画像60が表示される。俯瞰画像60は、車両20に対する、車両20の側方、後側方及び後方に存在する物体の路面上の相対位置を示す画像を含む。例えば、俯瞰画像60は、車両20にドアミラーを設置すると仮定した場合のドアミラーの設置位置よりも後方の範囲を含む俯瞰画像であってよい。また例えば、俯瞰画像60は、車両20にドアミラーを設置すると仮定した場合のドアミラーの設置位置よりも後方の範囲のみを含んでもよい。
 例えば、俯瞰画像60には、車両20に対する、車両20の側方、後側方及び後方に存在する物体の相対位置を示す位置表示を含む。位置表示は、例えば、アイコン、プロット、矢印であってよいが、これらに限定されるものではない。図9の例では、俯瞰画像60には、車両20に対する物体61の相対位置を示すためのアイコン63と、車両20に対する物体62の相対位置を示すためのアイコン64を含んでいる。
 また、俯瞰画像60における車両20の前後方向は、第2表示領域5bの縦方向に一致していてもよい。
 出願人が先に出願した特許文献(特開2008-094292号公報)記載の車両用表示装置は、サイドミラーを注視している時の中心視野から離れた視野周辺部位に設置された表示画面に車両と略同一進行方向で走行する他車両を示す情報を表示する。このように、サイドミラーと表示画面が離れているため、車両の後側方に複数の物体が存在している場合に、これらの物体の配置の把握しにくいことがあった。
 例えば、ドアミラーに映る物体と表示画面に表示されている車両との対応付けが難しいことがあった。この結果、図9に示す物体61及び62のような車両20の後側方の複数の物体の配置が把握しにくいことがあった。
 このため、例えば、ドアミラーに映る他車両が車両20が合流しようとする車線にいるのか、他の車線にいるのかを判断することが難しいことがあった。
 これに対して、第2実施形態の表示部5は、サイドミラーの鏡像の仮想画像が表示される第1表示領域5aと俯瞰画像が表示される第2表示領域5bは、第1横方向辺50が第2横方向辺51に沿うように互いに隣接して配置される。このため、第1表示領域5aに表示されるサイドミラーの鏡像の仮想画像に映る物体と、第2表示領域5bに表示される俯瞰画像に写る物体との対応付けが容易になる。この結果、サイドミラーの鏡像の仮想画像に映る物体の配置が把握しやすくなる。
 このため、例えば、サイドミラーの鏡像の仮想画像に映る他車両が、車両20が合流しようとする車線にいるのか、他の車線にいるのかを判断することが容易になる。
 また、第2実施形態の表示部5は、第1画像10と第2画像11が表示される第1表示面52と、俯瞰画像60が表示される第2表示面54との間に、水平面に対する傾きの差を与える。第1表示面52と第2表示面54との間に、水平面に対する傾きの差があることにより、第1画像10、第2画像11、及び俯瞰画像60に映る車両周囲の状況が把握し易くなる。すなわち、水平面に対する傾きの差を与えることで、運転者が第1画像10と第2画像11を見るときの視線の俯角又は仰角の方向を、車両20の周囲を俯瞰するときの視線の俯角よりも車両20の後側方を見るときの視線の俯角又は仰角に近付けることができる。同様に、運転者が俯瞰画像60を見るときの視線の俯角を、車両20の後側方を見るときの視線の俯角又は仰角よりも車両20の周囲を俯瞰するときの視線の俯角に近付けることができる。
 このように、第1画像10と第2画像11を見る視線の俯角又は仰角を車両20の後側方を見るときの視線の俯角又は仰角に近付け、俯瞰画像60を見る視線の俯角を車両20の周囲を俯瞰するときの視線の俯角に近付ける。このため、車両20の周囲の状況を3次元的に把握し易くなる。
 第1画像10及び第2画像11は、俯瞰画像60における車幅方向の中心線65に対して対称に配置されてもよい。このような配置により、第1画像10及び第2画像11と、俯瞰画像60との対応を知覚しやすくなり、第1画像10、第2画像11、及び俯瞰画像60に映る車両20の周囲の状況をより把握し易くなる。
 俯瞰画像60は、俯瞰画像60内における車両20の位置を示す位置表示を含んでもよい。このような位置表示を含むことによって、車両20に対する、車両20の側方、後側方及び後方に存在する物体の相対位置が認識しやすくなる。車両20の位置を示す位置表示は、例えば、アイコン、プロット、矢印でよいが、これらに限定されるものではない。図9の例では、車両20の位置を示す位置表示として、俯瞰画像60は、車両20を示すアイコン66を含む。アイコン66は、例えば、車両20の真上から見下ろした視点での車両20の形状を示すアイコンであってよい。
 車両20の周囲の物体の実際の色をアイコンの色に反映しない場合には、俯瞰画像60に含まれる複数の物体にそれぞれ対応する複数のアイコンは同一色のアイコンであってもよい。複数の物体を表すアイコンを同一色のアイコンとすることで、運転者は、俯瞰画像60に表示されるアイコンの色が実際の物体の色とは異なることを気づきやすくなる。このため、運転者は、誤ってアイコンの色と同一色の物体を第1画像10及び第2画像11から探そうと試みにくくなる。同様の理由により、俯瞰画像60に含まれる物体のアイコンは、ワイヤフレームで表示されてもよい。
 車両20を示すアイコン66の車幅方向の中心線は、俯瞰画像60における車幅方向の中心線65と一致してもよい。第1画像10及び第2画像11は、アイコン66の車幅方向の中心線に対して対称に配置されてもよい。
 サイドミラーの鏡像の仮想画像である第1画像10及び第2画像11は、運転者が後側方を直接視認する像に近い。このため、第1画像10及び第2画像11は、周囲の障害物との距離、方向及び移動方向などを運転者に知覚させるのに適しており、走行中の車両20周囲の状況を運転者に提示する画像として優先度が高い。
 したがって、上述のように第2表示領域5bよりも第1表示領域5aを前進中の運転手の注視点により近い位置に配置することで、優先度の高い第1画像10及び第2画像11と注視点との間の視線移動量を低減することができる。
 俯瞰画像60は、車両20の周囲の車線を示すための路面標示の画像を含んでもよい。路面標示は、例えば、車道中央線、車線境界線、車道外側線等を含んでもよいが、これらに限定されるものではない。俯瞰画像60は、路面標示の画像を含むことで、俯瞰画像60に写る他車両が、車両20が合流しようとする車線にいるのか他の車線にいるのかを判断することが容易になる。図9の例では、俯瞰画像60は、車線境界線67の画像を含んでいる。また、俯瞰画像60は、後側方の一定範囲を示す補助線68を含んでもよい。
 俯瞰画像60に表示される路面の車幅方向の範囲は、例えば、車両20の走行車線と、右側及び左側の隣接車線を含む範囲であってよいが、これに限定されるものではない。車両20の走行車線と、2車線以上の右側の隣接車線と、2車線以上の左側の隣接車線を含んでもよい。
 俯瞰画像60に表示される路面の前後方向の範囲は、例えば、車両20のドアミラー設置位置から後方30mまでの範囲であってよいが、これに限定されるものではない。
 図8の(b)を参照する。水平面に対する第2表示面54の傾きは、水平面に対する第1表示面52の傾きよりも小さい。したがって、第2表示領域5bの縦方向の寸法が増加すると、第2表示領域5bの設置スペースの前後方向の長さが増加しやすい。このため、第2表示領域5bの縦方向辺を縮小して、ダッシュボード3に占める第2表示領域5bの設置スペースの前後方向の長さを節約してもよい。
 この場合、所望の範囲の俯瞰画像が第2表示領域5bに表示されるように、縮小された第2表示領域5bの縦方向辺に応じて俯瞰画像60を縮小してもよい。しかし、第2表示領域5bの第2横方向辺51の第2長さL2を変えずに俯瞰画像60を縮小すると、第2表示領域5bに表示される車幅方向の撮影範囲の増大を招く。このため、第2表示領域5bの縦方向辺の縮小に応じて第2横方向辺51の第2長さL2を縮小し、第2長さL2を第1表示領域5aの第1横方向辺50の第1長さL1よりも短くすることで、俯瞰画像60の車幅方向の撮影範囲の増大を緩和してもよい。
 図10を参照する。図3に示す構成要素と同様な構成要素には同一の符号を付する。第2実施形態に係る車載用表示装置40を備える車両20は、第3後方カメラ70と、右側方カメラ71と、左側方カメラ72と、第1距離センサ73と、第2距離センサ74を備える。
 第3後方カメラ70と、右側方カメラ71と、左側方カメラ72は、俯瞰画像60に含まれる車両20の周辺の画像を撮影するカメラである。
 図11の(a)及び図11の(b)を参照する。第3後方カメラ70は、車両20の後端の車幅方向の中心付近に、後方かつ45°下方を向けて設置された広角(例えば180°)カメラで、車両20の後端及び後方の周囲を撮影する。
 右側方カメラ71は、車両20の右ドアミラー付近に、略下方を向けて設置された広角(例えば180°)カメラで、車両20の右側側面及び右側面の周囲を撮影する。
 左側方カメラ72は、車両20の左ドアミラー付近に、略下方を向けて設置された広角(例えば180°)カメラで、車両20の左側側面及び左側面の周囲を撮影する。
 なお、図11の(a)及び図11の(b)で説明したカメラ設置位置や向き、画角等に限定されることなく、視点変換等の技術を使って、上記説明箇所の画像を作成しても同等の効果を得ることができる。
 図10を参照する。第3後方カメラ70と、右側方カメラ71と、左側方カメラ72と、各々撮影して得られた画像をコントローラ30へ出力する。以下の説明において、第3後方カメラ70、右側方カメラ71、及び左側方カメラ72が撮影した画像を、それぞれ「第3後方画像」、「右側方画像」、及び「左側方画像」と表記することがある。
 第1距離センサ73及び第2距離センサ74は、車両20のそれぞれ右後端部及び左後端部に設けられる。第1距離センサ73は、車両20の右側方から車両20の後方に亘る範囲において、車両20の周囲の物体との距離及び周囲の物体の方向を測定する。第2距離センサ74は、車両20の左側方から車両20の後方に亘る範囲において、車両20の周囲の物体との距離及び周囲の物体の方向を測定する。
 第1距離センサ73及び第2距離センサ74は、例えば、レーザレンジファインダ、超音波センサ、ミリ波センサ等であってよいが、これらに限定されるわけではない。第1距離センサ73及び第2距離センサ74は、測定した物体との距離及び物体の方向を示す情報をコントローラ30へ出力する。測定した物体との距離及び物体の方向を示す情報を「測定情報」と表記することがある。
 コントローラ30は、第3後方画像、右側方画像及び左側方画像を加工して車両20の周囲の俯瞰画像60を生成する。コントローラ30は、測定情報に基づいて車両20の周囲の物体を検出し、検出された物体の位置表示を俯瞰画像60内に表示する表示位置を算出する。コントローラ30は、検出した物体の位置を示す位置表示を、算出した表示位置に重畳する。コントローラ30は、車両20の周囲の物体の位置表示を重畳した俯瞰画像60を表示部5へ出力する。
 以下、コントローラ30により実現される第2実施形態の車載用表示装置の処理を説明する。図12を参照する。図5に示す構成要素と同様な構成要素には同一の符号を付する。車載用表示装置40は、俯瞰画像生成部80を備える。俯瞰画像生成部80による後述の処理は、コントローラ30によって実行される。俯瞰画像生成部80は、第3視点変換部81と、周囲物体検出部82と、周囲物体画像付加部83と、第2合成部84と、を備える。
 第3視点変換部81は、第3後方カメラ70、右側方カメラ71、及び左側方カメラ72から第3後方画像、右側方画像、及び左側方画像をそれぞれ受信する。第3視点変換部81は、第3後方画像、右側方画像、及び左側方画像の視点を変換して、車両20の周囲の俯瞰画像60を生成する。
 周囲物体検出部82は、第1距離センサ73及び第2距離センサ74から測定情報を受信する。周囲物体検出部82は、第1距離センサ73及び第2距離センサ74により測定された距離及び方向が測定された車両20の周囲の物体を検出する。周囲物体検出部82は、検出した物体の位置情報を周囲物体画像付加部83へ出力する。
 周囲物体画像付加部83は、周囲物体検出部82から受信した位置情報に基づいて、検出された物体の位置表示を俯瞰画像60内に表示する表示位置を算出する。周囲物体画像付加部83は、算出した表示位置と、予め記憶した位置表示の画像データを第2合成部84へ出力する。
 第2合成部84は、第3視点変換部81から受信した俯瞰画像60内の、周囲物体画像付加部83から受信した表示位置に、周囲物体画像付加部83から受信した位置表示の画像データを重畳する。第2合成部84は、周囲物体検出部82が検出した物体の位置表示が重畳された俯瞰画像60を表示部5へ出力する。
 第2合成部84は、表示部5へ出力する俯瞰画像60に、車両20の位置を示す位置表示や後側方の一定範囲を示す補助線を重畳してもよい。
 表示部5は受信した合成画像を第2表示領域5bに表示する。
 (動作)
 次に、第1実施形態に係る車載用表示装置40の動作について説明する。図13を参照する。ステップS20において第1後方カメラ22及び第2後方カメラ23は、それぞれ車両20の右側及び左側の後側方を撮影し、第1後方画像及び第2後方画像をそれぞれ生成する。第3後方カメラ70と、右側方カメラ71と、左側方カメラ72は、車両20の周辺の画像を撮影し、それぞれ第3後方画像、右側方画像、及び左側方画像を生成する。
 ステップS21において第1距離センサ73及び第2距離センサ74は、車両20の周囲の物体との距離及び周囲の物体の方向を測定し、測定した周囲の物体の測定情報を生成する。
 ステップS22の動作は、図6に示すステップS11の動作と同様である。
 ステップS23において俯瞰画像生成部80は、第3後方画像、右側方画像、及び左側方画像に基づいて、車両20の周囲の俯瞰画像60を生成する。俯瞰画像生成部80は、測定情報に基づいて算出された俯瞰画像生成部80内の表示位置に、車両20の周囲の物体を示すアイコンを重畳する。俯瞰画像生成部80は、俯瞰画像60に、車両20の位置を示す位置表示や後側方の一定範囲を示す補助線を重畳してもよい。
 ステップS24の動作は、図6に示すステップS12の動作と同様である。
 ステップS25において俯瞰画像生成部80は、表示部5に俯瞰画像60を出力する。表示部5は、運転者から視認可能な車室内の位置にある第2表示領域5bに、俯瞰画像60を表示する。
 (第2実施形態の効果)
 (1)第2実施形態に係る車載用表示装置40は、車両20の周囲の俯瞰画像60を生成する俯瞰画像生成部80をさらに備える。表示部5は、第1画像10及び第2画像11が表示される第1表示領域5aと、俯瞰画像60が表示される第2表示領域5bを備える。第2表示領域5bは、第1表示領域5aの第1横方向辺50が第2表示領域5bの第2横方向辺51に沿うように第1表示領域5aに隣接して配置される。
 このため、第1表示領域5aに表示される後写鏡の鏡像の仮想画像に映る物体と、第2表示領域5bに表示される俯瞰画像に写る物体との対応付けが容易になる。この結果、後写鏡の鏡像の仮想画像に映る物体の配置が把握しやすくなる。
 (2)俯瞰画像60の範囲が、車両20にドアミラーを設けた場合の設置位置より後方を含むことにより、第1画像10及び第2画像11に映る、ドアミラーより後方の物体の配置が把握しやすくなる。
 (3)俯瞰画像60内に含まれる車両20の周囲の複数の物体を示すアイコンを同一色又はワイヤフレームで表示する。これにより、物体の実際の色をアイコンの色に反映しない場合に、運転者は、俯瞰画像60に表示されるアイコンの色が実際の物体の色とは異なることを気づきやすくなる。この結果、運転者は、誤ってアイコンの色と同一色の物体を第1画像10及び第2画像11から探そうと試みにくくなる。
 (4)俯瞰画像60における車両20の車幅方向の中心に対して第1画像10及び第2画像11が対称に配置される。このような配置により、第1画像10及び第2画像11と、俯瞰画像60との対応を知覚しやすくなり、第1画像10、第2画像11、及び俯瞰画像60に映る車両20の周囲の状況をより把握し易くなる。
 (5)第1表示領域5aの第1表示面52と第2表示領域5bの第2表示面54とのなす角度θは90度以上180度未満である。これにより、第1画像10と第2画像11が表示される第1表示面52と、俯瞰画像60が表示される第2表示面54との間に、水平面に対する傾きの差を与え、第1画像10、第2画像11、及び俯瞰画像60に映る状況を運転者に把握し易くすることができる。
 すなわち、水平面に対する傾きの差を与えることで、運転者が第1画像10と第2画像11を見るときの視線の俯角又は仰角の方向を、車両20の周囲を俯瞰するときの視線の俯角よりも車両20の後側方を見るときの視線の俯角又は仰角に近付けることができる。同様に、運転者が俯瞰画像60を見るときの視線の俯角を、車両20の後側方を見るときの視線の俯角又は仰角よりも車両20の周囲を俯瞰するときの視線の俯角に近付けることができる。
 このように、第1画像10と第2画像11を見る視線の俯角又は仰角を車両20の後側方を見るときの視線の俯角又は仰角に近付け、俯瞰画像60を見る視線の俯角を車両20の周囲を俯瞰するときの視線の俯角に近付ける。このため、車両20の周囲の状況を3次元的に把握し易くなる。
 車両20の水平面に対する第1表示面52の傾きが、水平面に対する第2表示面54の傾きよりも大きいことにより、第1表示面52と第2表示面54との間に水平面に対する傾きの差を与えることができる。
 この場合、第1表示面52と比べて、第2表示面54の方が車両20の水平面に対する傾きが小さい。このため、第2表示領域5bの縦方向の寸法が増加すると、第2表示領域5bの設置スペースの前後長さが増加しやすい。したがって、第2表示領域5bの縦方向辺を縮小して、第2表示領域5bの設置スペースの前後長を低減してもよい。
 そして、車両20の周囲の所望の範囲が第2表示領域5bに表示できるように、第2表示領域5bの縦方向辺に応じて俯瞰画像60を縮小してもよい。この場合、第2表示領域5bの第2横方向辺51の第2長さL2を縮小して、第2長さL2を第1表示領域5aの第1横方向辺50の第1長さL1よりも短くすることで、俯瞰画像60の車幅方向の撮影範囲の増大を緩和することができる。
 (6)第1表示面52と第2表示面54とのなす角度θが150度以下であることより、第1表示面52と第2表示面54との間に適度な傾きの差を与えることができる。この結果、運転者は、第1画像10、第2画像11、俯瞰画像60に映る車両20の周囲の状況を3次元的に再現し易くなる。また、第1表示面52と第2表示面54とのなす角度θを90度以上にすることで、第1表示面52及び第2表示面54を見やすい視点の範囲を拡大し、運転者の視点の移動量を低減できる。
 (7)第1表示領域5aは、第2表示領域5bの上方に設置することにより、前進中の運転手の注視点と第1表示領域5aとの距離を、注視点と第2表示領域5bとの距離よりも短くすることができる。このため、第1画像10及び第2画像11が優先度のより高い画像である場合に、第1画像10及び第2画像11と注視点との間の視線移動量を低減することができる。
 (8)第1横方向辺50の中心と第2横方向辺51の中心とが一致するように第1表示領域5aと第2表示領域5bとが配置される。このため、俯瞰画像60における車両20の車幅方向の中心に対して第1画像10及び第2画像11を対称に配置した場合に、俯瞰画像60の車幅方向の中心の右側の画像と左側の画像とを均等に表示し、第1画像10と第2画像11とを均等に表示しやすくなる。
(変形例)
 (1)第1表示領域5aの第1横方向辺50の中心の車幅方向の位置と、第2表示領域5bの第2横方向辺51の中心の車幅方向の位置は、車幅方向における運転席の中心位置と一致していてなくてもよい。例えば、第1横方向辺50の中心の車幅方向の位置と第2横方向辺51の中心の車幅方向の位置は、車幅方向の車両20の中心と一致してもよい。
 (2)車両20の周囲の物体と車両20との相対位置を、第3後方画像、右側方画像、及び左側方画像から検出してもよい。例えば、周囲物体検出部82は、第3後方画像、右側方画像、及び左側方画像に映っている車両20の周囲の物体と路面との接触位置に基づいて、車両20の周囲の物体の位置を算出してもよい。
 例えば、周囲物体検出部82は、第3後方画像、右側方画像、及び左側方画像に映っている車両20の周囲の他車両のタイヤと路面との接触位置に基づいて、車両20の周囲の他車両の位置を算出してもよい。この場合に、第1距離センサ73及び第2距離センサ74を省略してもよい。
 (3)車両20から離れた地点の画像は、広角カメラである第3後方カメラ70、右側方カメラ71、及び左側方カメラ72で撮影した画像から明瞭に生成することが難しい。
 このため、車両20の位置を測定し、車両20の位置情報と予め記憶した地図情報とに基づいて車両20の周囲の道路環境の俯瞰画像を生成してもよい。道路環境は、道路と、道路上の固定物及び半固定物と、道路周囲の固定物及び半固定物を含んでよい。例えば、道路環境は、車両20の周囲の道路や、道路に固有の地物を含んでよい。道路に固有の地物とは、例えば路面標示、信号機、道路標識、レーンマーカ(路面マーカ)等でもよいが、これらに限定されるものではない。道路環境は、道路周囲の建築物及びランドマークを含んでよい。
 以下の説明において、車両20の周囲の道路環境の俯瞰画像を「環境画像」と表記することがある。車両20の位置情報と地図情報とに基づいて生成した環境画像を、第3後方画像、右側方画像、及び左側方画像から生成した俯瞰画像60と合成してもよい。または、車両20の位置情報と地図情報とに基づいて生成した環境画像を、第3後方画像、右側方画像、及び左側方画像の代わりに使用して俯瞰画像60を生成してもよい。
 図14を参照する。図12に示す構成要素と同様な構成要素には同一の符号を付する。車両20は、位置測定部90及び地図情報格納部91を備える。俯瞰画像生成部80は、環境検出部92と、環境画像付加部93を備える。
 位置測定部90は、車両20の位置を測定する。位置測定部90は、例えばグローバル・ポジショニング・システム(GPS:Global Positioning System)や慣性航法装置であってよいが、これらに限定されるものではない。また、位置測定部90は、第3後方カメラ70、右側方カメラ71、及び左側方カメラ72で撮影した第3後方画像、右側方画像、及び左側方画像に基づいて、道路内の車両20の車幅方向の走行位置を測定してもよい。位置測定部90は、測定した車両20の位置情報を環境検出部92へ出力する。
 地図情報格納部91には、所定の地域の地図情報が格納される。地図情報には、例えば、道路の道路構造と、道路に固有の地物の情報が含まれている。道路構造は、例えば、道路の曲率(湾曲路の曲率)、車道と歩道との境界、交差点、分岐、合流、路面のバンク、路面の凹凸等を含んでよいが、これらに限定されるものではない。
 環境検出部92は、位置測定部90から受信した車両20の位置情報に基づいて、俯瞰画像60に表示する道路構造及び地物の情報を地図情報から抽出する。環境検出部92は、抽出された道路構造及び地物の情報を環境画像付加部93に出力する。
 環境画像付加部93は、環境検出部92から受信した道路構造及び地物の情報に基づいて、俯瞰画像60に表示する道路及び地物の画像を生成する。環境画像付加部93は、道路及び地物の画像を俯瞰画像60内に表示する表示位置を算出する。
 環境画像付加部93は、道路及び地物の画像データとその表示位置を第2合成部84へ出力する。第2合成部84は、俯瞰画像60内の、環境画像付加部93から受信した表示位置に、環境画像付加部93から受信した道路及び地物の画像データを重畳する。
 ここでは、限られた数の実施形態を参照しながら説明したが、権利範囲はそれらに限定されるものではなく、上記の開示に基づく各実施形態の改変は当業者にとって自明なことである。
 5…表示部、5a…第1表示領域、5b…第2表示領域、10…第1画像、11…第2画像、12…右ドアミラーの枠を示す縁の画像、13…車両の右側面の一部を示す画像、14…左ドアミラーの枠を示す縁の画像、15…車両の左側面の一部を示す画像、20…車両、22…第1後方カメラ、23…第2後方カメラ、30…コントローラ、40…車載用表示装置、41…仮想画像生成部、42…第1視点変換部、43…第1抽出部、44…第2視点変換部、45…第2抽出部、46…第1合成部、50…第1横方向辺、51…第2横方向辺、52…第1表示面、54…第2表示面、60…俯瞰画像、70…第3後方カメラ、71…右側方カメラ、72…左側方カメラ、73…第1距離センサ、74…第2距離センサ、80…俯瞰画像生成部、81…第3視点変換部、82…周囲物体検出部、83…周囲物体画像付加部、84…第2合成部、90…位置測定部、91…地図情報格納部、92…環境検出部、93…環境画像付加部

Claims (14)

  1.  車両の右側に第1後写鏡を設けた場合に前記第1後写鏡に映る鏡像の仮想画像を含んだ第1画像と、前記車両の左側に第2後写鏡を設けた場合に前記第2後写鏡に映る鏡像の仮想画像を含んだ第2画像と、を生成する仮想画像生成部と、
     前記車両の運転者から視認可能な車室内の位置に配置され、前記第1画像及び前記第2画像を横方向に並べて表示する表示部と、
     を備え、
     前記仮想画像生成部は、後写鏡の枠を示す縁を前記第1画像及び前記第2画像に付与することを特徴とする車載用表示装置。
  2.  前記仮想画像生成部は、前記車両の車体の側面を示す画像を前記第1画像及び前記第2画像に付与することを特徴とする請求項1に記載の車載用表示装置。
  3.  前記第1画像及び前記第2画像の画角は、前記車両の運転席の前方も含むように設定されることを特徴とする請求項1又は2に記載の車載用表示装置。
  4.  前記車両の周囲の俯瞰画像を生成する俯瞰画像生成部をさらに備え、
     前記表示部は、前記第1画像及び前記第2画像が表示される第1表示領域と、前記俯瞰画像が表示される第2表示領域と、を備え、
     前記第2表示領域は、前記第1表示領域の第1横方向辺が前記第2表示領域の第2横方向辺に沿うように前記第1表示領域に隣接して配置されることを特徴とする請求項1~3のいずれか一項に記載の車載用表示装置。
  5.  前記俯瞰画像の範囲は、前記車両に前記第1後写鏡を設けた場合の前記第1後写鏡の設置位置より後方を含むことを特徴とする請求項4に記載の車載用表示装置。
  6.  前記俯瞰画像生成部は、前記車両の周囲の複数の物体を示すアイコンを同一色又はワイヤフレームで表示することを特徴とする請求項4又は5に記載の車載用表示装置。
  7.  前記俯瞰画像における前記車両の車幅方向の中心に対して前記第1画像及び前記第2画像が対称に配置されることを特徴とする請求項4~6のいずれか一項に記載の車載用表示装置。
  8.  前記第2横方向辺の長さが、前記第1横方向辺の長さよりも短く、
     前記第1表示領域の第1表示面と前記第2表示領域の第2表示面とのなす角度が90度以上180度未満であることを特徴とする請求項4~7のいずれか一項に記載の車載用表示装置。
  9.  前記第1表示面と前記第2表示面とのなす角度は90度以上150度以下であることを特徴とする請求項8に記載の車載用表示装置。
  10.  前記車両の水平面に対する前記第1表示面の傾きが、前記水平面に対する前記第2表示面の傾きよりも大きいことを特徴とする請求項8又は9に記載の車載用表示装置。
  11.  前記第1表示領域は、前記第2表示領域の上方に設置されることを特徴とする請求項4~10のいずれか一項に記載の車載用表示装置。
  12.  前記第1横方向辺の中心と前記第2横方向辺の中心とが一致するように前記第1表示領域と前記第2表示領域とが配置されることを特徴とする請求項4~11のいずれか一項に記載の車載用表示装置。
  13.  請求項1~12のいずれか一項に記載の車両用表示装置を備え、
     前記第1表示領域は、前記車両の運転席の正面且つフロントガラスの下方に設けられることを特徴とする車両。
  14.  車両の右側に第1後写鏡を設けた場合に前記第1後写鏡に映る鏡像の仮想画像を含んだ第1画像と、前記車両の左側に第2後写鏡を設けた場合に前記第2後写鏡に映る鏡像の仮想画像を含んだ第2画像と、を生成し、
     前記車両の運転者から視認可能な車室内の位置に、前記第1画像及び前記第2画像を横方向に並べて表示し、
     後写鏡の枠を示す縁を前記第1画像及び前記第2画像に付与する、
     ことを特徴とする表示方法。
PCT/JP2014/005995 2014-12-01 2014-12-01 車載用表示装置、車両及び表示方法 WO2016088151A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/005995 WO2016088151A1 (ja) 2014-12-01 2014-12-01 車載用表示装置、車両及び表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/005995 WO2016088151A1 (ja) 2014-12-01 2014-12-01 車載用表示装置、車両及び表示方法

Publications (1)

Publication Number Publication Date
WO2016088151A1 true WO2016088151A1 (ja) 2016-06-09

Family

ID=56091133

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/005995 WO2016088151A1 (ja) 2014-12-01 2014-12-01 車載用表示装置、車両及び表示方法

Country Status (1)

Country Link
WO (1) WO2016088151A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181865A1 (ja) * 2018-03-20 2019-09-26 住友建機株式会社 ショベル
CN110877599A (zh) * 2018-09-06 2020-03-13 本田技研工业株式会社 侧窗除霜装置
WO2023095340A1 (ja) * 2021-11-29 2023-06-01 日産自動車株式会社 画像処理方法、画像表示方法、画像処理装置、及び画像表示装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0241843U (ja) * 1988-09-14 1990-03-22
JPH10257482A (ja) * 1997-03-13 1998-09-25 Nissan Motor Co Ltd 車両周辺状況表示装置
JP2003219413A (ja) * 2002-01-24 2003-07-31 Clarion Co Ltd 車両後方モニタシステムおよびモニタ装置
JP2006341641A (ja) * 2005-06-07 2006-12-21 Nissan Motor Co Ltd 映像表示装置及び映像表示方法
JP2006347478A (ja) * 2005-06-20 2006-12-28 Fujitsu Ten Ltd タッチパネルディスプレイを有する車載用機器
JP2013168063A (ja) * 2012-02-16 2013-08-29 Fujitsu Ten Ltd 画像処理装置、画像表示システム及び画像処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0241843U (ja) * 1988-09-14 1990-03-22
JPH10257482A (ja) * 1997-03-13 1998-09-25 Nissan Motor Co Ltd 車両周辺状況表示装置
JP2003219413A (ja) * 2002-01-24 2003-07-31 Clarion Co Ltd 車両後方モニタシステムおよびモニタ装置
JP2006341641A (ja) * 2005-06-07 2006-12-21 Nissan Motor Co Ltd 映像表示装置及び映像表示方法
JP2006347478A (ja) * 2005-06-20 2006-12-28 Fujitsu Ten Ltd タッチパネルディスプレイを有する車載用機器
JP2013168063A (ja) * 2012-02-16 2013-08-29 Fujitsu Ten Ltd 画像処理装置、画像表示システム及び画像処理方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181865A1 (ja) * 2018-03-20 2019-09-26 住友建機株式会社 ショベル
CN111315938A (zh) * 2018-03-20 2020-06-19 住友建机株式会社 挖土机
JPWO2019181865A1 (ja) * 2018-03-20 2021-03-11 住友建機株式会社 ショベル
EP3770344A4 (en) * 2018-03-20 2021-04-21 Sumitomo (S.H.I.) Construction Machinery Co., Ltd. EXCAVATOR
US11492782B2 (en) 2018-03-20 2022-11-08 Sumitomo Construction Machinery Co., Ltd. Display device for shovel displaying left and right mirror images and shovel including same
JP7219262B2 (ja) 2018-03-20 2023-02-07 住友建機株式会社 ショベル及びショベル用の表示装置
CN110877599A (zh) * 2018-09-06 2020-03-13 本田技研工业株式会社 侧窗除霜装置
JP2020040421A (ja) * 2018-09-06 2020-03-19 本田技研工業株式会社 サイドデフロスター装置
JP7012625B2 (ja) 2018-09-06 2022-01-28 本田技研工業株式会社 サイドデフロスター装置
CN110877599B (zh) * 2018-09-06 2023-03-14 本田技研工业株式会社 侧窗除霜装置
WO2023095340A1 (ja) * 2021-11-29 2023-06-01 日産自動車株式会社 画像処理方法、画像表示方法、画像処理装置、及び画像表示装置

Similar Documents

Publication Publication Date Title
CN111052733B (zh) 周围车辆显示方法及周围车辆显示装置
WO2018066711A1 (ja) 走行支援装置及びコンピュータプログラム
US10293690B2 (en) Vehicle information projecting system and vehicle information projecting method
JP5172314B2 (ja) ステレオカメラ装置
EP1961613B1 (en) Driving support method and driving support device
WO2019097763A1 (ja) 重畳画像表示装置及びコンピュータプログラム
CN111034186B (zh) 周围车辆显示方法及周围车辆显示装置
CN108216033B (zh) 车辆外围监视装置
US20120123613A1 (en) Driving support device, driving support method, and program
CN102610125A (zh) 输出超车建议的机动车驾驶员辅助系统运行方法和机动车
JP7151073B2 (ja) 表示装置及びコンピュータプログラム
JP7163748B2 (ja) 車両用表示制御装置
JP6626069B2 (ja) 車両用表示装置
JP2004240480A (ja) 運転支援装置
EP3967554A1 (en) Vehicular display system
CN112298040A (zh) 一种基于透明a柱的辅助驾驶方法
JP2014036326A (ja) 俯瞰画像表示装置
WO2016088151A1 (ja) 車載用表示装置、車両及び表示方法
US11256088B2 (en) Vehicle display device
EP3888966A1 (en) Vehicle display device
WO2022224754A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
WO2016088150A1 (ja) 車載用表示装置、車両及び表示方法
WO2020230612A1 (ja) 表示制御方法及び表示制御装置
JP7313896B2 (ja) 車両用表示装置
EP3967553A1 (en) Vehicular display system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14907330

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 14907330

Country of ref document: EP

Kind code of ref document: A1