WO2022044374A1 - 表示制御装置、車両及び表示制御方法 - Google Patents

表示制御装置、車両及び表示制御方法 Download PDF

Info

Publication number
WO2022044374A1
WO2022044374A1 PCT/JP2021/006345 JP2021006345W WO2022044374A1 WO 2022044374 A1 WO2022044374 A1 WO 2022044374A1 JP 2021006345 W JP2021006345 W JP 2021006345W WO 2022044374 A1 WO2022044374 A1 WO 2022044374A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
vehicle
projection surface
display control
control device
Prior art date
Application number
PCT/JP2021/006345
Other languages
English (en)
French (fr)
Inventor
裕大 石橋
吉正 岡部
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to DE112021004648.9T priority Critical patent/DE112021004648T5/de
Priority to CN202180052951.1A priority patent/CN115996864A/zh
Publication of WO2022044374A1 publication Critical patent/WO2022044374A1/ja
Priority to US18/112,892 priority patent/US20230199137A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Definitions

  • This disclosure relates to a display control device, a vehicle, and a display control method.
  • Patent Document 1 discloses a display control device that synthesizes images taken by cameras installed on the right side, left side, and rear side of the vehicle and displays them on a display device.
  • the projection plane is set to the position of the following vehicle, and the boundary of the field of view of each camera is aligned with the position of the following vehicle, so that the following vehicle can be prevented from being double-photographed.
  • the projection plane when the projection plane is set to the position of the following vehicle, the background part at a position farther than the position of the following vehicle is duplicated. If the projection plane is set at a position farther than the position of the following vehicle in order to avoid double image of the background part, the double image of the background part does not occur, but the following vehicle disappears from the combined image. There is a risk of doing. As described above, in the prior art, there is room for improvement in synthesizing the images of the rear of the vehicle taken by a plurality of cameras.
  • the non-limiting embodiment of the present disclosure contributes to the provision of a display control device, a vehicle, and a display control method capable of preventing the following vehicle from disappearing from the image after composition.
  • the display control device is a vehicle detection unit that detects peripheral vehicles existing in the vicinity of the vehicle based on a plurality of captured images around the vehicle taken by a plurality of image pickup devices mounted on the vehicle. And an image processing unit that generates a display image displayed on the display unit mounted on the vehicle by synthesizing the plurality of captured images, and the image processing unit is set behind the vehicle.
  • a background image of the vehicle is generated, and when the peripheral vehicle is detected in a predetermined area, the second peripheral vehicle is detected at the position where the peripheral vehicle is detected.
  • a peripheral vehicle image which is an image of the peripheral vehicle is generated, and the peripheral vehicle image is used as the background image.
  • the vehicle according to the embodiment of the present disclosure is equipped with the above display control device.
  • the display control method includes a step of detecting peripheral vehicles existing in the vicinity of the vehicle based on a plurality of captured images around the vehicle taken by a plurality of image pickup devices mounted on the vehicle.
  • a step of superimposing the peripheral vehicle image on the background image is included.
  • a display control device it is possible to construct a display control device, a vehicle, and a display control method that can prevent the following vehicle from disappearing from the image after composition.
  • Diagram to explain the relationship between projective transformation and viewpoint transformation The figure which shows an example of the viewpoint conversion image at the time of viewpoint conversion
  • a diagram for explaining the flow when generating a virtual viewpoint image that looks down on the own vehicle like a bird's-eye view The figure for demonstrating the state in which the following vehicle 11 disappears from the display image.
  • the figure for demonstrating the setting method of the impulsive projection surface 13A by the display control apparatus 200 which concerns on this embodiment.
  • the figure for demonstrating the control method of the inclination of a projection surface 10. The figure for demonstrating the control method of the inclination of a projection surface 10.
  • the figure for demonstrating the control method which includes a road surface in a projection surface 10.
  • the figure for demonstrating the control method which adds the gentle slope 18 to the lower part of a projection surface 10.
  • FIG. 1 is a diagram showing a configuration example of a vehicle 100 according to an embodiment of the present disclosure.
  • the vehicle 100 includes a right camera 1, a left camera 2, a rear camera 3, and a display control device 200.
  • Each of the right camera 1, the left camera 2, and the rear camera 3 is an image pickup means for photographing the outside of the vehicle 100, which is equipped with an image pickup element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). ..
  • an image pickup element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). ..
  • the right camera 1 is installed on the right side with respect to the traveling direction of the vehicle 100, and is usually provided diagonally to the right rearward at the position where the right side mirror is located and slightly downward, and captures the field of view 1a.
  • Image information indicating the content of the image (right image) is input to the display control device 200.
  • the field of view 1a is a fixed area on the right rear side (right diagonal rear side) of the vehicle 100.
  • the left camera 2 is installed on the left side with respect to the traveling direction of the vehicle 100, and is usually provided diagonally to the left and slightly downward at the position where the left side mirror is located, and captures the viewing range 2a.
  • Image information indicating the content of the image (left image) is input to the display control device 200.
  • the field of view 2a is a fixed area on the left rear side (left diagonal rear side) of the vehicle 100.
  • the rear camera 3 is provided, for example, slightly downward on the rear side with respect to the traveling direction of the vehicle 100, and inputs image information indicating the contents of an image (rear image) obtained by capturing the field of view 3a to the display control device 200. do.
  • the field of view 3a is a fixed area behind the vehicle 100.
  • the display control device 200 is a device that displays images cut out from each of the right image, the left image, and the rear image side by side on the display unit 7.
  • FIG. 2 is a diagram showing a configuration example of the display control device 200 according to the embodiment of the present disclosure.
  • the display control device 200 is a control unit that is composed of, for example, one or a plurality of ECUs (Electronic Control Units) and performs various display control processes in the display unit 7.
  • ECUs Electronic Control Units
  • a right camera 1, a left camera 2, a rear camera 3, an operation unit 4, a navigation device 5, and a display unit 7 are connected to the display control device 200, and various types are connected via CAN (Controller Area Network), which is an in-vehicle network.
  • CAN Controller Area Network
  • the sensor 8 is connected.
  • the operation unit 4 is a user interface (winker lever, switches, etc.) that accepts input operations of the occupants of the vehicle 100.
  • the display unit 7 is a liquid crystal display or the like that displays a composite image.
  • the various sensors 8 are, for example, a vehicle speed sensor, a steering angle sensor, a gear position sensor, and the like.
  • the display control device 200 includes an image processing unit 61, a vehicle detection unit 62, a status determination unit 63, an image control unit 64, and a CAN communication unit 65.
  • the image processing unit 61 synthesizes the images taken by each of the right camera 1, the left camera 2, and the rear camera 3, and displays the combined image on the display unit 7.
  • the vehicle detection unit 62 detects the following vehicle and the like existing behind the vehicle 100 based on the images taken by each of the right camera 1, the left camera 2, and the rear camera 3, and also detects the position of the following vehicle. , The following vehicle information indicating the presence / absence of detection of the following vehicle and the position of the following vehicle is output.
  • the situation determination unit 63 inputs the following vehicle information output from the vehicle detection unit 62 and the operation information indicating that the input operation has been performed by the operation unit 4, and based on these information, the display mode on the display unit 7. To determine.
  • the image control unit 64 controls the parameters of image conversion and composition according to the display mode determined by the situation determination unit 63.
  • the image processing unit 61 synthesizes the images taken by the right camera 1, the left camera 2, and the rear camera 3 according to the parameters controlled by the image control unit 64.
  • FIG. 3 is a diagram showing an example of a composite image displayed on the display unit 7.
  • an image in which images taken by the right camera 1, the left camera 2, and the rear camera 3 are combined is shown.
  • a composite image displayed on the display unit 7 is shown.
  • the images taken by each camera become the images taken from different viewpoint positions. Therefore, even if the objects taken by these cameras are the same, the shape of the image of the object differs depending on the difference in the viewpoint position. Therefore, when these images are combined, the images become discontinuous at the seam. May be distorted.
  • the fence 6 installed at a position relatively far from the rear of the vehicle 100 extends linearly in a direction parallel to the width direction of the vehicle 100 in the real space.
  • the captured right image and the rear image are combined, if the height of the image of the fence 6 is different at the position of the seam of the combined image, the image of the fence is not aligned and is distorted. It ends up.
  • a boundary area is provided at the boundary portion (seam portion) between the right image and the rear image, and the left image and the rear image are used.
  • a boundary area is also provided at the seam with the image. Then, in these boundary regions, a display image is formed by mixing the pixel values of the two images (right image and rear image, or left image and rear image). This is commonly referred to as "blending".
  • the closer one of two adjacent images is to the other (for example, from the right image to the rear image in FIG. 3)
  • the lower the mixing ratio (blend ratio) of one pixel value with respect to the other image is, so that the boundary is formed.
  • the unnaturalness of the area can be made inconspicuous.
  • FIG. 4 is a diagram for explaining the relationship between the projective transformation and the viewpoint transformation.
  • the optical information in the three-dimensional space seen from the actual viewpoint is converted into the information of the two-dimensional image (captured image).
  • Projecting a two-dimensional image onto a surface (projection surface) in three-dimensional space is called projection.
  • the projection plane is tilted with respect to the actual viewpoint, the image on the projection plane is stretched.
  • mapping The process of associating the pixels on the captured image with the pixels on the projection surface is called mapping.
  • mapping By performing mapping, it is possible to convert the captured image into an image viewed from another position. This conversion process is called viewpoint conversion or viewpoint movement, and the image obtained by this conversion process is called a viewpoint conversion image.
  • the process of associating the pixels on the projection surface with the pixels on the viewpoint conversion image can also be called mapping.
  • the part where the distance to the viewpoint is short due to the viewpoint conversion is enlarged on the viewpoint conversion image, and the part where the distance to the viewpoint is long due to the viewpoint conversion is reduced on the viewpoint conversion image. Will be done. That is, the image is also deformed by the viewpoint transformation.
  • mapping table The table used for mapping at this time is called a mapping table. That is, the projection and the viewpoint transformation result in the process of transforming the image by the mapping table.
  • FIG. 5 is a diagram showing an example of a viewpoint conversion image when the viewpoint is converted.
  • the front surface 51 of the cube 50 shown in FIG. 5 is photographed from the actual viewpoint on the drawing, the front surface 51 is visible and the side surface 52 is invisible.
  • the image viewed from this real viewpoint is converted into an image viewed from a virtual viewpoint on the right side as shown in the figure, that is, when converted into a viewpoint conversion image in which the cube 50 is virtually photographed from an oblique direction
  • the front surface 51 is transformed into an image that is the same as an image that can be seen when viewed from a virtual viewpoint on the right side as shown in the figure, that is, an image in which the left side that is far away due to the movement of the viewpoint is reduced.
  • the side surface 52 of the cube 50 which was not shown when viewed from the actual viewpoint, is not shown in the viewpoint conversion image.
  • viewpoint conversion is a virtual viewpoint movement, it is not possible to obtain the same image as the image when the viewpoint is actually moved and photographed in the viewpoint conversion image.
  • projection and viewpoint transformation are merely deformations of the captured image.
  • FIG. 6 is a diagram for explaining a flow until a display image is created by synthesizing images taken by three cameras.
  • each of the right image, the rear image, and the left image is converted into a virtual viewpoint image in which the position of the display unit 7 is a virtual viewpoint by converting the viewpoint.
  • one display image is created by synthesizing these virtual viewpoint images.
  • the images taken by the three cameras are combined into an image as seen from one virtual viewpoint, but as described above, the difference in the image depending on the position of the real viewpoint remains, so the image is discontinuous at the seam of the image. May occur.
  • FIG. 7 is a diagram for explaining a flow when generating a virtual viewpoint image as if looking down on the own vehicle like a bird's-eye view.
  • the virtual viewpoint 20 is moved forward and upward of the own vehicle.
  • three virtual viewpoint images as if looking down on the own vehicle can be obtained.
  • the driver looks at the rear of the vehicle 100 reflected in the rear-view mirror and the rear of the vehicle 100 reflected in the rear-view mirror, and the rear of the vehicle (for example, the trunk room) reflected in the rear-view mirror.
  • the position of the following vehicle is grasped based on the upper surface of the vehicle.
  • a virtual rear image of the own vehicle an image imitating a roof in FIG. 7 is superimposed and synthesized. By doing so, it is possible to create a standard for grasping the positional relationship with the following vehicle.
  • FIG. 8 is a diagram for explaining a state in which the following vehicle 11 disappears from the displayed image.
  • the projection surface 10 is not limited to a flat surface, and may be, for example, a bowl-shaped surface as described later or a curved surface. Further, the projection surface 10 may be a cylindrical surface that surrounds the entire circumference of the vehicle 100, or may be a conical surface that surrounds the entire circumference of the vehicle 100.
  • the visual field ranges of the three camera images have overlapping portions as shown in the visual field range 1a, the visual field range 2a, and the visual field range 3a in FIG. If the three camera images are combined as they are to create a display image, the object reflected in the overlapping field of view will be displayed multiple times on the display image, so when the driver grasps the position of the object, It can be confusing. Therefore, in order to avoid duplication on the displayed image, a cutting process is performed to create an image in which a part is cut out from the field of view of each camera image.
  • the cutout range 1a1 in FIG. 8 is a portion cut out from the right image of the visual field range 1a in FIG.
  • the cutout range 2a1 in FIG. 8 is a portion cut out from the left image of the visual field range 2a in FIG.
  • the cutout range 3a1 in FIG. 8 is a portion cut out from the rear image of the visual field range 3a in FIG.
  • the blind spot area 12 looks at the displayed image. It becomes a blind spot for the driver, and the following vehicle 11 disappears from the displayed image. That is, if the projection surface 10 is set at a position farther than the position of the following vehicle 11, the following vehicle 11 may disappear from the combined image.
  • FIG. 9 is a diagram for explaining a state in which one object is duplicated on a display image.
  • problems when the projection surface 10 is set near the vehicle 100 will be described.
  • the right image, the left image, and the rear image are cut out so that the three rear images are continuous in the horizontal direction on the projection surface 10 set near the vehicle 100.
  • the widths of the cutout range 1a1, the cutout range 3a1 and the cutout range 2a1 are wider than those in the example of FIG. In this case, the cutout range 1a1, the cutout range 3a1, and the cutout range 2a1 do not overlap at the position of the projection surface 10, but are farther than the projection surface 10 because there is an overlapping portion at a position farther than the projection surface 10. If the object 13 existing in the above is in the overlapping portion, it is displayed in each of the two cutout ranges.
  • a part of the cutout range 1a1 and a part of the cutout range 3a1 overlap at a position farther than the projection surface 10, so that the object 13 common to the right image and the rear image is displayed. That is, one object 13 is displayed as two objects 13a and 13b on the combined display image.
  • the object 13 is one motorcycle
  • the two motorcycles are displayed on the projection surface 10 set near the vehicle 100. Therefore, it becomes difficult for the driver to correctly grasp the actual position of the motorcycle.
  • FIG. 10 is a diagram for explaining a method of setting the impulsive projection surface 13A by the display control device 200 according to the present embodiment.
  • the display control device 200 When the display control device 200 detects the following vehicle 11, the display control device 200 sets a striking projection surface (impulsion projection surface 13A) having a size capable of surrounding the following vehicle 11 in the front portion of the following vehicle 11. Then, the display control device 200 projects a region of the captured image including the image of the following vehicle 11 onto the impact projection surface 13A to generate an impact image. At this time, if there is no captured image including the entire image of the following vehicle 11, the entire image of the following vehicle 11 is synthesized on the impact projection surface 13A by projecting the two captured images onto the impact projection surface 13A. You may do it. If there is a photographed image including the entire image of the following vehicle 11, only one photographed image may be projected onto the impulsive projection surface 13A. If only one captured image is projected on the optotype projection surface 13A, the occurrence of discontinuity due to compositing can be avoided, so that a more preferable opposition image can be generated. The area for setting the striking projection surface 13A will be described later.
  • the display control device 200 sets the projection surface 10 farther than the impact projection surface 13A, projects a plurality of captured images on the projection surface 10, and generates a background image (for example, an image including an object 13).
  • the display control device 200 generates one display image by fitting the imitation image on the background image.
  • the striking projection surface 13A and the projection surface 10 may be a flat rectangular surface or a curved surface such as a spherical surface.
  • the image of the following vehicle 11 is pasted on the continuous background image, so that the disappearance of the following vehicle 11 and the double image of the following vehicle 11 can be eliminated. That is, the background image is cut out and combined so that the images are continuous on the distant projection surface 10 so that double reflection does not occur, and the image of the following vehicle 11 is captured by the impulsive image and is the background image. Since it is superimposed on the top, the following vehicle 11 does not disappear.
  • the display control device 200 does not detect the following vehicle 11, the display control device 200 does not set the striking projection surface 13A or project onto the striking projection surface 13A, and uses the background image as the display image.
  • FIG. 11 is a diagram for explaining a region to which the striking projection surface 13A is applied (impulsive projection application region 16).
  • FIG. 11 when a plurality of captured images around the vehicle are projected onto the projection surface in order to generate a background image, the end a near the center of the cutout range 1a1 of the captured image of the right camera and the captured image of the left camera are shown.
  • the center-side end b of the cut-out range 2a1 and the right-side end c1 and the left-side end c2 of the cut-out range 3a1 of the captured image of the rear camera are shown.
  • the cutout performed when projecting a plurality of captured images around the vehicle on this projection surface is a cutout that limits the range to be projected from the plurality of captured images around the vehicle so that the background image becomes a continuous image. In order to remove the part that overlaps with the adjacent image from the projected range.
  • the narrow overlapping portion is cut out so as to remain as a glue margin for blending.
  • the impulsive projection application area 16 is included in the field of view range 3a of the rear camera, but is set to include an area that is not displayed in the background image when the background image is cut out so as to be a continuous image. ..
  • FIG. 8 Please also refer to FIG. 8 for an example of cutting out the background image so that it becomes a continuous image.
  • the blind spot area 12 that is not displayed in the background image is enlarged.
  • the region between the end a of the cutout range 1a1 and the end c1 of the cutout range 3a1 is a blind spot region 12 that is not displayed in the background image, but the range is significantly larger than that of the blind spot region 12 of FIG. It has been reduced and is limited to the immediate vicinity of the vehicle 100.
  • the image of the following vehicle 11 that has entered the blind spot region 12 may disappear from the background image, but it is a blind spot that is unavoidably generated due to restrictions on the arrangement of the cameras, and if a normal inter-vehicle distance is taken. Since it can be said that it is also an area where the following vehicle does not enter, the blind spot area 12 in FIG. 11 is not included in the impulsive projection application area 16.
  • the display control device 200 is included in the viewing range 3a of the rear camera, but includes an area that is not displayed in the background image when the background image is cut out so as to be a continuous image.
  • the striking projection application area 16 is set in, and the above-mentioned striking projection surface 13A is set in the front end portion of the set striking projection application area 16.
  • the impulsive projection application area 16 is included in the viewing range 3a of the rear camera, but the reason why it is set wider than the area that is not displayed in the background image when the background image is cut out so as to be a continuous image is.
  • the following vehicle 11 disappears even if the background image is cut out so as to be a continuous image. There is nothing to do, and there is no double image. Therefore, it is not necessary to set the tsuitate projection application area 16 in the area.
  • the area directly behind the vehicle 100 sandwiched between the two impulsive projection application areas 16 is also excluded from the impulsive projection application area 16 because it is always displayed in the background image and no double image is generated.
  • the impulsive projection application area 16 is applied to a position near the projection surface 10 or a position farther than the projection surface 10, there is no big difference as compared with the case where it is not applied. , It is not necessary to set the tsuitate projection application area 16.
  • FIG. 12 is a diagram for explaining the height of the striking projection surface 13A.
  • the height of the striking projection surface 13A is set to include a region from the upper end to the lower end of the following vehicle 11 when the following vehicle 11 is viewed from the virtual viewpoint 20.
  • the background image of the projection surface 10 is selected for the area on the display image.
  • the background image is displayed on the upper portion of the countersunk projection surface 13A without being obstructed by the countersunk projection surface 13A.
  • a background image is also selected in the lower portion of the impact projection surface 13A, and the portion where the road surface is reflected is displayed without being obstructed by the impact projection surface 13A.
  • the image of the following vehicle 11 is projected on the striking projection surface 13A, so that the disappearance of the following vehicle 11 can be prevented.
  • the background image can be seen continuously without being duplicated in at least the area not blocked by the striking projection surface 13A in the entire projection surface 10, so that the driver can see the background. I don't feel any discomfort with the image.
  • the double-shooting area is a relatively narrow range, so that it does not hinder visual recognition.
  • FIG. 13 is a diagram for explaining the blending process of the boundary portion between the striking projection surface 13A and the projection surface 10.
  • the impulsive projection image of the impulsive projection surface 13A and the background image of the projection surface 10 are discontinuous.
  • the boundary region 17c between the impact projection image and the background image may be provided, and in the boundary region 17c, the transparency of the impact projection image continuously increases toward the outside, and blending may be performed so as to gradually blend into the background image. ..
  • the boundary portion of different images may be discontinuous, so a boundary area may be provided for blending.
  • the boundary region 17a in the upper figure of FIG. 14, which will be described later is a boundary region between the right image and the rear image
  • the boundary region 17b is a boundary region between the left image and the rear image.
  • Boundary regions 17a and 17b are provided, and in the boundary region, the pixel value of the composite image is calculated by weighting addition so that the weight becomes smaller as the image approaches the adjacent image, so that the adjacent images are mixed with each other.
  • the boundary line (boundary) between the background image and the impulsive image can be made inconspicuous.
  • a boundary region may be provided at the boundary portion of the image for blending. In this way, by blending the boundary portion of the image that may be discontinuous, it is possible to prevent the boundary portion from becoming unnatural and attracting the driver's eyes.
  • the display control device 200 may be configured to set a plurality of striking projection surfaces 13A according to the number of following vehicles 11.
  • the striking projection surface 13A when there are a plurality of following vehicles 11, when the striking projection surface 13A is set only for a specific following vehicle 11 among the plurality of following vehicles 11, the image of the following vehicle 11 in which the striking projection surface 13A is set is set. Is projected onto the striking projection surface 13A, and the images of the other following vehicles 11 are projected onto the background projection surface. Therefore, the image of the following vehicle in which the striking projection surface 13A is not set is duplicated in the boundary region of the boundary portion of the image, or is stretched by being projected farther than the original position.
  • the display control device 200 when the display control device 200 detects a plurality of following vehicles 11, the display control device 200 has an impulsive shape capable of surrounding the following vehicle 11 in the front portion of each of the detected following vehicles 11.
  • the projection plane (impulsive projection plane 13A) is set.
  • Example 2 ⁇ Example 2-1: Dynamic control of boundary region>
  • the boundary portion (boundary region 17a, 17b) between the image of the striking projection surface 13A and the image of the projection surface 10 is dynamically controlled, so that the following vehicle 11 An embodiment of eliminating the disappearance of the above will be described.
  • FIG. 14 is a diagram for explaining a method of dynamically controlling the boundary regions 17a and 17b.
  • the following vehicle 11 disappears, for example, when the following vehicle 11 enters the vicinity of the boundary between the rear image and the right image.
  • the display control device 200 is configured to include a region where the following vehicle 11 may disappear in the boundary regions 17a and 17b. Specifically, when the image of the following vehicle 11 is located near the boundary region 17a as shown in the lower figure of FIG. 14, the width of the boundary region 17a is widened and the image of the following vehicle 11 is the boundary region 17a. Be included inside. In this boundary region, the pixels of the rear image and the pixels of the right image are blended to generate the pixels of the display image. Therefore, if the image of the following vehicle 11 is included in at least one of the rear image and the right image, it is displayed. The image of the following vehicle 11 will be displayed in the image. As a result, it is possible to avoid the disappearance of the following vehicle 11 near the boundary between the rear image and the right image.
  • the right end of the boundary region 17a is fixed, and the left end of the boundary region 17a is moved to the left to accommodate the image of the following vehicle 11 in the boundary region.
  • the boundary region 17a depends on the position of the image of the following vehicle 11.
  • the control may be such that the right end of is also moved.
  • the right end of the boundary region 17a may also be moved to the left, and the position of the entire boundary region may be moved so that the image of the following vehicle 11 is located at the center of the boundary region 17a.
  • the boundary region 17b may be expanded so as to include the image of the following vehicle 11, and the pixels of the rear image and the pixels of the left image may be blended in this boundary region to generate the pixels of the display image.
  • the display control device 200 includes the image of the following vehicle 11 in the boundary regions 17a and 17b and blends the boundary regions 17a and 17b so that the unnaturalness of the boundary regions 17a and 17b is not noticeable. It is possible to avoid the disappearance of the following vehicle 11 near the boundary between the rear image and the left and right images.
  • the same region as the region to which the striking projection surface 13A is applied (the striking projection application region 16) described with reference to FIG. 11 may be set.
  • Example 2-2 Controlling the widths of the boundary regions 17a and 17b according to the presence or absence of the following vehicle 11>
  • the display control device 200 may be configured not to widen the width of the boundary regions 17a and 17b when the following vehicle 11 is not detected, and to widen the width of the boundary region when the following vehicle 11 is detected. Further, the display control device 200 may detect the width of the image of the following vehicle 11 and determine whether or not to widen the width of the boundary regions 17a and 17b according to the width of the image of the following vehicle 11.
  • the display control device 200 determines the width of the following vehicle 11 and the range in which the following vehicle 11 is reflected.
  • the display control device 200 determines that the following vehicle 11 is a two-wheeled vehicle, and when the following vehicle 11 is wider than the predetermined width, the following vehicle 11 is determined to be a four-wheeled vehicle.
  • the width of the four-wheeled vehicle is wider than the width of the two-wheeled vehicle, so that the entire image of the four-wheeled vehicle does not disappear from the displayed image. It is considered that even if the vehicle disappears from the displayed image, it does not lead to the oversight of the following vehicle 11. Therefore, when the display control device 200 determines that the width of the following vehicle 11 is wide and is a four-wheeled vehicle, the display control device 200 controls the boundary region near the four-wheeled vehicle so as to maintain the width of the boundary region constant. May be good.
  • the width of the two-wheeled vehicle is narrower than the width of the four-wheeled vehicle, so that the entire image of the two-wheeled vehicle tends to disappear from the displayed image. Therefore, when the display control device 200 determines that the width of the following vehicle 11 is narrow and is a two-wheeled vehicle, the display control device 200 controls the boundary region in the vicinity of the two-wheeled vehicle so as to widen the width of the boundary region.
  • the display control device 200 evaluates the distance to the boundary between the rear image of the image of the following vehicle 11 and the left and right images on the image, and widens the boundary area only when the image of the following vehicle 11 exists near the boundary. You can do it. If the position of the image of the following vehicle 11 is far from the boundary, the subsequent process of determining the necessity can be omitted, so that the load of determining the necessity of widening the boundary region can be reduced.
  • the display control device 200 evaluates the distance to the following vehicle 11 and the approaching speed, and only when the possibility of interference with the vehicle 100 is detected, the above-mentioned description is made with respect to the boundary region near the following vehicle 11. It may be configured to perform blending. For example, when the inter-vehicle distance to the following vehicle 11 is larger than a predetermined value and the inter-vehicle distance does not decrease, it is determined that the following vehicle 11 is unlikely to interfere with the vehicle 100, and it is determined that widening of the boundary region is unnecessary. You may. As a result, it is possible to prevent the image from being unnecessarily blurred (blurred) due to the double image in the boundary region.
  • FIG. 15 is a diagram for explaining control of the width of the boundary region according to the position of the following vehicle 11.
  • the image is blurred due to double image, so it is preferable that the width of the boundary area is narrow.
  • the amount of movement of the following vehicle 11 on the image is when the following vehicle 11 existing far away from the own vehicle moves laterally. It is larger than the movement amount of the following vehicle 11 on the image. Then, when the control of the width of the boundary region does not follow the lateral movement of the following vehicle 11, there is a high possibility that the image of the following vehicle 11 deviates from the boundary region and disappears from the displayed image.
  • the display control device 200 narrows the width of the boundary region near the following vehicle 11 and as the following vehicle 11 approaches the own vehicle, narrows the width of the boundary region. It may be controlled to widen the width of the boundary region continuously or stepwise.
  • FIG. 16 is a diagram for explaining control of the blend ratio in the boundary region.
  • the display control device 200 detects the center position of the image of the following vehicle 11 or the position of the driver's face (or head) of the following vehicle 11, and the blend ratio of the image on the right side and the image on the left side of the boundary region is set.
  • the one-to-one cross point may be controlled to match the center position of the following vehicle 11 or the position of the driver's face (or head) of the following vehicle 11. Since the face recognition technique for detecting a face image from an image is known, detailed explanation is avoided, but face recognition is performed by pattern matching that evaluates the degree of matching with a dictionary image, and the degree of matching with a plurality of dictionary images. It may be an algorithm that evaluates and recognizes it as a face if it matches any of them.
  • the face (or head) of the driver wearing a helmet can also be detected. It is possible to specify the position.
  • the blend ratio in the boundary area differs depending on the position of the image with respect to the boundary area. For example, if the image of the two-wheeled vehicle is near the edge of the boundary region and the blend ratio is low (for example, near 0%), the image of the two-wheeled vehicle is mixed very thinly, and the background image in which the two-wheeled vehicle is not present is mixed deeply. The displayed image is the displayed image. Then, the two-wheeled vehicle will be displayed faintly, and the driver may overlook the two-wheeled vehicle.
  • the blend ratio to 1: 1 at the center position of the image of the following vehicle 11 or the position of the driver's face of the following vehicle 11, which is the position of interest when the driver visually recognizes the two-wheeled vehicle, the image of the two-wheeled vehicle can be obtained. Since the display is approximately half the density, the risk of overlooking the following vehicle 11 is reduced. In addition, by being able to visually recognize the face of the driver of the two-wheeled vehicle, it becomes easy to predict the next movement of the two-wheeled vehicle.
  • the two-wheeled vehicle enters the blind spot formed between the viewing range of the left and right camera images on the displayed image and the viewing range of the camera image of the rear camera, and the image of the two-wheeled vehicle disappears from the displayed image. If there is a risk, the width of the boundary area to be displayed by blending the left and right camera images and the rear camera image is widened so that the image of the two-wheeled vehicle is included, thereby preventing the image of the two-wheeled vehicle from disappearing. You can.
  • the boundary region it is possible to display an image using only one projection surface 10, so that the amount of image processing is smaller than when both the impulsive projection surface 13A and the projection surface 10 are used. Therefore, the display delay time from the detection of the following vehicle 11 to the display of the display image on the display unit 7 can be shortened.
  • Example 3 Next, the third embodiment will be described with reference to FIG. 17 and the like. In addition, Example 3 can be combined with Example 1 or Example 2.
  • FIG. 17 is a diagram for explaining a method of controlling the position of the virtual viewpoint 20 depending on the presence or absence of the following vehicle 11.
  • the display control device 200 sets the virtual viewpoint 20 at a higher position with respect to the road surface when the following vehicle 11 is present, and when the following vehicle 11 is not present, the display control device 200 sets the virtual viewpoint 20 as a virtual viewpoint as compared with the case where the following vehicle 11 is present. 20 is controlled to be set at a low position with respect to the road surface.
  • the virtual viewpoint 20 By setting the virtual viewpoint 20 at a high position with respect to the road surface, it is possible to provide an image that gives a bird's-eye view of the vehicle from a high position, so that the movements of the own vehicle and the following vehicle 11 on the road surface can be easily grasped.
  • the virtual viewpoint 20 when the virtual viewpoint 20 is set at a high position with respect to the road surface, the movement of a fixed object such as a road marking generated by the movement of the vehicle appears to be a larger movement on the display screen, which attracts the attention of the driving vehicle. It will be a thing. In other words, the higher the virtual viewpoint 20, the higher the line-of-sight inducibility. The driver is required to look ahead while driving, so it is better not to look unnecessarily. When the following vehicle 11 does not exist, by setting the virtual viewpoint 20 at a position lower than the road surface, the movement of the road surface on the display unit 7 is reduced, so that it is possible to prevent the line of sight from being unnecessarily drawn.
  • FIG. 18 is a diagram for explaining a method of controlling the position of the virtual viewpoint 20 according to the vehicle speed of the own vehicle.
  • the display control device 200 may be configured to set the virtual viewpoint at a high position with respect to the road surface or set the virtual viewpoint 20 at a low position according to the vehicle speed of the own vehicle.
  • the display control device 200 sets the virtual viewpoint 20 at a position higher than the road surface when the speed of the own vehicle is equal to or less than the predetermined speed, and when the speed of the own vehicle exceeds the predetermined speed, the speed of the own vehicle is predetermined.
  • the virtual viewpoint 20 is set at a lower position with respect to the road surface than in the case of speed or less.
  • the control according to the speed of the own vehicle may be performed in combination with the control according to the presence or absence of the following vehicle 11.
  • the virtual viewpoint 20 may be set to a high position, and in other cases, the virtual viewpoint 20 may be set to a low position, or the own vehicle may be controlled.
  • the virtual viewpoint 20 may be set to a low position only when the speed of the vehicle is high and there is no following vehicle 11, and the virtual viewpoint 20 may be set to a high position in other cases.
  • the former is a control that emphasizes suppressing the gaze guidance
  • the latter is a control that emphasizes making it easier to monitor the rear, and it can be said that either one is adopted according to the design concept of the vehicle. good.
  • Example 3-3 Tilt control of the projection surface 10 according to the movement of the virtual viewpoint 20> 19 and 20 are diagrams for explaining a method of controlling the inclination of the projection surface 10.
  • the projection surface 10 when the projection surface 10 extends vertically with respect to the road surface, the image of the portion near the road surface of the following vehicle 11 is projected on the projection surface 10 below the road surface.
  • the image on the projection surface 10 is viewed from the virtual viewpoint 20 set at a position higher than the actual camera position, the image of the following vehicle 11 appears to be distorted (distorted) in the vertical direction.
  • the display control device 200 projects to a position assuming the following vehicle 11.
  • a surface 10 is set, and the projection surface 10 is tilted so as to be oblique to the road surface.
  • the display control device 200 sets the projection plane 10 so as to perpendicularly intersect the virtual line of sight 15 extending from the virtual viewpoint 20 to the position assuming the following vehicle 11.
  • the distance from the vehicle 100 to the projection surface 10 may be appropriately changed according to the speed of the vehicle 100, and may be lengthened, for example, when the vehicle 100 is traveling at high speed. Since the standard inter-vehicle distance is long when the vehicle speed is high and short when the vehicle speed is low, it is rational to change the distance from the vehicle 100 to the projection surface 10 according to the vehicle speed.
  • the display control device 200 sets the projection surface 10 at the position where the following vehicle 11 is estimated, and the projection surface 10 is set at the position where the following vehicle 11 is estimated.
  • the projection surface 10 may be set to be perpendicular to the road surface.
  • the projection surface 10 By setting the projection surface 10 to be perpendicular to the road surface, the movement of the road surface on the display unit 7 is reduced, so that it is possible to prevent the line of sight from being unnecessarily drawn.
  • the display control device 200 is projected onto the projection surface while making it difficult to guide the driver's line of sight by changing the inclination angle of the projection surface 10 according to the presence or absence of the following vehicle 11 or the speed of the own vehicle. Image distortion can be reduced.
  • FIG. 21 is a diagram for explaining a control method in which the road surface is included in the projection surface 10.
  • the display control device 200 may be configured to include the road surface in the projection surface 10.
  • the position of the road surface display (speed limit display on the road surface, etc.) does not change regardless of the projection, so that the distortion due to the projection can be eliminated. Further, by viewing the projection surface 10 including the road surface from the virtual viewpoint 20 set at a high position, the road surface display becomes easy to see.
  • the display control device 200 includes an image of the road surface in the projection surface 10 when the ground clearance of the virtual viewpoint 20 is raised, and when the ground clearance of the virtual viewpoint 20 is lowered below that, the road surface included in the projection surface 10 is included. May be configured so that the range of the above is smaller than the range of the road surface included in the projection surface 10 when the ground clearance of the virtual viewpoint 20 is increased.
  • the virtual viewpoint 20 When the virtual viewpoint 20 is set to a low position because the following vehicle 11 does not exist, even if the image is projected on the projection surface 10 that does not include the road surface, a display image as actually seen by the driver can be obtained. In this case, the road surface does not have to be added to the projection surface 10.
  • FIG. 22 is a diagram for explaining a control method for adding a gentle slope 18 to the lower part of the projection surface 10.
  • the display control device 200 may be configured to add a gentle slope 18 between the projection surface 10 and the road surface, and set the entire projection surface 10 and the gentle slope 18 as the projection surface.
  • the inclination of the gentle slope 18 with respect to the road surface is smaller than the inclination of the projection surface 10 with respect to the road surface.
  • FIG. 22 shows a case where the gentle slope 18 is flat, the gentle slope 18 is not limited to this, and may be a curved surface that smoothly connects the projection surface 10 and the road surface.
  • the discontinuity between the road surface and the projection surface 10 can be reduced, and the distortion of the image of the road surface farther than the projection surface 10 can be reduced.
  • Example 3-6 Control to set the position of the gentle slope 18 so as not to interfere with the visibility of the following vehicle 11>
  • the visibility of the following vehicle 11 may be hindered.
  • the portion of the image of the following vehicle 11 projected on the gentle slope 18 is distorted, and the portion projected on the gentle slope 18 and the projection above it are distorted.
  • the straight line that straddles the part projected on the surface will appear to be bent.
  • the substructure of the following vehicle refers to, for example, a portion below the bumper of the four-wheeled vehicle or a portion below the axle of the two-wheeled vehicle.
  • the distorted part is limited to the lower part of the image of the following vehicle 11. Since the portion of interest when the driver visually recognizes the following vehicle is the upper portion of the vehicle body, even if the lower portion of the image of the following vehicle 11 is distorted, there is little hindrance in visually recognizing the following vehicle 11.
  • the display control device 200 sets the upper end of the gentle slope 18 at the position of the bumper or the axle of the following vehicle 11 at the position assuming the following vehicle 11, so that the gentle slope 18 is connected to the projection surface 10. You may.
  • the bent portion (gentle slope 18) of the projection surface 10 is set at the lower part of the following vehicle 11, so that the image of the upper part of the following vehicle 11 is not discontinuous and the visibility of the following vehicle 11 is improved.
  • the bird's-eye view display may include the road surface in the projection surface 10 even when the following vehicle 11 is not detected.
  • the range of the road surface included in the projection surface 10 is narrowed or the road surface is blurred to stimulate the visual sense. May be reduced.
  • Example 4 When the display control device 200 reprojects the image of the following vehicle 11 projected on the striking projection surface 13A onto the projection surface 10 and reprojects the image of the following vehicle 11, the display control device 200 extends from the striking projection surface 13A to the projection surface 10. Depending on the distance, the image of the following vehicle 11 projected on the striking projection surface 13A may be enlarged.
  • a four-wheeled vehicle exists right next to the following vehicle 11 shown in FIG. 12, and the distance from the four-wheeled vehicle to the own vehicle is equal to the distance from the following vehicle 11 to the own vehicle. Further, it is assumed that the height of the four-wheeled vehicle is substantially the same as the height of the following vehicle 11, but the width of the four-wheeled vehicle is larger than the width of the following vehicle 11.
  • the striking projection surface 13A is set to the minimum size so that the entire image of the following vehicle 11 can be projected, a four-wheeled vehicle exceeding the size of the striking projection surface 13A is set to the striking projection surface 13A. Is not the target of setting.
  • the striking projection surface 13A is not set in front of the four-wheeled vehicle and the striking projection surface 13A is set only in front of the following vehicle 11, the following problems may occur. That is, in this case, the distance from the impact projection surface 13A to the object (for example, the following vehicle 11) projected on the impact projection surface 13A and the projection surface 10 set farther than the impact projection surface 13A to the projection surface 10. The distance to the projected object (for example, the above four-wheeled vehicle) is different. Therefore, the enlargement ratio of the impulsive image projected on the projection plane 13A with respect to the object is different from the enlargement ratio of the background image projected on the projection surface 10 with respect to the object.
  • the size of the image is reduced so as to fit in the dimensions of the striking projection surface 13A. Since the four-wheeled vehicle that exists right next to the following vehicle 11 is projected onto the distant projection surface 11, the image is enlarged and enlarged.
  • the one display image is generated by fitting the countersunk image on the background image
  • the enlarged four-wheeled vehicle image is displayed next to the image of the following vehicle 11 reduced as described above. It will be lined up. Therefore, the driver may feel a sense of discomfort in the generated image, or may mistakenly recognize that the following vehicle 11 is located farther than the four-wheeled vehicle that exists right next to the following vehicle 11.
  • the enlargement ratio of the image including the object (for example, the above-mentioned four-wheeled vehicle) projected on the projection surface 11 as the background image is the distance from the vehicle 100 to the object and the distance from the vehicle 100 to the projection surface 11. It depends on the ratio of. Therefore, when the following vehicle 11 is close to the vehicle 100, the difference in the enlargement ratio between the two becomes large, and the discomfort due to the difference in the size of the images of the two becomes remarkable.
  • the display control device 200 reprojects the image of the following vehicle 11 projected on the impact projection surface 13A onto the projection surface 10, and also reprojects the image of the following vehicle 11 to the impact.
  • the image of the following vehicle 11 projected on the imposing projection surface 13A is enlarged according to the distance from the projection surface 13A to the projection surface 10.
  • the enlargement ratio of the image including the object (for example, the above-mentioned four-wheeled vehicle) projected on the projection surface 11 as the background image and the object (following vehicle 11) projected on the impact projection surface 13A as the impact image. )
  • the object for example, the above-mentioned four-wheeled vehicle
  • the object following vehicle 11
  • the impact projection surface 13A as the impact image
  • the surface to be re-projected is not limited to the projection surface 10, and for example, the display control device 200 projects at a position away from the impact projection surface 13A as much as the distance from the impact projection surface 13A to the projection surface 10.
  • a projection plane different from the plane 10 may be set so that the imitation image is re-projected on the projection plane.
  • the display control device 200 may be configured to project the impact image as follows, instead of reprojecting the impact image projected on the impact projection surface 13A onto the projection surface 10. For example, the display control device 200 first calculates the distance from the following vehicle 11 to the striking projection surface 13A and the distance from the following vehicle to the projection surface 10, and calculates the ratio of these distances. Next, the display control device 200 zooms the countersunk image by setting the calculated ratio to the magnification of the countersunk image, and then fits the countersunk image into the background image to generate a composite image. By doing so, it is not necessary for the following vehicle 11 to reproject the impact image projected on the impact projection surface 13A onto the projection surface.
  • the distance from the following vehicle 11 to the striking projection surface 13A and the distance from the following vehicle 11 to the projection surface 10 are based on the detection information detected by a distance sensor such as a sonar (obstacle sensor). It can be calculated based on. Since the distance from the vehicle 100 to the following vehicle 11 can be known from this detection information, the display control device 200 can use this information and known information (distance from the vehicle 100 to the impact projection surface 13A and the vehicle 100) set in advance. Based on the distance to the projection surface 10), the distance from the following vehicle 11 to the impulsive projection surface 13A and the distance from the following vehicle to the projection surface 10 can be calculated.
  • the display control device 200 may calculate distance information based on a sensing device other than sonar (for example, a millimeter wave radar or a camera).
  • the display control device 200 may display the image including the following vehicle 11 so as to be emphasized when the counter image is re-projected or the counter image is zoomed to generate a composite image. good.
  • the display control device 200 can make the image of the following vehicle 11 stand out by increasing the zoom magnification or changing the magnification.
  • any method such as a method of displaying the following vehicle 11 so as to be surrounded by a line or a method of blinking the image including the following vehicle 11 can be considered. Further, in addition to emphasizing and displaying the image including the following vehicle 11, the driver may be separately notified that the following vehicle 11 is approaching the vehicle 100 by voice or vibration.
  • the highlighting of the image including the following vehicle 11 may be applied when the distance between the following vehicle 11 and the vehicle 100 is smaller than a predetermined distance, or the distance between the following vehicle 11 and the vehicle 100 is rapid. It may be applied when the number is decreasing (that is, the following vehicle 11 is approaching the vehicle 100 rapidly).
  • Japanese Patent Application Laid-Open No. 2014-531078 has a step of deforming a projection surface so as to lift it over the width of the protruding object in the vicinity of the protruding object when a protruding object is detected in the vicinity of the vehicle.
  • the method characterized by the matter is disclosed.
  • Human vision has the ability to separate and individually recognize a double image, for example, an exhibit in an exhibition case and one's face reflected on the exhibition case.
  • the above-mentioned second embodiment is a method of positively utilizing the visual ability of this person, and by putting an image of a following vehicle in a boundary region to be double-imaged by blending, a seam between the fields of view of two camera images.
  • the problem that the image of the following vehicle disappears is solved. Even if the driver's face is blended with the background, for example, by entering the driver's face of the following two-wheeled vehicle in this blended boundary area, it is visible if the face image is not deformed, and the orientation of the face. Can be expected to be discriminated.
  • Example 2-4 For example, in the vehicle surrounding image generator disclosed in Japanese Patent Application Laid-Open No. 2019-185381, when the direction of movement of a three-dimensional object is close to one bird's-eye view image, the weighting addition averaging range is set to the side of the other bird's-eye view image. When the three-dimensional object is moved and the direction of movement is closer to the other bird's-eye view image, the weighted addition averaging range is moved to the side of one bird's-eye view image. However, the distribution of weighting in the range of weighting addition averaging is constant regardless of the movement of the three-dimensional object.
  • an important part for controlling the movement of the vehicle 100 for example, the face part of the driver of the following vehicle is located at the end of the weighting addition averaging range and the weight is small. Therefore, it may be displayed faintly on the displayed image and difficult to see.
  • the center position of the image of the following vehicle 11 or, when the following vehicle 11 is a two-wheeled vehicle the position of the face (or head) of the driver of the two-wheeled vehicle is detected to detect the position of the image.
  • the blend ratio between the image on the right side of the boundary region and the image on the left side is controlled to be, for example, 1: 1.
  • the image of the following vehicle 11 or the driver's face is displayed at approximately half the darkness, so the risk of oversight can be reduced, and when controlling the blend ratio based on the position of the driver's face, It becomes easy to predict the next movement from the direction of the driver's face.
  • FIG. 23 is a diagram showing an example of a bowl-shaped projection surface 10.
  • FIG. 24 is a diagram showing an example of a curved cylindrical projection surface 10 and a striking projection surface 13A.
  • the display control device includes a vehicle detection unit that detects peripheral vehicles existing in the vicinity of the vehicle based on a plurality of captured images around the vehicle taken by a plurality of image pickup devices mounted on the vehicle, and a plurality of the above.
  • the image processing unit includes an image processing unit that generates a display image displayed on the display unit mounted on the vehicle by synthesizing the captured images, and the image processing unit is a first projection surface set behind the vehicle. By projecting a plurality of the captured images, a background image of the vehicle is generated, and when the peripheral vehicle is detected in a predetermined area, a second projection plane is set at the position where the peripheral vehicle is detected. By projecting at least one of the plurality of captured images onto the second projection surface, a peripheral vehicle image which is an image of the peripheral vehicle is generated, and the peripheral vehicle image is superimposed on the background image.
  • the image processing unit generates the display image by blending the pixel value of the peripheral vehicle image and the pixel value of the background image at the boundary portion between the peripheral vehicle image and the background image.
  • the peripheral vehicle image has a boundary region for blending the pixel values of a plurality of the captured images, and the image processing unit has a mixing ratio of 1: 1 when blending the pixel values in the boundary region.
  • the cross point is changed according to the position of the peripheral vehicle or the position of the driver's face or head of the peripheral vehicle.
  • the predetermined area is such that when a plurality of captured images around the vehicle are projected onto a first projection surface set behind the vehicle, the background image becomes a continuous image.
  • the range projected from the plurality of captured images in the vicinity is limited , the area that is not displayed in the background image is set as a reference.
  • the image processing unit performs a viewpoint conversion process of converting a plurality of captured images around the vehicle into images viewed from a virtual viewpoint different from the position of the image pickup device.
  • the vehicle detection unit detects the presence or absence of peripheral vehicles in a predetermined area with the vehicle as a reference position, and the image processing unit determines the ground height of the virtual viewpoint when the peripheral vehicles are not detected in the predetermined area. , It is lower than the ground height of the virtual viewpoint when the peripheral vehicle is detected in a predetermined area.
  • the image processing unit raises the ground clearance of the virtual viewpoint when the traveling speed of the vehicle is equal to or less than a predetermined value, higher than the ground clearance when the traveling speed of the vehicle exceeds the predetermined value.
  • the inclination of the first projection surface with respect to the road surface when the ground height of the virtual viewpoint is lowered is larger than the inclination of the first projection surface with respect to the road surface when the ground height of the virtual viewpoint is increased.
  • the image processing unit includes the road surface in the first projection surface when raising the ground height of the virtual viewpoint, and includes the road surface in the first projection surface when lowering the ground height of the virtual viewpoint. do not have.
  • the image processing unit includes the road surface in the first projection surface when raising the ground clearance of the virtual viewpoint, and includes the road surface in the first projection surface when lowering the ground clearance of the virtual viewpoint.
  • the range is made smaller than the range of the road surface included in the first projection surface when the ground clearance of the virtual viewpoint is increased.
  • the inclination of the projection surface with respect to the road surface in the portion of the first projection surface below the reference point is the inclination of the projection surface with respect to the road surface in the portion of the first projection surface above the reference point. Smaller than.
  • the vehicle is equipped with the above display control device.
  • the display control method includes a step of detecting peripheral vehicles existing around the vehicle based on a plurality of captured images around the vehicle taken by a plurality of image pickup devices mounted on the vehicle, and a step behind the vehicle.
  • One embodiment of the present disclosure is suitable for display control devices and vehicles.

Abstract

表示制御装置は、車両検出部と、画像処理部と、を備え、画像処理部は、車両の背景画像を生成し、所定の領域内に周辺車両が検出された場合、周辺車両を検出した位置に第2射影面を設定し、第2射影面に複数の撮影画像を射影する事によって、周辺車両画像を生成し、周辺車両画像を背景画像に重畳する。

Description

表示制御装置、車両及び表示制御方法
 本開示は、表示制御装置、車両及び表示制御方法に関する。
 特許文献1には、車両の右側、左側、後側のそれぞれに設置されたカメラで撮影された画像を合成して表示装置に表示する表示制御装置が開示されている。この種の従来技術では、射影面を後続車の位置に設定し、さらに、各カメラの視野範囲の境界を後続車の位置に合わせる事により、後続車が二重写りする事を回避出来る。
特開2020-052671号公報
 しかしながら、射影面を後続車の位置に設定した場合、後続車の位置よりも遠い位置の背景部分は二重写りする。背景部分の二重写りを回避するために、後続車の位置よりも遠い位置に射影面が設定されると、背景部分の二重写りは生じないものの、後続車が合成後の画像上から消失する恐れがある。このように従来技術では、複数のカメラで撮影された車両後方の画像を合成する上で改善の余地がある。
 本開示の非限定的な実施例は、後続車が合成後の画像上から消失する事を防止出来る表示制御装置、車両及び表示制御方法の提供に資する。
 本開示の一実施例に係る表示制御装置は、車両が搭載する複数の撮像装置で撮影された前記車両周辺の複数の撮影画像に基づき、前記車両周辺に存在する周辺車両を検出する車両検出部と、複数の前記撮影画像を合成する事によって、前記車両が搭載する表示部に表示される表示画像を生成する画像処理部と、を備え、前記画像処理部は、前記車両の後方に設定された第1射影面に複数の前記撮影画像を射影する事によって、前記車両の背景画像を生成し、所定の領域内に前記周辺車両が検出された場合、前記周辺車両を検出した位置に第2射影面を設定し、前記第2射影面に複数の前記撮影画像の少なくとも1つを射影する事によって、前記周辺車両の画像である周辺車両画像を生成し、前記周辺車両画像を前記背景画像に重畳する。
 本開示の一実施例に係る車両は、上記の表示制御装置を備える。
 本開示の一実施例に係る表示制御方法は、車両が搭載する複数の撮像装置で撮影された前記車両周辺の複数の撮影画像に基づき、前記車両周辺に存在する周辺車両を検出するステップと、前記車両の後方に設定された第1射影面に複数の前記撮影画像を射影する事によって、前記車両の背景画像を生成するステップと、所定の領域内に前記周辺車両が検出された場合、前記周辺車両を検出した位置に第2射影面を設定するステップと、前記第2射影面に複数の前記撮影画像の少なくとも1つを射影する事によって、前記周辺車両の画像である周辺車両画像を生成するステップと、前記周辺車両画像を前記背景画像に重畳するステップと、を含む。
 本開示の一実施例によれば、後続車が合成後の画像上から消失する事を防止出来る表示制御装置、車両及び表示制御方法を構築出来る。
 本開示の一実施例における更なる利点及び効果は、明細書及び図面から明らかにされる。かかる利点及び/又は効果は、いくつかの実施の形態並びに明細書及び図面に記載された特徴によってそれぞれ提供されるが、1つ又はそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
本開示の実施の形態に係る車両100の構成例を示す図 本開示の実施の形態に係る表示制御装置200の構成例を示す図 表示部7に表示される合成画像の一例を示す図 射影変換と視点変換の関係を説明するための図 視点変換をした場合の視点変換画像の一例を示す図 3つのカメラで撮影された画像を合成する事によって表示画像を作成するまでの流れを説明するための図 鳥観図の様に自車両を見下ろしたような仮想視点画像を生成するときの流れを説明するための図 表示画像上から後続車11が消失する状態を説明するための図 表示画像上に1つの物体が二重写りする状態を説明するための図 本実施の形態に係る表示制御装置200による衝立射影面13Aの設定方法について説明するための図 衝立射影面13Aが適用される領域(衝立射影適用領域16)について説明するための図 衝立射影面13Aの高さについて説明するための図 衝立射影面13Aと射影面10との境界部分のブレンディング処理について説明するための図 境界領域17a、17bを動的に制御する方法について説明するための図 後続車11の位置に応じた境界領域の幅の制御について説明するための図 境界領域におけるブレンド比の制御について説明するための図 後続車11の有無による仮想視点20の位置の制御方法を説明するための図 自車両の車速に応じた仮想視点20の位置の制御方法を説明するための図 射影面10の傾きの制御方法について説明するための図 射影面10の傾きの制御方法について説明するための図 射影面10に路面を含める制御方法について説明するための図 射影面10の下部に緩斜面18を付加する制御方法について説明するための図 ボウル形状の射影面10の一例を示す図 湾曲した円筒状の射影面10及び衝立射影面13Aの一例を示す図
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。尚、本明細書及び図面において、実質的に同一の機能を有する構成要素については、同一の符号を付する事により重複説明を省略する。
 (実施の形態)
 図1は本開示の実施の形態に係る車両100の構成例を示す図である。車両100は、右カメラ1、左カメラ2、後方カメラ3、及び表示制御装置200を備える。
 右カメラ1、左カメラ2、及び後方カメラ3のそれぞれは、CCD(Charge Coupled Device)あるいは、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備えた、車両100の外部を撮像する撮像手段である。
 右カメラ1は、例えば車両100の進行方向に対して右側に設置され、通常、右サイドミラーがある位置に右斜め後方、かつ、やや下向きに向けて設けられており、視野範囲1aを撮影した画像(右画像)の内容を示す画像情報を表示制御装置200に入力する。視野範囲1aは、車両100の右側後方(右斜め後方)の一定領域である。
 左カメラ2は、例えば車両100の進行方向に対して左側に設置され、通常、左サイドミラーがある位置に左斜め後方、かつ、やや下向きに向けて設けられており、視野範囲2aを撮影した画像(左画像)の内容を示す画像情報を表示制御装置200に入力する。視野範囲2aは、車両100の左側後方(左斜め後方)の一定領域である。
 後方カメラ3は、例えば車両100の進行方向に対して後ろ側に、やや下向きに設けられており、視野範囲3aを撮影した画像(後方画像)の内容を示す画像情報を表示制御装置200に入力する。視野範囲3aは、車両100の後方の一定領域である。
 表示制御装置200は、右画像、左画像、及び後方画像のそれぞれから切り出された画像を表示部7に並べて表示する装置である。
 次に図2を参照して表示制御装置200の構成例について説明する。図2は本開示の実施の形態に係る表示制御装置200の構成例を示す図である。
 表示制御装置200は、例えば1又は複数のECU(Electronic Control Unit)などで構成され、表示部7における各種の表示制御処理を行う制御部である。
 表示制御装置200には、右カメラ1、左カメラ2、後方カメラ3、操作部4、ナビケーション装置5、表示部7が接続され、車載ネットワークであるCAN(Controller Area Network)を介して、各種センサ8が接続される。
 操作部4は、車両100の乗員の入力操作を受け付けるユーザインタフェイス(ウインカレバー、スイッチ類など)である。表示部7は、合成画像を表示する液晶ディスプレイなどである。各種センサ8は、例えば車速センサ、舵角センサ、ギア位置センサなどである。
 表示制御装置200は、画像処理部61、車両検出部62、状況判定部63、画像制御部64、及びCAN通信部65を備える。
 画像処理部61は、右カメラ1、左カメラ2、及び後方カメラ3のそれぞれで撮影された画像を合成し、合成した画像を表示部7に表示させる。
 車両検出部62は、右カメラ1、左カメラ2、及び後方カメラ3のそれぞれで撮影された画像に基づき、車両100の後方に存在する後続車などを検出すると共に、後続車の位置を検出し、後続車の検出の有無と、後続車の位置を示す後続車情報を出力する。
 状況判定部63は、車両検出部62から出力された後続車情報や、操作部4で入力操作が行われた事を示す操作情報を入力し、これらの情報に基づき、表示部7における表示態様を決定する。
 画像制御部64は、状況判定部63が決定した表示態様に従って、画像の変換や合成のパラメータを制御する。画像処理部61では、画像制御部64で制御されたパラメータに従って、右カメラ1、左カメラ2、及び後方カメラ3のそれぞれで撮影された画像の合成が行われる。
 次に、図3~図9を参照して、本開示に係る実施の形態を創作するに至った背景や、撮影画像の合成を行うときの従来の問題点などを説明する。
 <ブレンディング>
 図3は表示部7に表示される合成画像の一例を示す図である。図3の左側には、右カメラ1、左カメラ2、及び後方カメラ3のそれぞれで撮影された画像を合成するイメージが示されている。図3の右側には、表示部7に表示される合成画像が示される。
 車両100の後方の風景が3つのカメラで撮影されると、それぞれのカメラで撮影された画像は、異なる視点位置から撮影した画像になる。従って、これらのカメラで撮影された物体が同一であっても、視点位置の違いによって物体の像の形が異なるため、これらの画像が合成されると、その継ぎ目において画像が不連続になる場合や歪む場合がある。
 例えば、車両100の後方から比較的離れた位置に設置されるフェンス6は、実空間上では車両100の横幅方向と平行な方向へ直線状に伸びている。ところが、撮影された右画像と後方画像とが合成される際に、合成された画像の継ぎ目の位置においてフェンス6の像の高さが違っていると、フェンスの像が一直線にならないで歪んでしまう。
 この対策として、例えば後方画像を右画像と左画像とによって挟むようにして、1つの表示画像を作る時に、例えば右画像と後方画像との境界部分(継ぎ目部分)に境界領域を設け、左画像と後方画像との継ぎ目部分にも境界領域を設ける。そして、これらの境界領域において、2つの画像(右画像と後方画像、又は、左画像と後方画像)の画素値を混合する事によって、表示画像を形成する。これを一般に「ブレンディング」と呼ぶ。
 このブレンディングでは、隣接する2つの画像の一方から他方(例えば、図3の右画像から後方画像)に近づくほど、他方の画像に対する一方の画素値の混合比(ブレンド比)を下げる事によって、境界領域の不自然さを目立たなくする事が出来る。
 <射影変換と視点変換>
 図4は射影変換と視点変換の関係を説明するための図である。カメラによる撮影では、実視点(カメラ位置)から見た三次元空間における光学情報が二次元画像(撮像画像)の情報に変換される。また、二次元画像を、三次元空間上にある面(射影面)に投影する事を射影と呼ぶ。射影面を、実視点に対して傾けると、射影面上の画像は引き伸ばされる。
 撮影画像上の画素を、射影面上の画素に対応付ける処理をマッピングと呼ぶ。マッピングを行う事により、撮影画像を、別の位置から見た画像に変換する事が出来る。この変換処理を、視点変換又は視点移動と呼び、この変換処理で得られた画像を視点変換画像と呼ぶ。射影面上の画素を視点変換画像上の画素に対応付ける処理もマッピングと呼ぶ事ができる。
 射影面上の画像のうち、視点変換によって視点までの距離が近くなった部分は、視点変換画像上で拡大され、視点変換によって視点までの距離が遠くなった部分は、視点変換画像上で縮小される。つまり、視点変換によっても、画像は変形される。
 なお、射影と視点変換を行う時に、射影のマッピングを行った上で視点変換のマッピングを行うのではなく、撮影画像上の画素を、直接、視点変換画像上の画素に対応付けるマッピングも可能である。この時の、対応付けに利用される表をマッピングテーブルと呼ぶ。つまり、射影や視点変換は、マッピングテーブルにより画像を変形する処理に帰結する。
 <仮想視点の虚実>
 図5は視点変換をした場合の視点変換画像の一例を示す図である。図5に示す立方体50の正面51を、図上の実視点から撮影すると、正面51が見えて側面52は見えない画像となる。この実視点から見た画像を、図の様に右寄りの仮想視点から見た画像に変換した場合、すなわち仮想的に斜めの方向から立方体50を撮影した様な視点変換画像に変換した場合は、正面51は図の様な右寄りの仮想視点から見た場合に見える画像と同じ像、つまり、視点移動により遠くなった左側の辺が縮小された像に変形される。しかし、実視点から見た時に映っていなかった立方体50の側面52は、視点変換画像には写らない。
 すなわち、視点変換は仮想的な視点移動であるため、視点変換画像では、実際に視点を移動して撮影した場合の画像と同じ画像を得る事は出来ない。結局、射影及び視点変換は、撮影した画像の変形に過ぎない。
 <視点変換による仮想視点画像の生成と合成画像の生成>
 図6は3つのカメラで撮影された画像を合成する事によって、表示画像を作成するまでの流れを説明するための図である。
 表示画像を作成する処理では、まず右画像、後方画像、及び左画像のそれぞれが、視点変換される事により、表示部7の位置を仮想視点とする仮想視点画像に変換される。
 次に、これらの仮想視点画像を合成する事により1つの表示画像が作成される。この処理により、3つのカメラで撮影された画像を一つの仮想視点から見たような画像に合成するが、前述の様に実視点の位置による像の違いが残るので、画像の継ぎ目で不連続が生じる事がある。
 <仮想視点の上方移動と、仮想視点画像への自車両のモデル画像の重畳合成>
 図7は、鳥観図の様に自車両を見下ろしたような仮想視点画像を生成するときの流れを説明するための図である。生成の処理では、まず、図7の左側に示すように、仮想視点20を、自車両の前方かつ上方に移動させる。これにより、自車両を見下ろしたような3つの仮想視点画像が得られる。
 次に、これらの仮想視点画像が合成され、図7の右側の図に示すような、合成された仮想視点画像の上に自車両のモデル画像(例えば、図7の右側の図の下部にある台形は、車両100の屋根を模した画像)が重畳された画像が最終的に生成される。
 通常のバックミラーを備えた車両の実際の運転の場面では、ドライバーがバックミラーに映った車両100の後部と車両100の後方を見る事によって、バックミラーに映り込んだ自車両の後部(例えばトランクルームの上面など)を基準として、後続車の位置を把握している。ミラーを備えずカメラを用いる車両においても、図7に示すように、3つの仮想視点画像を合成する際に、仮想的に自車両の後部画像(図7では屋根を模した画像)を重畳合成する事によって、後続車との位置関係を把握する基準を作る事が出来る。
 <表示画像上から後続車11が消失する場合>
 図8は表示画像上から後続車11が消失する状態を説明するための図である。車両100の遠方に射影面10が設定され、射影面10に対して、3つの仮想視点画像が横方向に連続する様に射影されるとき、3つのカメラ画像のそれぞれの一部が切り出される。
 なお射影面10は、平面に限定されず、例えば後述するようなボウル形状の面でもよいし、湾曲した面でもよい。また、射影面10は、車両100の全周を取り囲む円筒状の面でもよいし、車両100の全周を取り囲む円錐状の面でもよい。
 3つのカメラ画像のそれぞれの視野範囲は、図1の視野範囲1a、視野範囲2a、視野範囲3aに示すように重複する部分がある。3つのカメラ画像をそのまま合成して表示画像を作ると、重複する視野範囲の中に映った物体は表示画像上で複数回表示される事になるので、ドライバーが物体の位置を把握する際に混乱する恐れがある。そこで、表示画像上で重複が生じる事を回避するため、各々のカメラ画像の視野範囲から一部を切り出した画像を作る切り出し処理を行っている。図8の切り出し範囲1a1は、図1の視野範囲1aの右画像から切り出された部分である。図8の切り出し範囲2a1は、図1の視野範囲2aの左画像から切り出された部分である。図8の切り出し範囲3a1は、図1の視野範囲3aの後方画像から切り出された部分である。
 ここで、射影面10の位置よりも手前に存在する後続車11が、カメラ画像から切り出されない部分(背景画像に表示されない死角領域12)に存在する場合、死角領域12が表示画像を見ているドライバーの死角となり、後続車11は、表示画像上から消失してしまう。つまり、後続車11の位置よりも遠い位置に射影面10が設定されると、合成後の画像上から後続車11が消失する恐れがある。
 <1つの物体が二重写りする場合>
 図9は表示画像上に1つの物体が二重写りする状態を説明するための図である。以下では、車両100の近くに射影面10を設定した場合の問題点について説明する。
 図9の例では、車両100の近くに設定された射影面10において、3つの後方画像が横方向に連続する様に、右画像、左画像及び後方画像が切り出されている。切り出し範囲1a1、切り出し範囲3a1及び切り出し範囲2a1のそれぞれの幅は、図8の例よりも広い。この場合、切り出し範囲1a1、切り出し範囲3a1及び切り出し範囲2a1は、射影面10の位置では重複していないが、射影面10よりも遠方の位置では重複する部分があるので、射影面10よりも遠方に存在する物体13が重複する部分にあると、2つの切り出し範囲のそれぞれに表示される。
 図9の例では、切り出し範囲1a1の一部と切り出し範囲3a1の一部が射影面10よりも遠方の位置で重なる事により、右画像と後方画像に共通の物体13が表示される。つまり、合成された表示画像上に、1つの物体13が2つ物体13a、13bとして表示される。物体13が1台の二輪車の場合、車両100の近くに設定された射影面10に2台の二輪車が表示される事になる。そのため、ドライバーは、二輪車の実際の位置を正しく把握する事が困難になる。
 また、例えば、物体13が1台の二輪車の場合、切り出し範囲3a1と1a1が重複した部分に存在していた二輪車が切り出し範囲1a1だけに含まれる位置へ移動すると、切り出し範囲1a1に存在する二輪車のみが表示部7に表示されるようになる。するとドライバーは、二輪車が2台存在していると認識していたため、この場合、一方のバイクが車両100の後方から消えたように錯覚する。
 次に、図10などを参照して上記の問題を解決するための実施例について説明する。
 (実施例1)
 <実施例1-1:衝立射影面13Aの設定>
 図10は本実施の形態に係る表示制御装置200による衝立射影面13Aの設定方法について説明するための図である。
 表示制御装置200は、後続車11を検出した場合、後続車11の正面部分に、後続車11を囲む事が出来る大きさの衝立状の射影面(衝立射影面13A)を設定する。そして、表示制御装置200は、撮影画像のうち後続車11の像を含む領域を衝立射影面13Aに射影して衝立画像を生成する。この時、後続車11の全体像を含む撮影画像が無い場合は、二つ撮影画像を衝立射影面13Aに射影する事により、衝立射影面13Aの上で後続車11の全体像を合成する様にしてもよい。後続車11の全体像を含む撮影画像がある場合は、撮影画像を一つだけ衝立射影面13Aに射影する様にしても良い。衝立射影面13Aに射影する撮影画像が一つだけであれば、合成に伴う不連続の発生が避けられるので、より好ましい衝立画像を生成できる。衝立射影面13Aを設定する領域については後述する。
 また、表示制御装置200は、衝立射影面13Aよりも遠方に射影面10を設定し、射影面10に複数の撮影画像を射影して、背景画像(例えば物体13を含む画像)を生成する。
 そして、表示制御装置200は、衝立画像を背景画像の上に嵌め込む事によって、1つの表示画像を生成する。
 なお、衝立射影面13A及び射影面10は、平らな長方形の面でもよいし、球面などの湾曲した面でもよい。
 これにより、連続する背景画像に、後続車11の画像が貼り付けられた形となるため、後続車11の消失や、後続車11の二重写りを解消出来る。つまり、背景画像は二重写りが発生しない様に、遠方の射影面10の上で画像が連続する様に切り出して合成しており、後続車11の像は衝立画像に捉えられて背景画像の上に重畳されるので、後続車11の消失は起こらない。
 なお、表示制御装置200は、後続車11を検出しない場合、衝立射影面13Aの設定や衝立射影面13Aへの射影を行わず、背景画像を表示画像とする。
 <実施例1-2:衝立射影面13Aが設定される領域>
 図11は衝立射影面13Aが適用される領域(衝立射影適用領域16)について説明するための図である。
 図11には、背景画像を生成するために射影面に車両周辺の複数の撮影画像を射影する際の、右カメラの撮影画像の切り出し範囲1a1の中央寄りの端aと、左カメラの撮影画像の切り出し範囲2a1の中央寄りの端bと、後方カメラの撮影画像の切り出し範囲3a1の右寄りの端c1と左寄りの端c2と、が示されている。この射影面に車両周辺の複数の撮影画像を射影する際に行う切り出しは、背景画像が連続した画像となる様に、車両周辺の複数の撮影画像から射影する範囲を限定する切り出しであり、具体的には、隣接する画像と重複する部分を射影する範囲から除くように切り出しを行う。なお、図11の例ではブレンディングを行う事を前提に、幅の狭い重複部分がブレンディングの為の糊代として残るように切り出している。衝立射影適用領域16は、後方カメラの視野範囲3aの中に含まれるが、背景画像が連続した画像となる様に切り出しを行なった時には、背景画像に表示されなくなる領域を含むように設定される。
 背景画像が連続した画像となる様に切り出しを行なった時の例としては、図8を併せて参照されたい。図8のように、背景画像が連続した画像となる様に車両周辺の複数の撮影画像から射影する範囲を限定する切り出しを行うと、背景画像に表示されない死角領域12が拡大するので、ここに二輪車11が入り込むと背景画像から消失する。図11の例でも、切り出し範囲1a1の端aと切り出し範囲3a1の端c1との間の領域は、背景画像に表示されない死角領域12になるが、図8の死角領域12よりは大幅に範囲が縮小され、車両100の直近に限定されている。この死角領域12に入った後続車11の画像は、背景画像から消失する恐れがあるが、カメラの配置上の制約から止むを得ず発生する死角であり、通常の車間距離を取っていれば後続車が入り込まない領域でもあると言えるので、図11の死角領域12は衝立射影適用領域16に含めない。
 表示制御装置200は、前述のように、後方カメラの視野範囲3aの中に含まれるが、背景画像が連続した画像となる様に切り出しを行なった時には、背景画像に表示されなくなる領域を含めるように衝立射影適用領域16を設定し、設定した衝立射影適用領域16の前端部分に、前述した衝立射影面13Aを設定する。衝立射影適用領域16を後方カメラの視野範囲3aの中に含まれるが、背景画像が連続した画像となる様に切り出しを行なった時には、背景画像に表示されなくなる領域よりも幅広く設定する理由は、後続車の車体の一部が背景画像に表示されなくなる領域に入る場合にも衝立射影を適用する事により、後続車の車体の一部が見えなくなってドライバーの状況把握を妨げる事が無いようにする為である。
 なお、背景画像の内、一つのカメラで撮影された画像のみが映る領域(例えば図11の切り出し範囲1a1)では、背景画像が連続した画像となる様に切り出しを行なっても後続車11が消失する事がなく、また二重写りする事もない。そのため、当該領域に衝立射影適用領域16を設定する必要はない。図11において、二つの衝立射影適用領域16に挟まれた車両100の真後ろの領域も、必ず背景画像に表示されて二重写りも生じないので、衝立射影適用領域16から除外されている。
 また、射影面10の近くの位置や、射影面10よりも遠方の位置に、衝立射影適用領域16を適用したとしても、それを適用しない場合と比べて大きな差はないため、これらの位置に、衝立射影適用領域16を設定する必要はない。
 <実施例1-3:衝立射影面13Aの高さの設定>
 図12は衝立射影面13Aの高さについて説明するための図である。
 衝立射影面13Aの高さは、仮想視点20から後続車11を見たときに、後続車11の上端から下端までの領域を含むように設定される。
 衝立射影面13Aの上端よりも上側の領域は、後続車11の画像を表示する必要がないため、表示画像上では当該領域には射影面10の背景画像が選択される。これにより、衝立射影面13Aの上側の部分では、背景画像が衝立射影面13Aに遮られずに表示される。衝立射影面13Aの下側の部分でも背景画像が選択され、路面が映った部分が衝立射影面13Aに遮られずに表示される。
 実施例1によれば、衝立射影面13Aを設定する事によって、後続車11の画像が衝立射影面13Aに射影されるため、後続車11の消失を防止出来る。
 また、衝立射影面13Aを設定した場合でも、射影面10全体の内、少なくとも衝立射影面13Aによって遮られていない領域では、背景画像が二重写りせずに連続して見えるため、ドライバーが背景画像に対して、違和感を覚える事がない。
 また、後続車11の画像の近傍で遠方の物体が二重写りしたとしても、二重写りする領域は比較的狭い範囲であるため、視認上の障害にならない。
 <実施例1-4:衝立射影面13Aと射影面10の境界部分のブレンディング>
 図13は衝立射影面13Aと射影面10との境界部分のブレンディング処理について説明するための図である。
 衝立射影面13Aを設定する場合、衝立射影面13Aの衝立射影画像と射影面10の背景画像が不連続になるため、表示制御装置200は、衝立射影面13Aの衝立射影画像の辺縁部分に、衝立射影画像と背景画像の境界領域17cを設けて、境界領域17cにおいては外側に向うにつれて衝立射影画像の透過率が連続的に上昇し、徐々に背景画像に溶け込むようにブレンディングしてもよい。
 背景画像の生成においても、異なる画像の境界部分は不連続になる事があるので、境界領域を設けてブレンディングしても良い。例えば、後述する図14の上側の図の境界領域17aは、右画像と後方画像との境界領域で、境界領域17bは、左画像と後方画像との境界領域である。境界領域17a、17bを設けて、境界領域では隣接する画像に近づくほど重みが小さくなるような重み付け加算で合成画像の画素値を算出する事によって、隣接する画像が互いに溶け合うように画素混合を行い、これにより背景画像と衝立画像との境界線(境目)を目立たなくする事が出来る。また、衝立射影画像の生成に複数のカメラ画像を用いる時は、画像の境界部分に境界領域を設けてブレンディングしても良い。このように、不連続になる事がある画像の境界部分に対してブレンディングを行う事により、境界部分が不自然になってドライバーの目を引かない様にする事が出来る。
 <実施例1-5:複数の衝立射影面13Aの設定>
 表示制御装置200は、後続車11の数に応じて複数の衝立射影面13Aを設定するように構成してもよい。
 例えば、後続車11が複数存在するときに、複数の後続車11の内、特定の後続車11のみに衝立射影面13Aが設定された場合、衝立射影面13Aが設定された後続車11の画像は衝立射影面13Aに射影され、その他の後続車11の画像は背景射影面に射影される。そのため、衝立射影面13Aが設定されていない後続車の画像が、画像の境界部分の境界領域において二重化したり、本来の位置よりも遠くに投射されることで引き延ばされたりする。
 このような問題を解決するため、表示制御装置200は、後続車11を複数検出した場合、検出した後続車11のそれぞれの正面部分に、後続車11を囲む事が出来る大きさの衝立状の射影面(衝立射影面13A)を設定する。
 これにより、複数の後続車11の画像が実際の後続車11の位置に投射されるため、境界領域おいて二重化したり、引き延ばされたりすることを抑制出来る。
 (実施例2)
 <実施例2-1:境界領域の動的制御>
 実施例2では、衝立射影面13Aの設定に代えて、衝立射影面13Aの画像と射影面10の画像との境界部分(境界領域17a、17b)を動的に制御する事で、後続車11の消失を解消する実施例について説明する。
 図14は境界領域17a、17bを動的に制御する方法について説明するための図である。後続車11が消失するのは、例えば、後方画像と右画像との境界付近に後続車11が入った時である。
 表示制御装置200は、後続車11の消失が発生する恐れのある領域を境界領域17a、17bに含めるように構成される。具体的には、図14の下側の図の様に後続車11の像が境界領域17aの付近に位置する時には、境界領域17aの幅を広げて、後続車11の像が境界領域17aの中に含まれるようにする。この境界領域の中では後方画像の画素と右画像の画素をブレンディングして表示画像の画素を生成するので、後続車11の像が後方画像と右画像の少なくとも一方に含まれていれば、表示画像に後続車11の像が表示される事になる。これにより、後方画像と右画像との境界付近での後続車11の消失を回避出来る。
 図14では境界領域17aの右端は固定し、境界領域17aの左端を左側に移動して後続車11の像を境界領域に収めているが、後続車11の像の位置に応じて境界領域17aの右端も移動させる様な制御にしても良い。例えば、境界領域17aの右端も左側に移動して、後続車11の像が境界領域17aの中央に位置する様に境界領域全体の位置を移動しても良い。図14では後続車11の像が後方画像と右画像との境界付近に位置する時を例示したが、後続車11の像が後方画像と左画像との境界付近に位置する時は、境界領域17bを後続車11の像を含むように広げて、この境界領域の中では後方画像の画素と左画像の画素をブレンディングして表示画像の画素を生成すればよい。このように、表示制御装置200は、後続車11の像を境界領域17a、17bに含めると共に、境界領域17a、17bをブレンディングする事により、境界領域17a、17bの不自然さを目立たなくしながら、後方画像と左右画像との境界付近での後続車11の消失を回避出来る。この後方画像と左右画像との境界付近の領域としては、図11を用いて説明した、衝立射影面13Aが適用される領域(衝立射影適用領域16)と同じ領域を設定しても良い。
 <実施例2-2:後続車11の有無に応じた境界領域17a、17bの幅の制御>
 表示制御装置200は、後続車11が検出されない場合には境界領域17a、17bの幅を広げず、後続車11が検出された場合には境界領域の幅を広げるように構成してもよい。また、表示制御装置200は、後続車11の像の幅を検知して、後続車11の像の幅に応じて境界領域17a、17bの幅を広げるか否か、判断しても良い。
 例えば、表示制御装置200は、後続車11を検出した場合、後続車11の横幅と後続車11が映る範囲を判定する。後続車11が所定幅よりも狭い場合、表示制御装置200は、後続車11が二輪車と判定し、後続車11が所定幅よりも広い場合、後続車11が四輪車と判定する。
 後続車11が四輪車の場合、四輪車の車幅は二輪車の車幅よりも広いため、四輪車の像全体が表示画像から消失する事は起こらず、仮に四輪車の一部が表示画像から消失しても、後続車11の見落としにはつながらないと考えられる。そのため、表示制御装置200は、後続車11の横幅が広く四輪車であると判定した時には、その四輪車付近の境界領域については、境界領域の幅を一定に維持するように制御してもよい。
 後続車11が二輪車の場合、二輪車の車幅は四輪車の車幅よりも狭いため、二輪車の像全体が表示画像から消失する事が起こりやすい。そのため、表示制御装置200は、後続車11の横幅が狭く二輪車であると判定した時には、その二輪車付近の境界領域については、境界領域の幅を広げるように制御する。
 また、表示制御装置200は画像上における後続車11の像の後方画像と左右画像との境界までの距離を評価し、後続車11の像が境界付近に存在する時にのみ、境界領域を拡幅する事にしても良い。後続車11の像の位置が境界から遠ければ、以後の要否判定の処理を省略出来るため、境界領域の拡幅の要否判定の負荷を軽減出来る。
 なお、表示制御装置200は、後続車11までの距離や接近速度を評価して、車両100と干渉する可能性が検出された場合のみ、当該後続車11付近の境界領域に対して、前述したブレンディングを実施するように構成してもよい。例えば、後続車11との車間距離が所定値より大きく、車間距離が減少していない時には、後続車11は車両100と干渉する可能性は無いと判断し、境界領域の拡幅は不要と判定してもよい。これにより、境界領域での二重写りによって、画像がボケる(ブレる)事が不必要に発生するのを防止出来る。
 <実施例2-3:後続車11の位置に応じた境界領域の幅の制御>
 図15は後続車11の位置に応じた境界領域の幅の制御について説明するための図である。
 境界領域では二重写りによって画像がボケるため、境界領域の幅は狭い方が好ましい。一方、自車両の近くに存在する後続車11が横方向に移動した場合の、画像上での後続車11の移動量は、自車両の遠くに存在する後続車11が横方向に移動した場合の、画像上での後続車11の移動量よりも大きくなる。すると、境界領域の幅の制御が後続車11の横方向の移動に追従しない場合、後続車11の像が境界領域から外れて表示画像から消失する可能性が大きくなる。
 そのため、表示制御装置200は、例えば、幅狭の後続車11が自車両から遠い箇所に存在する場合、後続車11付近の境界領域の幅を狭くし、後続車11が自車両に近づくに従って、連続的又は段階的に境界領域の幅を広げるように制御してもよい。
 これにより、二重写りによる画像のボケを抑制しつつ、後続車11の像が境界領域から外れて表示画像から消失する事を防止出来る。
 また、後続車11の検出処理が遅れた場合でも、後続車11付近の境界領域の幅を広げる事によって、後続車11が境界領域から消失する事を防止出来る。
 <実施例2-4:境界領域におけるブレンド比の制御>
 図16は境界領域におけるブレンド比の制御について説明するための図である。
 表示制御装置200は、後続車11の像の中心位置、又は後続車11のドライバーの顔(もしくは頭部)の位置を検出し、境界領域よりも右側の画像と左側の画像とのブレンド比が1対1となるクロスポイントが、後続車11の中心位置、または後続車11のドライバーの顔(もしくは頭部)の位置に一致するように制御してもよい。画像から顔画像を検出する顔認識の技術は公知であるので詳述を避けるが、顔認識は辞書画像とのマッチング度を評価するパターンマッチングによって行うものであり、複数の辞書画像とのマッチング度を評価して、いずれかとマッチすれば顔と認識するアルゴリズムであっても良い。ヘルメットを被るとドライバーの顔のパーツは見えなくなるが、ヘルメットを被ったドライバーの肩から上の画像にマッチする辞書画像を加える事により、ヘルメットを被ったドライバーの顔(もしくは頭)も検出して位置を特定する事が可能である。
 境界領域でのブレンド比は境界領域に対する像の位置によって異なる。例えば、二輪車の像が、境界領域の端に近いブレンド比が低い所(例えば0%付近)にある場合は、二輪車の像が極めて薄く混合され、これに、二輪車が存在しない背景画像が濃く混合されたものが表示画像となる。すると、二輪車が薄く表示されてしまい、ドライバーが二輪車を見落とす恐れがある。
 そこで、ドライバーが二輪車を視認する際の着目位置となる、後続車11の画像の中心位置、又は後続車11のドライバーの顔の位置でブレンド比を1対1にする事によって、二輪車の画像は概ね半分の濃さで表示されるため、後続車11の見落としの恐れが軽減される。また、二輪車のドライバーの顔を視認できる事により、二輪車の次の動きを予想する事も容易になる。
 <実施例2の効果>
 以上のように、表示画像上での左右のカメラ画像の視野範囲と、後方カメラのカメラ画像の視野範囲の間に形成される死角に二輪車が進入し、表示画像上から二輪車の像が消失する恐れがある場合には、左右のカメラ画像と後方カメラのカメラ画像をブレンドして表示する境界領域の幅を、二輪車の像が含まれるように広げる事により、二輪車の画像が消失する事を防止出来る。
 また、境界領域を制御する事によって、1つの射影面10のみ利用して画像表示が可能になるため、衝立射影面13Aと射影面10の双方を利用する場合に比べて、画像処理量が少なくなり、後続車11が検出されてから表示部7に表示画像が表示されるまでの表示遅延時間を短くする事が出来る。
 また、表示遅延時間が短くなる事によって、自車両の周囲状況が変化してから、変化後の周囲状況に対応した運転操作が実施されるまでの時間を短くする事が出来る。
 (実施例3)
 次に、図17などを参照して実施例3について説明する。なお、実施例3は実施例1又は実施例2に組み合わせる事が可能である。
 <実施例3-1:後続車11の有無による仮想視点20の位置制御>
 図17は後続車11の有無による仮想視点20の位置の制御方法を説明するための図である。
 表示制御装置200は、後続車11が存在する場合には仮想視点20を路面に対して高い位置に設定し、後続車11が存在しない場合には、後続車11が存在する場合よりも仮想視点20を路面に対して低い位置に設定するように制御する。
 仮想視点20を路面に対して高い位置に設定する事によって、車両を高い位置から俯瞰するような画像を提供出来るため、路面上での自車両と後続車11の動きが把握され易くなる。
 一方、仮想視点20を路面に対して高い位置に設定すると、表示画面上では、車両の動きによって発生する路面標示などの固定物の動きがより大きな動きに見えるので、これが運転車の目を引く事になる。この事を、仮想視点20を高くすると視線誘導性が高くなる、と言い換えても良い。走行中、ドライバーは前方を注視する事が求められるので、不必要に視線を引かない方が良い。後続車11が存在しない場合、仮想視点20を路面に対して低い位置に設定する事によって、表示部7上での路面の動きが少なくなるため、不必要に視線を引く事を防止出来る。
 <実施例3-2:自車両の車速に応じた仮想視点20の位置制御>
 図18は自車両の車速に応じた仮想視点20の位置の制御方法を説明するための図である。
 表示制御装置200は、自車両の車速に応じて、仮想視点を路面に対して高い位置に設定し、又は仮想視点20を低い位置に設定するように構成してもよい。
 自車両の速度が低い場合、画面上での路面の動きが少なくなるため、動く路面に対して視線が誘導され難くなる。そこで、表示制御装置200は、自車両の速度が所定速度以下の場合、仮想視点20を路面に対して高い位置に設定し、自車両の速度が所定速度を超える場合、自車両の速度が所定速度以下の場合よりも仮想視点20を路面に対して低い位置に設定する。
 これにより、動く路面に対して不必要に視線を引く事を防止しながら、自車両と後続車11の動きが把握し易くなる。この自車両の速度に応じた制御は、後続車11の有無に応じた制御と組み合わせて実施しても良い。例えば、自車両の速度が低く、かつ後続車11がある時は仮想視点20を高い位置に設定し、それ以外の場合は仮想視点20を低い位置に設定する制御にしてもよいし、自車両の速度が高く、かつ後続車11が無い時だけ仮想視点20を低い位置に設定し、それ以外の場合は仮想視点20を高い位置に設定する制御にしてもよい。前者は視線誘導性を抑える事を重視した制御であり、後者は後方を監視し易くする事を重視した制御であると言う事が出来、車両の設計思想に応じて、何れを採用してもよい。
 <実施例3-3:仮想視点20の移動に応じた射影面10の傾き制御>
 図19及び図20は、射影面10の傾きの制御方法について説明するための図である。
 図19に示すように、射影面10が路面に対して鉛直方向に上下に伸びている場合、後続車11の路面近く部分の画像は、路面よりも下側の射影面10に投影される。この射影面10上の画像を、実際のカメラ位置よりも高い位置に設定される仮想視点20から見ると、後続車11の画像が上下方向に潰れて(歪んで)見える。
 そこで、図20に示すように、表示制御装置200は、実施例3-1又は実施例3-2の制御により、仮想視点20を高い位置に設定する場合、後続車11を想定する位置に射影面10を設定し、この射影面10を路面に対して斜めになるように傾ける。このとき、表示制御装置200は、仮想視点20から後続車11を想定する位置に伸びる仮想視線15と垂直に交わるように射影面10を設定する。
 なお、車両100から射影面10までの距離は、車両100の速度に応じて適宜変更してよく、例えば車両100が高速走行しているときは、長くしても良い。標準的な車間距離は車速が高い時は長く、車速が低い時は短くなるので、車両100から射影面10までの距離は車速に応じて変えるのが合理的である。
 路面上での自車両と後続車11の動きを把握し易くするために、車両を高い位置から俯瞰するような画像を提供する時は、射影面10を路面に対して斜めになるように傾ける事により、後続車11の画像の歪みを解消出来る。
 また、表示制御装置200は、実施例3-1又は実施例3-2の制御により、仮想視点20を低い位置に設定する場合、後続車11を推定する位置に射影面10を設定し、この射影面10を路面に対して垂直になるように設定してもよい。
 射影面10を路面に対して垂直になるように設定する事により、表示部7上での路面の動きが少なくなるため、不必要に視線を引く事を防止出来る。
 このように表示制御装置200は、後続車11の有無又は自車両の速度に応じて、射影面10の傾斜角を変化させる事によって、ドライバーの視線を誘導し難くしながら射影面に投影される画像の歪を小さくする事が出来る。
 <実施例3-4:射影面10に路面を含める制御>
 図21は射影面10に路面を含める制御方法について説明するための図である。
 図21に示すように、表示制御装置200は、射影面10に路面を含めるように構成してもよい。
 射影面10に路面を含める事によって、路面表示(路面上の制限速度表示など)の位置が射影によらずに変化しなくなるため、射影による歪曲(歪み)を無くす事が出来る。また、路面を含む射影面10を、高い位置の設定される仮想視点20から見る事により路面表示が見易くなる。
 また、表示制御装置200は、仮想視点20の地上高を高くする時、射影面10に路面の画像を含め、仮想視点20の地上高をそれよりも低くする時、射影面10に含まれる路面の範囲を、仮想視点20の地上高を高くする時に射影面10に含まれる路面の範囲よりも小さくするように構成してもよい。
 なお、後続車11が存在しないため仮想視点20を低い位置に設定する場合、路面を含まない射影面10に画像を投影しても、ドライバーが実際に見たような表示画像が得られるため、この場合には路面を射影面10に加えなくてもよい。
 <実施例3-5:射影面10の下部に緩斜面18を付加する制御>
 図22は射影面10の下部に緩斜面18を付加する制御方法について説明するための図である。
 表示制御装置200は、射影面10と路面との間に緩斜面18を加え、射影面10及び緩斜面18の全体を射影面に設定するように構成してもよい。
 路面に対する緩斜面18の傾きは、路面に対する射影面10の傾きよりも小さい。なお、図22には緩斜面18が平面状である場合について示してあるが、緩斜面18はこれに限らず、射影面10と路面とを滑らかにつなぐ曲面であってもよい。
 射影面10より遠方の路面の画像が、路面に対して立ち上がるように傾斜した射影面10に射影されると、当該画像は歪んで見難くなる。そのため、射影面10よりも手前の路面の画像と射影面10より遠方の路面の画像とが不連続になり、見た目の違和感が大きくなる。
 射影面10と路面の間に緩斜面18を加える事により、路面と射影面10との不連続性が低減され、射影面10より遠方の路面の画像の歪みを小さく出来る。
 <実施例3-6:後続車11の視認性を妨げないように緩斜面18の位置を設定する制御>
 緩斜面18が設けられる位置によっては、後続車11の視認性が妨げられる恐れがある。例えば、射影面10付近に後続車11が存在する場合、後続車11の像の内、緩斜面18に射影される部分が歪むと共に、緩斜面18に射影された部分と、それより上の射影面に射影された部分にまたがる直線が、折れ曲がって見える事になる。その対策として、緩斜面18の上端の高さを、想定する後続車の下部構造物がある範囲に限定する事が考えられる。後続車の下部構造物とは、例えば四輪車のバンパーより下の部分や、二輪車の車軸より下の部分を指す。
 すると、歪む部分は後続車11の画像の下部に限られる。ドライバーが後続車を視認する際に着目する部分は車体上部であるため、後続車11の画像の下部が歪んだとしても、後続車11を視認する上での支障は少ない。
 そこで、表示制御装置200は、後続車11を想定する位置において、後続車11のバンパー、又は車軸の位置に、緩斜面18の上端を設定し、当該緩斜面18を射影面10に繋がるようにしてもよい。
 これにより射影面10の折れ曲がる箇所(緩斜面18)が、後続車11の下部に設定されるため、後続車11の上部の画像が不連続にならず、後続車11の視認性が向上する。
 さらに、俯瞰表示は、後続車11を検知する時との連続性を持たせるために、後続車11を検知しない時も、路面を射影面10に含めても良い。ただし、視線誘導性を減ずる必要性があるため、射影面10に路面を含める場合、射影面10に含まれる路面の範囲を狭くしたり、路面部分にボカシを入れたりする事により、視覚に対する刺激を減じても良い。
 (実施例4)
 表示制御装置200は、衝立射影面13Aに射影された後続車11の画像を射影面10に再射影すると共に、後続車11の画像を再射影する際、衝立射影面13Aから射影面10までの距離に応じて、衝立射影面13Aに射影された後続車11の画像を拡大するように構成してもよい。
 例えば、図12に示される後続車11の真横に四輪車が存在し、この四輪車から自車両までの距離が、後続車11から自車両までの距離と等しいと仮定する。また四輪車の高さは後続車11の高さと略同じであるが、四輪車の横幅は後続車11の横幅よりも大きいと仮定する。
 ここで、衝立射影面13Aは、後続車11の画像全体を射影できるような最小限の大きさに設定されているため、衝立射影面13Aの大きさを超える四輪車は、衝立射影面13Aの設定対象にならない。
 このため、四輪車の前には衝立射影面13Aが設定されず、後続車11の前にのみ衝立射影面13Aが設定された場合、以下のような問題が生じ得る。すなわち、この場合、衝立射影面13Aから衝立射影面13Aに射影される対象物(例えば後続車11)までの距離と、衝立射影面13Aよりも遠方に設定された射影面10から射影面10に射影される対象物(例えば上記の四輪車)までの距離とが異なる。従って、衝立射影面13Aに投影される衝立画像の対象物に対する拡大率が、射影面10に投影される背景画像の対象物に対する拡大率と異なってしまう。
 つまり、後続車11は、後続車11の直前に設定された衝立射影面13Aに射影されるので、その画像の大きさは、衝立射影面13Aの寸法に収まるように縮小されるのに対し、後続車11の真横に存在する四輪車は、遠方の射影面11に射影されるので、その画像が拡大されて大きくなる。
 従って、衝立画像を背景画像の上に嵌め込むことで、1つの表示画像を生成する際に、上記のように縮小された後続車11の画像の横に、拡大された四輪車の画像が並ぶ事になる。このためドライバーは、生成された画像に違和感を覚えたり、後続車11の真横に存在する四輪車よりも遠方に後続車11が位置すると誤認する場合もあり得る。
 なお、背景画像として射影面11に射影される対象物(例えば上記の四輪車)を含む画像の拡大率は、車両100から当該対象物までの距離と、車両100から射影面11までの距離の比によって決まる。そのため、後続車11が車両100に近接した場合には、両者の拡大率の差が大きくなるため、両者の画像の大きさの違いによる違和感が顕著になる。
 このような問題を解決するため、表示制御装置200は、衝立射影面13Aに射影された後続車11の画像を射影面10に再射影すると共に、後続車11の画像を再射影する際、衝立射影面13Aから射影面10までの距離に応じて、衝立射影面13Aに射影された後続車11の画像を拡大する。
 この構成により、背景画像として射影面11に射影されるの対象物(例えば上記の四輪車)を含む画像の拡大率と、衝立画像として衝立射影面13Aに射影される対象物(後続車11)を含む画像の拡大率とを、略同じにすることが出来る。
 なお、再射影する面は射影面10に限定されず、例えば、表示制御装置200は、衝立射影面13Aから射影面10までの距離と同程度に、衝立射影面13Aから離れた位置に、射影面10とは別の射影面を設定し、衝立画像を該射影面に再射影するようにしてもよい。
 また、表示制御装置200は、衝立射影面13Aに投影される衝立画像を射影面10に再射影する代わりに、以下のように衝立画像を射影するように構成してもよい。例えば表示制御装置200は、まず、後続車11から衝立射影面13Aまでの距離と後続車から射影面10までの距離とを算出し、これらの距離の比率を算出する。次に表示制御装置200は、算出した比率を衝立画像の倍率に設定することで衝立画像をズームした上で、この衝立画像を背景画像に嵌め込むことによって、合成画像を生成する。このようにすることで、後続車11が衝立射影面13Aに投影される衝立画像を射影面に再射影する必要がなくなる。
 なお、表示制御装置200は、後続車11から衝立射影面13Aまでの距離と後続車11から射影面10までの距離は、例えばソナー(障害物センサ)などの距離センサで検出された検知情報に基づき算出することが出来る。この検知情報により、車両100から後続車11までの距離が分かるため、表示制御装置200は、これらの情報と、予め設定した既知の情報(車両100から衝立射影面13Aまでの距離及び車両100から射影面10までの距離)に基づき、後続車11から衝立射影面13Aまでの距離と後続車から射影面10までの距離とを算出することが出来る。なお、表示制御装置200は、ソナー以外のセンシングデバイス(例えばミリ波レーダーやカメラなど)に基づき、距離情報を算出しても良い。
 また、表示制御装置200は、上記のように、衝立画像の再射影や、衝立画像をズームして合成画像を生成した場合においては、後続車11を含む画像を強調するように表示させてもよい。特に、衝立画像をズームして合成画像を生成する場合、表示制御装置200は、ズーム倍率を割り増ししたり、倍率を変動させたりする事により、後続車11の像を目立たせることが出来る。
 このようにすることで、後続車11が車両100に接近していることをドライバーに視認させることが可能になる。
 なお、後続車11を含む画像の強調表示の方法は、後続車11を線で囲うように表示する方法や、後続車11を含む画像を点滅させる方法など、あらゆる方法が考えられる。また、後続車11を含む画像を強調して表示することに加えて、音声や振動などで、後続車11が車両100に接近していることを別途ドライバーに伝えるようにしてもよい。
 また後続車11を含む画像の強調表示は、後続車11と車両100との距離が所定の距離よりも小さい場合に適用するようにしてもよいし、後続車11と車両100との距離が急速に減少している(つまり後続車11が車両100に急接近しつつある)場合に適用するようにしてもよい。
 (本開示の効果)
 以下に本開示の効果について従来技術と対比して説明する。
 <実施例1>
 例えば特表2014-531078号公報には、車両の周辺において突出したオブジェクトが検出された場合、突出したオブジェクトの近傍において、当該突出したオブジェクトの幅にわたって、持ち上げるように投影面を変形させるステップを有する事を特徴とする方法が開示されている。
 特表2014-531078号公報の技術では、投影面の特定の部分が大きく変形すると、変形した部分の周囲で射影面の傾きが大きくなり、射影される像が大きく変形され、形が歪んで視認しにくくなる。上記の実施例2によれば、衝立射影面13Aに接近する後続車の像を射影し、それとは独立した遠方の射影面に背景の画像を射影し、最後に二つの射影面上の画像を合成して表示画像を得る方式であるので、後続車の像も背景の画像も歪まず、歪によって視認が妨げられる事がない。この歪まず視認が妨げられない効果は、衝立射影面13Aの辺縁部に設定する、ブレンディングによって二重写りにする境界領域においても同様に得られる。つまり、射影面の変形によって歪が発生し、視認しにくくなる部分がどこにもない。
 <実施例2>
 人の視覚には、二重写りになったもの、例えば、展示ケースの中の展示物と、展示ケースに反射した自分の顔と、を各々分離して、個別に認識する能力がある。
 上記の実施例2は、この人の視覚の能力を積極的に利用する方式であり、ブレンディングによって二重写りにする境界領域に後続車の像を入れる事により、二つのカメラ画像の視野の継ぎ目で後続車の像が消失する課題を解決している。このブレンディングされる境界領域に、例えば後続の二輪車のドライバーの顔が入る事で、ドライバーの顔が背景とブレンドされたとしても、顔の画像が変形していなければ視認可能であり、顔の向きも判別する事が期待出来る。
 特表2014-531078号公報の方式では、例えば顔の部分が大きく変形されると、顔である事の判別や顔の向きの判別を期待できない。つまり、二重写りにすると人の視覚機能が認識を助けるのに対し、変形すると視覚機能が働かなくなり、認識が妨げられるので、本願の方式の方が優れた効果が得られる。
 <実施例2-4>
 例えば特開2019-185381号公報に開示される車両周囲画像生成装置は、立体物の移動の向きが一方の俯瞰画像に近づく向きのときは、重み付け加算平均する範囲を他方の俯瞰画像の側に移動させ、立体物の移動向きが他方の俯瞰画像に近づく向きのときは、重み付け加算平均する範囲を一方の俯瞰画像の側に移動させる。としているが、重み付け加算平均する範囲の中における重み付けの分布は、立体物の移動に依らず一定である。そのため、重み付け加算平均する範囲の制御によっては、車両100の動きを制御する上で重要な部分、例えば後続車のドライバーの顔の部分が、重み付け加算平均する範囲の端に位置して重みが小さくなり、表示画像上で薄く表示されて視認し難くなる恐れがある。
 これに対して、上記の実施例2では、後続車11の像の中心位置、又は後続車11が二輪車の場合には、二輪車のドライバーの顔(もしくは頭部)の位置を検出し、像の中心位置又は顔の位置で、境界領域よりも右側の画像と左側の画像とのブレンド比が例えば1対1になるように制御している。これにより、後続車11の像またはドライバーの顔が概ね半分の濃さで表示される事になるので、見落としの恐れを軽減出来、ドライバーの顔の位置を基準にブレンド比を制御する場合は、ドライバーの顔の向きから次の動きを予想する事が容易になる。
 図23はボウル形状の射影面10の一例を示す図である。図24は湾曲した円筒状の射影面10及び衝立射影面13Aの一例を示す図である。このような形状の射影面10又は衝立射影面13Aを用いる事によって、車両100から射影面10又は衝立射影面13Aまでの距離が、車両100の後方の何れの位置においても一定になり、後続車11などの画像の歪みを軽減出来る。
 なお、例えば、以下のような態様も本開示の技術的範囲に属するものと了解される。
 (1)表示制御装置は、車両が搭載する複数の撮像装置で撮影された前記車両周辺の複数の撮影画像に基づき、前記車両周辺に存在する周辺車両を検出する車両検出部と、複数の前記撮影画像を合成する事によって、前記車両が搭載する表示部に表示される表示画像を生成する画像処理部と、を備え、前記画像処理部は、前記車両の後方に設定された第1射影面に複数の前記撮影画像を射影する事によって、前記車両の背景画像を生成し、所定の領域内に前記周辺車両が検出された場合、前記周辺車両を検出した位置に第2射影面を設定し、前記第2射影面に複数の前記撮影画像の少なくとも1つを射影する事によって、前記周辺車両の画像である周辺車両画像を生成し、前記周辺車両画像を前記背景画像に重畳する。
 (2)前記画像処理部は、前記周辺車両画像と前記背景画像の境界部分では、前記周辺車両画像の画素値と前記背景画像の画素値とをブレンドして前記表示画像を生成する。
 (3)前記周辺車両画像は、複数の前記撮影画像の画素値をブレンドする境界領域を有し、前記画像処理部は、前記境界領域において前記画素値をブレンドする際の混合比が1対1となるクロスポイントを、前記周辺車両の位置、または前記周辺車両のドライバーの顔もしくは頭部の位置に応じて変更する。
 (4)前記所定の領域は、前記車両の後方に設定された第1射影面に前記車両周辺の複数の前記撮影画像を射影する際に、前記背景画像が連続した画像となる様に前記車両周辺の複数の前記撮影画像から射影する範囲を限定すると、前記背景画像に表示されなくなる領域を基準として設定する。
 (5)前記画像処理部は、前記画像処理部は、前記車両周辺の複数の前記撮影画像を、前記撮像装置の位置とは異なる仮想視点から見た画像に変換する視点変換処理を行い、前記車両検出部は、前記車両を基準位置とする所定領域内における周辺車両の有無を検出し、前記画像処理部は、所定の領域内に前記周辺車両が検出されないときの前記仮想視点の地上高を、所定の領域内に前記周辺車両が検出されるときの前記仮想視点の地上高よりも低くする。
 (6)前記画像処理部は、前記車両の走行速度が所定値以下の場合には、前記仮想視点の地上高を、前記車両の走行速度が所定値を超える場合の地上高よりも高くする。
 (7)前記仮想視点の地上高を低くする時の前記第1射影面の路面に対する傾きは、前記仮想視点の地上高を高くする時の前記第1射影面の路面に対する傾きよりも大きい。
 (8)前記画像処理部は、前記仮想視点の地上高を高くする時、路面を前記第1射影面に含め、前記仮想視点の地上高を低くする時、路面を前記第1射影面に含めない。
 (9)前記画像処理部は、前記仮想視点の地上高を高くする時、路面を前記第1射影面に含め、前記仮想視点の地上高を低くする時、前記第1射影面に含める路面の範囲を、前記仮想視点の地上高を高くする時に前記第1射影面に含める路面の範囲よりも小さくする。
 (10)前記第1射影面において、所定の地上高に相当する位置を基準点として、前記基準点と前記仮想視点とを結ぶ直線と、前記基準点を通る前記第1射影面に鉛直な直線との成す角が、所定値以下である。
 (11)前記第1射影面の内、前記基準点より下側の部分における射影面の路面に対する傾きは、前記第1射影面の内、前記基準点より上側の部分における射影面の路面に対する傾きよりも小さい。
 (12)車両は上記の表示制御装置を備える。
 (13)表示制御方法は、車両が搭載する複数の撮像装置で撮影された前記車両周辺の複数の撮影画像に基づき、前記車両周辺に存在する周辺車両を検出するステップと、前記車両の後方に設定された第1射影面に複数の前記撮影画像を射影する事によって、前記車両の背景画像を生成するステップと、所定の領域内に前記周辺車両が検出された場合、前記周辺車両を検出した位置に第2射影面を設定するステップと、前記第2射影面に複数の前記撮影画像の少なくとも1つを射影する事によって、前記周辺車両の画像である周辺車両画像を生成するステップと、前記周辺車両画像を前記背景画像に重畳するステップと、を含む。
 以上、本開示の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
 2020年8月31日出願の特願2020-145674の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
 本開示の一実施例は、表示制御装置及び車両に好適である。
 1 :右カメラ
 1a :視野範囲
 1a1 :切り出し範囲
 2 :左カメラ
 2a :視野範囲
 2a1 :切り出し範囲
 3 :後方カメラ
 3a :視野範囲
 3a1 :切り出し範囲
 4 :操作部
 5 :ナビケーション装置
 6 :フェンス
 7 :表示部
 8 :センサ
 10 :射影面
 11 :後続車
 12 :死角領域
 13 :物体
 13A :衝立射影面
 13a :物体
 13b :物体
 15 :仮想視線
 16 :衝立射影適用領域
 17a :境界領域
 17b :境界領域
 17c :境界領域
 18 :緩斜面
 20 :仮想視点
 50 :立方体
 51 :正面
 52 :側面
 61 :画像処理部
 62 :車両検出部
 63 :状況判定部
 64 :画像制御部
 65 :CAN通信部
 100 :車両
 200 :表示制御装置

Claims (13)

  1.  車両が搭載する複数の撮像装置で撮影された前記車両周辺の複数の撮影画像に基づき、前記車両周辺に存在する周辺車両を検出する車両検出部と、
     複数の前記撮影画像を合成する事によって、前記車両が搭載する表示部に表示される表示画像を生成する画像処理部と、
     を備え、
     前記画像処理部は、
     前記車両の後方に設定された第1射影面に複数の前記撮影画像を射影する事によって、前記車両の背景画像を生成し、
     所定の領域内に前記周辺車両が検出された場合、前記周辺車両を検出した位置に第2射影面を設定し、
     前記第2射影面に複数の前記撮影画像の少なくとも1つを射影する事によって、前記周辺車両の画像である周辺車両画像を生成し、
     前記周辺車両画像を前記背景画像に重畳する、表示制御装置。
  2.  前記画像処理部は、前記周辺車両画像と前記背景画像の境界部分では、前記周辺車両画像の画素値と前記背景画像の画素値とをブレンドして前記表示画像を生成する、請求項1に記載の表示制御装置。
  3.  前記周辺車両画像は、複数の前記撮影画像の画素値をブレンドする境界領域を有し、
     前記画像処理部は、前記境界領域において前記画素値をブレンドする際の混合比が1対1となるクロスポイントを、前記周辺車両の位置、または前記周辺車両のドライバーの顔もしくは頭部の位置、に応じて変更する、請求項1に記載の表示制御装置。
  4.  前記所定の領域は、前記車両の後方に設定された第1射影面に前記車両周辺の複数の前記撮影画像を射影する際に、前記背景画像が連続した画像となる様に前記車両周辺の複数の前記撮影画像から射影する範囲を限定すると、前記背景画像に表示されなくなる領域を基準として設定する、請求項1に記載の表示制御装置。
  5.  前記画像処理部は、前記車両周辺の複数の前記撮影画像を、前記撮像装置の位置とは異なる仮想視点から見た画像に変換する視点変換処理を行い、
     前記車両検出部は、前記車両を基準位置とする所定領域内における周辺車両の有無を検出し、
     前記画像処理部は、所定の領域内に前記周辺車両が検出されないときの前記仮想視点の地上高を、所定の領域内に前記周辺車両が検出されるときの前記仮想視点の地上高よりも低くする、請求項1に記載の表示制御装置。
  6.  前記画像処理部は、前記車両の走行速度が所定値以下の場合には、前記仮想視点の地上高を、前記車両の走行速度が所定値を超える場合の地上高よりも高くする、請求項5に記載の表示制御装置。
  7.  前記仮想視点の地上高を低くする時の前記第1射影面の路面に対する傾きは、前記仮想視点の地上高を高くする時の前記第1射影面の路面に対する傾きよりも大きい、請求項5に記載の表示制御装置。
  8.  前記画像処理部は、
     前記仮想視点の地上高を高くする時、路面を前記第1射影面に含め、
     前記仮想視点の地上高を低くする時、路面を前記第1射影面に含めない、請求項5に記載の表示制御装置。
  9.  前記画像処理部は、
     前記仮想視点の地上高を高くする時、路面を前記第1射影面に含め、
     前記仮想視点の地上高を低くする時、前記第1射影面に含める路面の範囲を、前記仮想視点の地上高を高くする時に前記第1射影面に含める路面の範囲よりも小さくする、請求項5に記載の表示制御装置。
  10.  前記第1射影面において、所定の地上高に相当する位置を基準点として、
     前記基準点と前記仮想視点とを結ぶ直線と、前記基準点を通る前記第1射影面に鉛直な直線との成す角が、所定値以下である、請求項5に記載の表示制御装置。
  11.  前記第1射影面の内、前記基準点より下側の部分における射影面の路面に対する傾きは、前記第1射影面の内、前記基準点より上側の部分における射影面の路面に対する傾きよりも小さい、請求項10に記載の表示制御装置。
  12.  請求項1に記載の表示制御装置を備えた車両。
  13.  車両が搭載する複数の撮像装置で撮影された前記車両周辺の複数の撮影画像に基づき、前記車両周辺に存在する周辺車両を検出するステップと、
     前記車両の後方に設定された第1射影面に複数の前記撮影画像を射影する事によって、前記車両の背景画像を生成するステップと、
     所定の領域内に前記周辺車両が検出された場合、前記周辺車両を検出した位置に第2射影面を設定するステップと、
     前記第2射影面に複数の前記撮影画像の少なくとも1つを射影する事によって、前記周辺車両の画像である周辺車両画像を生成するステップと、
     前記周辺車両画像を前記背景画像に重畳するステップと、
     を含む、表示制御方法。
PCT/JP2021/006345 2020-05-28 2021-02-19 表示制御装置、車両及び表示制御方法 WO2022044374A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112021004648.9T DE112021004648T5 (de) 2020-05-28 2021-02-19 Anzeigesteuervorrichtung, Fahrzeug und Anzeigesteuerverfahren
CN202180052951.1A CN115996864A (zh) 2020-05-28 2021-02-19 显示控制装置、车辆及显示控制方法
US18/112,892 US20230199137A1 (en) 2020-05-28 2023-02-22 Display control apparatus, vehicle, and display control method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020093495 2020-05-28
JP2020-145674 2020-08-31
JP2020145674A JP2021190981A (ja) 2020-05-28 2020-08-31 表示制御装置、車両及び表示制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/112,892 Continuation US20230199137A1 (en) 2020-05-28 2023-02-22 Display control apparatus, vehicle, and display control method

Publications (1)

Publication Number Publication Date
WO2022044374A1 true WO2022044374A1 (ja) 2022-03-03

Family

ID=78847697

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/006345 WO2022044374A1 (ja) 2020-05-28 2021-02-19 表示制御装置、車両及び表示制御方法

Country Status (5)

Country Link
US (1) US20230199137A1 (ja)
JP (1) JP2021190981A (ja)
CN (1) CN115996864A (ja)
DE (1) DE112021004648T5 (ja)
WO (1) WO2022044374A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010287163A (ja) * 2009-06-15 2010-12-24 Alpine Electronics Inc 車載用画像表示装置および画像のトリミング方法
WO2018012299A1 (ja) * 2016-07-13 2018-01-18 ソニー株式会社 画像生成装置、画像生成方法、及び、プログラム
JP2020052671A (ja) * 2018-09-26 2020-04-02 パナソニックIpマネジメント株式会社 表示制御装置、車両、表示制御方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011084554A1 (de) 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur Darstellung eines Fahrzeugumfeldes

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010287163A (ja) * 2009-06-15 2010-12-24 Alpine Electronics Inc 車載用画像表示装置および画像のトリミング方法
WO2018012299A1 (ja) * 2016-07-13 2018-01-18 ソニー株式会社 画像生成装置、画像生成方法、及び、プログラム
JP2020052671A (ja) * 2018-09-26 2020-04-02 パナソニックIpマネジメント株式会社 表示制御装置、車両、表示制御方法

Also Published As

Publication number Publication date
DE112021004648T5 (de) 2023-06-29
US20230199137A1 (en) 2023-06-22
JP2021190981A (ja) 2021-12-13
CN115996864A (zh) 2023-04-21

Similar Documents

Publication Publication Date Title
US9050931B2 (en) Vehicle periphery monitoring system
JP4793307B2 (ja) 車両周辺監視装置
WO2012096058A1 (ja) 画像生成装置
JP5911775B2 (ja) 画像生成装置、画像表示システム及び画像生成方法
JP5999032B2 (ja) 車載表示装置およびプログラム
CN110027552B (zh) 图像显示装置
JP5715778B2 (ja) 車両用画像表示装置
WO2012169355A1 (ja) 画像生成装置
JP5516998B2 (ja) 画像生成装置
WO2003075573A1 (fr) Unite de commande de l'affichage d'images
JP6733647B2 (ja) 画像表示装置
JP2013183298A (ja) 車両用後方視界支援装置及び車両用後方視界支援方法
JP2019110492A (ja) 画像表示装置
EP3935826A1 (en) Imaging system and method
JP6958147B2 (ja) 画像表示装置
EP3761262A1 (en) Image processing device and image processing method
CN114489332A (zh) Ar-hud输出信息的显示方法及系统
US11823467B2 (en) Display control apparatus, vehicle, and display control method
JP2012138876A (ja) 画像生成装置、画像表示システム及び画像表示方法
JP2015221633A (ja) 車両用表示システム
US10896017B2 (en) Multi-panel display system and method for jointly displaying a scene
WO2022044374A1 (ja) 表示制御装置、車両及び表示制御方法
WO2021240873A1 (ja) 表示制御装置、車両及び表示制御方法
JP2016213759A (ja) 後方モニタ
US10988083B2 (en) Visual field support image generation device and image conversion method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21860806

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 21860806

Country of ref document: EP

Kind code of ref document: A1