WO2023026696A1 - 車両用視認装置 - Google Patents

車両用視認装置 Download PDF

Info

Publication number
WO2023026696A1
WO2023026696A1 PCT/JP2022/026622 JP2022026622W WO2023026696A1 WO 2023026696 A1 WO2023026696 A1 WO 2023026696A1 JP 2022026622 W JP2022026622 W JP 2022026622W WO 2023026696 A1 WO2023026696 A1 WO 2023026696A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
vehicle
boundary
visual recognition
display
Prior art date
Application number
PCT/JP2022/026622
Other languages
English (en)
French (fr)
Inventor
利成 中居
圭吾 多田
Original Assignee
株式会社東海理化電機製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東海理化電機製作所 filed Critical 株式会社東海理化電機製作所
Priority to CN202280057393.2A priority Critical patent/CN117859323A/zh
Publication of WO2023026696A1 publication Critical patent/WO2023026696A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the technology of the present disclosure relates to a vehicle visual recognition device that assists the visual recognition of passengers.
  • each of a rear image, a left rear side image, and a right rear side image captured by a rear camera, a left rear side camera, and a left rear side camera of a vehicle is captured at a predetermined angle of view.
  • a vehicle display device is disclosed that trims the image so that it becomes .
  • this vehicle display device when a vehicle located behind the vehicle is detected by the rear vehicle sensor, the distance between the vehicle and the vehicle behind is determined, and as the distance between the vehicles becomes shorter, the angle of view of the rear image is enlarged and synthesized. The ratio of the area occupied by the rear image in the image is increased.
  • the ratio of the rearward image is increased compared to the left and right side images in the composite image displayed on the display, the blind spots immediately behind the left and right sides of the body of the own vehicle become large.
  • the size of the image of the rear vehicle in the composite image depends not only on the inter-vehicle distance but also on the size of the rear vehicle (the size in the vehicle width direction). Therefore, if the proportion of the rear image in the synthesized image is determined according to the distance between the vehicle and the rear vehicle, the blind spots on the left and right rear of the own vehicle may become large, or the image of the rear vehicle may be displayed missing. It affects the appearance of the vehicle and the visibility behind the vehicle.
  • the technology of the present disclosure has been made in view of the above facts, and aims to provide a vehicle visual recognition device that can assist the visual recognition of a passenger while suppressing deterioration of the visibility of a vehicle behind the vehicle. .
  • a vehicular visual recognition device comprises: first imaging means for outputting a first photographed image obtained by imaging the rear of a vehicle; and an imaging unit including second imaging means for outputting a second photographed image obtained by picking up the rear side of the vehicle from the side of the vehicle body so as to overlap with the overlapping area of the first photographed image and the second photographed image.
  • first imaging means for outputting a first photographed image obtained by imaging the rear of a vehicle
  • an imaging unit including second imaging means for outputting a second photographed image obtained by picking up the rear side of the vehicle from the side of the vehicle body so as to overlap with the overlapping area of the first photographed image and the second photographed image.
  • a display unit for displaying on a display medium a rearward image obtained by joining the images so that it can be visually recognized by an occupant; object detection means for detecting an image of a vehicle behind the own vehicle included in the first photographed image; and the object detection means setting means for setting the image boundary according to the image position of the rear vehicle so that the detected image of the rear vehicle is arranged in the first display image.
  • the object detection means detects the rear vehicle from the first captured image and the second captured image.
  • the setting means has a size on the first display image in the rearward image with respect to an image size of the vehicle behind in the first photographed image.
  • the position of the image boundary is changed when the ratio of the image size of the vehicle behind is equal to or less than a preset ratio.
  • a vehicle visual recognition device is the first or second aspect, wherein the setting means sets the distance between the image of the rear vehicle on the rear image and the image boundary to be equal to or less than a first distance. , the position of the image boundary is changed so as to move outward in the vehicle width direction to a predetermined position.
  • the setting means moves the position of the image boundary outward in the vehicle width direction by a preset amount. Change to move.
  • the setting means when the image of the rear vehicle is not detected on the first photographed image, determines the image boundary. The position is changed to a preset standard position within the overlapping area.
  • a seventh aspect of the vehicular visual recognition device is, in any one of the first to sixth aspects, wherein the setting means sets a second distance, which is a preset distance between the image of the rear vehicle and the image boundary. is exceeded, the position of the image boundary is changed so as to approach a preset standard position within the overlap region.
  • the setting means changes the position of the image boundary so as to be inward in the vehicle width direction by a preset amount. do.
  • the first imaging means of the imaging unit outputs the first captured image obtained by imaging the rear of the vehicle
  • the second imaging means outputs a first captured image obtained by imaging the rear of the vehicle
  • a second photographed image obtained by photographing the rear side of the vehicle from the side portion of the vehicle is output so as to overlap the photographing area of .
  • the display unit extracts the first display image from the first captured image and extracts the second display image from the second captured image according to an image boundary set in an overlapping area of the first captured image and the second captured image. Then, a rear image obtained by connecting the first display image and the second display image at the image boundary is displayed on the display medium so as to be visually recognizable to the passenger.
  • setting means for setting the image boundary according to the image position of the rear vehicle so that the image of the rear vehicle detected by the object detection means is arranged in the first display image.
  • the object detection means detects the rear vehicle and detects the image of the rear vehicle included in the first captured image.
  • the setting means sets the image boundary such that the detected image of the rear vehicle is arranged in the first display image when setting the image boundary in the overlapping area of the first captured image and the second captured image.
  • the object detection means detects the rear vehicle from the first captured image and the second captured image. As a result, it is possible to effectively detect the rear vehicle traveling behind the own vehicle, and to effectively assist the driver's visual recognition.
  • the ratio of the image size of the rear vehicle on the first display image in the rear image to the image size of the rear vehicle on the first captured image is equal to or less than the preset ratio. If so, change the position of the image border. As a result, it is possible to effectively suppress deterioration in visibility due to the large lack of the rear vehicle displayed in the rear image.
  • the position of the image boundary is moved outward in the vehicle width direction to a predetermined position. As a result, it is possible to effectively suppress the deterioration of the visibility of the rear vehicle.
  • the vehicle visual recognition device of the fifth aspect when moving the position of the image boundary, it is changed so as to move outward in the vehicle width direction by a preset amount.
  • a preset amount when suppressing the overlap of the image boundary with the image of the vehicle behind, it is possible to suppress the position of the image boundary from significantly moving, and it is possible to suppress the blind spot that occurs near the vehicle body from greatly changing, thereby preventing the occupants from Visual recognition of the rear of the vehicle can be assisted more effectively.
  • the standard position is set within the overlapping area for the position of the image boundary.
  • the setting means changes the position of the image boundary to the standard position when the image of the rear vehicle is not extracted from the first captured image.
  • the position of the image boundary is changed to approach the preset standard position. do. This makes it possible to prevent the position of the image boundary from remaining away from the standard position when the distance between the image of the rear vehicle and the image boundary increases due to, for example, the vehicle behind moving away from the own vehicle. , the blind spot generated in the vicinity of the vehicle body can be effectively suppressed.
  • the position of the image boundary is changed so as to move inward in the vehicle width direction by a preset amount.
  • FIG. 11 is a flow chart showing an example of boundary setting processing
  • FIG. 55D is a schematic diagram (part 1) showing an example of the display of the rear vehicle, showing the rear vehicle approaching in the order of FIGS. 5A, 5B, 5C, and 55D.
  • FIG. It is the schematic which shows an example of a display of a back vehicle (part 2). It is a schematic diagram showing an example of a display of a back vehicle (part 3).
  • FIG. 11 is a flowchart showing an example of boundary setting processing according to a modification
  • FIG. 7B is a schematic view showing an example of the display of the following vehicle traveling in the same lane as the own vehicle and the following vehicle traveling in the adjacent lane (No. 1), approaching in the order of FIGS. 7A, 7B, 7C, and 7D; It shows the vehicle behind you in the next lane.
  • FIG. 2 is a schematic diagram showing an example of display of a rear vehicle traveling in the same lane as the own vehicle and a rear vehicle traveling in an adjacent lane (No. 2); FIG.
  • FIG. 3 is a schematic diagram showing an example of a display of a rear vehicle traveling in the same lane as the own vehicle and a rear vehicle traveling in an adjacent lane (No. 3);
  • FIG. 12 is a schematic diagram showing an example of display of a rear vehicle traveling in the same lane as the own vehicle and a rear vehicle traveling in an adjacent lane (No. 4);
  • 8A, 8B, 8C, and 8D are schematic diagrams showing an example of the display of the following vehicle traveling in the same lane as the own vehicle and the following vehicle traveling in the adjacent lane (No. 1), and FIG. 8A, FIG. 8B, FIG. It shows the vehicle behind the lane.
  • FIG. 1 is a schematic diagram showing an example of a display of a rear vehicle traveling in the same lane as the own vehicle and a rear vehicle traveling in an adjacent lane (No. 4);
  • 8A, 8B, 8C, and 8D are schematic diagrams showing an example of the display of the following vehicle traveling in the same lane as the own vehicle and
  • FIG. 2 is a schematic diagram showing an example of display of a rear vehicle traveling in the same lane as the own vehicle and a rear vehicle traveling in an adjacent lane (No. 2);
  • FIG. 3 is a schematic diagram showing an example of a display of a rear vehicle traveling in the same lane as the own vehicle and a rear vehicle traveling in an adjacent lane (No. 3);
  • FIG. 12 is a schematic diagram showing an example of display of a rear vehicle traveling in the same lane as the own vehicle and a rear vehicle traveling in an adjacent lane (No. 4);
  • FIG. 1 is a block diagram showing a schematic configuration of a vehicle visual recognition device 10 according to the present embodiment
  • FIG. 2 is a schematic plan view of a vehicle 12 provided with the vehicle visual recognition device 10 as viewed from above. is indicated by In the drawings, the front side of the vehicle is indicated by an arrow FR, and the right side in the vehicle width direction is indicated by an arrow RH.
  • the vehicle visual recognition device 10 includes a plurality of cameras 14 as imaging means constituting an imaging unit, a monitor 16 as a display medium constituting a display unit, and a rear view according to the captured image of the camera 14 .
  • a visual recognition processing device 18 having a display unit (display control unit) for displaying an image on a monitor 16 is provided.
  • the camera 14 includes a rear camera 14A as first imaging means and side cameras 14L and 14R as second imaging means, and the camera 14 captures images (video) with an imaging device.
  • the rear camera 14A is arranged at the rear part of the vehicle 12 and at the center in the vehicle width direction (for example, at the center of the rear bumper in the vehicle width direction). Take an image with
  • the side camera 14L is attached to the door 12L on the left side of the vehicle 12 in the vehicle width direction
  • the side camera 14R is attached to the door 12R on the right side of the vehicle 12 in the vehicle width direction.
  • the side cameras 14L and 14R may be attached to the door mirrors (not shown) of the vehicle 12 .
  • the side cameras 14L and 14R may be mounted on the side of the vehicle body of the vehicle 12, for example, on the front fender.
  • the side cameras 14L and 14R each take an image of the rear of the vehicle from the side of the vehicle 12 (outer side of the vehicle body) at a predetermined angle of view (photographing area).
  • the side cameras 14L and 14R are arranged so that a part of their photographing areas overlaps the photographing area of the rear camera 14A. Therefore, the rear side of the vehicle 12 is imaged at a wide angle from the left diagonally rearward to the right diagonally rearward range of the vehicle body including the immediate rear on both left and right sides of the vehicle body by the rear camera 14A and the side cameras 14L and 14R. .
  • the rear camera 14A and the side cameras 14L and 14R can capture images of almost the entire area from the left rear side to the right rear side of the vehicle body of the vehicle 12.
  • the monitor 16 is thin and has a rectangular shape elongated in the vehicle width direction, and is arranged near the top of the front windshield glass on the front side of the vehicle (position corresponding to the inner mirror) in the vehicle interior.
  • the display surface of the monitor 16 is directed toward the rear of the vehicle so that it can be visually recognized by the passengers inside the vehicle.
  • the monitor 16 functions as an inner mirror by displaying an image captured by the camera 14 .
  • the monitor 16 may be provided on the instrument panel, and the monitor 16 can be provided at any position where it can be easily viewed by the occupant without obstructing the occupant's view.
  • the visual recognition processing device 18 synthesizes (joins together) the images captured by the rear camera 14A and the side cameras 14L and 14R to generate a wide-angle rearward image (outside rearward image) of the vehicle. Then, the rear image is controlled to be displayed on the monitor 16. - ⁇ In this embodiment, the rearward image displayed on the monitor 16 is an image obtained by connecting (synthesized) display images extracted from images captured by the rear camera 14A and the side cameras 14L and 14R. Further, the vehicle visual recognition device 10 may superimpose an image of the interior of the vehicle captured by the interior camera on the rearward image and display the image on the monitor 16 .
  • the visual processing device 18 includes a microcomputer (not shown) in which a CPU, a ROM, a RAM, a storage as a non-volatile storage medium, an input/output interface, etc. are interconnected by a bus.
  • a program stored in a ROM, a storage, or the like is read by the CPU and executed while being developed in the RAM, thereby realizing functions according to the program.
  • the visual recognition processing device 18 is not limited to a CPU, and a GPU (Graphic Processing Unit), FPGA (Field Programmable Gate Array), or the like can also be used.
  • the visual recognition processing device 18 includes an image processing unit 20, a viewpoint conversion unit 22, an image extraction unit 24, and a display processing unit 26.
  • the visual recognition processing device 18 functions as an image processing unit 20, a viewpoint conversion unit 22, an image extraction unit 24, and a display processing unit 26 by executing a predetermined program by the CPU.
  • FIG. 3 is a schematic diagram showing an overview of the captured image and the rearward image displayed on the monitor 16.
  • the images captured by the rear camera 14A and the side cameras 14L and 14R are reversed left and right, and the images captured by the left and right side cameras 14L and 14R are interchanged (the images are horizontally reversed as a whole). )Is displayed.
  • the image processing unit 20 reads images captured by the rear camera 14A and the side cameras 14L and 14R, and executes predetermined image processing to perform the first image captured by the rear camera 14A.
  • a captured image (image data) 28A as a captured image and captured images (image data) 28L and 28R as second captured images captured by the side cameras 14L and 14R are output. Note that the image processing unit 20 performs processing so that the sizes of the images of the same object are the same among the captured images 28A, 28L, and 28R.
  • the viewpoint positions of the captured images 28A, 28L and 28R are different between the rear camera 14A and the side cameras 14L and 14R.
  • the viewpoint conversion unit 22 performs viewpoint conversion processing on the captured images 28A, 28L, and 28R.
  • a virtual viewpoint is set on the front side of the vehicle from the center position of the monitor 16 (the center position in the vehicle width direction and the vertical direction), and the captured images 28A, 28L, and 28R are converted into images viewed from the virtual viewpoint. do.
  • a virtual screen which is a virtual plane at a predetermined position behind the vehicle 12, is set along with the virtual viewpoint.
  • the virtual screen may be a flat surface or a curved surface. It is preferable to be a surface (a concave curved surface when viewed from the vehicle 12).
  • any method of converting each of the captured images 28A, 28L, and 28R into an image projected on a virtual screen viewed from a virtual viewpoint can be applied.
  • the photographed images 28A, 28L, and 28R are subjected to the viewpoint conversion processing by applying the same virtual viewpoint and virtual screen in the viewpoint conversion unit 22, so that the photographed images 28A, 28L and the photographed image 28A or the photographed image 28R are converted.
  • the same object is shown in both, the objects appear to overlap.
  • the image extraction unit 24 extracts display images 30A, 30L, and 30R to be displayed on the monitor 16 from each of the captured images 28A, 28L, and 28R.
  • the visual recognition processing device 18 as the image boundaries 32, an image boundary 32L between the captured images 28A and 28L and an image boundary 32R between the captured images 28A and 28R are set.
  • the image extraction unit 24 performs trimming processing on each of the captured images 28A, 28L, and 28R according to the image boundary 32 (image boundaries 32L and 32R) and the display area on the monitor 16.
  • the image extraction unit 24 extracts the display image 30A as the first display image from the captured image 28A, and extracts the display images 30L and 30R as the second display image from the captured images 28L and 28R.
  • the image boundaries 32L and 32R are substantially linear or substantially band-shaped (band-shaped with a width of a predetermined number of pixels) along the vertical direction. By changing), the trimming positions in each of the captured images 28A, 28L, and 28R are changed to extract display images 30A, 30L, and 30R.
  • the image boundaries 32L and 32R correspond to the boundaries between the display images 30A and 30L and the display images 30A and 30R on the virtual screen. and the boundary between the display image 30A and the display image 30R are moved in the vehicle width direction.
  • the image boundary 32L is set within the overlapping area between the captured image 28A and the captured image 28L
  • the image boundary 32R is set within the overlapping area between the captured image 28A and the captured image 28L.
  • the image boundaries 32L and 32R are each set within a range from the vehicle width direction inside position (positions Lin, Rin) to the vehicle width direction outside position (positions Lout, Rout). That is, the position of the image boundary 32L is in the range of positions Lin to Lout, and the position of the image boundary 32R is in the range of positions Rin to Rout.
  • the display image 30A is narrowest in the vehicle width direction by setting the image boundaries 32L and 32R at positions Lin and Rin on the inside in the vehicle width direction, and the image boundaries 32L and 32R are positioned at positions Lout and Rout on the outside in the vehicle width direction. By doing so, it can be widened most in the vehicle width direction.
  • the display processing unit 26 generates a rear image (image data of the rear image) to be displayed on the monitor 16 by connecting the display image 30L and the display image 30R to the display image 30A at the image boundaries 32L and 32R on the left and right sides of the display image 30A. do.
  • the rear image displayed on the monitor 16 is a composite image in which the display images 30A, 30L, and 30R are joined at the image boundaries 32L and 32R.
  • the display image 30A and the display image 30R trimmed at the image boundary 32R are displayed in at least one of the captured images 28A and 28R.
  • a region (so-called blind spot) where no image appears in the combined image is generated. That is, when projected onto the virtual screen and trimmed at the image boundary 32R, among the objects on the viewpoint side (camera 14 side) of the virtual screen, from the photographed image 28A (display image 30A), the vehicle width direction outer side of the image boundary 32R.
  • the display images 30L and 30R include areas away from the vehicle body in the photographed images 28L and 28R. extracted. Therefore, in the rearward image displayed on the monitor 16, the blind spots occurring on the sides of the vehicle body are large (wide).
  • the vehicle visual recognition device 10 gradually narrows the blind spot, The nearest left rear and right rear blind spots are the narrowest.
  • standard positions original positions, default positions, for example, positions shown in FIG. 3
  • L0 and R0 are set for the image boundaries 32L and 32R, respectively.
  • Each of the standard positions L0 and R0 of the image boundaries 32L and 32R is the position where the left rear and right rear blind spots in the vicinity of the vehicle body are the narrowest on the rear image (see FIG. 3).
  • the image boundaries 32L and 32R are set to the standard positions L0 and R0, thereby suppressing blind spots near the sides of the vehicle body.
  • the vehicular visual recognition device 10 captures an image of a vehicle traveling behind the vehicle 12 (rear vehicle), so that the vehicle behind is displayed on the monitor 16 .
  • the image of the vehicle behind is included in any of the display images 30A, 30L, and 30R and displayed on the monitor 16, so that the occupant can visually recognize the vehicle behind.
  • the vehicle visual recognition device 10 is provided with an object detection means.
  • the object detection means detects a vehicle running behind the vehicle 12 .
  • a method using millimeter wave radar which uses radio waves with a frequency of 30 GHz to 300 GHz called millimeter waves and can measure the position and distance of the object, can be applied.
  • the object detection means includes a LiDAR (Light Detection Ranging) method that uses light such as infrared light (laser light) to measure the irradiation direction of the light and the time until the light reflected by the object is received. can be applied.
  • LiDAR Light Detection Ranging
  • the vehicle visual recognition device 10 is provided with a rear camera 14A and side cameras 14L and 14R as imaging means. Duplicate (overlapping). From here, when detecting including the distance (inter-vehicle distance) of the rear vehicle with respect to the rear vehicle 34 and the vehicle 12, a stereo camera method may be applied.
  • a rear vehicle (hereinafter referred to as a rear vehicle 34) running directly behind the vehicle 12 is applied as a detection target of the target detection means.
  • the image is captured by the rear camera 14A by driving directly behind the vehicle.
  • the object detection means should be able to detect at least the rear vehicle 34, and in this embodiment, the object detection means detects the rear vehicle 34 using the captured image 28A captured by the rear camera 14A.
  • a plurality of methods may be applied to the object detection means. For example, the captured image 28A of the rear camera 14A and the millimeter wave radar method, or the captured image 28A of the rear camera 14A and the LiDAR method may be used together. , can improve detection accuracy.
  • the visual recognition processing device 18 of the vehicle visual recognition device 10 includes an object detection unit 38 constituting object detection means, an object extraction unit 40 as image detection means, and a boundary setting unit 42 as setting means.
  • the visual recognition processing device 18 functions as an object detection unit 38 , an object extraction unit 40 and a boundary setting unit 42 by executing a predetermined program by the CPU.
  • the object detection unit 38 reads the photographed image 28A of the rear camera 14A and the photographed images 28L and 28R of the side cameras 14L and 14R, searches the photographed image 28A for the image of the rear vehicle 34 (vehicle image 34A), and obtains the photographed image 28A.
  • a rear vehicle 34 in the image is detected.
  • various known techniques such as a pattern matching method for searching for an image of a pattern similar to a plurality of pattern images pre-stored for the vehicle (back vehicle) can be applied.
  • the object extraction unit 40 reads the image 28A captured by the rear camera 14A and the images 28L and 28R captured by the side cameras 14L and 14R. Extract the locations (contours and regions of contours) on top. At this time, when a plurality of rear vehicles 34 are detected, the object extraction unit 40 detects the rear vehicle 34 closest to the vehicle 12 as the object.
  • White lines (lane lines) 46L and 46R are marked on the left and right of the lane 44 on the road on which the vehicle 12 travels. ) is captured behind the vehicle (see FIG. 3). From this, the determination as to whether or not the vehicle detected by the target detection unit 38 is the target rear vehicle 34 is performed by extracting the white lines 46L and 46R indicating the lane 44 on the photographed images 28A, 28L and 28R, can be regarded as traveling in the same lane 44 as the vehicle 12, the vehicle can be determined to be the vehicle 34 behind.
  • the imaging range of the rear camera 14A is predetermined with respect to the center line of the vehicle 12 in the vehicle width direction. From this, the determination whether or not the vehicle detected by the target detection unit 38 is the target rear vehicle 34 is based on whether the size of the image of the rear vehicle on the captured image 28A is equal to or greater than a predetermined size, and When the vehicle width direction center position of the image of the vehicle behind is within a predetermined range with respect to the center position of the captured image 28A (for example, within a range in which it can be assumed that the vehicle is traveling in the same lane 44), the vehicle is It can be a rear vehicle 34 .
  • the display image 30A and the display image 30L are displayed according to the image position of the rear vehicle 34 on the captured image 28A (the position of the vehicle image 34A). and an image boundary 32R between the display image 30A and the display image 30L.
  • the boundary setting unit 42 sets the image boundaries 32L and 32R within the ranges of positions Lin to Lout and positions Rin to Rout, respectively. At this time, there are no other vehicles running behind the vehicle 12 (not shown), and other vehicles running in the next lane cannot be considered to be directly behind the vehicle 12. If there is, the boundary setting unit 42 sets the positions of the image boundaries 32L and 32R to the standard positions.
  • the boundary setting unit 42 sets each of the image boundaries 32L and 32R at positions where the vehicle image 34A does not become difficult to see due to overlapping with the vehicle image 34A of the vehicle 34 behind.
  • the boundary setting unit 42 causes the vehicle image 34A displayed on the monitor 16 to become larger as the vehicle 34 behind the vehicle 34 approaches, and the distance d between the vehicle image 34A and at least one of the image boundary 32L and the image boundary 32R narrows. .
  • the boundary setting unit 42 moves the corresponding image boundary 32 (at least one of the image boundary 32L and the image boundary 32R) in the vehicle width direction when the interval d becomes equal to or smaller than a given interval d1 (d ⁇ d1), which is the first interval. It is set to move outside (position Lout side, position Rout side) by a predetermined movement amount (predetermined distance on the monitor 16 such as a predetermined number of pixels, hereinafter referred to as distance dsa). Further, even when the image boundary 32 (at least one of the image boundary 32L and the image boundary 32R) overlaps the vehicle image 34A of the rear vehicle 34, the boundary setting unit 42 sets the corresponding image boundary 32 in the vehicle width direction. set to move a distance dsa outside the .
  • the boundary setting unit 42 prevents the image boundaries 32L and 32R from being outside in the vehicle width direction more than necessary. For example, the rear vehicle 34 moves away and the vehicle image 34A displayed on the monitor 16 becomes smaller, thereby increasing the distance d between the vehicle image 34A and the image boundaries 32L and 32R. As a result, when the interval d becomes equal to or greater than the interval d2, which is the second interval, the boundary setting unit 42 causes the image boundaries 32L and 32R to approach the standard positions L0 and R0 (inward in the vehicle width direction). Set the positions of the image boundaries 32L and 32R. At this time, the boundary setting unit 42 sets the image boundaries 32L and 32R to move by a predetermined movement amount (a predetermined distance on the monitor 16 such as a predetermined number of pixels, hereinafter referred to as distance dsb).
  • a predetermined movement amount a predetermined distance on the monitor 16 such as a predetermined number of pixels
  • the distance d1, the distance d2, the distance dsa, and the distance dsb are set in advance within a range that does not impair the visibility of the occupant in the rear image displayed on the monitor 16 and the appearance of the rear image.
  • the distance d, the distance dsa, and the like are the dimensions (pixels number) can be applied.
  • the image extraction unit 24 of the visual recognition processing device 18 extracts each of the display images 30A, 30L, 30R from the captured images 28A, 28L, 28R based on the image boundaries 32L, 32R set by the boundary setting unit 42 .
  • the monitor 16 displays a rear image obtained by synthesizing the display images 30A, 30L, and 30R.
  • the vehicle visual recognition device 10 starts operating, and the IG switch is turned off.
  • the end of image display is instructed in such a manner, the operation is ended after a predetermined period of time has elapsed.
  • the vehicular visual recognition device 10 when the start of operation is instructed, the rear camera 14A and the side cameras 14L and 14R are operated, and the visual recognition processing device 18 is operated to photograph the rear camera 14A and the side cameras 14L and 14R. An image is displayed on the monitor 16 .
  • FIG. 4A shows a flowchart of the outline of the display processing executed by operating the visual recognition processing device 18, and FIG. 4B shows an example of image boundary setting processing in a flowchart.
  • 5A to 5D schematically show, as an example, the display of the monitor 16 corresponding to the vehicle image 34A when the vehicle 34 behind the vehicle 12 is captured in the captured image 28A.
  • the image boundaries 32L and 32R are set separately, but by setting one of the image boundaries 32L and 32R, the image boundaries 32L and 32R are aligned with one of the set image boundaries 32L and 32R. may be set.
  • the flowchart in FIG. 4A is executed at preset time intervals when the visual recognition processing device 18 is operated. Then, predetermined image processing is executed (step 102). As a result, the photographed image 28A behind the vehicle and the photographed images 28L and 28R rearward from the sides of the vehicle are acquired. In the next step 104, predetermined viewpoint conversion processing is performed on the captured images 28A, 28L, and 28R.
  • step 106 the visual recognition processing device 18 sets the image boundary 32 (image boundaries 32L and 32R), and in step 108, the set image
  • the display images 30A, 30L and 30R are extracted by trimming along the boundaries 32L and 32R.
  • viewing processor 18 stitches display images 30A, 30L, 30R at image boundaries 32L, 32R to generate a rearward image for display on monitor 16 in step 110, and generates a rearward image for display on monitor 16 in step 112. display.
  • rearward images of the vehicle 12 obtained from the images 28A, 28L, and 28R captured by the rear camera 14A and the side cameras 14L and 14R are displayed as moving images on the monitor 16 mounted on the front side of the vehicle for the occupants in the vehicle compartment.
  • the rearward image displayed on the monitor 16 assists the occupants in the vehicle to visually recognize the rear of the vehicle.
  • the occupant can visually recognize a wide range from the rear left side of the vehicle to the rear right side of the vehicle.
  • the visual recognition processing device 18 detects the rear vehicle 34 traveling behind (substantially right behind) the vehicle 12, and when the rear vehicle 34 is detected, the vehicle image 34A of the rear vehicle 34 is displayed.
  • the image boundaries 32L and 32R are set accordingly.
  • the vehicle image 34A is effectively displayed on the monitor 16 in the vehicle visual recognition device 10 .
  • the flowchart of FIG. 4B is executed by moving to step 106 in FIG. It is confirmed whether or not the rear vehicle 34 running substantially directly behind (a position that can be regarded as directly behind) has been detected. Since the rearward vehicle 34 is at least a vehicle that is imaged by the rear camera 14A, the photographed image 28A is used for detecting the rearward vehicle 34, and the visual recognition processing device 18 searches the photographed image 28A, The rear vehicle 34 (vehicle image 34A of the rear vehicle 34) is detected.
  • step 122 if the rear vehicle 34 is not detected from the captured image 28A (including cases where the vehicle is extremely far behind), a negative determination is made in step 122 and the process proceeds to step 124.
  • step 124 the visual recognition processing device 18 sets the image boundaries 32 (image boundaries 32L, 32R) to the standard positions L0, R0, and then proceeds to the next process.
  • the monitor 16 normally displays a rearward image in which the image boundaries 32L and 32R are at the standard positions L0 and R0 (not shown).
  • the standard positions L0 and R0 of the image boundaries 32L and 32R are respectively set to the positions where the blind spot on the rear side near the side of the vehicle body of the vehicle 12 is narrowed. Therefore, the monitor 16 narrows the blind spot and displays the immediate left and right sides of the vehicle body and the immediate rear of the left and right sides of the vehicle body. It is suppressed that it becomes. As a result, the vehicle visual recognition device 10 can effectively assist the occupant in visual recognition of the rear side and the vicinity of the vehicle body.
  • step 122 the visual recognition processing device 18 makes an affirmative determination in step 122 and proceeds to step 126.
  • step 126 the visual recognition processing device 18 identifies the vehicle image 34A of the rear vehicle 34 in the photographed image 28A in which the rear vehicle 34 is shown. That is, the position and image range (image size) of the vehicle image 34A on the captured image 28A are specified.
  • the visual recognition processing device 18 sets the image boundaries 32 (image boundaries 32L, 32R) according to the vehicle image 34A. At this time, the image boundary 32 is set at a position where at least the appearance of the vehicle image 34A of the rear vehicle 34 is not spoiled. In addition, it is preferable that the image boundary 32 is set at a position (off position) that does not overlap the vehicle image 34A of the rear vehicle 34 .
  • the image boundaries 32L and 32R are positioned outside the vehicle image 34A of the rear vehicle 34 in the width direction (vehicle width direction) on the photographed image 28A, and are located at the standard positions L0 and R0, or at positions closer to the standard positions L0 and R0 than the standard positions L0 and R0. outside in the vehicle width direction).
  • the image boundaries 32L and 32R overlap the vehicle image 34A of the rear vehicle 34, or when the distance d between the image boundaries 32L and 32R and the vehicle image 34A of the rear vehicle 34 is the distance d1 or less (d ⁇ d1).
  • the position of the corresponding image boundary 32 is set to move outward in the vehicle width direction (direction away from the standard positions L0 and R0) from the current position by a distance dsa.
  • FIG. 5A to 5D show time T0 (see FIG. 5A), time T1 (see FIG. 5B), time T2 (see FIG. 5C), and time T3 (see FIG. 5C) while the following vehicle 34 is traveling in the same lane 44 as the vehicle 12.
  • FIG. 5D shows time T0 (see FIG. 5A), time T1 (see FIG. 5B), time T2 (see FIG. 5C), and time T3 (see FIG. 5C) while the following vehicle 34 is traveling in the same lane 44 as the vehicle 12.
  • FIG. 5D shows the case of approaching with the lapse of time (elapse of time T) while the following vehicle 34 is traveling in the same lane 44 as the vehicle 12.
  • FIG. 5D and the case of approaching with the lapse of time (elapse of time T) are shown.
  • the rear vehicle 34 is relatively distant from the vehicle 12
  • the vehicle image 34A of the rear vehicle 34 appearing in the captured image 28A is relatively small
  • the vehicle image 34A at the standard positions L0 and R0 is relatively small.
  • the image boundaries 32L and 32R are contained (not overlapped), the image boundaries 32L and 32R are set to standard positions L0 and R0, respectively.
  • the vehicle image 34A displayed on the monitor 16 gradually becomes larger.
  • the vehicle image 34A approaches the image boundaries 32L and 32R (for example, the distance d between the image boundary 32L and the vehicle image 34A and the distance between the image boundary 32R and the vehicle image 34A).
  • the visual recognition processing device 18 moves the corresponding image boundary 32 (for example, the image boundary 32R) by the distance dsa to the outside in the vehicle width direction.
  • the image boundaries 32L and 32R are set to move according to the distance d from the vehicle image 34A.
  • the movement of the image boundary 32 may be set to move (at the same timing).
  • the movement of the image boundary 32 depends on the degree of change (amount of change per unit time) of the size of the vehicle image 34A.
  • the moving distance dsa may be set to be larger than when the degree is small, thereby suppressing frequent changes in the position of the image boundary 32 that the occupant feels annoyed.
  • the image boundary 32R is moved outward in the vehicle width direction by a predetermined amount (for example, distance dsa). At this time, if the conditions for moving the image boundary 32L are not satisfied, the image boundary 32L remains at the standard position L0 without being changed in position. As a result, even if the rear vehicle 34 further approaches the vehicle 12, it is possible to prevent the image boundary 32 from overlapping the vehicle image 34A and spoiling the appearance of the vehicle image 34A.
  • a predetermined amount for example, distance dsa
  • the vehicle image 34A overlaps the image boundaries 32L and 32R, or the distance d between the vehicle image 34A and the image boundaries 32L and 32R increases. becomes equal to or less than the interval d1.
  • the visual recognition processing device 18 sets each of the image boundaries 32L and 32R so as to move further outward in the vehicle width direction by a distance dsa, for example.
  • the image boundary 32L is set to move from the standard position L0 toward the position Lout, and the image boundary 32R moves to a position further away from the vehicle image 34A (for example, position Rout). is set to As a result, the image boundaries 32L, 32R are kept away from the vehicle image 34A, thereby preventing the image boundaries 32L, 32R from lowering the visibility of the vehicle 34 behind the occupant.
  • the vehicle image 34A displayed on the monitor 16 gradually becomes smaller, and the distance d between the vehicle image 34A and the image boundary 32 becomes larger (widens).
  • the corresponding image boundary 32 is moved inward in the vehicle width direction by a distance dsb.
  • the image boundaries 32L and 32R are moved (set) so as to approach the standard positions L0 and R0. That is, the visual processing device 18 moves the image boundaries 32L and 32R away from the standard positions L0 and R0 stepwise (or continuously) toward the standard positions L0 and R0 until they reach the standard positions L0 and R0.
  • the vehicle image 34A of the rear vehicle 34 is prevented from overlapping the image boundary 32, and the vehicle image 34A becomes difficult to see. can be suppressed.
  • deterioration of the visibility of the rear vehicle 34 displayed on the monitor 16 is effectively suppressed, and the rearward visibility of the occupant can be effectively assisted.
  • the vehicle visual recognition device 10 extracts the display images 30A, 30L, and 30R from the images 28A, 28L, and 28R captured by the rear camera 14A and the side cameras 14L, 14R, respectively, and generates a rear image to be displayed on the monitor 16. .
  • the vehicle visual recognition device 10 detects the vehicle image 34A of the rear vehicle 34 from the captured image 28A, and sets the image boundary 32 so as not to overlap the vehicle image 34A displayed on the monitor 16 .
  • the image boundary 32 is suppressed from overlapping the vehicle image 34A.
  • the visual recognition of the rear vehicle 34 by the occupant can be assisted while suppressing deterioration in appearance caused by the image boundary 32 overlapping the vehicle image 34A of the rear vehicle 34.
  • the rear vehicle 34 (vehicle image 34A) is detected from the image 28A captured by the rear camera 14A.
  • the rear vehicle 34 can be detected efficiently.
  • the vehicle visual recognition device 10 when the image boundary 32 is set to move according to the vehicle image 34A of the rear vehicle 34, the vehicle image 34A and the image boundary 32 are prevented from being greatly separated. As a result, in the vehicle visual recognition device 10, the image boundaries 32 (image boundaries 32L, 32R) can be prevented from becoming too far from the standard positions L0, R0, and the blind spots can be prevented from becoming large. .
  • the image boundaries 32L and 32R are set (moved) within the range from the standard positions L0 and R0 to the positions Lout and Rout so that the image boundaries 32L and 32R do not overlap the vehicle image 34A. At this time, the image boundaries 32L and 32R are set so as not to be too far from or too close to the vehicle image 34A. However, even when the image boundaries 32L and 32R overlap the vehicle image 34A, if the overlap is small, visibility and appearance are less affected.
  • the image size of the vehicle image 34A (the vehicle image 34A of the display image 30A) displayed on the monitor 16 (for example, the vehicle width direction dimension of the vehicle image 34A.
  • the vehicle image 34A image area changes.
  • the image boundary 32 From this, it is determined whether or not to move the image boundary 32 from the ratio of the image size of the vehicle image 34A on the display image 30A to the image size of the vehicle image 34A on the captured image 28A for the vehicle image 34A of the rear vehicle 34. can be done.
  • a ratio (threshold value) at which it can be determined that the visibility of the occupant and the appearance of the rearward image are not impaired is set in advance. be set. In the vehicle visual recognition device 10, this threshold value may be changeable.
  • the vehicle visual recognition device 10 acquires the image size of the vehicle image 34A in the captured image 28A of the rear camera 14A, and acquires the image size of the vehicle image 34A in the display image 30A. Further, the vehicle visual recognition device 10 calculates the ratio of the image size of the vehicle image 34A in the display image 30A to the image size of the vehicle image 34A in the image 28A captured by the rear camera 14A. Thereafter, in the vehicle visual recognition device 10, when the calculated ratio becomes equal to or less than the threshold value, the image boundary 32 is newly set.
  • the calculated ratio becomes equal to or less than the threshold value and the image boundary 32 is set, so that the vehicle image 34A may be largely missing in the rearward image displayed on the monitor 16, or the image boundary 32 may cause annoyance to the occupants.
  • the rearward image displayed on the monitor 16 can assist the occupant's visual recognition.
  • vehicles running behind the vehicle 12 are not limited to vehicles running in the same lane 44 as the vehicle 12, vehicles running in the lane next to the lane 44 of the vehicle 12, and vehicles running in the lane 44 There is a vehicle or the like that is running straddling the lane and the adjacent lane.
  • Whether or not the vehicle behind is the vehicle 34 traveling directly behind the vehicle 12 may be determined from the image on the image 28A captured by the rear camera 14A. In this case, for example, even if the vehicle behind is approaching the vehicle 12 and the white lines 46L and 46R are difficult to see, it is possible to accurately determine whether or not the vehicle behind is the vehicle 34 behind the image. It is possible to prevent the appearance of the vehicle image 34A of the rear vehicle 34 from being spoiled by 32L and 32R.
  • a vehicle behind the vehicle 12 (hereinafter referred to as a vehicle 48 behind) that is closer to the vehicle 12 than the vehicle 34 behind in the same lane 44 as the vehicle 12 may be traveling.
  • FIG. 6 shows a flowchart of an example of image boundary setting processing according to the modification. 7A to 7D and 8A to 8D, the rear vehicle 34 is running in the same lane 44 as the vehicle 12, and the rear vehicle 48 is running in the lane 44A next to (on the right of) the vehicle 12.
  • the display of the monitor 16 in this case is shown schematically.
  • the captured images 28L and 28R are used for the detection of the rear vehicle 48 (detection of the vehicle image 48A of the rear vehicle 48).
  • the same step numbers (codes) as in FIG. 4B are assigned to the same processes as in FIG. 4B, and detailed description thereof is omitted.
  • setting of one image boundary 32R will be described, and illustration and description of the other image boundary 32L will be omitted, but the other image boundary 32L may be set in accordance with the image boundary 32R.
  • FIG. 6 is used in place of FIG. 4B and is executed by moving to step 106 in FIG. 4A.
  • the visual recognition processing device 18 detects the rear of the vehicle 12 from the captured images 28A and 28R of the rear camera 14A and the side camera 14R (the captured image 28L of the side camera 14L may be included). Detection processing of the traveling rear vehicle (the rear vehicle 34, 48) is performed. Further, in the vehicle visual recognition device 10, in step 132, it is confirmed whether or not the vehicle behind (at least one of the rear vehicle 34 and the rear vehicle 48) is detected, and in step 134, the vehicle travels in the same lane 44 as the vehicle 12. It is checked whether or not the rear vehicle 34 is detected.
  • the visual recognition processing device 18 In detecting the rear vehicle 34 and the rear vehicle 48, the visual recognition processing device 18 identifies the lanes 44 and 44A from the captured images 28A and 28R of the left and right white lines 46L and 46R of the lane 44 in which the vehicle 12 is traveling. In addition, the visual recognition processing device 18 identifies a vehicle traveling in the lane 44 (between the white lines 46L and 46R) as the rear vehicle 34, and travels in the lane 44A on the opposite side of the lane 44 across the white line 46R. The vehicle that is in the background is specified as the rear vehicle 48 .
  • the visual recognition processing device 18 makes a negative determination in step 132 and proceeds to step 124 .
  • the image boundaries 32R are each set to the standard position R0.
  • the visual recognition processing device 18 makes an affirmative determination in step 132 and an affirmative determination in step 134, and proceeds to step 126.
  • the visual recognition processing device 18 sequentially executes steps 126 and 128 to set the image boundary 32R based on the running state of the rear vehicle 34, and proceeds to step 138.
  • FIG. Thereby, the visual recognition processing device 18 sets the image boundary 32R within the range from the standard position R0 to the position Rout according to the vehicle image 34A of the vehicle 34 behind.
  • step 134 the visual recognition processing device 18 makes a negative determination in step 134, proceeds to step 136, sets the image boundary 32R to the standard position R0, and proceeds to step 138.
  • step 138 the visual recognition processing device 18 confirms whether or not the rear vehicle 48 (vehicle image 48A of the rear vehicle 48) traveling in the adjacent lane 44A is detected. Check if the vehicle 48 is closer to the vehicle 12 than the vehicle 34 behind. At this time, if the rear vehicle 48 is not detected, the visual recognition processing device 18 makes a negative determination in step 138 and starts the next process. If the rear vehicle 48 is further from the vehicle 12 than the rear vehicle 34, the visual recognition processing device 18 makes an affirmative determination in step 138, makes a negative determination in step 140, and proceeds to the next process.
  • the monitor 16 displays the vehicle image 48A of the rear vehicle 48 larger than the vehicle image 34A of the rear vehicle 34. be.
  • the visual recognition processing device 18 makes an affirmative determination in each of steps 138 and 140 and proceeds to step 142 .
  • the visual recognition processing device 18 identifies a photographed image showing the full width of the rear vehicle 48, and sets the position of the image boundary 32R so as not to overlap the vehicle image 48A of the rear vehicle 48 on the identified photographed image. .
  • the visual recognition processing device 18 specifies the photographed image 28A as the photographed image in which the rear vehicle 48 is reflected.
  • the photographed image 28R is specified as the photographed image in which the rear vehicle 48 is reflected.
  • the visual recognition processing device 18 sets the image boundary 32R according to the specified captured image (vehicle image 48A on the captured image. At this time, if the captured image 28A is specified as the captured image, The visual recognition processing device 18 sets the image boundary 32R to a position (for example, position Rout) outside the standard position R0 in the vehicle width direction. sets the image boundary 32R to the standard position R0.
  • a position for example, position Rout
  • the image boundary 32R is as shown in FIGS. 7A to 7D or 8A to 8D. change to 7A to 7D and 8A to 8D, time T0 (see FIGS. 7A and 8A), time T4 (see FIGS. 7B and 8B), time T5 (see FIGS. 7C and 8C) and time T6 (See FIGS. 7D and 8D) and the case where the running position of the rear vehicle 48 changes with the passage of time is shown.
  • FIGS. 7A to 7D show the case where the rear vehicle 48 approaches the vehicle 12.
  • FIGS. 7A to 7C when the rear vehicle 48 is relatively far from the vehicle 12 and the vehicle image 48A of the rear vehicle 48 displayed on the monitor 16 is relatively small (the vehicle image 48A is above the captured image 28A). ), the image boundary 32R is set to a position outside the standard position R0 in the vehicle width direction (for example, position Rout), and the vehicle image 48A of the rear vehicle 48 is displayed in the display image 30A.
  • FIG. 7D when the rear vehicle 48 approaches the vehicle 12 and the vehicle image 48A of the rear vehicle 48 displayed on the monitor 16 becomes relatively large (vehicle image 48A becomes larger than the photographed image 28R). ), the image boundary 32R is moved to the standard position R0.
  • the vehicle visual recognition device 10 it is possible to prevent the image boundary 32R from overlapping the vehicle image 48A of the rear vehicle 48 approaching the vehicle 12 and being displayed on the monitor 16. It is possible to prevent the image 48A from deteriorating in appearance (making it difficult to see), and effectively assist the occupant's backward visibility. Moreover, when the rear vehicle 48 approaches the vehicle 12, the image boundary 32R becomes the standard position R0. Therefore, in the rear image displayed on the monitor 16, the blind spot in the vicinity of the right rear side of the vehicle body is narrowed, and the occupants can effectively view the image. can assist.
  • the vehicle visual recognition device 10 when the rearward vehicle 48 leaves the vehicle 12, as shown in FIGS. 8A to 8C, when the rearward vehicle 48 is reflected in the photographed image 28R, the vehicle visual recognition device 10 has the image boundary 32 at the position Rout. It is set on the inner side in the vehicle width direction (on the standard position R0 side). As a result, the monitor 16 displays a rearward image in which the vehicle image 48A of the rearward vehicle 48 is displayed in the display image 30R. At this time, as shown in FIGS. 8B and 8C, even if the rear vehicle 48 is separated from the vehicle 12, the vehicle visual recognition device 10 maintains the image boundary 32R while the rear vehicle 48 is mainly reflected in the captured image 28R. is set (held) inside the position Rout in the vehicle width direction.
  • the vehicle visual recognition device 10 moves the image boundary 32 to the position Rout side (or the position Rout). set to move.
  • the monitor 16 displays a rearward image in which the vehicle image 48A of the rearward vehicle 48 is shown in the display image 30A.
  • the vehicle visual recognition device 10 may hold the image boundary 32R inside the position Rout in the vehicle width direction. .
  • the vehicular visual recognition device 10 can effectively suppress each of the vehicle images 34A and 48A of the rear vehicles 34 and 48 from overlapping the image boundary 32R. As a result, it is possible to suppress deterioration in appearance due to the image boundary 32 overlapping the vehicle images 34A, 48A of the rear vehicles 34, 48, and to suppress deterioration in the visibility of the occupants. can effectively assist

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

車両用視認装置(10)では、撮像部は、車両後方を撮像した第1撮影画像を出力するリアカメラ(14A)、及び撮像領域の一部が第1撮像手段の撮像領域に重なるように車体側方から車両後方側を撮像した第2撮影画像を出力するサイドカメラ(14L、14R)を含む。第1撮影画像と第2撮影画像との重なり領域に画像境界を設定し、第1撮影画像から第1表示画像を抽出すると共に第2撮影画像から第2表示画像を抽出する。第1撮影画像に含まれる自車の後方車両の画像を検出し、後方車両の画像が第1表示画像に配置されるように、第1表示画像と第2表示画像とを繋げた後方画像を乗員に視認可能にモニタ(16)に表示する。

Description

車両用視認装置
 本開示の技術は、乗員の視認を補助する車両用視認装置に関する。
 特開2019-110492号公報には、車両の後方カメラ、左後側方カメラ及び左後側方カメラにより撮像した後方画像、左後側方画像及び右後側方画像の各々を所定の画角となるようにトリミングし、トリミングした画像を合成した合成画像を車室内のディスプレイに表示する車両表示装置が開示されている。
 この車両表示装置では、後方車両センサによって車両の後方に位置する後方車両が検出されると、後方車両との車間距離を判定し、車間距離が短くなるほど後方画像画角を拡大画角として、合成画像において後方画像が占める領域の割合を大きくしている。
 ところで、ディスプレイに表示する合成画像において左側方画像及び右側方画像に比して後方画像の割合を大きくすると、自車の車体の左右直後の死角が大きくなってしまう。合成画像における後方車両の画像の大きさは、車間距離のみならず後方車両のサイズ(車幅方向のサイズ)にも依存する。このため、後方車両との車間距離に応じて合成画像における後方画像の割合を定めると、自車の左右後方の死角が大きくなったり、後方車両の画像が欠けて表示されたりしてしまい、画像の見栄えや車両後方の視認性に影響する。
 本開示の技術は、上記事実を鑑みて成されたものであり、後方車両の視認性が低下するのを抑制しつつ、乗員の視認を補助できる車両用視認装置を提供することを目的とする。
 上記目的を達成するための第1の態様の車両用視認装置は、車両後方を撮像した第1撮影画像を出力する第1撮像手段、及び撮像領域の一部が前記第1撮像手段の撮像領域に重なるように車体側方から車両後方側を撮像した第2撮影画像を出力する第2撮像手段を含む撮像部と、前記第1撮影画像と前記第2撮影画像との重なり領域に設定された画像境界を境界とし、前記画像境界に応じて前記第1撮影画像から第1表示画像を抽出すると共に前記第2撮影画像から第2表示画像を抽出し、前記第1表示画像と前記第2表示画像とを繋げた後方画像を乗員に視認可能に表示媒体に表示する表示部と、前記第1撮影画像に含まれる自車の後方車両の画像を検出する対象検出手段と、前記対象検出手段により検出された前記後方車両の画像が前記第1表示画像に配置されるように前記後方車両の画像位置に応じて前記画像境界を設定する設定手段と、を含む。
 第2の態様の車両用視認装置は、第1の態様において、前記対象検出手段は、前記第1撮影画像及び前記第2撮影画像から前記後方車両を検出する。
 第3の態様の車両用視認装置は、第1又は第2の態様において、前記設定手段は、前記第1撮影画像上における前記後方車両の画像サイズに対する前記後方画像における前記第1表示画像上の前記後方車両の画像サイズの割合が予め設定している割合以下となった場合に、前記画像境界の位置を変更する。
 第4の態様の車両用視認装置は、第1又は第2の態様において、前記設定手段は、前記後方画像上における前記後方車両の画像と前記画像境界との間隔が第1間隔以下となる場合、所定位置まで車幅方向外側に移動するように前記画像境界の位置を変更する。
 第5の態様の車両用視認装置は、第1から第4の何れか1の態様において、前記設定手段は、前記画像境界の位置を移動する際、予め設定された量だけ車幅方向外側に移動するように変更する。
 第6の態様の車両用視認装置は、第1から第5の何れか1の態様において、前記設定手段は、前記第1撮影画像上において前記後方車両の画像が検出されない場合、前記画像境界の位置を前記重なり領域内において予め設定している標準位置に変更する。
 第7の態様の車両用視認装置は、第1から第6の何れか1の態様において、前記設定手段は、前記後方車両の画像と前記画像境界との間隔が予め設定している第2間隔を超える場合、前記画像境界の位置を前記重なり領域内において予め設定している標準位置に接近するように変更する。
 第8の態様の車両用視認装置は、第1から第7の何れか1の態様において、前記設定手段は、前記画像境界の位置を予め設定された量だけ車幅方向内側となるように変更する。
 本開示の第1の態様の車両用視認装置では、撮像部の第1撮像手段が車両後方を撮像した第1撮影画像を出力し、第2撮像手段が撮像領域の一部が第1撮像手段の撮像領域に重なるように車両側部から車両後方側を撮像した第2撮影画像を出力する。表示部は、第1撮影画像と第2撮影画像との重なり領域に設定された画像境界に応じて、第1撮影画像から第1表示画像を抽出し、第2撮影画像から第2表示画像抽出して、第1表示画像と第2表示画像とを画像境界で繋げた後方画像を、乗員に視認可能に表示媒体に表示する。
前記対象検出手段により検出された前記後方車両の画像が前記第1表示画像に配置されるように前記後方車両の画像位置に応じて前記画像境界を設定する設定手段と、を含む。
 ここで、対象検出手段は、後方車両を検出して、第1撮影画像に含まれる後方車両の画像を検出する。設定手段は、第1撮影画像と第2撮影画像との重なり領域内に画像境界を設定する際、検出された後方車両の画像が第1表示画像に配置されるように画像境界を設定する。
 これにより、表示媒体に表示される後方画像では、自車の真後ろを走行して第1表示画像上に表示される後方車両の画像に画像境界が重なるのを抑制できるので、後方車両の視認性が低下するのを抑制しつつ、乗員の視認を補助できる。
 第2の態様の車両用視認装置では、対象検出手段が、第1撮影画像及び第2撮影画像から後方車両を検出する。これにより、自車の後方を走行する後方車両を効果的に検出できて、乗員の視認を効果的に補助できる。
 第3の態様の車両用視認装置では、第1撮影画像上における後方車両の画像サイズに対する後方画像における第1表示画像上の後方車両の画像サイズの割合が予め設定している割合以下となった場合に、画像境界の位置を変更する。これにより、後方画像に表示される後方車両が大きく欠けてしまうことによる視認性の低下を効果的に抑制できる。
 第4の態様の車両用視認装置では、後方画像上における後方車両の画像と画像境界との間隔が第1間隔以下となる場合、画像境界の位置を所定位置まで車幅方向外側に移動させる。これにより、後方車両の視認性が低下するのを効果的に抑制できる。
 第5の態様の車両用視認装置では、画像境界の位置を移動する際、予め設定された量だけ車幅方向外側に移動するように変更する。これにより、後方車両の画像に画像境界が重なるのを抑制する際、画像境界の位置が大きく移動するのを抑制でき、車体近傍に生じる死角が大きく変化してしまうのを抑制できて、乗員の車両後方の視認を一層効果的に補助できる。
 第6の態様の車両用視認装置では、画像境界の位置について重なり領域内に標準位置が設定されている。設定手段は、第1撮影画像から後方車両の画像が抽出されない場合、画像境界の位置を標準位置に変更する。これにより、自車の真後ろに後方車両が検出されていないにもかかわらず、画像境界の位置が標準位置よりも車幅方向外側に移動されたままとなってしまうのを抑制できて、車体近傍に生じる死角を抑制できる。
 第7の態様の車両用視認装置では、後方車両の画像と画像境界との間隔が予め設定している第2間隔を超える場合、画像境界の位置を予め設定した標準位置に接近するように変更する。これにより、後方車両が自車から離れるなどして、後方車両の画像と画像境界との間隔が離れた場合に、画像境界の位置が標準位置から離れたままとなってしまうのを抑制できて、車体近傍に生じる死角を効果的に抑制できる。
 第8の態様の車両用視認装置では、画像境界の位置を予め設定された量だけ車幅方向内側に移動するように変更する。これにより、後方車両の画像と画像境界との間隔が離れた場合に、画像境界を効果的に移動させることができるので、車体近傍に生じる死角を効果的に抑制できて、乗員の視認を効果的に補助できる。
本実施形態に係る車両用視認装置の概略構成図である。 車両の上方視の概略を示す平面図である。 撮影画像とモニタの表示画像とを模式的に示す概略図である。 表示処理の一例を示す流れ図である。 境界設定処理の一例を示す流れ図である。 後方車両の表示の一例を示す概略図であり(その1)、図5A、図5B、図5C、図55Dの順に接近している後方車両を示している。 後方車両の表示の一例を示す概略図である(その2)。 後方車両の表示の一例を示す概略図である(その3)。 後方車両の表示の一例を示す概略図である(その4)。 変形例に係る境界設定処理の一例を示す流れ図である。 自車と同じ車線を走行する後方車両及び隣の車線を走行する後方車両の表示の一例を示す概略図であり(その1)、図7A、図7B、図7C、図7Dの順に接近している隣の車線の後方車両を示している。 自車と同じ車線を走行する後方車両及び隣の車線を走行する後方車両の表示の一例を示す概略図である(その2)。 自車と同じ車線を走行する後方車両及び隣の車線を走行する後方車両の表示の一例を示す概略図である(その3)。 自車と同じ車線を走行する後方車両及び隣の車線を走行する後方車両の表示の一例を示す概略図である(その4)。 自車と同じ車線を走行する後方車両及び隣の車線を走行する後方車両の表示の一例を示す概略図であり(その1)、図8A、図8B、図8C、図8Dの順に離れる隣の車線の後方車両を示している。 自車と同じ車線を走行する後方車両及び隣の車線を走行する後方車両の表示の一例を示す概略図である(その2)。 自車と同じ車線を走行する後方車両及び隣の車線を走行する後方車両の表示の一例を示す概略図である(その3)。 自車と同じ車線を走行する後方車両及び隣の車線を走行する後方車両の表示の一例を示す概略図である(その4)。
 以下、図面を参照して本開示の実施形態について詳細に説明する。
 本実施形態に係る車両用視認装置10は、車両12(自車)に設けられて、運転者などの乗員の車両後方の視認を補助する。図1には、本実施形態に係る車両用視認装置10の概略構成がブロック図にて示され、図2には、車両用視認装置10が設けられた車両12の概略が上方視の平面図にて示されている。なお、図面では、車両前側が矢印FRにて示され、車幅方向右側が矢印RHにて示されている。
 図1に示すように、車両用視認装置10は、撮像部を構成する撮像手段としての複数のカメラ14、表示部を構成する表示媒体としてのモニタ16、及びカメラ14の撮影画像に応じた後方画像をモニタ16に表示するための表示部(表示制御部)が構成された視認処理装置18を備えている。
 カメラ14には、第1撮像手段としてのリアカメラ14A、及び第2撮像手段としてのサイドカメラ14L、14Rが用いられており、カメラ14は撮像素子により画像(映像)を撮像する。図2に示すように、リアカメラ14Aは、車両12の後部かつ車幅方向中央部(例えば、リアバンパの車幅方向中央部)に配置され、車両12の後方を所定の画角(撮像領域)で撮像する。
 サイドカメラ14L、14Rは、サイドカメラ14Lが車両12の車幅方向左側のドア12Lに取り付けられ、サイドカメラ14Rが車両12の車幅方向右側のドア12Rに取り付けられている。なお、車両12がドアミラーを備えている場合、サイドカメラ14L、14Rは、車両12のドアミラー(図示省略)に取り付けられてもよい。また、サイドカメラ14L、14Rは、車両12において、車体側面側であればよく、例えば、フロントフェンダーなどに取り付けられてもよい。
 サイドカメラ14L、14Rは、各々車両12側方(車体側面外側)から車両後方を所定の画角(撮影領域)で撮像する。サイドカメラ14L、14Rは、各々の撮影領域の一部がリアカメラ14Aの撮影領域と重複するように配置されている。このため、車両12の後方側は、リアカメラ14A、及びサイドカメラ14L、14Rにより車体の左右両側の直近後方を含めて車体の左斜め後方から右斜め後方の範囲に渡って広角に撮像される。これにより、車両用視認装置10では、リアカメラ14A及びサイドカメラ14L、14Rにより車両12の車体の左後方側から右後方側のほぼ全域の撮像が可能となっている。
 モニタ16は、薄型で車幅方向に長い矩形状とされており、モニタ16は、車室内において車両前側のフロントウインドシールドガラスの上部付近(インナーミラーに対応する位置)に配置されている。また、モニタ16は、表示面が車両後方に向けられて車室内の乗員に視認可能とされており、モニタ16は、カメラ14の撮影画像が表示されることでインナーミラーとして機能する。なお、モニタ16は、インストルメントパネルに設けられてもよく、モニタ16は、乗員の視認を妨げることなく、かつ乗員が容易に視認可能な任意の位置に設けることができる。
 視認処理装置18は、リアカメラ14A、及びサイドカメラ14L、14Rの各々の撮影画像を合成して(繋ぎ合わせて)、車両後方を広角で映した後方画像(車外後方画像)を生成し、生成した後方画像をモニタ16に表示するように制御する。なお、本実施形態においてモニタ16に表示される後方画像は、リアカメラ14A及びサイドカメラ14L、14Rの撮像画像から抽出される表示画像を繋げた(合成した)画像としている。また、車両用視認装置10は、室内カメラにより撮像された車室内の画像を後方画像に重ねてモニタ16に表示するようにしてもよい。
 視認処理装置18は、CPU、ROM、RAM、不揮発性の記憶媒体としてのストレージ、及び入出力インターフェース等がそれぞれバスによって相互に接続されたマイクロコンピュータ(図示省略)を備えている。視認処理装置18では、ROMやストレージ等に記憶されたプログラムがCPUにより読み出されて、RAMに展開されながら実行されることで、プログラムに応じた機能が実現される。なお、視認処理装置18には、CPUに限らずGPU(Graphic Processing Unit)やFPGA(Field Programmable Gate Array)などを用いることもできる。
 図1に示すように、視認処理装置18には、画像処理部20、視点変換部22、画像抽出部24及び表示処理部26が含まれている。視認処理装置18では、CPUにより所定のプログラムが実行されることで、画像処理部20、視点変換部22、画像抽出部24及び表示処理部26として機能する。
 視認処理装置18には、リアカメラ14A、サイドカメラ14L、14R及びモニタ16の各々が接続されており、視認処理装置18では、リアカメラ14A及びサイドカメラ14L、14Rの撮影画像からモニタ16に表示する後方画像を生成する。図3には、撮影画像及びモニタ16に表示される後方画像の概略が模式図にて示されている。なお、モニタ16には、リアカメラ14A及びサイドカメラ14L、14Rの撮影画像が左右反転されると共に、左右のサイドカメラ14Lとサイドカメラ14Rの撮影画像が入れ代えられて(全体として左右反転されて)表示される。
 図3に示すように、画像処理部20は、リアカメラ14A、及びサイドカメラ14L、14Rの各々の撮影画像を読み込んで、所定の画像処理を実行することでリアカメラ14Aにより撮像された第1撮影画像としての撮影画像(画像データ)28A、サイドカメラ14L、14Rの各々により撮像された第2撮影画像としての撮影画像(画像データ)28L、28Rを出力する。なお、画像処理部20では、同一の対象物の画像のサイズが、撮影画像28A、28L、28Rの間で同様となるように処理される。
 リアカメラ14A及びサイドカメラ14L、14Rの各々の間では、撮影画像28A、28L、28Rの視点位置が異なっている。ここから、視点変換部22では、撮影画像28A、28L、28Rに対して視点変換処理を行う。視点変換処理では、例えば、モニタ16の中心位置(車幅方向及び上下方向の中心位置)よりも車両前側に仮想視点が設定され、撮影画像28A、28L、28Rを仮想視点から見た画像に変換する。
 また、視点変換処理においては、仮想視点と共に、車両12の後方の所定位置における仮想面とされる仮想スクリーンが設定される。仮想スクリーンは平面とされてもよく、湾曲面とされていてもよいが、モニタ16が車両後方に向けて凸状に湾曲されている場合、仮想スクリーンは、車両後方に凸状とされた湾曲面(車両12から見て凹状の湾曲面)とされることが好ましい。視点変換処理では、撮影画像28A、28L、28Rの各々を仮想視点から見て仮想スクリーン上に投影された画像に変換する任意の手法を適用できる。
 これにより、撮影画像28A、28L、28Rは、視点変換部22において同一の仮想視点及び仮想スクリーンが適用されて視点変換処理が行われることで、撮影画像28A、28Lと撮影画像28A又は撮影画像28Rとに同一の対象物が映っている場合に、当該対象物が重なるように見える。
 画像抽出部24では、撮影画像28A、28L、28Rの各々からモニタ16に表示するための表示画像30A、30L、30Rを抽出する。視認処理装置18では、画像境界32として撮影画像28Aと撮影画像28Lとの画像境界32L、及び撮影画像28Aと撮影画像28Rとの画像境界32Rを設定される。画像抽出部24では、画像境界32(画像境界32L、32R)及びモニタ16における表示領域に応じて撮影画像28A、28L、28Rの各々に対してトリミング処理を行う。これにより、画像抽出部24は、撮影画像28Aから第1表示画像としての表示画像30Aを抽出し、撮影画像28L、28Rから第2表示画像としての表示画像30L、30Rを抽出する。
 画像境界32L、32Rは、上下方向に沿う略線状又は略帯状(所定画素数幅の帯状)とされており、画像抽出部24では、画像境界32L、32Rの位置が車幅方向に移動(変更)されることで、撮影画像28A、28L、28Rの各々におけるトリミング位置を変更して表示画像30A、30L、30Rを抽出する。画像境界32L、32Rは、仮想スクリーン上における表示画像30A、30L及び表示画像30A、30Rの境界に相当し、画像境界32L、32Rが移動されることで仮想スクリーン上における表示画像30Aと表示画像30Lとの境界、及び表示画像30Aと表示画像30Rとの境界が車両幅方向に移動される。
 画像境界32Lは、撮影画像28Aと撮影画像28Lとの重なり領域内に設定され、画像境界32Rは、撮影画像28Aと撮影画像28Lとの重なり領域内に設定される。画像境界32L、32R(画像境界32L及び画像境界32R)は、各々車幅方向内側の位置(位置Lin、Rin)から車幅方向外側の位置(位置Lout、Rout)の範囲で設定される。すなわち、画像境界32Lの位置は位置Lin~Loutの範囲とされ、画像境界32Rの位置は位置Rin~Routの範囲とされている。
 表示画像30Aは、画像境界32L、32Rが車幅方向内側の位置Lin、Rinとされることで、車幅方向に最も狭めされ、画像境界32L、32Rが車幅方向外側の位置Lout、Routとされることで、車幅方向に最も広げられる。
 表示処理部26は、表示画像30Aの左右両側の画像境界32L、32Rにおいて表示画像30Aに表示画像30Lと表示画像30Rを繋ぎ合せてモニタ16に表示する後方画像(後方画像の画像データ)を生成する。これにより、モニタ16に表示される後方画像は、表示画像30A、30L、30Rが画像境界32L、32Rにおいて繋ぎ合わせられた合成画像となっている。
 一般に、画像境界32R(画像境界32Lにおいても同様)の近傍においては、撮影画像28A、28Rの少なくとも一方に映っているにも関わらず、画像境界32Rでトリミングした表示画像30Aと表示画像30Rとを繋ぎ合わせた合成画像に画像が現れない領域(所謂死角)が生じる。すなわち、仮想スクリーンに投影されて画像境界32Rでトリミングされた場合、仮想スクリーンよりも視点側(カメラ14側)の物のうち撮影画像28A(表示画像30A)からは画像境界32Rより車幅方向外側(撮影画像28R側の物(又は物の一部)の画像が除かれ、撮影画像28R(表示画像30R)からは画像境界32Rより車幅方向内側(撮影画像28A側)の物(又は物の一部)の画像が除かれる。このため、撮影画像28A、28Rを画像境界32Rでトリミングすることで、トリミングにより除かれる領域が表示画像30A、30Rを合成した後方画像において死角(死角の領域)となる。
 車両用視認装置10では、画像境界32L、32Rが車幅方向の外側の位置Lout、Routとなっていると、表示画像30L、30Rには、撮影画像28L、28Rにおいて、車体から離れた領域が抽出される。このため、モニタ16に表示される後方画像では、車体の側方に生じる死角が大きく(広く)なる。
 また、車両用視認装置10は、画像境界32L、32Rの位置が各々位置Lout、Routから位置Lin、Rin側(車幅方向内側)に所定位置まで移動されると、死角が徐々に狭まり、車体直近の左側後方及び右側後方の各々の死角が最も狭まる。
 ここで、車両用視認装置10では、画像境界32L、32Rの各々の標準位置(原位置、デフォルト位置、例えば、図3に示される位置)L0、R0が設定されている。画像境界32L、32Rの標準位置L0、R0の各々は、後方画像上において車体直近の左側後方及び右側後方の各々の死角が最も狭まった位置とされている(図3参照)。これにより、モニタ16に表示される後方画像では、画像境界32L、32Rが標準位置L0、R0とされることで、車体側方近傍が死角となってしまうのが抑制される。
 一方、車両用視認装置10では、車両12の後方を走行する車両(後方車両)が撮像されることで、その後方の車両がモニタ16に表示される。車両用視認装置10では、後方の車両の画像が表示画像30A、30L、30Rの何れかに含まれてモニタ16に表示されることで、乗員が後方の車両を視認できる。
 車両用視認装置10には、対象検出手段が設けられている。対象検出手段は、車両12の後方を走行する後方車両を検出する。対象検出手段には、ミリ波と呼ばれる周波数が30GHz~300GHzの電波を使用し、対象物の位置や距離を測ることができるミリ波レーダを用いた方式を適用できる。また、対象検出手段には、赤外光などの光(レーザ光)を用いて光の照射方向及び対象物で反射した光が受光されるまでの時間を計測するLiDAR(Light Detection Ranging)方式などの公知の方式を適用できる。
 また、車両用視認装置10では、撮像手段としてのリアカメラ14A、及びサイドカメラ14L、14Rが設けられており、リアカメラ14Aとサイドカメラ14L、14Rとの間では、少なくとも一部の撮像領域が重複している(重なり合っている)。ここから、後方車両34及び車両12に対する後方車両の距離(車間距離)を含めて検出する場合には、ステレオカメラ方式を適用してもよい。
 本実施形態では、対象検出手段の検出対象として車両12の真後ろを走行する後方車両(以下、後方車両34とする)を適用しており、対象とする後方車両34は、車両12の後方(主に真後ろ)を走行することで、リアカメラ14Aにより撮像される。
 対象検出手段は、少なくとも後方車両34の検出が可能であればよく、本実施形態では、対象検出手段がリアカメラ14Aにより撮像された撮影画像28Aを用いて後方車両34を検出している。なお、対象検出手段には、複数の方式が適用されてもよく、例えば、リアカメラ14Aの撮影画像28Aとミリ波レーダ方式、又はリアカメラ14Aの撮影画像28AとLiDAR方式を併用でき、これにより、検出精度を向上できる。
 車両用視認装置10の視認処理装置18には、対象検出手段を構成する対象検出部38、画像検出手段としての対象抽出部40、及び設定手段としての境界設定部42が形成されている。視認処理装置18では、CPUにより所定のプログラムが実行されることで、対象検出部38、対象抽出部40及び境界設定部42として機能する。
 対象検出部38は、リアカメラ14Aの撮影画像28A及びサイドカメラ14L、14Rの撮影画像28L、28Rを読込み、撮影画像28Aから後方車両34の画像(車両画像34A)を探索し、撮影画像28Aに映っている後方車両34を検出する。なお、後方車両34の検出には、車両(後方車両)について予め記憶されている複数のパターン画像に近似するパターンの画像を探索するパターンマッチング法などの公知の各種の手法を適用できる。
 また、対象抽出部40では、リアカメラ14Aの撮影画像28A及びサイドカメラ14L、14Rの撮影画像28L、28Rを読込み、対象検出部38において検出された後方車両34の車両画像34Aについて、撮影画像28A上における位置(輪郭及び輪郭の領域)を抽出する。この際、対象抽出部40では、複数の後方車両34が検出される場合、車両12に最も近い後方車両34を対象物として検出する。
 また、車両12が走行する道路の路上には、車線44の左右に白線(車線ライン)46L、46Rが標されており、リアカメラ14A及びサイドカメラ14L、14Rは、車線44(白線46L、46R)を含めて車両後方を撮像する(図3参照)。ここから、対象検出部38によって検出された車両を対象の後方車両34とするか否かの判定は、撮影画像28A、28L、28R上の車線44を示す白線46L、46Rを抽出して、後方の車両が車両12と同じ車線44を走行していると見なせる場合、当該車両を後方車両34と判定できる。
 さらに、リアカメラ14Aの撮像範囲は、車両12の車幅方向の中心線に対して予め定まっており、例えば、撮影画像28A上における車幅方向の中心位置が、車両12の中心線に重なる。ここから、対象検出部38によって検出された車両を対象の後方車両34とするか否かの判定は、撮影画像28A上における後方の車両の画像のサイズが所定以上であり、撮影画像28A上における後方の車両の画像の車幅方向中心位置が、撮影画像28Aの中心位置に対して所定の範囲内(例えば、同一の車線44を走行していると見なせる範囲内)である場合、当該車両を後方車両34とすることができる。
 境界設定部42では、対象とする後方車両34が設定(特定)されると、撮影画像28A上における後方車両34の画像位置(車両画像34Aの位置)に応じ、表示画像30Aと表示画像30Lとの画像境界32L、及び表示画像30Aと表示画像30Lとの画像境界32Rの位置を設定する。
 境界設定部42では、画像境界32L、32Rを各々位置Lin~Lout、及び位置Rin~Routの範囲で設定する。この際、車両12の後方に他の車両が走行していない(映っていない)、隣の車線を走行しているなどして後方の他の車両が車両12の真後ろと見なせない位置などである場合、境界設定部42では、画像境界32L、32Rの位置を標準位置に設定する。
 また、境界設定部42では、後方車両34の車両画像34Aに重なることで車両画像34Aが見辛くなってしまうことがない位置に画像境界32L、32Rの各々を設定する。例えば、境界設定部42は、後方車両34が接近して、モニタ16に表示される車両画像34Aが大きくなって、車両画像34Aと画像境界32L及び画像境界32Rの少なくとも一方との間隔dが狭まる。
 境界設定部42は、間隔dが第1間隔となる所与の間隔d1以下(d≦d1)となると、対応する画像境界32(画像境界32L及び画像境界32Rの少なくとも一方)を車幅方向の外側(位置Lout側、位置Rout側)に予め設定された所定の移動量(所定画素数分などのモニタ16上で所定距離、以下、距離dsaとする)だけ移動するように設定する。また、境界設定部42は、後方車両34の車両画像34Aに画像境界32(画像境界32L及び画像境界32Rの少なくとも一方)が重なってしまっていた場合にも、対応する画像境界32を車幅方向の外側に距離dsaだけ移動するように設定する。
 また、境界設定部42では、画像境界32L、32Rが必要以上に車幅方向の外側となるのを抑制する。例えば、後方車両34が離れて、モニタ16に表示される車両画像34Aが小さくなるなどすることで、車両画像34Aと画像境界32L、32Rとの間隔dが開く。これにより、間隔dが第2間隔となる間隔d2以上となると、境界設定部42は、画像境界32L、32Rが標準位置L0、R0に接近するように(車幅方向内側となるように)、画像境界32L、32Rの位置を設定する。この際、境界設定部42は、画像境界32L、32Rを所定の移動量(所定画素数分などのモニタ16上で所定距離、以下、距離dsbとする)だけ移動するように設定する。
 このような間隔d1、間隔d2、距離dsa及び距離dsbは、モニタ16に表示される後方画像において乗員の視認性や後方画像の見た目が損なわれない範囲で予め設定されている。なお、間隔d、距離dsa等は、画像境界32L、32Rの中心位置又は画像境界32L、32Rの車両画像34A側の端部と車両画像34Aの車幅方向の端部との間の寸法(画素数)を適用できる。
 視認処理装置18の画像抽出部24は、境界設定部42で設定された画像境界32L、32Rに基づいて、撮影画像28A、28L、28Rから表示画像30A、30L、30Rの各々を抽出する。これにより、モニタ16には、表示画像30A、30L、30Rが合成された後方画像が表示される。
 次に本実施形態の作用を説明する。
 車両用視認装置10は、例えば、車両12のイグニッションスイッチ(IGスイッチ)がオンされるなどして、モニタ16への画像表示の開始が指示されると動作を開始し、IGスイッチがオフされるなどして画像表示の終了が指示されると、所定時間の経過後に動作を終了する。車両用視認装置10では、動作の開始が指示されるとリアカメラ14A及びサイドカメラ14L、14Rが動作されると共に、視認処理装置18が動作されて、リアカメラ14A及びサイドカメラ14L、14Rの撮影画像がモニタ16に表示される。
 図4Aには、視認処理装置18が動作されることで実行される表示処理の概略が流れ図にて示され、図4Bには、画像境界設定処理の一例が流れ図にて示されている。また、図5A~図5Dには、一例として車両12の後方車両34が撮影画像28Aに撮像されている場合の車両画像34Aに応じたモニタ16の表示が概略図にて示されている。なお、画像境界32L、32Rは、別々に設定されるが、画像境界32L、32Rは、一方が設定されることで、設定された画像境界32L、32Rの一方に合せて、画像境界32L、32Rの他方が設定されてもよい。
 図4Aのフローチャートは、視認処理装置18が動作されると予め設定された時間間隔で実行され、最初のステップ100では、各カメラ14(リアカメラ14A及びサイドカメラ14L、14R)の撮影画像を読込んで所定の画像処理を実行する(ステップ102)。これにより、車両後方の撮影画像28A及び車両側方から後方の撮影画像28L、28Rが取得される。次のステップ104では、撮影画像28A、28L、28Rに対して所定の視点変換処理を行う。
 また、視認処理装置18では、ステップ106において画像境界32(画像境界32L、32R)を設定し、ステップ108において、視点変換処理された撮影画像28A、28L、28Rの各々に対し、設定された画像境界32L、32Rに合せてトリミング処理を行って表示画像30A、30L、30Rを抽出する。次に、視認処理装置18は、ステップ110において表示画像30A、30L、30Rを画像境界32L、32Rにおいて繋合せて、モニタ16に表示する後方画像を生成し、ステップ112において後方画像をモニタ16に表示させる。
 これにより、車室内において乗員の車両前側に取り付けられているモニタ16には、リアカメラ14A及びサイドカメラ14L、14Rの撮影画像28A、28L、28Rから得られる車両12の後方画像が動画像として表示され、モニタ16に表示された後方画像により車室内の乗員の車両後方の視認が補助される。しかも、乗員は、車両左側後方から車両右側後方までの広範囲で視認できる。
 一方、車両用視認装置10では、視認処理装置18において、車両12の後方(略真後ろ)を走行する後方車両34を検出し、後方車両34が検出されると、後方車両34の車両画像34Aに応じた画像境界32L、32Rの設定を行う。これにより、車両用視認装置10では、車両画像34Aが効果的にモニタ16に表示される。
 図4Bのフローチャートは、図4Aにおいてステップ106に移行することで実行され、最初のステップ120において、視認処理装置18では、車両12の後方を走行する車両の検出を行い、ステップ122では、車両12の略真後ろ(真後ろと見なせる位置)を走行する後方車両34が検出されたか否かを確認する。後方車両34は、少なくともリアカメラ14Aに撮像される車両であることから、後方車両34の検出には、撮影画像28Aが用いられており、視認処理装置18では、撮影画像28Aを探索して、後方車両34(後方車両34の車両画像34A)を検出する。
 視認処理装置18では、撮影画像28Aから後方車両34が検出されなかった場合(極めて後方に離れている場合も含む)、ステップ122において否定判定して、ステップ124に移行する。
 ステップ124において、視認処理装置18では、画像境界32(画像境界32L、32R)を標準位置L0、R0に設定し、この後、次の処理に移行する。これにより、通常、モニタ16には、画像境界32L、32Rが標準位置L0、R0とされた後方画像が表示される(図示省略)。
 車両用視認装置10では、画像境界32L、32Rの標準位置L0、R0を各々車両12の車体側面近傍後側における死角が狭められた位置としている。このため、モニタ16には、死角が狭められて車体の左右両側の直近及び左右両側の直近後方が表示されるので、モニタ16に表示される後方画像では、車体の直近や直近の後方が死角となってしまうのが抑制される。これにより、車両用視認装置10では、乗員の後方及び車体近傍の視認を効果的に補助できる。
 一方、車両12の真後ろ(車両12と同じ車線)を走行している後方車両34が検出されていると、視認処理装置18は、ステップ122において肯定判定してステップ126に移行する。ステップ126において視認処理装置18は、後方車両34が映っている撮影画像28Aにおける後方車両34の車両画像34Aを特定する。すなわち、撮影画像28A上における車両画像34Aの位置及び画像範囲(画像サイズ)を特定する。
 撮影画像28A上における後方車両34の車両画像34Aが特定されると、テップ128において、視認処理装置18は、車両画像34Aに応じて画像境界32(画像境界32L、32R)を設定する。この際、画像境界32は、少なくとも後方車両34の車両画像34Aの見た目が損ねられない位置とされる。また、画像境界32は、後方車両34の車両画像34Aに重ならない位置(外れた位置)に設定されることが好ましい。
 例えば、画像境界32L、32Rは、撮影画像28A上において後方車両34の車両画像34Aに対して幅方向(車幅方向)の外側となる位置で標準位置L0、R0又は標準位置L0、R0よりも車幅方向外側)に設定される。この際、画像境界32L、32Rが後方車両34の車両画像34Aに重なっている場合、又は画像境界32L、32Rと後方車両34の車両画像34Aとの間隔dが間隔d1以下(d≦d1)である場合、車両用視認装置10では、該当する画像境界32の位置を現在の位置から距離dsaだけ車幅方向外側(標準位置L0、R0から離れる方向)に移動するように設定する。
 図5A~図5Dには、後方車両34が車両12と同じ車線44を走行しながら、時刻T0(図5A参照)、時刻T1(図5B参照)、時刻T2(図5C参照)、時刻T3(図5D参照)と時間経過(時刻Tの経過)に伴って接近する場合が示されている。
 図5Aに示すように、後方車両34が車両12から比較的離れており、撮影画像28A(表示画像30A)に映っている後方車両34の車両画像34Aが比較的小さく、標準位置L0、R0における画像境界32L、32Rの間に収まっている(重ならない)場合、画像境界32L、32Rは、各々標準位置L0、R0に設定される。
 また、後方車両34が接近すると、モニタ16に表示される車両画像34Aが次第に大きくなる。これにより、図5Bに示すように、車両画像34Aが画像境界32L、32Rも接するように接近した場合(例えば画像境界32Lと車両画像34Aとの間隔d、及び画像境界32Rと車両画像34Aとの間隔dの何れか少なくとも一方が、間隔d1以下(d≦d1)になった場合)、視認処理装置18は、該当する画像境界32(例えば画像境界32R)を距離dsaだけ車幅方向外側に移動するように設定する。
 なお、視認処理装置18では、画像境界32L、32Rごとに車両画像34Aとの間隔dに応じて移動するように設定するが、画像境界32L、32Rを同様の移動量(距離dsaで並行して(同じタイミング)移動するように設定してもよい。また、画像境界32の移動は、車両画像34Aの大きさの変化度合(単位時間当たりの変化量)に応じ、変化度合が大きい場合、変化度合が小さい場合に比して移動する際の距離dsaが大きくなるようにしてもよく、これにより、画像境界32の位置が頻繁に変化して、乗員が煩わしいと感じてしまうのを抑制できる。
 これにより、図5Cに示すように、画像境界32Rが車幅方向の外側に所定量(例えば、距離dsa)だけ移動される。この際、画像境界32Lが移動するための条件を満たしていなければ、画像境界32Lは位置が変更されずに標準位置L0のままとなる。これにより、後方車両34が車両12にさらに接近しても、画像境界32が車両画像34Aに重なってしまって、車両画像34Aの見た目が損ねられてしまうのを抑制できる。
 また、後方車両34がさらに車両12に接近して車両画像34Aが大きくなることで、例えば、車両画像34Aが画像境界32L、32Rに重なったり、車両画像34Aと画像境界32L、32Rとの間隔dが間隔d1以下になったりする。この場合、視認処理装置18は、画像境界32L、32Rの各々を例えば距離dsaだけさらに車幅方向外側に移動するように設定する。
 これにより、図5Dに示すように、画像境界32Lは標準位置L0から位置Loutに向けて移動するように設定され、画像境界32Rは車両画像34Aからさらに離れた位置(例えば、位置Rout)に移動するように設定される。これにより、画像境界32L、32Rは、車両画像34Aから離されて、画像境界32L、32Rが乗員の後方車両34の視認性を低下させるのを抑制する。
 一方、後方車両34が車両12から離れると、モニタ16に表示される車両画像34Aが次第に小さくなり、車両画像34Aと画像境界32との間隔dが大きくなる(広がる)。視認処理装置18では、画像境界32と車両画像34Aとの間隔dが間隔d2以上となると、該当する画像境界32を距離dsbだけ車幅方向内側に移動される。これにより、車両画像34Aが小さくなるにしたがって、画像境界32L、32Rは、標準位置L0、R0に接近するように移動(設定)される。すなわち、視認処理装置18では、標準位置L0、R0から離れていた画像境界32L、32Rを標準位置L0、R0に達するまで、段階的(連続的でもよい)に標準位置L0、R0に向けて移動させる。
 このように車両用視認装置10では、モニタ16に表示される後方画像において、後方車両34の車両画像34Aに画像境界32に重なるのを抑制して、車両画像34Aが見辛くなってしまうのが抑制できる。これにより、車両用視認装置10では、モニタ16に表示される後方車両34の視認性が低下するのが効果的に抑制されて、乗員の後方視界を効果的に補助できる。
 また、車両用視認装置10では、リアカメラ14A及びサイドカメラ14L、14Rの撮影画像28A、28L、28Rの各々から表示画像30A、30L、30Rを抽出し、モニタ16に表示する後方画像を生成する。この際、車両用視認装置10では、撮影画像28Aから後方車両34の車両画像34Aを検出し、モニタ16に表示される車両画像34Aに重ならないように画像境界32を設定する。
 これにより、車両用視認装置10では、モニタ16に表示される後方画像において、車両画像34Aに画像境界32が重なるのが抑制されるので、モニタ16に表示される車両画像34A(後方車両34)の視認性が低下するのを抑制でき、後方車両34の車両画像34Aに画像境界32が重なることによる見栄えの低下を抑制しつつ、乗員の後方車両34の視認を補助できる。
 また、車両用視認装置10では、リアカメラ14Aの撮影画像28Aから後方車両34(車両画像34A)を検出するので、撮像手段とは別に後方車両34を検出するための検出手段を設けることなく、効率的に後方車両34を検出できる。
 また、車両用視認装置10では、後方車両34の車両画像34Aに応じて画像境界32が移動するように設定する際、車両画像34Aと画像境界32とが大きく離れてしまうのを抑制する。これにより、車両用視認装置10では、画像境界32(画像境界32L、32Rが標準位置L0、R0から離れすぎて、死角が大きくなってしまうのを抑制できるので、乗員の視認を確実に補助できる。
 一方、以上の説明では、画像境界32L、32Rが車両画像34Aに重ならないように標準位置L0、R0から位置Lout、Routの範囲で画像境界32L、32Rを設定(移動)させた。この際、画像境界32L、32Rが車両画像34Aから離れすぎたり接近しすぎたりしないように設定した。しかし、画像境界32L、32Rが車両画像34Aに重なった状態でも、重なりが少なければ視認性や見た目に対する影響が少ない。
 例えば、車両画像34Aに画像境界32が重なることで、モニタ16に表示される車両画像34A(表示画像30Aの車両画像34A)の画像サイズ(例えば、車両画像34Aの車幅方向の寸法。車両画像34Aの画像面積でもよい)が変化する。
 ここから、後方車両34の車両画像34Aについて撮影画像28A上の車両画像34Aの画像サイズに対する表示画像30A上の車両画像34Aの画像サイズの割合から画像境界32を移動するか否かを判定することができる。この場合、モニタ16に表示された後方画像において、車両画像34Aに画像境界32が重なっても、乗員の視認性や後方画像の見た目が損なわれないと判定し得る割合(しきい値)を予め設定しておく。車両用視認装置10では、このしきい値が変更可能であってもよい。
 車両用視認装置10では、リアカメラ14Aの撮影画像28Aにおける車両画像34Aの画像サイズを取得すると共に、表示画像30Aにおける車両画像34Aの画像サイズを取得する。また、車両用視認装置10では、リアカメラ14Aの撮影画像28Aにおける車両画像34Aの画像サイズに対する表示画像30Aにおける車両画像34Aの画像サイズの割合を演算する。この後、車両用視認装置10では、演算した割合がしきい値以下になった場合に、新たに画像境界32を設定する。
 これにより、演算した割合がしきい値以下となって画像境界32が設定されることで、モニタ16に表示される後方画像において車両画像34Aが大きく欠けたり、画像境界32が乗員に煩わしさを感じさせたりするのを抑制できて、モニタ16に表示する後方画像により乗員の視認を補助できる。
 また、車両12の後方を走行している車両には、車両12と同じ車線44を走行している車両に限らず、車両12の車線44の隣の車線を走行している車両や、車線44と隣の車線とを跨いで走行している車両等がある。
 後方の車両が車両12の真後ろ(同じ車線44)を走行する後方車両34であるか否かの判定には、リアカメラ14Aの撮影画像28A上における画像から判定してもよい。この場合、例えば、後方の車両が車両12に接近していて、白線46L、46Rが見辛くなっていても、後方の車両が後方車両34であるか否かを的確に判定できて、画像境界32L、32Rにより後方車両34の車両画像34Aの見栄えが損ねられるのを抑制できる。
 一方、車線44が複数に分けられている道路では、車両12と同じ車線44の後方車両34より、車両12に近い後方車両(以下、後方車両48とする)が走行している場合がある。
 ここで、車両用視認装置10における画像境界32の設定処理の変形例として、車両12の後方車両34及び後方車両48が走行している場合を説明する。
 図6には、変形例に係る画像境界設定処理の一例が流れ図にて示されている。また、図7A~図7D及び図8A~図8Dには、車両12と同じ車線44を後方車両34が走行し、車両12の隣(右隣)の車線44Aを後方車両48が走行している場合のモニタ16の表示が概略図にて示されている。
 なお、後方車両48の検出(後方車両48の車両画像48Aの検出)には、撮影画像28L、28Rが用いられる。また、図6において図4Bと同様の処理には、図4Bと同様のステップ番号(符号)を付与してその詳細な説明を省略している。さらに、変形例では、一方の画像境界32Rの設定を説明し、他方の画像境界32Lの図示及び説明を省略するが、他方の画像境界32Lは、画像境界32Rに合せて設定されてもよい。
 図6は、図4Bに代えて用いられ、図4Aのステップ106に移行することにより実行される。図6のフローチャートの最初のステップ130において、視認処理装置18は、リアカメラ14A及びサイドカメラ14Rの撮影画像28A、28R(サイドカメラ14Lの撮影画像28Lを含めてもよい)から車両12の後方を走行する後方車両(後方車両34、48)の検出処理を行う。また、車両用視認装置10では、ステップ132において後方の車両(後方車両34及び後方車両48の少なくとも一方)が検出されたか否かを確認し、ステップ134では、車両12と同じ車線44を走行する後方車両34が検出されているか否かを確認する。
 後方車両34及び後方車両48の検出において、視認処理装置18は、車両12が走行している車線44の左右の白線46L、46Rを撮影画像28A、28Rから車線44、44Aを特定する。また、視認処理装置18は、車線44(白線46L、46Rの間)を走行している車両を後方車両34として特定し、白線46Rを挟んで車線44とは反対側の車線44Aを走行している車両を後方車両48として特定する。
 ここで、視認処理装置18は、後方車両34、48の何れも検出されなかった場合(極めて後方に離れている場合も含む)、ステップ132において否定判定して、ステップ124に移行する。これにより、画像境界32Rは、各々標準位置R0に設定される。
 また、視認処理装置18は、検出された車両に車線44を走行している後方車両34が含まれると、ステップ132において肯定判定すると共に、ステップ134において肯定判定して、ステップ126に移行する。視認処理装置18は、ステップ126及びステップ128を順に実行し、後方車両34の走行状態に基づいた画像境界32Rの設定を行い、ステップ138に移行する。これにより、視認処理装置18は、後方車両34の車両画像34Aに応じ、画像境界32Rを標準位置R0~位置Routの範囲で設定する。
 後方車両34が検出されていないと、視認処理装置18は、ステップ134で否定判定してステップ136に移行し、画像境界32Rを標準位置R0に設定し、ステップ138に移行する。また、ステップ138において、視認処理装置18は、隣の車線44Aを走行する後方車両48(後方車両48の車両画像48A)を検出しているか否かを確認し、ステップ140では、車線44Aの後方車両48が後方車両34に比して車両12に接近しているか否かを確認する。この際、後方車両48が検出されていないと、視認処理装置18は、ステップ138において否定判定して、次の処理を開始する。また、後方車両48が後方車両34よりも車両12から離れていると、視認処理装置18は、ステップ138で肯定判定し、ステップ140において否定判定して、次の処理に移行する。
 これに対して、後方車両48が後方車両34よりも車両12に接近していると、モニタ16には、後方車両34の車両画像34Aに比して後方車両48の車両画像48Aが大きく表示される。この場合、視認処理装置18は、ステップ138及びステップ140の各々において肯定判定してステップ142に移行する。ステップ142において視認処理装置18は、後方車両48の全幅が映っている撮影画像を特定し、特定した撮影画像上において後方車両48の車両画像48Aに重ならないように画像境界32Rの位置を設定する。この際、後方車両48の車両画像48Aが、撮影画像28Aに映っているか、又は撮影画像28A、28Rに跨って映っている状態で、撮影画像28Aに映っている割合が大きい場合、視認処理装置18は、後方車両48の映っている撮影画像として撮影画像28Aを特定する。また、後方車両48の車両画像48Aが、撮影画像28Rに映っているか、又は撮影画像28A、28Rに跨って映っている状態で撮影画像28Rに映っている割合が大きい場合、視認処理装置18は、後方車両48の映っている撮影画像として撮影画像28Rを特定する。
 次のステップ144において、視認処理装置18は、特定した撮影画像(撮影画像上の車両画像48Aに応じて画像境界32Rを設定する。この際、撮影画像として撮影画像28Aが特定されている場合、視認処理装置18は、画像境界32Rを標準位置R0よりも車幅方向外側の位置(例えば、位置Rout)に設定する。また、撮影画像として撮影画像
28Rが特定されている場合、視認処理装置18は、画像境界32Rを標準位置R0に設定する。
 このようにして画像境界32Rが設定されることで、後方車両48が後方車両34よりも車両12側であると、画像境界32Rは、図7A~図7D又は、図8A~図8Dに示すように変化する。なお、図7A~図7D及び図8A~図8Dでは、時刻T0(図7A、図8A参照)、時刻T4(図7B、図8B参照)、時刻T5(図7C、図8C参照)及び時刻T6(図7D、図8D参照)と時間経過に伴って後方車両48の走行位置が変化する場合が示されている。
 図7A~図7Dには、後方車両48が車両12に接近する場合が示されている。図7A~図7Cに示すように、後方車両48が比較的車両12から離れており、モニタ16に表示される後方車両48の車両画像48Aが比較的小さい場合(車両画像48Aが撮影画像28A上にある場合)、画像境界32Rは標準位置R0よりも車幅方向の外側の位置(例えば、位置Rout)に設定されて、後方車両48の車両画像48Aが表示画像30Aに表示される。これに対して、図7Dに示すように、後方車両48が車両12に接近し、モニタ16に表示される後方車両48の車両画像48Aが比較的大きくなると(車両画像48Aが撮影画像28R上となると)、画像境界32Rは標準位置R0に移動される。
 これにより、車両用視認装置10では、画像境界32Rが車両12に接近する後方車両48の車両画像48Aに重なってモニタ16に表示されるのを抑制できるので、画像境界32Rが後方車両48の車両画像48Aの見栄えを悪くしてしまう(見難くしてしまう)のを抑制できて、乗員の後方視認を効果的に補助できる。しかも、後方車両48が車両12に接近すると、画像境界32Rが標準位置R0となるので、モニタ16に表示される後方画像では、車体右後側近傍の死角が狭められ、乗員の視認を効果的に補助できる。
 一方、後方車両48が車両12から離れる際、図8Aから図8Cに示すように、後方車両48が撮影画像28Rに映っている場合、車両用視認装置10では、画像境界32が位置Routよりも車幅方向内側(標準位置R0側)に設定される。これにより、モニタ16には、表示画像30Rに後方車両48の車両画像48Aが映っている後方画像が表示される。この際、図8B及び図8Cに示すように、車両用視認装置10は、後方車両48が車両12から離れても、後方車両48が主に撮影画像28Rに映っている間は、画像境界32Rを位置Routよりも車幅方向内側に設定する(保持する)。
 これに対して、図8Dに示すように、後方車両48が車両12から離れて撮影画像28Aに映るようなると、車両用視認装置10では、画像境界32が位置Rout側(位置Routでもよい)に移動するように設定される。これにより、モニタ16には、表示画像30Aに後方車両48の車両画像48Aが映っている後方画像が表示される。この際、図8Cに示すように、後方車両48が撮影画像28A、28Rに跨っている場合、車両用視認装置10では、画像境界32Rを位置Routよりも車幅方向内側に保持してもよい。
 このように変形例において、車両用視認装置10は、後方車両34、48の車両画像34A、48Aの各々が画像境界32Rに重なるのを効果的に抑制できる。これにより、後方車両34、48の車両画像34A、48Aに画像境界32が重なることによる見栄えの低下を抑制できて、乗員の視認性の低下を抑制できるので、乗員の後方車両34、48の視認を効果的に補助できる。
 2021年8月24日に出願された日本国特許出願特願2021-136228号の開示は、その全体が参照により本明細書に取り込まれる。

Claims (8)

  1.  車両後方を撮像した第1撮影画像を出力する第1撮像手段、及び撮像領域の一部が前記第1撮像手段の撮像領域に重なるように車体側方から車両後方側を撮像した第2撮影画像を出力する第2撮像手段を含む撮像部と、
     前記第1撮影画像と前記第2撮影画像との重なり領域に設定された画像境界を境界とし、前記画像境界に応じて前記第1撮影画像から第1表示画像を抽出すると共に前記第2撮影画像から第2表示画像を抽出し、前記第1表示画像と前記第2表示画像とを繋げた後方画像を乗員に視認可能に表示媒体に表示する表示部と、
     前記第1撮影画像に含まれる自車の後方車両の画像を検出する対象検出手段と、
     前記対象検出手段により検出された前記後方車両の画像が前記第1表示画像に配置されるように前記後方車両の画像位置に応じて前記画像境界を設定する設定手段と、
     を含む車両用視認装置。
  2.  前記対象検出手段は、前記第1撮影画像及び前記第2撮影画像から前記後方車両を検出する請求項1に記載の車両用視認装置。
  3.  前記設定手段は、前記第1撮影画像上における前記後方車両の画像サイズに対する前記後方画像における前記第1表示画像上の前記後方車両の画像サイズの割合が予め設定している割合以下となった場合に、前記画像境界の位置を変更する請求項1又は請求項2に記載の車両用視認装置。
  4.  前記設定手段は、前記後方画像上における前記後方車両の画像と前記画像境界との間隔が第1間隔以下となる場合、所定位置まで車幅方向外側に移動するように前記画像境界の位置を変更する請求項1又は請求項2に記載の車両用視認装置。
  5.  前記設定手段は、前記画像境界の位置を移動する際、予め設定された量だけ車幅方向外側に移動するように変更する請求項1から請求項4の何れか1項に記載の車両用視認装置。
  6.  前記設定手段は、前記第1撮影画像上において前記後方車両の画像が検出されない場合、前記画像境界の位置を前記重なり領域内において予め設定している標準位置に変更する請求項1から請求項5の何れか1項に記載の車両用視認装置。
  7.  前記設定手段は、前記後方車両の画像と前記画像境界との間隔が予め設定している第2間隔を超える場合、前記画像境界の位置を前記重なり領域内において予め設定している標準位置に接近するように変更する請求項1から請求項6の何れか1項に記載の車両用視認装置。
  8.  前記設定手段は、前記画像境界の位置を予め設定された量だけ車幅方向内側となるように変更する請求項7に記載の車両用視認装置。
PCT/JP2022/026622 2021-08-24 2022-07-04 車両用視認装置 WO2023026696A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202280057393.2A CN117859323A (zh) 2021-08-24 2022-07-04 车辆用视觉识别装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-136228 2021-08-24
JP2021136228A JP2023030856A (ja) 2021-08-24 2021-08-24 車両用視認装置

Publications (1)

Publication Number Publication Date
WO2023026696A1 true WO2023026696A1 (ja) 2023-03-02

Family

ID=85322720

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/026622 WO2023026696A1 (ja) 2021-08-24 2022-07-04 車両用視認装置

Country Status (3)

Country Link
JP (1) JP2023030856A (ja)
CN (1) CN117859323A (ja)
WO (1) WO2023026696A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018012299A1 (ja) * 2016-07-13 2018-01-18 ソニー株式会社 画像生成装置、画像生成方法、及び、プログラム
JP2018074503A (ja) * 2016-11-02 2018-05-10 株式会社東海理化電機製作所 車両用視認装置及び車両用視認画像表示方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018012299A1 (ja) * 2016-07-13 2018-01-18 ソニー株式会社 画像生成装置、画像生成方法、及び、プログラム
JP2018074503A (ja) * 2016-11-02 2018-05-10 株式会社東海理化電機製作所 車両用視認装置及び車両用視認画像表示方法

Also Published As

Publication number Publication date
JP2023030856A (ja) 2023-03-08
CN117859323A (zh) 2024-04-09

Similar Documents

Publication Publication Date Title
KR100936558B1 (ko) 차량용 주변 감시 장치 및 영상 표시 방법
US10029621B2 (en) Rear view camera system using rear view mirror location
CN104185010B (zh) 在前方路缘观察系统中的增强的立体视图生成
US8633810B2 (en) Rear-view multi-functional camera system
JP4412380B2 (ja) 運転支援装置、運転支援方法及びコンピュータプログラム
KR101243108B1 (ko) 차량의 후방 영상 표시 장치 및 방법
JP3695319B2 (ja) 車両周辺モニタ装置
EP3378702B1 (en) Viewing device for vehicle
US20150042799A1 (en) Object highlighting and sensing in vehicle image display systems
JP5953824B2 (ja) 車両用後方視界支援装置及び車両用後方視界支援方法
US20080198226A1 (en) Image Processing Device
JP2009206747A (ja) 車両用周囲状況監視装置及び映像表示方法
JP5136071B2 (ja) 車両用後方監視装置および車両後方監視方法
RU2713262C1 (ru) Устройство вывода изображения на дисплей
US20180208115A1 (en) Vehicle display device and vehicle display method for displaying images
US20200361382A1 (en) Vehicular visual recognition device
WO2023026696A1 (ja) 車両用視認装置
US11323633B2 (en) Automated creation of a freeform mask for automotive cameras
JP2007025739A (ja) 車両用画像表示装置
JP7347330B2 (ja) 車両周辺監視装置
JP7327171B2 (ja) 車両用電子ミラーシステム
JP2018074503A (ja) 車両用視認装置及び車両用視認画像表示方法
CN111886858B (zh) 车辆用影像系统
JP2023061207A (ja) 車両用視認装置
JP5907405B2 (ja) 画像解析装置及びこれを用いた物体検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22860987

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280057393.2

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE