WO2005079060A1 - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
WO2005079060A1
WO2005079060A1 PCT/JP2005/002287 JP2005002287W WO2005079060A1 WO 2005079060 A1 WO2005079060 A1 WO 2005079060A1 JP 2005002287 W JP2005002287 W JP 2005002287W WO 2005079060 A1 WO2005079060 A1 WO 2005079060A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
camera
imaging
vehicle
Prior art date
Application number
PCT/JP2005/002287
Other languages
English (en)
French (fr)
Inventor
Hirofumi Ishii
Kazufumi Mizusawa
Tuyoshi Okada
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP05710237.8A priority Critical patent/EP1718062B1/en
Priority to US10/597,922 priority patent/US20080151053A1/en
Publication of WO2005079060A1 publication Critical patent/WO2005079060A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/101Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using cameras with adjustable capturing direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint

Definitions

  • the present invention relates to a driving support device, and for example, relates to a driving support device that captures an image of the periphery of a vehicle and displays the image on a display unit in the vehicle.
  • mirrors such as a fender mirror and a rearview mirror have been used to compensate for a driver's blind spot, such as behind, behind, or to the left of a vehicle. It is conceivable to install a camera in This system uses a camera installed in the vehicle to capture an image of the surroundings of the vehicle and displays the obtained image on a monitor screen to assist the driver in operating the vehicle.
  • a lens and an image pickup element are provided at the tip of a rod shape so as to monitor the surroundings of a vehicle with a higher degree of freedom, thereby increasing safety. It is even higher.
  • Patent Document 3 discloses a position setting device that sets a monitoring camera at a position of an observation target by installing a monitoring camera on a telescopic shaft, and a reference image setting device that sets a reference image serving as a reference for monitoring the observation target.
  • the surveillance camera includes a frame memory unit for storing a monitoring image of the observation target input from the lens unit, a detection region specifying unit for setting a detection region in the monitoring image of the observation target, and a monitoring image.
  • the reference video were determined based on the video in the detection area, and it was determined that there was a correlation.
  • a correlation control unit that updates the contents of the frame memory unit is provided, so that the monitoring video can be prevented from being disturbed due to the rod swing and the monitoring work efficiency can be improved.
  • Patent Document 1 JP-A-2-6417
  • Patent Document 2 JP-A-2003-63310
  • Patent Document 3 JP-A-09-312836
  • Patent Document 3 when the vehicle disclosed in Patent Document 3 is applied to a vehicle, a road surface around a vehicle to be monitored, another vehicle, or an obstacle moves due to the movement of the own vehicle due to driving. However, a problem arises in that it is not possible to prevent the monitoring video from being disturbed due to rod shaking.
  • the shake correction used in a movie camera or the like is performed, as shown in FIG. 22, with respect to a shake 4 in which the viewpoint position is constant and only the line of sight rotates.
  • the shaking is corrected by image processing, but this is effective because the changes on the images of the objects 2 and 3 at different distances from the shaking 4 are the same.
  • the rod sway includes the swaying 5 of the viewpoint position.In this case, the influence (the amount of swaying) of the objects 6 and 7 at different distances on the image differs depending on the distance. Therefore, the conventional shake correction is not generally effective.
  • the present invention has been made to solve such a problem, and provides a driving support device capable of preventing a disturbance of an image due to a swing of a rod-shaped holding unit and obtaining a good image. It is.
  • a driving assistance device includes a rod-shaped holding unit protruding from a vehicle, an imaging unit installed on the holding unit, and imaging the periphery of the vehicle, and correcting shaking of a plane at a specific distance from the imaging unit. And a shake correction image processing means for processing and outputting an image captured by the imaging means as an amount.
  • the monitoring unit assuming a specific distance plane, for example, a road surface from the image pickup unit.
  • the shaking of the image by the elephant can be suppressed as much as possible, and a good image can be obtained.
  • the shake correction image processing means tracks a plurality of characteristic points set in the own vehicle, thereby rotating the imaging means provided in the holding means. A force for detecting the fluctuation and the position fluctuation, and compensating so as to cancel the influence of the detected rotation fluctuation and the position fluctuation of the imaging means on an image up to a specific distance plane.
  • the driving support device of the present invention includes a detecting unit that detects a rotation fluctuation and a position fluctuation of the imaging unit, and the vibration correction image processing unit includes the imaging unit that is detected by the detection unit. It is configured to correct shaking so as to cancel the shaking on the image generated at a specific distance plane from the imaging means due to the rotation shaking and the position shaking.
  • the rotation fluctuation and the position fluctuation of the imaging unit are directly detected by the detection unit, and the fluctuation of the image on the monitoring target assuming a specific distance plane, for example, a road surface, from the imaging unit is minimized. And a good image can be obtained.
  • the shaking correction image processing means does not generate shaking after projecting and transforming the captured image from the imaging means to a specific distance plane! / ⁇
  • the ability to perform image synthesis for back projection conversion to the virtual imaging means is also configured.
  • the projected image is projected and transformed assuming a specific distance plane such as a road surface, and the backprojection transformation is performed.
  • a specific distance plane such as a road surface
  • the driving support device of the present invention includes a distance measuring unit that measures a distance from the imaging unit with respect to an imaging range of the imaging unit, and the shake correction image processing unit includes the distance measuring unit.
  • the specific distance plane is made variable based on the detection information.
  • the shake correction image processing means assumes a plurality of distance planes, and determines the influence of the position fluctuation and the rotation fluctuation of the imaging means on each of the distance planes. After judging that the corrected image and the predicted image predicted using the past image based on the movement of the own vehicle match each other, a corrected image of a distance plane that best matches each part of the screen of the imaging unit is selected and corrected. It is composed of those that combine images.
  • the driving support device of the present invention includes a vibration unit that vibrates the holding unit, and the shake correction image processing unit performs the vibration when the vibration unit vibrates the holding unit.
  • the specific distance plane is detected from the amount of shake of the captured image with respect to.
  • the image pickup means is caused to oscillate, and the distance from the image pickup means can be detected based on the amount of image sway caused by the vibration. Can be detected as a road surface or an obstacle.
  • the driving support device of the present invention is configured to include a display unit that displays an image captured by the imaging unit.
  • the present invention can provide a driving support device that can prevent a disturbance of an image due to a swing of a rod-shaped holding unit and obtain a good image.
  • FIG. 1 is a diagram showing a driving assistance device according to a first embodiment of the present invention, wherein (a) is a schematic front view of a vehicle when a rod portion is extended, and (b) is a diagram showing the rod portion. Schematic side view of vehicle when extended
  • FIG. 2 is a view showing a driving assistance device according to a first embodiment of the present invention, wherein (a) is a schematic front view of the vehicle when the rod portion is reduced, and (b) is a diagram showing the rod portion. Schematic side view of vehicle when reduced
  • FIG. 3 is a diagram showing an image captured by a camera of the driving assistance device according to the first embodiment of the present invention.
  • FIG. 4 is a diagram for explaining a method of estimating a shaking on a road surface by tracking two characteristic points in an image in the driving assistance device according to the first embodiment of the present invention
  • FIG. 5 is a diagram showing an example in which a counterweight is separately attached when a camera is attached to the rod portion of the driving assistance device according to the first embodiment of the present invention.
  • FIG. 6 is a view showing a driving assistance device according to a second embodiment of the present invention, wherein (a) is a schematic front view of a vehicle provided with the driving assistance device, and (b) is a driving assistance device. Schematic side view of equipped vehicle
  • FIG. 7 is a block diagram of a driving support device according to a second embodiment of the present invention.
  • FIG. 8 is a diagram for explaining an operation of a shake correction process of the driving support device according to the second embodiment of the present invention.
  • FIG. 9 is a block diagram of another configuration of the driving assistance device according to the second embodiment of the present invention.
  • FIG. 10 is a vibration correction of the driving assistance device according to the second embodiment of the present invention. Diagram showing other steps of processing
  • FIG. 11 is a diagram showing a driving assistance device according to a third embodiment of the present invention, wherein (a) is a schematic front view of a vehicle provided with the driving assistance device, and (b) is a device provided with the driving assistance device. Schematic side view of a damaged vehicle
  • FIG. 12 is a schematic diagram for explaining operations of a distance measurement sensor and a shake correction image processing unit of the driving assistance device according to the third embodiment of the present invention.
  • FIG. 13 is an output image of the driving support device according to the third embodiment of the present invention, and Output image when there is no obstacle (b) Output image when obstacle is detected
  • FIG. 14 is a diagram showing a driving assistance device according to a fourth embodiment of the present invention, wherein (a) is a schematic front view of a vehicle provided with the driving assistance device, and (b) is a diagram provided with the driving assistance device. Schematic side view of vehicle
  • FIG. 15 is a block diagram of a driving assistance device according to a fourth embodiment of the present invention.
  • FIG. 16 is a diagram showing a shake correction process of the driving support apparatus according to the fourth embodiment of the present invention
  • FIG. 16 (a) is a diagram showing a camera and a projection range when projecting and transforming a captured image
  • FIG. Figures in parentheses show the virtual camera and backprojection range when backprojecting the captured image.
  • FIG. 17 is a diagram showing an output image of the driving support device according to the fourth embodiment of the present invention.
  • FIG. 18 shows another example of the driving support device according to the fourth embodiment of the present invention.
  • FIG. 19 is a diagram showing a driving assistance device according to a fifth embodiment of the present invention, where (a) is a schematic front view of a vehicle provided with the driving assistance device, and (b) is a device provided with the driving assistance device. Schematic side view of a damaged vehicle
  • FIG. 20 is a block diagram of a driving assistance device according to a fifth embodiment of the present invention.
  • FIG. 21 is a diagram for explaining the shake correction processing of the driving assistance device according to the fifth embodiment of the present invention, and (a) is a diagram showing the positional relationship between the obstacle and the camera when the camera is vibrated. (B) shows the relationship between amplitude and time when the camera is vibrated
  • Fig. 22 is a diagram for explaining a general shake correction used in a movie camera, etc.
  • Fig. 23 is a diagram for explaining a camera's viewpoint shake when the rod portion shakes.
  • Shake correction image processing unit shake correction image processing means, distance detection means
  • FIGS. 1 and 2 are views showing a first embodiment of a driving support device according to the present invention.
  • the driving assistance device is provided with a telescopic rod portion (rod-like holding means) 12 protruding from a bumper 1 la of a vehicle 11, and is installed at the tip of the rod portion 12 so as to surround the vehicle 11.
  • a camera 13 as an image pickup means for picking up an image, and an image picked up by the camera 13, and a shake correction image processing unit (shake) that translates and outputs a captured image from the camera 13 with a shake of a specific distance plane as a correction amount.
  • (Corrected image processing unit) 14 and a display 15 provided in the vehicle cabin and serving as display means for displaying an image in which the shaking has been corrected.
  • the sway correction image processing unit 14 tracks the two feature points set on the vehicle 11 to determine the rotation sway and position sway of the camera 13 provided on the rod unit 12. Detected and corrected so as to cancel out the influence on the image from the camera 13 to the specific distance plane due to the detected rotational and positional fluctuations of the camera 13! / ,.
  • the bumper 11a is provided with a rod storage / holding portion 16, and the rod portion 12 is supported by the port storage / holding portion 16 and, when reduced in the longitudinal direction, together with the camera 13 as a rod storage / holding portion. It is now stored in the holder 16!
  • the rod portion 12 is installed inside a bumper 11a at the left front corner of the vehicle 11, and projects from above the bumper 1la at the left front corner of the vehicle 11 during imaging as shown in FIG.
  • the camera 13 captures an image from that position and presents an image of the blind spot on the left front to the driver at the time of parking operation or through.
  • the camera 13 is stored in the bumper 11a by being stored in the rod storage holder 16 as shown in FIG.
  • FIGS. 3 and 4 are diagrams showing the shake correction processing of the shake correction image processing unit 14.
  • FIG. 1 the vehicle below the rod portion 12 in the extended state is provided with markers 117 and 18 which are vertically separated from each other.
  • the camera 13 is moved to the position shown in FIG. Shown in An image is taken.
  • FIG. 3 is a diagram showing a captured image at this time. The camera 13 captures images of the markers 17, 18, the road surface 19, the white line 20 on the road surface 19, the rod portion 12, and the bumper 11 a of the host vehicle 11.
  • the sway correction image processing unit 14 tracks the movement of the markers 17 and 18 in the captured image to detect the position sway and rotation sway of the camera 13, and from the result, the height of the road surface 19 in FIG. This is corrected by assuming the effect of shaking on the image.
  • the road surface 19 in Fig. 3 and the white line 20 on the road surface 19 are corrected for image shaking due to the shaking of the rod portion 12, and only move in accordance with the movement of the own vehicle 11 due to the driving operation. The visibility of the diver is improved.
  • FIG. 4 shows a method of estimating the shaking on the road surface 19 by tracking the markers 17 and 18 which are the two characteristic points of the vehicle 11.
  • the markers 17 and 18 are provided at a distance from each other in the vertical direction of the vehicle 11, and the distances from the camera 13 to the markers 17 and 18 and the road surface 19 are indicated by Zl, Z2 and ZO, respectively.
  • the camera 13 has a lens pointing directly below, and the camera 13 shake is assumed to be the horizontal position shake Dx and the rotation shake Ax of the camera 13, and the image shake is assumed to be a linear sum of the effects of these shakes. I do.
  • the sway correction image processing unit 14 can create an output image in which the sway is corrected by the parallel movement of the input image using the assumed sway ⁇ ⁇ on the road surface as a correction amount.
  • the image is two-dimensional (X, ⁇ ) information, so when the X direction is the horizontal direction, the ⁇ direction is the vertical direction. By performing the same operation, you can correct the shaking in the X and Y directions.
  • This method is effective mainly for an image close to the optical axis of the camera 13 and is a force that causes an error in the correction amount as the imaging symmetry is separated from the optical axis. Still, the input fluctuation is 1Z2 to 1Z4 or less. If the correction can be made to, the visual visibility is improved, which is effective.
  • the rod-shaped rod portion 12 protruding from the vehicle 11, the camera 13 installed on the rod portion 12 and imaging the periphery of the vehicle 11, and the image captured by the camera 13
  • An image is input, and a shaking correction image processing unit 14 that translates and outputs a captured image as a correction amount XO with shaking of the road surface (specific distance surface) 19 from the camera 13 is provided, so that the rod unit 12 shakes.
  • a shaking correction image processing unit 14 that translates and outputs a captured image as a correction amount XO with shaking of the road surface (specific distance surface) 19 from the camera 13 is provided, so that the rod unit 12 shakes.
  • the shake correction image processing section 14 tracks the plurality of markers 17 and 18 set on the host vehicle 11 to rotate the camera 13 provided on the rod section 12.
  • the swing Ax and the position swing Dx are detected, and the detected rotation swing Ax and the position swing DX of the camera 13 are corrected so as to cancel the influence on the image from the camera 13 to the road surface 19, so that the road surface 19 is corrected.
  • the image taken by camera 13 is displayed on display 15, so that the situation around vehicle 11 can be easily visually recognized, and driving safety can be improved. Can be further secured.
  • the shake correction image processing unit 14 of the present embodiment translates the captured image as the correction amount XO from the camera 13 and outputs the captured image as the correction amount XO. It is not possible to cope with the case where the rotation sway occurs around the center, but in this case, the camera 13 should not cause the rotation sway in the optical axis direction as shown in FIG.
  • the counterweight 21 when attaching the camera 13 to the rod portion 12, the counterweight 21 may be attached to the tip of the rod portion 12 so as to be located on the opposite side to the camera 13.
  • the above-described shake correction method uses a force that corrects the shake by independently translating the image in the X direction and the Y direction.
  • this rotational fluctuation R occurs, the captured image undergoes rotational fluctuation around the screen center point, and therefore cannot be corrected by parallel movement.
  • the center of gravity 27 of the counterweight 21 is set at a position symmetrical to the position of the center of gravity 22 of the camera 13 in order to suppress the rotational sway R.
  • the center of the rod part 12 is matched.
  • the rotational moments 25 and 28 generated in the camera 13 and the counterweight 21 by the acceleration / deceleration 23 of the vehicle 11 cancel each other out, so that the rotational fluctuation R around the optical axis of the camera 13 hardly occurs.
  • the counterweight 21 can suppress the rotational fluctuation R around the optical axis direction of the camera 13, and can obtain a higher correction effect and a vibration-corrected image.
  • FIGS. 6 to 10 are diagrams showing a second embodiment of the driving support device according to the present invention.
  • the same components as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted. I do.
  • an acceleration sensor (detection means) 31 is provided at the same position as the camera 13 at the tip of the rod 12, and the acceleration sensor 31 detects the position fluctuation and the rotation fluctuation of the camera 13. The detection information is output to the shake correction image processing unit 14.
  • the shake correction image processing unit 14 of the present embodiment includes a projection conversion unit 32 and a back projection conversion unit 33, and is located at a specific distance from the camera 13, for example, a road surface 19
  • the backprojection conversion unit 33 performs image synthesis for performing backprojection conversion on a virtual imaging device that does not cause vibration, thereby performing shake correction.
  • FIG. 7 is a block diagram of the shake correction image processing unit 14, and FIG. 8 is a conceptual diagram for explaining the shake correction of the shake correction image processing unit 14.
  • the camera 13 is installed such that its optical axis is inclined slightly forward from slightly below and leftward.
  • the camera 13 During driving, the camera 13 generates a position sway Dx and a rotation sway Ax, and the sway information 34 is detected by the acceleration sensor 31 and then input to the sway correction image processing unit 14.
  • the sway correction image processing unit 14 uses the image 35 captured by the camera 13 and the sway information 34 indicating the amount of sway of the position sway Dx and the rotation sway Ax input from the acceleration sensor 31 in accordance with the algorithm shown in FIG. And outputs a corrected image.
  • the camera 13 uses a wide-angle lens having a horizontal angle of view of 110 ° to 140 °. In the case of such a wide-angle lens, lens distortion is unavoidable.
  • the lens data 36 such as the angle of view and the angle of view are stored in the shake correction image processing unit 14.
  • the position and angle of the camera 13 at the time when the captured image 35 is obtained are obtained using the position fluctuation Dx and the rotation fluctuation Ax input from the acceleration sensor 31 based on the camera initial position data 38. Calculation is performed, the lens distortion is corrected and the position and rotation are corrected based on the data.
  • the camera 13 at the initial position 13a changes to the camera position 13b or the camera position 13c by the position shaking Dx and the rotation shaking Ax. Based on this position, the captured image is projected and transformed as indicated by W on the road surface 19 with the reference point 39 of the vehicle 11 as the origin.
  • an image projected and converted as indicated by W on a road surface 19 having a reference point 39 of the vehicle body as an origin is further converted to a virtual camera having lens data 37 set at a virtual viewpoint 41.
  • the image that would be captured at 42 is synthesized by the backprojection transformation unit 33.
  • the shaking is corrected at the time when the input image is projected and transformed on the road surface 19, so that the image captured by the virtual camera 42 is synthesized by the back projection transformation and output on the output image. It is possible to obtain a good image in which the fluctuation is corrected.
  • the camera 13 by using the lens data 36 of the camera 13, a good image with less shaking is obtained not only near the center of the image but also on the entire screen as in the first embodiment. be able to. [0065] Also, by a configuration in which the image is viewed once from the virtual viewpoint 41 and then combined by the backprojection conversion unit 33, the camera 13 is not directly below the camera 13 as in the first embodiment. Even when the road is set to, the sway can be corrected with the road surface 19 as the specific distance surface. Therefore, since the camera 13 can be directed obliquely left forward, it is possible to monitor the surroundings in a wider range.
  • the camera virtual viewpoint data 40 may be the same as the viewpoint at the initial position of the camera 13 in the case where the camera does not swing as shown by W in FIG.
  • the camera 13 may be different from the initial position.
  • the lens data 37 may be the same as the actual lens data 36 of the camera 13, or may be different. For example, as shown in FIG. 8 (b), by using lens data 37 assuming a lens having an angle of view 44 slightly smaller than the actual angle of view 43 of the wide lens of the camera 13, the output image by shaking correction can be used. Can be prevented from being lost in the peripheral portion of the device.
  • the position fluctuation Dx and the rotation fluctuation Ax of the camera 13 are detected using the acceleration sensor 31.
  • the characteristics of the host vehicle 11 on the image are detected.
  • the position fluctuation Dx and the rotation fluctuation Ax of the camera 13 may be detected by tracking the markers 17 and 18 which are points.
  • the captured image input in the configuration as shown in FIG. 7 is twice converted by the projection conversion unit 32 and the back projection conversion unit 33, but as shown in FIG. With a simple configuration, the image conversion process can be performed once.
  • the input captured image is divided into rectangles of 6 rows and 8 columns, and the vertices of each rectangle are sampled as polygon vertices.
  • each polygon is a triangular polygon.
  • the rectangle 61 in FIG. 10A is divided into two triangular polygons 61a and 61b.
  • the imaging screen in Fig. 10 (a) is sampled at polygon vertices in 7 rows and 9 columns.
  • FIG. 10 (b) shows the positions of the polygon vertices projected on the road surface 19.
  • one polygon vertex 62 in the imaging screen shown in FIG. 10 (a) corresponds to FIG. 10 (b).
  • FIG. 10B the position 64 of the bumper 11a of the own vehicle 11 is projected on the road surface 19, and this position 64 is continuous with the reference point 39 of the road surface 19 fixed to the own vehicle 11 position.
  • the polygon vertex coordinate backprojection transformation unit 53 uses the lens data 37 and the camera virtual viewpoint data 40 to calculate the polygon vertex coordinate data projected on the road surface 19 shown in FIG. Is back-projected onto an image screen which will be imaged by the virtual camera 42 shown in FIG. 8, as shown in FIG. 10 (c).
  • one polygon vertex 63 on the road surface 19 shown in FIG. 10B is converted to the position of the polygon vertex 65 on the virtual camera image screen shown in FIG. 10C.
  • the polygon vertex data outside the frame 66 of the image screen that will be imaged by the virtual camera 42 shown in FIG. 10C is also calculated.
  • the polygon image synthesizing unit 54 shown in FIG. 9 converts the captured image using the polygon vertex data on the virtual camera 42 screen and the captured screen polygon vertex 51 shown in FIG. Output.
  • the two triangular polygons 61a and 61b of one rectangle 61 of the captured image are projected and transformed into the triangular polygons 67a and 67b in FIG.
  • the data is linearly transformed by the affine transformation 68.
  • lens shading data 55 that is, data of a phenomenon in which the center of the screen is bright and the surroundings are dark
  • the polygon vertex data is attached with gain data for correcting the phenomenon.
  • the shading data 56 of the virtual lens in the lens data 37 of the virtual camera 42, it is possible to synthesize an image having more natural shading on the corrected image.
  • FIG. 11 to FIG. 13 are diagrams showing a third embodiment of the driving support device according to the present invention.
  • the same components as those of the first and second embodiments are denoted by the same reference numerals, and description thereof is omitted.
  • a distance measuring sensor (ranging means) 71 is provided at the tip of the rod portion 12 at the same position as the camera 13, and the distance measuring sensor 71 is located within the imaging range of the camera 13.
  • the camera 13 measures the distance, and outputs this detection information to the shake correction image processing unit 14.
  • the shake correction image processing unit 14 changes the specific distance plane based on the detection information of the distance measurement sensor 71, and the display 15 displays the output image of the shake correction image processing unit 14 on the output image.
  • An obstacle (specific distance plane) warning such as a road surface or a bumper detected by the distance measurement sensor 71 is combined and displayed!
  • the distance measurement sensor 71 outputs the distance ZO to the nearest road surface 19 excluding the vehicle 11 in the imaging range as distance measurement data. I do.
  • the portion of the vehicle 11 in the imaging range is removed from the ranging range by masking in advance.
  • the sway correction image processing unit 14 estimates the sway XO on the road surface from the sway amounts XI and X2 of the markers 117 and 18 as the characteristic points as in the first embodiment, as in the following equation. Then, the shake is corrected by moving the image in parallel so as to cancel the shake.
  • ( ⁇ 2- ⁇ 1) ⁇ ⁇ 2 ⁇ ⁇ 1 / ( ⁇ 0 ⁇ (Zl— ⁇ 2)) + ( ⁇ 1 ⁇ ⁇ 1— ⁇ 2
  • the distance measuring sensor 71 sets the bumper of the other vehicle 73 that is the closest object excluding the own vehicle in the imaging range.
  • the distance to ⁇ 3 is output as distance measurement data.
  • the shake correction image processing unit 14 sets the shake amount XI of the marker 1 17, 18 which is a feature point, the ⁇ 2 force to the distance 133 from the camera 13 in FIG.
  • the fluctuation 3 on a certain surface 74 is estimated as in the following equation, and the vibration is corrected by translating the image so as to cancel the vibration.
  • ⁇ 3 ( ⁇ 2- ⁇ 1) ⁇ ⁇ 2 ⁇ ⁇ 1 / ( ⁇ 3 ⁇ (Zl— ⁇ 2)) + (Zl 'Xl— ⁇ 2
  • the distance measurement sensor 71 that measures the distance from the camera 13 to the imaging range of the camera 13 is provided, and the shake correction image processing unit 14 transmits the detection information to the distance measurement sensor 71 as detection information. Since the specific distance plane is made variable based on the above, when there is no obstacle, an easy-to-view image with less shaking of the road surface 19 can be obtained, and the obstacle such as a bumper of another vehicle 73 is included in the image. When the vehicle comes in, it is possible to obtain an image with less sway at the obstacle than the road surface 19, so the driver can determine how close the obstacle is to the vehicle 11! It can be easily confirmed and safer driving can be performed.
  • FIG. 13 shows an image displayed on the display 15 at this time.
  • FIG. 13 (a) shows the road surface 19 and the shaking of the white line 20 on the road surface 19 when there is no obstacle.
  • the surveillance image is displayed.
  • FIG. 13 (b) is a diagram showing an obstacle 75 such as a bumper of another vehicle 73 entering the image, and the obstacle 75 swings more than the road surface 19 or the white line 20 on the road surface 19.
  • the driver can easily confirm the distance 76 between the obstacle 75 and the host vehicle 11 because the driver can obtain an image with less traffic, and can perform safer driving.
  • an obstacle alarm 77 may be blinked on the display 15 to alert the driver.
  • FIG. 14 to FIG. 18 are views showing a fourth embodiment of the driving assistance device according to the present invention.
  • an acceleration sensor (detection means) 81 for detecting a camera position and rotation sway due to a sway of the rod portion 12, a steering angle sensor 82 for detecting a steering angle, and a rotation of a wheel are detected. And a wheel sensor 83.
  • the shake correction image processing unit 14 includes a polygon vertex coordinate projection conversion unit.
  • a polygon vertex coordinate backprojection conversion unit 89 calculates the polygon coordinates so that the shake can be corrected on each surface.
  • a plurality of shake corrected images 120 adjusted so that the shake can be corrected on the surfaces 85, 86 are output.
  • the plurality of shake correction images 120 are output to the memory 94, the flow analysis unit 91, and the coincidence determination image synthesizing means 92.
  • the memory 94 stores a plurality of past vibration correction images 120, and the flow analysis unit 91 estimates a vehicle motion based on a flow analysis result obtained by analyzing the movement of each part of the image by comparing with the current plurality of vibration correction images 120. Output to part 95.
  • the vehicle motion estimating unit 95 estimates the motion of the vehicle 11 using the steering angle information 96 from the steering angle sensor 82 and the wheel information 97 from the wheel sensor 83, and uses the analysis result of the flow analysis unit 91 to perform the estimation. Is adjusted and output to the predicted image creation unit 98.
  • the predicted image creating unit 98 outputs a motion estimated predicted image corresponding to each of the plurality of distance planes 87 based on the output result of the vehicle motion estimating unit 95. Further, the coincidence determination image synthesizing unit 92 determines and selects the shake correction image 93 of the distance plane that most closely matches the predicted image corresponding to each of the plurality of distance planes 87 in each part of the screen of the actual plurality of shake correction images 120. Combine images from one screen.
  • FIG. 17 is a schematic diagram for explaining these situations, and FIG. 17 (a) shows a corrected image on the road surface 19. At this time, if the vehicle moves in the directions of arrows 99a and 99b, the portion of the road surface 19 in the corrected image flows in a substantially opposite direction as indicated by the arrow 100.
  • Such a flow is detected by comparing the past corrected image with the current corrected image in the flow analysis 91.
  • the movement of the vehicle can also be estimated from the steering angle information 96 and the wheel information 97.
  • a vehicle motion 99a estimated from the steering angle information 96 and the wheel information 97 is shown.
  • the estimated movement 99a of the vehicle may include an error due to wheel slip or the like.
  • a more accurate estimation result of the movement 99b of the vehicle is obtained by calculating the flow analysis result 100, and the result is output to the prediction image creation unit 98.
  • the predicted image creation unit 98 outputs a motion estimated predicted image corresponding to the plurality of distance planes 87 with respect to the estimation result of the vehicle motion 99b. For example, with respect to the vehicle motion 99b, the image moves as indicated by reference numeral 101 in FIG.
  • the coincidence determination image synthesizing section 92 compares the corrected image in the multiple distance plane 87 and the predicted image in each section of the screen, determines and selects the corrected image of the closest distance plane, and synthesizes the image of one screen. At this time, if there is no edge in the image and the images coincide with each other, a lower surface close to the road surface 19 is selected.
  • FIG. 17 (b) shows this state.
  • the road surface 19 and the white line on the road surface 19 are shown.
  • the corrected image on the road surface 19 and the predicted image match best, so the corrected image on the road surface 19 is selected.
  • the coincidence determination image synthesizing unit 92 determines which part of the screen is closer to any one of the plurality of distance planes 87, as a result, obstacle determination is also possible. Therefore, this determination result can be used for an obstacle detection alarm separately. If an obstacle is detected, As shown in (b), the obstacle detection alarm 110 may be flashed by the obstacle alarm unit 109, or the alarm is superimposed and flashes over the entire buffer area 108 at the boundary between the obstacle 105 and the road surface 19. Good! ,.
  • the coincidence determination image synthesizing unit 92 determines and selects the corrected image of the distance plane that most closely matches the predicted image corresponding to the multiple distance plane 87 in each part of the screen of the actual multiple shake correction image 120.
  • the configuration is such that the image of one screen is synthesized, the configuration shown in FIG. 18 is also possible as another mode.
  • a corrected image in which the influence of the position fluctuation and rotation fluctuation of the camera 13 is corrected and a past image based on the movement of the own vehicle 11 are used for each.
  • FIG. 18 includes a match determination unit 111, a polygon vertex synthesis unit 112, and a polygon image synthesis unit 113 instead of the match determination image synthesis unit 92 shown in FIG.
  • the coincidence determination unit 111 determines only the distance plane that best matches the predicted image corresponding to the multiple distance plane 87 in each part of the screen of the multiple corrected images 120, and outputs the result to the polygon vertex synthesis unit 112 .
  • the polygon vertex synthesizing unit 112 generates a polygon vertex data based on the output of the coincidence determining unit 111 and the polygon vertex data in the case where the shake correction is performed on the plurality of distance planes 87, which is the output of the polygon vertex coordinate backprojection transforming unit 89. Synthesizes and outputs polygon vertex data when shaking has been corrected on the distance plane that best matches the predicted image.
  • the polygon image synthesizing unit 113 synthesizes images using the captured image 35 based on the polygon vertex data, and outputs a shake corrected image 93.
  • FIGS. 19 to 21 are views showing a fifth embodiment of the driving assistance device according to the present invention.
  • the same components as those in the first and fourth embodiments are denoted by the same reference numerals, and description thereof is omitted.
  • the obstacle detection alarm 110 can be output at the same time as the output.
  • the movement of the own vehicle decreases, and the camera 13 shakes less.
  • the coincidence determination image synthesizing unit 92 selects the road surface even if there is an obstacle in the image, so that the obstacle detection accuracy deteriorates.
  • the vibration means 121 that vibrates the rod portion 12 and the image obtained by the camera 13 are input, and the vibration that detects a specific distance surface such as a road surface from the vibration amount of the image with respect to the vibration is input.
  • a correction image processing unit (distance detection means) 14 is provided.
  • the vibration correction image processing unit 14 includes, in addition to the configuration of the fourth embodiment, the timing of vibration from the vibration means 121 as shown in FIG. Based on the signal output, a switch for selecting only the image captured at one end point of the amplitude and operating the polygon vertex synthesizing unit 112 and polygon image synthesizing unit 113 to synthesize the shake-corrected image 93 It has 122.
  • Fig. 21 (b) is a graph of the time change 141 of the amplitude of vibration.
  • the camera 13 opens the shutter at a time that is both ends of the amplitude, specifically, at a timing of time 142 to 147, and captures an image. Therefore, when the vibration means 121 vibrates the camera position at 30 Hz, the camera 13 captures 60 moving images at both ends of the amplitude.
  • images picked up at times 142, 144 and 146 are selected as images picked up at one end point of the amplitude, and a shake correction image 93 is synthesized.
  • Output In this case, 30 moving images per second are output.
  • the rod 13 is vibrated by the vibrating means 121, the position of the camera 13 is caused to fluctuate.
  • the distance can be detected, and whether the specific distance plane is a road surface or an obstacle can be detected.
  • the influence of the amplitude of the camera position due to the vibration means 121 in the shake corrected image 93 can be almost eliminated, and the fourth embodiment can be performed despite the presence of the amplitude of the camera position due to the vibration means 121. And outputs a shake correction image substantially equivalent to the above.
  • the driving assistance device has the effect of preventing disturbance of an image due to shaking of the rod-shaped holding unit, and obtaining a good image, and capturing the periphery of the vehicle.
  • the present invention is useful as a driving support device or the like in which images are displayed on display means in a vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Studio Devices (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Traffic Control Systems (AREA)
  • Accessories Of Cameras (AREA)
  • Mechanical Control Devices (AREA)

Abstract

 棒状の保持手段の揺れによる画像の乱れを防止して、良好な画像を得ることができる運転支援装置を提供すること。  車両11から突出する棒状のロッド部12と、ロッド部12に設置され、車両11の周囲を撮像するカメラ13と、カメラ13によって撮像された画像が入力され、カメラ13から路面(特定距離面)19の揺れを補正量X0として撮像画像を平行移動して出力する揺れ補正画像処理部14とを含んで運転支援装置を構成する。  

Description

明 細 書
運転支援装置
技術分野
[0001] 本発明は、運転支援装置に関し、例えば、車両周辺を撮像して車内の表示手段に 表示するようにした運転支援装置に関する。
背景技術
[0002] 従来から車両の後方、後側方あるいは左前側方等のように、運転者の死角を補うた めにフェンダーミラーやバックミラー等のミラーが用いられており、近年では同じ目的 で車両にカメラを設置することが考えられて 、る。これは車両に設置されたカメラを用 いて車両の周囲を撮像し、得られた画像をモニタ画面に表示して運転者の車両操作 を支援するようにしたものである。
[0003] 例えば、特許文献 1に示す技術にお!、ては、車両の後退時の運転者の操作を支援 するために車両の後方を監視する車両用カメラが用いられており、このような車両用 カメラは、その用途により車両の様々な位置に設置されることが考えられる。
[0004] また、特許文献 2に示す技術にあっては、ロッド形状の先端にレンズと撮像素子を 設け、より自由度の高い視点力 車両の周囲を監視するようにしており、安全性がより 一層高まっている。
[0005] ところで、特許文献 2に示すものは、ロッド形状の先端にレンズと撮像素子を設けて いるので、ロッドの揺れによって撮像画像の乱れが発生してしまうという不具合が発生 してしまう。
[0006] このような撮像画像の乱れを防止するものとしては、車両に適用されるものではない が特許文献 3に示すような技術がある。特許文献 3に示すものは、監視カメラを伸縮 軸に設置して観察対象の位置に設定する位置設定装置と、観察対象の監視の基準 となる基準映像を設定するための基準映像設定装置とを備え、監視カメラは、レンズ 部から入力される観察対象の監視映像を記憶するためのフレームメモリ部と、観察対 象の監視映像中に検出領域を設定するための検出領域指定部と、監視映像と基準 映像との相関関係を検出領域の映像に基づ ヽて判定し相関関係があると判定した 場合にはフレームメモリ部の内容を更新する相関制御部とを備えており、ロッドの揺 れによる監視映像の乱れを防止し監視作業の効率を向上させることができる。
特許文献 1:特開平 2-36417号公報
特許文献 2 :特開 2003-63310号公報
特許文献 3 :特開平 09- 312836号公報
発明の開示
発明が解決しょうとする課題
[0007] しカゝしながら、特許文献 3に示すものを車両に適用した場合に、監視対象である車 両周辺の路面、他車両、あるいは障害物が運転による自車両の動きによって動くの で、ロッドの揺れによる監視映像の乱れを防止することはできないという問題が発生し てしまう。
[0008] ここで、一般的に、ムービーカメラ等で使われる揺れ補正は、図 22に示すように視 点位置が一定で、視線のみが回転する揺れ 4に対して撮像装置 1の光学系や画像 処理によって揺れを補正するが、これは揺れ 4に対して距離の異なる対象物 2、 3の 画像上での変化が同じなので有効である。ところが、ロッドの揺れには図 23に示すよ うに視点位置の揺れ 5も含まれるので、この場合には距離の異なる対象物 6、 7の画 像上での影響 (揺れ量)が距離によって異なるため、従来の揺れ補正が一般には有 効でない。
[0009] 本発明はこのような問題を解決するためになされたもので、棒状の保持手段の揺れ による画像の乱れを防止して、良好な画像を得ることができる運転支援装置を提供 するものである。
課題を解決するための手段
[0010] 本発明の運転支援装置は、車両から突出する棒状の保持手段と、前記保持手段 に設置され、前記車両の周囲を撮像する撮像手段と、前記撮像手段から特定距離 面の揺れを補正量として前記撮像手段によって撮像された画像を処理して出力する 揺れ補正画像処理手段とを備えたものから構成される。
[0011] この構成により、棒状の保持手段が揺れることにより撮像手段の回転揺れと位置揺 れが生じた場合でも、撮像手段から特定距離面、例えば、路面等を想定した監視対 象での画像の揺れを極力抑えることができ、良好な画像を得ることができる。
[0012] また、本発明の運転支援装置は、前記揺れ補正画像処理手段は、自車両に設定さ れた複数の特徴点を追跡することにより、前記保持手段に設けられた前記撮像手段 の回転揺れと位置揺れとを検出し、検出された前記撮像手段の回転揺れと位置揺れ とによる撮像手段力 特定距離面までの画像への影響を打ち消すように補正するも の力 構成される。
[0013] この構成により、自車両に設定された複数の特徴点を追跡することにより保持手段 に設けられた撮像手段の回転揺れと位置揺れとを検出し、撮像手段から特定距離面 、例えば、路面等を想定した監視対象での画像の揺れを極力抑えることができ、良好 な画像を得ることができる。
[0014] また、本発明の運転支援装置は、前記撮像手段の回転揺れと位置揺れとを検出す る検出手段を有し、前記揺れ補正画像処理手段は、前記検出手段によって検出され た撮像手段の回転揺れと位置揺れによって前記撮像手段から特定距離面で生じる 画像上の揺れを打ち消すように揺れを補正するものから構成される。
[0015] この構成により、撮像手段の回転揺れと位置揺れとを検出手段によって直接的に 検出し、撮像手段から特定距離面、例えば、路面等を想定した監視対象での画像の 揺れを極力抑えることができ、良好な画像を得ることができる。
[0016] また、本発明の運転支援装置は、前記揺れ補正画像処理手段は、前記撮像手段 から特定距離面に撮像画像を投影変換した後、揺れの生じな!/ヽ仮想撮像手段に逆 投影変換する画像合成を行うもの力も構成される。
[0017] この構成により、路面のように撮像手段力ゝらのある特定距離面を想定して撮像画像 を投影変換した後に逆投影変換し、この投影変換と逆投影変換の間で撮像手段の 位置揺れと回転揺れの影響を補正することによって見やすい監視画像を得ることが できる。
[0018] また、本発明の運転支援装置は、前記撮像手段の撮像範囲について前記撮像手 段からの距離を測距する測距手段を有し、前記揺れ補正画像処理手段は、前記測 距手段の検出情報に基づいて前記特定距離面を可変にするものから構成される。
[0019] この構成により、監視画像内に他車両のバンパー等の障害物が入って来た場合に 、特定距離面を路面力 バンパーの高さに変更することにより、路面よりも重要な監 視対象である障害物であるバンパーの部分をより揺れが少なく見やすい画像にして 提示することができる。
[0020] また、本発明の運転支援装置は、前記揺れ補正画像処理手段は、複数の距離面 を想定し、それぞれの距離面につ!、て前記撮像手段の位置揺れと回転揺れの影響 を補正した補正画像と自車両の動きから過去の画像を用いて予測した予測画像との 一致を判定した後、前記撮像手段の画面の各部において最も一致する距離面の補 正画像を選択し、補正画像を合成するものから構成される。
[0021] この構成により、複数の距離面を想定してそれぞれについて撮像手段の位置揺れ と回転揺れの影響を補正した補正画像と自車両の動き力 過去の画像を用いて予 測した予測画像の一致を判定することによって、障害物が画面に入った場合でも障 害物の部分でも路面の部分でも揺れの影響が抑制された見やすい監視画像を得る ことができる。
[0022] また、本発明の運転支援装置は、前記保持手段を振動させる振動手段を有し、前 記揺れ補正画像処理手段は、前記振動手段によって前記保持手段を振動させたと きに、前記振動に対する撮像画像の揺れ量から前記特定距離面を検出するものから 構成される。
[0023] この構成により、振動手段によって棒状の保持手段を振動させることによって撮像 手段に位置揺れが生じさせ、それによる画像の揺れ量により撮像手段からの距離を 検出することができ、特定距離面が路面であるか障害物であるかを検出することがで きる。
[0024] また、本発明の運転支援装置は、前記撮像手段によって撮像された画像を表示す る表示手段を備えたものから構成される。
[0025] この構成により、車両の周囲の状況を容易に視認することができ、運転の安全性を より一層確保することができる。
発明の効果
[0026] 以上説明したように、本発明は、棒状の保持手段の揺れによる画像の乱れを防止 して、良好な画像を得ることができる運転支援装置を提供することができる。 図面の簡単な説明
[図 1]図 1は本発明の第 1の実施の形態の運転支援装置を示す図で、(a)はロッド部 を伸長させたときの車両の概略前面図、(b)はロッド部を伸長させたときの車両の概 略側面図
[図 2]図 2は本発明の第 1の実施の形態の運転支援装置を示す図で、 (a)はロッド部 を縮小させたときの車両の概略前面図、(b)はロッド部を縮小させたときの車両の概 略側面図
[図 3]図 3は本発明の第 1の実施の形態の運転支援装置のカメラで撮像される画像を 示す図
[図 4]図 4は本発明の第 1の実施の形態の運転支援装置において画像中の 2つの特 徴点を追跡することによって路面上の揺れを推定する方法を説明する図
[図 5]図 5は本発明の第 1の実施の形態の運転支援装置のロッド部にカメラを取り付 けるとき別途カウンターウェイトを取り付けた例を示す図
[図 6]図 6は本発明の第 2の実施の形態の運転支援装置を示す図で、 (a)は運転支 援装置を備えた車両の概略前面図、(b)は運転支援装置を備えた車両の概略側面 図
[図 7]図 7は本発明の第 2の実施の形態の運転支援装置のブロック図
[図 8]図 8は本発明の第 2の実施の形態の運転支援装置の揺れ補正処理の動作を説 明するための図
[図 9]図 9は本発明の第 2の実施の形態の運転支援装置の他の構成のブロック図 [図 10]図 10は本発明の第 2の実施の形態の運転支援装置の揺れ補正処理の他の 手順を示す図
[図 11]図 11は本発明の第 3の実施の形態の運転支援装置を示す図で、 (a)は運転 支援装置を備えた車両の概略前面図、(b)は運転支援装置を備えた車両の概略側 面図
[図 12]図 12は本発明の第 3の実施の形態の運転支援装置の測距センサーと揺れ補 正画像処理部の動作を説明するための概略図
[図 13]図 13は本発明の第 3の実施の形態の運転支援装置の出力画像で、 (a)は障 害物がないときの出力画像 (b)障害物を検出したときの出力画像
圆 14]図 14は本発明の第 4の実施の形態の運転支援装置を示す図で、 (a)は運転 支援装置を備えた車両の概略前面図、(b)は運転支援装置を備えた車両の概略側 面図
圆 15]図 15は本発明の第 4の実施の形態の運転支援装置のブロック図
圆 16]図 16は本発明の第 4の実施の形態の運転支援装置の揺れ補正処理を示す 図で、(a)は撮像画像を投影変換するときのカメラと投影範囲を示す図、(b)は撮像 画像を逆投影変換するときの仮想カメラと逆投影範囲を示す図
圆 17]図 17は本発明の第 4の実施の形態の運転支援装置の出力画像を示す図で、
(a)は障害物がないときの出力画像を、 (b)障害物を検出したときの出力画像を示す 圆 18]図 18は本発明の第 4の実施の形態の運転支援装置の他の構成のブロック図
[図 19]図 19は本発明の第 5の実施の形態の運転支援装置を示す図で、 (a)は運転 支援装置を備えた車両の概略前面図、(b)は運転支援装置を備えた車両の概略側 面図
圆 20]図 20は本発明の第 5の実施の形態の運転支援装置のブロック図
圆 21]図 21は本発明の第 5の実施の形態の運転支援装置を揺れ補正処理を説明 する図で、(a)はカメラを振動させたときの障害物とカメラの位置関係を示す図、 (b) はカメラを振動させたときの振幅と時間の関係を示す図
圆 22]図 22はムービーカメラ等で使われる一般的な揺れ補正を説明するための図 [図 23]図 23はロッド部が揺れたときのカメラの視点揺れを説明するための図 符号の説明
11 車両
12 ロッド部 (棒状の保持手段)
13 カメラ (撮像手段)
14 揺れ補正画像処理部 (揺れ補正画像処理手段、距離検出手段)
15 ディスプレイ (表示手段)
31、 81 加速度センサ (検出手段)
42 仮想カメラ (仮想撮像手段) 71 測距センサ (測距手段)
121 振動手段
発明を実施するための最良の形態
[0029] 以下、本発明の実施の形態について、図面を用いて説明する。
図 1乃至図 5は本発明に係る運転支援装置の第 1の実施の形態を示す図である。 まず、構成を説明する。図 1、図 2において、運転支援装置は車両 11のバンパー 1 laから突出して設けられた伸縮自在なロッド部 (棒状の保持手段) 12と、ロッド部 12 の先端に設置され、車両 11の周囲を撮像する撮像手段としてのカメラ 13と、カメラ 13 によって撮像された画像が入力され、カメラ 13から特定距離面の揺れを補正量として 撮像画像を平行移動して出力する揺れ補正画像処理部 (揺れ補正画像処理部) 14 と、車室内に設けられ、揺れが補正された画像が表示される表示手段としてのデイス プレイ 15とを含んで構成される。
[0030] 本実施の形態では、揺れ補正画像処理部 14は、車両 11に設定された 2つの特徴 点を追跡することにより、ロッド部 12に設けられたカメラ 13の回転揺れと位置揺れとを 検出し、検出されたカメラ 13の回転揺れと位置揺れとによるカメラ 13から特定距離面 までの画像への影響を打ち消すように補正するようになって!/、る。
[0031] また、バンパー 11aにはロッド収納保持部 16が設けられており、ロッド部 12はこの口 ッド収納保持部 16に支持されるとともに、長手方向に縮小したときにカメラ 13と共に ロッド収納保持部 16に収納されるようになって!/、る。
[0032] 具体的には、ロッド部 12は車両 11の左前方角のバンパー 11aの内部に設置されて おり、撮像時には図 1に示すように車両 11の左前方角のバンパー 1 laの上方から突 出することにより、カメラ 13はその位置からの画像を撮像して駐車操作やすり抜け時 等に左前方の死角の画像を運転者に提示する。また、不使用時には、図 2に示すよ うにロッド収納保持部 16内に収納されることにより、カメラ 13がバンパー 11a内に格 納される。
[0033] 図 3、図 4は揺れ補正画像処理部 14の揺れ補正処理を示す図である。図 1に示す ように伸長した状態にあるロッド部 12の下方の車両には上下方向に離隔してマーカ 一 17、 18が設けられており、ロッド部 12が伸長したときには、カメラ 13は図 3に示す 画像を撮像するようになっている。図 3はこのときの撮像画像を示す図であり、カメラ 1 3はマーカー 17、 18、路面 19、路面 19上の白線 20、ロッド部 12、自車両 11のバン パー 11aを撮像する。
[0034] 揺れ補正画像処理部 14は、撮像画像中のマーカー 17、 18の動きを追跡してカメ ラ 13の位置揺れと回転揺れを検出し、その結果から図 1中の路面 19の高さの画像 上での揺れの影響を想定してこれを補正する。
[0035] この結果、図 3中の路面 19や路面 19上の白線 20はロッド部 12の揺れによる画像 の揺れが補正され、運転操作による自車両 11の動きに合わせた動きのみになり、運 転者の視認性が向上する。
[0036] 次に、図 4に基づいて揺れ補正処理を具体的に説明する。
[0037] 図 4は車両 11の 2つの特徴点であるマーカー 17、 18を追跡することによって路面 1 9上の揺れを推定する方法を示したものである。図 4において、マーカー 17、 18は車 両 11の上下方向に離隔して設けられており、カメラ 13からマーカー 17、 18、路面 19 までの距離をそれぞれ Zl, Z2, ZOで示す。
[0038] カメラ 13はレンズが真下を向いており、カメラ 13の揺れとしてはカメラ 13の水平方 向の位置揺れ Dxおよび回転揺れ Axとし、画像の揺れはこれらの揺れの影響の線形 和と仮定する。
[0039] 位置揺れ Dxによる画像揺れ(dxO, dxl, dx2)は、カメラ 13からの距離 Zによって d xO = Dx'fZZO、 dxl = Dx'fZZl、 dx2 = Dx'fZZ2で表せられる(但し、 fは焦点 距離)。また、回転揺れ Axによる揺れは、カメラ 13からの距離 Zに関係なぐ axO = ax l = ax2で表わされる。
[0040] 実際に観測できる車両 11の 2つの特徴点の揺れ (xl, x2)は、それぞれの線形和: xl = dxl + axl、 x2 = dx2 + ax2である力も、路面 19上の揺れ XO = dxO + axOは、 XO= (X2— Χ1)·Ζ2·Ζ1Ζ (Ζ0· (Zl— Ζ2) ) + (Z
1 ·Χ1-Ζ2·Χ2)/ (Ζ1-Ζ2)と想定される。
[0041] 揺れ補正画像処理部 14は、この想定される路面上の揺れ ΧΟを補正量として入力 画像の平行移動によって揺れを補正した出力画像を作ることができる。実際には、画 像は 2次元 (X, Υ)情報であるので X方向を横方向としたとき縦方向である Υ方向にも 同様の操作をすることによって、 X方向と Y方向のそれぞれの揺れを補正できる。
[0042] また、この方法は主にカメラ 13の光軸に近い画像に有効で撮像対称が光軸力 離 れるにしたがって補正量の誤差が生じてくる力 それでも入力の揺れを 1Z2乃至 1 Z4以下に補正できれば、視覚上の見やすさは向上するので効果的である。
[0043] このように本実施の形態では、車両 11から突出する棒状のロッド部 12と、ロッド部 1 2に設置され、車両 11の周囲を撮像するカメラ 13と、カメラ 13によって撮像された画 像が入力され、カメラ 13から路面 (特定距離面) 19の揺れを補正量 XOとして撮像画 像を平行移動して出力する揺れ補正画像処理部 14とを設けたので、ロッド部 12が揺 れることによりカメラ 13の回転揺れ Axと位置揺れ Dxが生じた場合でも、路面 19を想 定した監視対象での画像の揺れを極力抑えることができ、良好な画像を得ることがで きる。
[0044] 特に、本実施の形態では、揺れ補正画像処理部 14は、自車両 11に設定された複 数のマーカー 17、 18を追跡することにより、ロッド部 12に設けられたカメラ 13の回転 揺れ Axと位置揺れ Dxとを検出し、検出されたカメラ 13の回転揺れ Axと位置揺れ D Xとによるカメラ 13から路面 19までの画像への影響を打ち消すように補正するように したので、路面 19を想定した監視対象での画像の揺れを極力抑えることができ、良 好な画像を得ることができる。
[0045] また、本実施の形態では、カメラ 13によって撮像された画像をディスプレイ 15に表 示するようにしたので、車両 11の周囲の状況を簡単に視認することができ、運転の安 全性をより一層確保することができる。
[0046] なお、本実施の形態の揺れ補正画像処理部 14は、カメラ 13から路面 19の揺れを 補正量 XOとして撮像画像を平行移動して出力しているので、カメラ 13が光軸方向を 中心とした回転揺れを生じた場合に対応することができないが、この場合には、図 5 に示すようにカメラ 13が光軸方向に回転揺れを生じな 、ようにすれば良 、。
[0047] 図 5において、ロッド部 12にカメラ 13を取り付けるときに、ロッド部 12の先端にカメラ 13と反対側に位置するようにカウンターウェイト 21を取り付ければ良い。
[0048] すなわち、上述した揺れの補正方法は、画像を X方向と Y方向を独立して平行移動 することによって揺れを補正する力 これ以外に、カメラ 13の揺れにはカメラ 13の光 軸方向を中心とした回転揺れ Rがある。この回転揺れ Rが生じた場合には、撮像画像 は画面中心点を中心とした回転揺れが生じるので、平行移動では補正できな 、。
[0049] 図 5 (a)に示すようにカメラ 13の重心位置 22がロッド部 12の中心軸 12aからずれて V、た場合、車両の加減速 23によってカメラ 13の重心位置 22とロッド部 12の中心軸 1 2aの間で回転モーメント 25が発生し、この結果、回転揺れ Rが発生しやすくなる。
[0050] 図 5 (b)ではこの回転揺れ Rを押さえるためにカメラ 13の重心位置 22と対称の位置 にカウンターウェイト 21の重心位置 26を設置することによって 2つを合わせた重心位 置 27をロッド部 12の中心に一致するようにしている。これにより車両 11の加減速 23 によってカメラ 13とカウンターウェイト 21それぞれに発生する回転モーメント 25と 28 が打ち消し合い、それによりカメラ 13光軸方向を中心とした回転揺れ Rは殆ど発生し ない。この結果、このカウンターウェイト 21によりカメラ 13光軸方向を中心とした回転 揺れ Rを抑制することができ、より補正効果の高 、揺れ補正画像を得ることができる。
[0051] 図 6乃至図 10は本発明に係る運転支援装置の第 2の実施の形態を示す図であり、 第 1の実施の形態と同様の構成には同一番号を付して説明を省略する。
[0052] 図 6において、ロッド部 12の先端にはカメラ 13と同じ位置に加速度センサ (検出手 段) 31が設けられており、この加速度センサ 31はカメラ 13の位置揺れと回転揺れを 検出して、この検出情報を揺れ補正画像処理部 14に出力するようになっている。
[0053] 本実施の形態の揺れ補正画像処理部 14は、図 7に示すように投影変換部 32およ び逆投影変換部 33を備えており、カメラ 13から特定距離面、例えば、路面 19に撮像 画像を投影変換部 32によって投影変換した後、逆投影変換部 33によって揺れの生 じな ヽ仮想撮像装置に逆投影変換する画像合成を行うことで揺れ補正を行うようにな つている。
[0054] 次に、図 7、図 8に基づいて揺れ補正処理を具体的に説明する。
[0055] 図 7は揺れ補正画像処理部 14のブロック図を示すものであり、図 8は揺れ補正画像 処理部 14の揺れ補正を説明するための概念図である。なお、図 8中、カメラ 13はそ の光軸がやや真下からやや左前方方向に傾!ヽて設置されて!ヽる。
[0056] 運転中にあっては、カメラ 13は位置揺れ Dxと回転揺れ Axを生じ、この揺れ情報 3 4は加速度センサ 31によって検出された後、揺れ補正画像処理部 14に入力される。 [0057] 揺れ補正画像処理部 14はカメラ 13の撮像画像 35と加速度センサ 31から入力され た位置揺れ Dxと回転揺れ Axの揺れ量を表わす揺れ情報 34を用いて図 7に示すァ ルゴリズムに従って揺れを補正し補正画像を出力する。
[0058] 本実施の形態では、カメラ 13は水平画角 110度一 140度の広角レンズを用いるも のとし、このような広角レンズの場合レンズ歪みは不可避であるので、このレンズ固有 のレンズ歪みや画角等のレンズデータ 36を揺れ補正画像処理部 14内部に記憶して おく。
[0059] さらにカメラ初期位置データ 38を基準に加速度センサ 31から入力された位置揺れ Dxと回転揺れ Axの揺れ情報 34を用いて、撮像画像 35が得られた時点のカメラ 13 の位置と角度を計算し、これらのデータによってレンズ歪み補正と位置揺れおよび回 転揺れを補正して投影変換部 32によって車両 11を基準とした路面 19上に入力画像 を投影変換する。
[0060] このことを図 8によって説明すると、揺れがない場合に初期位置 13aにあるカメラ 13 は、位置揺れ Dxと回転揺れ Axによってカメラ位置 13bやカメラ位置 13cのように変 化する。この位置に基づいて撮像画像を車両 11の基準点 39を原点とした路面 19上 に Wで示すように投影変換する。
[0061] この投影変換された画像を、カメラ仮想視点データ 40 (位置と方向)に位置してレン ズデータ 37を持つ仮想撮像手段としての仮想カメラ 42で撮像した場合の画像を逆 投影変換部 33によって合成して出力する。
[0062] 図 8で説明すると、車体の基準点 39を原点とした路面 19上に Wで示すように投影 変換された画像を、さらに仮想視点 41に設置されたレンズデータ 37を持つ仮想カメ ラ 42で撮像されるであろう画像を逆投影変換部 33によって合成する。
[0063] これらの処理により、路面 19上に入力画像を投影変換した時点で揺れが補正され るので、さらに仮想カメラ 42で撮像した場合の画像を逆投影変換によって合成し出 力した画像上でも揺れが補正された良好な画像を得ることができる。
[0064] このように本実施の形態では、カメラ 13のレンズデータ 36を用いることにより、第 1 の実施の形態のように画像の中心付近だけでなく画面全体で揺れの少ない良好な 画像を得ることができる。 [0065] また、一度路面 19に投影変換し、さらに仮想視点 41から見た画像を逆投影変換部 33によって合成する構成によって、第 1の実施例のようにカメラ 13を真下ではなぐ 斜め左前方に向けて設定した場合であっても、路面 19を特定距離面として揺れを補 正できる。したがって、カメラ 13を斜め左前方に向けることができるので、より広い範 囲の周囲監視を行うことができる。
[0066] なお、カメラ仮想視点データ 40 (位置と方向)は、図 8の Wに示すように揺れがな 、 場合のカメラ 13の初期位置の視点と同じでも良 、し、仮想視点 41に示すようにカメラ 13の初期位置と異なるものでも良い。
[0067] また、レンズデータ 37は、実際のカメラ 13のレンズデータ 36と同じ物でも良いし、 異なる物でも良い。例えば、図 8 (b)に示すように実際のカメラ 13の広いレンズの画 角 43に比べて少し狭い画角 44のレンズを想定したレンズデータ 37を用いることによ り、揺れ補正による出力画像の周辺部の欠落を防ぐことができる。
[0068] また、本実施の形態では、加速度センサ 31を用いてカメラ 13の位置揺れ Dxと回転 揺れ Axを検出しているが、第 1の実施例のように画像上で自車両 11の特徴点である マーカー 17、 18を追跡することでカメラ 13の位置揺れ Dxと回転揺れ Axを検出して も良い。
[0069] また、本実施の形態では、図 7に示すような構成で入力された撮像画像を投影変換 部 32と逆投影変換部 33で 2回の変換を行ったが、図 9に示すような構成にして、画 像の変換処理を 1回にすることも可能である。
[0070] 以下、その方法を具体的に説明する。まず、図 10に示すように、入力撮像画像に ついて縦 6列横 8列の長方形に分割し各長方形の頂点をポリゴン頂点としてサンプル する。
[0071] ここで、各ポリゴンは 3角ポリゴンであり、例えば、図 10 (a)の長方形 61は 2つの 3角 ポリゴン 61a、 61bに分割される。図 10 (a)の撮像画面は縦 7列横 9列のポリゴン頂点 でサンプルされることになる。
[0072] 図 9ではこの撮像画面のポリゴン頂点データ 51につ 、て、揺れ情報 34、レンズデ ータ 36、カメラ初期位置データ 38を用いて路面 19上に投影した場合のポリゴン頂点 位置をポリゴン頂点座標投影変換部 52で計算する。 [0073] 図 10 (b)は路面 19上に投影されたポリゴン頂点位置を示したものであり、例えば、 図 10 (a)に示す撮像画面中の 1ポリゴン頂点 62は、図 10 (b)に示す路面 19上のポリ ゴン頂点 63の位置に変換される。図 10 (b)において、自車両 11のバンパー 11aの 位置 64が路面 19上に投影されており、この位置 64は自車両 11位置に固定された 路面 19の基準点 39に連続する。
[0074] また、図 9においてポリゴン頂点座標逆投影変換部 53では、レンズデータ 37とカメ ラ仮想視点データ 40を用いて、図 10 (b)に示す路面 19上に投影されたポリゴン頂 点データを、図 8に示す仮想カメラ 42で撮像されるであろう画像画面上に図 10 (c)に 示すように逆投影変換する。
[0075] このとき、例えば図 10 (b)に示す路面 19上の 1ポリゴン頂点 63は、図 10 (c)に示す 仮想カメラ撮像画面中のポリゴン頂点 65の位置に変換される。ここで、図 10 (c)に示 す仮想カメラ 42で撮像されるであろう画像画面の枠 66の外のポリゴン頂点データも 計算される。 )
また、図 9に示すポリゴン画像合成部 54では、図 10 (c)に示す仮想カメラ 42画面 上のポリゴン頂点データと撮像画面ポリゴン頂点 51を用いて撮像画像を変換して揺 れ補正画像 45を出力する。
[0076] 例えば、撮像画像の 1長方形 61の 2つの 3角ポリゴン 61a、 61bは、図 10 (c)上で 3 角ポリゴン 67a、 67bに投影変換されているので、その内部の各画素の画像データは ァフィン変換 68によって線形的に変換される。
[0077] また、このときレンズデータ 36内にレンズのシェーディングデータ 55、すなわち、画 面中央が明るく周囲が暗い現象データを合わせ持ち、ポリゴン頂点データにそれを 補正するゲインデータを添付し、ポリゴン画像合成部 54での変換時にこのゲインを乗 じて変換することにより、シェーディングを持った撮像カメラの揺れによる揺れ補正画 像上の明るさの揺れも補正され、より見やすい画像を得ることができる。
[0078] また、仮想カメラ 42のレンズデータ 37内に仮想レンズのシェーディングデータ 56を 持たせることで、補正画像上により自然なシェーディングを持った画像を合成すること ができる。
[0079] 図 11乃至図 13は本発明に係る運転支援装置の第 3の実施の形態を示す図であり 、第 1、第 2の実施の形態と同様の構成には同一番号を付して説明を省略する。
[0080] 図 11において、ロッド部 12の先端にはカメラ 13と同じ位置に測距センサ(測距手段 ) 71が設けられており、この測距センサ 71はカメラ 13の撮像範囲にっ 、てカメラ 13 力もの距離を測距してこの検出情報を揺れ補正画像処理部 14に出力するようになつ ている。
[0081] また、揺れ補正画像処理部 14は測距センサ 71の検出情報に基づいて特定距離 面を可変にするようになっており、ディスプレイ 15はこの揺れ補正画像処理部 14の 出力画像上に測距センサ 71によって検出された路面、バンパー等の障害物 (特定 距離面)警報を合成して表示するようになって!/ヽる。
[0082] 次に、図 12、図 13に基づいて揺れ補正方法を具体的に説明する。
[0083] まず、測距センサ 71はカメラ 13の撮像範囲 72内に障害物がない場合、撮像範囲 内で自車両 11を除く最も近い物体である路面 19までの距離 ZOを測距データとして 出力する。なお、予め撮像範囲内で自車両 11の部分はマスキングによって測距範囲 から除いておく。
[0084] このとき、揺れ補正画像処理部 14は、第 1の実施例と同様に特徴点であるマーカ 一 17、 18の揺れ量 XI、 X2から路面上の揺れ XOを下式のように推定し、この揺れを 打ち消すように画像を平行移動することによって揺れを補正する。
[0085] ΧΟ= (Χ2-Χ1)·Ζ2·Ζ1/ (Ζ0· (Zl— Ζ2) ) + (Ζ1 ·Χ1— Ζ2
·Χ2)/ (Ζ1-Ζ2)
[0086] 次いで、撮像範囲内に図 12に示すように他車両 73が入って来た場合、測距セン サ 71は、撮像範囲内で自車両を除く最も近い物体である他車両 73のバンパーまで の距離 Ζ3を測距データとして出力する。
[0087] このとき、揺れ補正画像処理部 14は、第 1の実施例と同様に特徴点であるマーカ 一 17、 18の揺れ量 XI、 Χ2力ら図 12中、カメラ 13から Ζ3の距離にある面 74での摇 れ Χ3を下式のように推定し、この揺れを打ち消すように画像を平行移動することによ つて揺れを補正する。
[0088] Χ3= (Χ2-Χ1)·Ζ2·Ζ1/ (Ζ3 · (Zl— Ζ2) ) + (Zl 'Xl— Ζ2
·Χ2)/ (Ζ1-Ζ2) [0089] このように本実施の形態では、カメラ 13の撮像範囲についてカメラ 13からの距離を 測距する測距センサ 71を設け、揺れ補正画像処理部 14が測距センサ 71に検出情 報に基づいて特定距離面を可変にするようにしたので、障害物がない場合は路面 1 9の揺れが少ない見やすい画像を得ることができ、また、画像内に他車両 73のバン パー等の障害物が入って来た場合には、路面 19よりも障害物において揺れの少な V、画像を得ることができるので、運転者は障害物が自車両 11にどの程度接近して!/ヽ るかを容易に確認することができ、より安全な運転を行うことができる。
[0090] 一方、図 13は、このときにディスプレイ 15に表示される画像を示したものであり、図 13 (a)は、障害物がない場合で路面 19や路面 19上の白線 20の揺れが少ない見や す 、監視画像が表示されて 、る。
[0091] また、図 13 (b)は画像内に他車両 73のバンパー等の障害物 75が進入したものを 示す図であり、路面 19や路面 19上の白線 20よりも障害物 75において揺れの少ない 画像を得ることができるので、運転者は障害物 75と自車両 11との距離 76を容易に 確認することができ、より安全な運転を行うことができる。また、画像内に他車両 74の バンパー等の障害物が入って来た場合にはディスプレイ 15上に障害物警報 77を点 滅するようにすれば、運転者の注意を促すことができる。
[0092] 特に、運転者は、車内のディスプレイ 15だけを注視しているわけでなく常に周囲を 直視でも確認する必要があるので、この障害物警報 77を点滅させることにより障害物 の見逃しを現象させることができ、視認性をより向上させることができる。
[0093] 図 14乃至図 18は本発明に係る運転支援装置の第 4の実施の形態を示す図であり
、第 1、第 2の実施の形態と同様の構成には同一番号を付して説明を省略する。
[0094] 図 14において、ロッド部 12の揺れによるカメラの位置揺れと回転揺れを検出する加 速度センサ (検出手段) 81と、舵角を検出する舵角センサ 82と、車輪の回転を検出 する車輪センサ 83とを備えている。
[0095] また、揺れ補正画像処理部 14は、図 15に示すようにポリゴン頂点座標投影変換部
88、ポリゴン頂点座標逆投影変換部 89、ポリゴン画像合成部 90、フロー解析部 91、 一致判定画像合成部 92、車両動き推定部 95および予測画像作成部 98を備えて ヽ る。 [0096] 本実施の形態では、図 16に示すように路面 19以外に路面 19上の複数の高さに設 定された面 84、 85、 86を想定し、これを図 15の複数距離面 87として、それぞれの面 で揺れが補正できるようにポリゴン頂点座標投影変換部 88およびポリゴン頂点座標 逆投影変換部 89でポリゴン座標の変換計算を行 ヽ、ポリゴン画像合成部 90がそれ ぞれの 84、 85、 86面で揺れが補正できるよう調整された複数の揺れ補正画像 120 を出力する。
[0097] その複数の揺れ補正画像 120は、メモリ 94とフロー解析部 91と一致判定画像合成 手段 92に出力される。メモリ 94では、過去の複数の揺れ補正画像 120が記憶されて おり、フロー解析部 91では現在の複数の揺れ補正画像 120との比較によって画像の 各部の動きを解析したフロー解析結果を車両動き推定部 95に出力する。
[0098] 車両動き推定部 95は舵角センサ 82から舵角情報 96、車輪センサ 83からの車輪情 報 97を用いて車両 11の動きを推定するとともにフロー解析部 91の解析結果を用い てこれを調整し、予測画像作成部 98に出力する。
[0099] 予測画像作成部 98は、車両動き推定部 95の出力結果に基づいて各複数距離面 8 7に対応した動き推定予測画像を出力する。また、一致判定画像合成部 92は、実際 の複数の揺れ補正画像 120の画面の各部において、各複数距離面 87に対応した 予測画像と最も一致する距離面の揺れ補正画像 93を判定選択して 1画面の画像を 合成する。
[0100] 図 17はこれらの様子を説明するための概略図であり、図 17 (a)は路面 19での補正 画像を示したものである。このとき、自車両が矢印 99aや 99bの方向に動いた場合、 補正画像中の路面 19の部分は矢印 100に示すように略反対方向に流れる。
[0101] このような流れはフロー解析 91において過去の補正画像と現在の補正画像を比較 すること〖こよって検出される。一方、舵角情報 96および車輪情報 97からも車両の動 きを推定できる。
[0102] 図 17 (a)中、舵角情報 96および車輪情報 97からも推定された車両の動き 99aを示 す。但し、この推定された車両の動き 99aには車輪のスリップ等により誤差を含む場 合がある。この誤差を減らすために、フロー解析結果 100をカ卩味することによって、よ り正確な車両の動き 99bの推定結果が求められ、予測画像作成部 98に出力される。 [0103] 予測画像作成部 98では、この車両の動き 99bの推定結果に対して、複数距離面 8 7に対応した動き推定予測画像を出力する。例えば、車両の動き 99bに対しては、路 面 19においては図 17 (a)中、符号 101のように画像が動き、また路面 19から高さ HI の面では符号 102のように画像が動くと想定され、すなわち、カメラ 13に近い高い面 ほど動きの大きさが大きくなるので、それぞれ過去の補正画像を、符号 103、 104の ように動かすことによって現在の補正画像の予測画像を得ることができる。
[0104] 一致判定画像合成部 92では、複数距離面 87における補正画像と予測画像を画面 各部で比較し、最も一致する距離面の補正画像を判定選択し、 1画面の画像を合成 する。このとき、画像にエッジが無くて同様に一致する場合などは路面 19に近いより 低い面が選択される。
[0105] 図 17 (b)はその様子を示したものであり、図 17 (b)中、路面 19や路面 19上の白線
20の部分は、路面 19上における補正画像と予測画像が最も一致するので、路面 19 上における補正画像が選択される。
[0106] 一方、他車両のバンパー等の障害物 105が画面に入ってくると、例えば、路面 19 力 高さ HI面での補正画像と予測画像が最も一致するので、高さ HIの面補正画像 が選択される。
[0107] このように選択された各部の画像を合成して 1枚の揺れ補正画像 93を出力する。な お、このとき、高さ HIの面と路面の補正画像がそれぞれ選択される部分の境界線 10 7では、画像の不連続性が強調されるので、高い位置 HIに有る面の選択部分から 低い位置にある路面 19の選択部分へと拡張する形で緩衝域 108を設け、その間で 重み付けを変えながら 2つの補正画像を合成することで画像の不連続性を抑えるよう にする。
[0108] この一致判定画像合成部 92では画面中のどの部分が複数距離面 87の何れかに 近いかを判定するので、この判定結果を車両動き推定部 95にフィードバックして、次 の時点でフロー解析結果を用 、た車両の動き推定の調整に利用する。
[0109] また、一致判定画像合成部 92では画面中、どの部分が複数距離面 87の何れかに 近いかを判定するので、その結果、障害物判定も可能となる。したがって、この判定 結果は、別途障害物検出警報にも利用できる。障害物が検出された場合には、図 17 (b)に示すように障害物警報部 109によって障害物検出警報 110を点滅させても良 ぐあるいは障害物 105と路面 19の境界の緩衝域 108上全体に警報をスーパーイン ポーズして点滅させても良!、。
[0110] また、ここでは一致判定画像合成部 92は、実際の複数揺れ補正画像 120の画面 の各部において、複数距離面 87に対応した予測画像と最も一致する距離面の補正 画像を判定選択し、 1画面の画像を合成する構成にしたが、他の態様として図 18〖こ 示す構成も可能である。
[0111] このように本実施の形態では、複数距離面 87を想定してそれぞれについてカメラ 1 3の位置揺れと回転揺れの影響を補正した補正画像と自車両 11の動きから過去の 画像を用いて予測した予測画像の一致を判定することによって、障害物 105が画面 に入った場合でも障害物の部分でも路面 19の部分でも揺れの影響が抑制された見 やす 、監視画像を得ることができる。
[0112] なお、図 18では図 15に示す一致判定画像合成部 92の代わりに、一致判定部 111 、ポリゴン頂点合成部 112、ポリゴン画像合成部 113を備えている。一致判定部 111 は、複数補正画像 120の画面の各部において、複数距離面 87に対応した予測画像 と最も一致する距離面の判定のみを行 、、その結果をポリゴン頂点合成部 112に出 力する。
[0113] ポリゴン頂点合成部 112は、ポリゴン頂点座標逆投影変換部 89の出力である複数 距離面 87で揺れ補正する場合のポリゴン頂点データと一致判定部 111の出力に基 づき、画像の各部で予測画像と最も一致する距離面で揺れ補正した場合のポリゴン 頂点データを合成し出力する。ポリゴン画像合成部 113はこのポリゴン頂点データを 元に撮像画像 35を用いて画像合成し、揺れ補正画像 93を出力する。
[0114] このようにすれば、高さの異なる面が選択される部分の境界でもポリゴン頂点データ で線形的に位置データが補間することができるので、画像の不連続性が強調される のを防止することができる。したがって、図 17 (b)に示すような緩衝域 108を設け、そ の間で重み付けを変えながら 2つの補正画像を合成することで画像の不連続性を抑 えるのを不要にできる。
[0115] 図 19乃至図 21は本発明に係る運転支援装置の第 5の実施の形態を示す図であり 、第 1、第 4の実施の形態と同様の構成には同一番号を付して説明を省略する。
[0116] 第 4の実施例では、揺れ補正画像 93を出力するのと同時に障害物検出警報 110 を副次的に出力することができる力 自車両の動きが少なくなり、カメラ 13の揺れが 少なくなつた場合、カメラ 13の位置がほとんど動かないために、どの距離面において も同様に予測画像と補正画像が一致する。この場合、一致判定画像合成部 92では 画像中に障害物が有っても路面が選択されるので、障害物検出精度が悪くなる。
[0117] 本実施の形態では、第 4の実施の形態をさらに効果的なものにするために、図 19 に示す振動手段 121をロッド部 12の先端のカメラ 13の位置に装着し、カメラ 13を積 極的に振動させている点に特徴があり、図 20に示すように振動手段 121からは振動 のタイミング信号を出力している。
[0118] すなわち、本実施の形態は、ロッド部 12を振動させる振動手段 121と、カメラ 13で 得られる画像を入力し、振動に対する画像の揺れ量から路面等の特定距離面を検 出する揺れ補正画像処理部 (距離検出手段) 14とを備えており、揺れ補正画像処理 部 14は第 4の実施の形態の構成に加えて、図 20に示すように、振動手段 121からの 振動のタイミング信号の出力に基づ!/、て振幅の片方の端点で撮像された画像のみを 選択してポリゴン頂点合成部 112とポリゴン画像合成部 113を動作させて揺れ補正 画像 93を合成させるためのスィッチ 122を備えている。
[0119] 図 21 (b)は振動の振幅の時間変化 141をグラフにしたものである。カメラ 13は振動 手段 121からの振動のタイミング信号を元に、振幅の両端である時間、具体的には 時間 142乃至 147のタイミングでシャッターを開けて画像を撮像する。したがって、振 動手段 121は 30Hzでカメラ位置を振動させるときにカメラ 13はその振幅の両端で秒 60枚の動画像を撮像する。
[0120] このようにカメラ位置を積極的に動かすことによって図 21 (a)に示すように障害物 1 32が画像内に入って来た場合、その部分の画像は路面 19よりも距離面 84等で予測 画像と補正画像が一致するので、これを判定することによって障害物の検出が可能と なる。
[0121] したがって、自車両 11の動きが止まった状態で、本来ロッド部 12が揺れないような 場合でも、カメラ位置を積極的に揺らすことによって安定した障害物検出精度を得る ことができる。
[0122] また、図 20に示すように振動手段 121からの振動のタイミング信号の出力に基づい てスィッチ 122によって振幅の片方の端点で撮像された画像のみを選択し、ポリゴン 頂点合成部 112とポリゴン画像合成部 113を動作させ揺れ補正画像 93を合成する。
[0123] また、振幅の片方の端点で撮像された画像として、図 21 (b)に示すように、時間 14 2、 144、 146で撮像されたものを選択し、揺れ補正画像 93を合成し出力する。この 場合には秒 30枚の動画像を出力する。
[0124] 以上のように、本実施の形態では、振動手段 121によってロッド部 12を振動させる ことによってカメラ 13に位置揺れが生じさせるようにしたので、それによる画像の揺れ 量によりカメラ 13からの距離を検出することができ、特定距離面が路面であるか障害 物であるかを検出することができる。
[0125] この結果、揺れ補正画像 93における振動手段 121によるカメラ位置の振幅の影響 はほとんど除去することができ、振動手段 121によるカメラ位置の振幅があるにもかか わらず第 4の実施例と略同等の揺れ補正画像を出力することができる。
産業上の利用可能性
[0126] 以上のように、本発明に係る運転支援装置は、棒状の保持手段の揺れによる画像 の乱れを防止して、良好な画像を得ることができるという効果を有し、車両周辺を撮 像して車内の表示手段に表示するようにした運転支援装置等して有用である。

Claims

請求の範囲
[1] 車両から突出する棒状の保持手段と、前記保持手段に設置され、前記車両の周囲 を撮像する撮像手段と、前記撮像手段から特定距離面の揺れを補正量として前記撮 像手段によって撮像された画像を処理して出力する揺れ補正画像処理手段とを備え たことを特徴とする運転支援装置。
[2] 前記揺れ補正画像処理手段は、前記車両に設定された複数の特徴点を追跡する ことにより、前記保持手段に設けられた前記撮像手段の回転揺れと位置揺れとを検 出し、検出された前記撮像手段の回転揺れと位置揺れとによる撮像手段力 特定距 離面までの画像への影響を打ち消すように補正することを特徴とする請求項 1に記載 の運転支援装置。
[3] 前記撮像手段の回転揺れと位置揺れとを検出する検出手段を有し、
前記揺れ補正画像処理手段は、前記検出手段によって検出された撮像手段の回 転揺れと位置揺れによって前記撮像手段から特定距離面で生じる画像上の揺れを 打ち消すように揺れを補正することを特徴とする請求項 1に記載の運転支援装置。
[4] 前記揺れ補正画像処理手段は、前記撮像手段から特定距離面に撮像画像を投影 変換した後、揺れの生じな!/ヽ仮想撮像手段に逆投影変換する画像合成を行うことを 特徴とする請求項 1に記載の運転支援装置。
[5] 前記撮像手段の撮像範囲について前記撮像手段からの距離を測距する測距手段 を有し、
前記揺れ補正画像処理手段は、前記測距手段の検出情報に基づ!、て前記特定 距離面を可変にすることを特徴とする請求項 1乃至請求項 4の何れ力 1つに記載の 運転支援装置。
[6] 前記揺れ補正画像処理手段は、複数の距離面を想定し、それぞれの距離面につ V、て前記撮像手段の位置揺れと回転揺れの影響を補正した補正画像と自車両の動 きから過去の画像を用いて予測した予測画像との一致を判定した後、前記撮像手段 の画面の各部にお!、て最も一致する距離面の補正画像を選択し、補正画像を合成 することを特徴とする請求項 1に記載の運転支援装置。
[7] 前記保持手段を振動させる振動手段を有し、前記揺れ補正画像処理手段は、前 記振動手段によって前記保持手段を振動させたときに、前記振動に対する撮像画像 の揺れ量から前記特定距離面を検出することを特徴とする請求項 1に記載の運転支 援装置。
前記撮像手段によって撮像された画像を表示する表示手段を備えたことを特徴と する請求項 1に記載の運転支援装置。
PCT/JP2005/002287 2004-02-16 2005-02-16 運転支援装置 WO2005079060A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP05710237.8A EP1718062B1 (en) 2004-02-16 2005-02-16 Operation support device
US10/597,922 US20080151053A1 (en) 2004-02-16 2005-02-16 Operation Support Device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-038640 2004-02-16
JP2004038640A JP3980565B2 (ja) 2004-02-16 2004-02-16 運転支援装置

Publications (1)

Publication Number Publication Date
WO2005079060A1 true WO2005079060A1 (ja) 2005-08-25

Family

ID=34857815

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/002287 WO2005079060A1 (ja) 2004-02-16 2005-02-16 運転支援装置

Country Status (5)

Country Link
US (1) US20080151053A1 (ja)
EP (1) EP1718062B1 (ja)
JP (1) JP3980565B2 (ja)
CN (1) CN100440934C (ja)
WO (1) WO2005079060A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8103442B2 (en) 2006-04-28 2012-01-24 Panasonic Corporation Navigation device and its method

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4994695B2 (ja) * 2006-04-13 2012-08-08 キヤノン株式会社 像振れ補正装置、鏡筒及び撮像装置
US20100118112A1 (en) * 2008-11-13 2010-05-13 Polycom, Inc. Group table top videoconferencing device
JP5994437B2 (ja) * 2012-07-04 2016-09-21 株式会社デンソー 車両周囲画像表示制御装置および車両周囲画像表示制御プログラム
PL2876721T3 (pl) * 2013-02-15 2023-01-09 Lg Energy Solution, Ltd. Zespół elektrodowy
CN103358994B (zh) * 2013-07-10 2016-08-10 奇瑞汽车股份有限公司 一种汽车前视摄像系统
KR101586249B1 (ko) 2013-12-24 2016-01-18 (주)에프엑스기어 광 시야각 영상 처리 장치 및 방법
JP6095592B2 (ja) * 2014-02-17 2017-03-15 日立建機株式会社 油圧ショベルの監視画像表示装置
DE102014011218B3 (de) * 2014-07-29 2016-02-04 Audi Ag Kraftfahrzeug
JP6041005B2 (ja) * 2015-02-10 2016-12-07 株式会社Jvcケンウッド 表示制御装置及び表示システム
WO2016195123A1 (ko) * 2015-05-29 2016-12-08 (주)에프엑스기어 광 시야각 영상 처리 장치 및 방법
US9531996B1 (en) 2015-10-01 2016-12-27 Polycom, Inc. Method and design for optimum camera and display alignment of center of the room video conferencing systems
JP6493143B2 (ja) * 2015-10-15 2019-04-03 株式会社デンソー 表示制御装置及び表示制御プログラム
US10086763B2 (en) * 2016-07-19 2018-10-02 GM Global Technology Operations LLC System and method for enhancing vehicle environment perception
CN106080398A (zh) * 2016-08-27 2016-11-09 时空链(北京)科技有限公司 一种汽车安全监测系统和方法
JP6624169B2 (ja) * 2017-07-21 2019-12-25 株式会社デンソー 撮像装置及び車両用表示装置
CN110836656B (zh) * 2018-08-15 2022-01-18 深圳地平线机器人科技有限公司 用于单目adas的防抖测距方法、装置和电子设备
CN110312072A (zh) * 2019-05-14 2019-10-08 深圳市歌美迪实业有限公司 一种流媒体后视镜图像抖动补偿方法及其装置
CN110602393B (zh) * 2019-09-04 2020-06-05 南京博润智能科技有限公司 一种基于图像内容理解的视频防抖方法
US11122211B2 (en) * 2020-02-18 2021-09-14 GM Global Technology Operations LLC Modular under-vehicle camera
CN113380243A (zh) * 2021-05-27 2021-09-10 广州广电运通智能科技有限公司 一种辅助语音交互的方法及系统、存储介质
CN115225814B (zh) * 2022-06-17 2023-09-05 苏州蓝博控制技术有限公司 摄像头组件及其视频处理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0236417A (ja) 1988-07-26 1990-02-06 Nec Corp ファーストインファーストアウト型半導体メモリ
JPH09312836A (ja) 1996-05-22 1997-12-02 Toshiba Corp 視覚装置
WO2001021446A1 (en) * 1999-09-20 2001-03-29 Matsushita Electric Industrial Co., Ltd. Device for assisting automobile driver
JP2003063310A (ja) 2001-08-23 2003-03-05 Matsushita Electric Ind Co Ltd 車両用撮像装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03260781A (ja) * 1990-03-09 1991-11-20 Mitsubishi Heavy Ind Ltd 画像処理方法
JP3287117B2 (ja) * 1994-07-05 2002-05-27 株式会社日立製作所 撮像装置を用いた車両用の環境認識装置
US6160907A (en) * 1997-04-07 2000-12-12 Synapix, Inc. Iterative three-dimensional process for creating finished media content
JP3877475B2 (ja) * 1999-09-22 2007-02-07 富士重工業株式会社 車載カメラの取付構造
JP3679988B2 (ja) * 2000-09-28 2005-08-03 株式会社東芝 画像処理装置及び画像処理方法
CN2456967Y (zh) * 2000-12-06 2001-10-31 全安电子股份有限公司 摄像式路况监视装置
JP4861574B2 (ja) * 2001-03-28 2012-01-25 パナソニック株式会社 運転支援装置
JP4187704B2 (ja) * 2004-08-31 2008-11-26 三洋電機株式会社 手ぶれ補正装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0236417A (ja) 1988-07-26 1990-02-06 Nec Corp ファーストインファーストアウト型半導体メモリ
JPH09312836A (ja) 1996-05-22 1997-12-02 Toshiba Corp 視覚装置
WO2001021446A1 (en) * 1999-09-20 2001-03-29 Matsushita Electric Industrial Co., Ltd. Device for assisting automobile driver
JP2003063310A (ja) 2001-08-23 2003-03-05 Matsushita Electric Ind Co Ltd 車両用撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1718062A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8103442B2 (en) 2006-04-28 2012-01-24 Panasonic Corporation Navigation device and its method

Also Published As

Publication number Publication date
US20080151053A1 (en) 2008-06-26
EP1718062A4 (en) 2008-03-12
JP2005229529A (ja) 2005-08-25
EP1718062B1 (en) 2015-01-21
CN100440934C (zh) 2008-12-03
JP3980565B2 (ja) 2007-09-26
CN1918901A (zh) 2007-02-21
EP1718062A1 (en) 2006-11-02

Similar Documents

Publication Publication Date Title
WO2005079060A1 (ja) 運転支援装置
JP4193886B2 (ja) 画像表示装置
US8576285B2 (en) In-vehicle image processing method and image processing apparatus
JP4583883B2 (ja) 車両用周囲状況表示装置
JP4810953B2 (ja) 車両用死角映像表示装置
CN101404122B (zh) 驾驶支援装置以及驾驶支援方法
JP5222597B2 (ja) 画像処理装置及び方法、運転支援システム、車両
JP2009017462A (ja) 運転支援システム及び車両
JP2002335524A (ja) 運転支援装置
JP2001218197A (ja) 車両用周辺表示装置
JP2006287892A (ja) 運転支援システム
JP2009524171A (ja) 複数の画像を結合して鳥瞰図画像にする方法
JP2006268076A (ja) 運転支援システム
JP2010154304A (ja) 移動体カメラシステム及び駆動方法
JP4857159B2 (ja) 車両運転支援装置
US10547815B2 (en) Bird's-eye view video generation device, bird's-eye view video generation method and non-transitory storage medium
JP5907914B2 (ja) 車両用運転支援装置
KR102493994B1 (ko) 영상 흔들림 보정 기능을 구비한 자동차용 영상 저장 장치
JP2010237798A (ja) 画像処理装置および画像処理プログラム
JP2015182646A (ja) 撮影装置
JP2020006954A (ja) ドラブレコーダ、撮影画像表示装置、撮影画像表示方法、撮影画像表示プログラム及び記憶媒体
JP4696825B2 (ja) 車両用死角映像表示装置
JP6999239B2 (ja) 画像処理装置および画像処理方法
WO2016157666A1 (ja) カメラ姿勢推定装置、運転支援装置、及び、カメラ姿勢推定方法
JP6047975B2 (ja) 車両用画像処理装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 200580004443.7

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2005710237

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10597922

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 2005710237

Country of ref document: EP