WO2003107273A1 - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
WO2003107273A1
WO2003107273A1 PCT/JP2003/006482 JP0306482W WO03107273A1 WO 2003107273 A1 WO2003107273 A1 WO 2003107273A1 JP 0306482 W JP0306482 W JP 0306482W WO 03107273 A1 WO03107273 A1 WO 03107273A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
vehicle
model
dimensional projection
road surface
Prior art date
Application number
PCT/JP2003/006482
Other languages
English (en)
French (fr)
Inventor
水澤 和史
Original Assignee
松下電器産業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 松下電器産業株式会社 filed Critical 松下電器産業株式会社
Priority to EP20030730616 priority Critical patent/EP1513101A4/en
Priority to US10/488,458 priority patent/US7554573B2/en
Priority to KR1020047005845A priority patent/KR100937750B1/ko
Publication of WO2003107273A1 publication Critical patent/WO2003107273A1/ja

Links

Classifications

    • G06T3/047
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T5/80
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60GVEHICLE SUSPENSION ARRANGEMENTS
    • B60G2400/00Indexing codes relating to detected, measured or calculated conditions or factors
    • B60G2400/80Exterior conditions
    • B60G2400/82Ground surface
    • B60G2400/821Uneven, rough road sensing affecting vehicle body vibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60GVEHICLE SUSPENSION ARRANGEMENTS
    • B60G2400/00Indexing codes relating to detected, measured or calculated conditions or factors
    • B60G2400/80Exterior conditions
    • B60G2400/82Ground surface
    • B60G2400/823Obstacle sensing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60GVEHICLE SUSPENSION ARRANGEMENTS
    • B60G2400/00Indexing codes relating to detected, measured or calculated conditions or factors
    • B60G2400/80Exterior conditions
    • B60G2400/82Ground surface
    • B60G2400/824Travel path sensing; Track monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60GVEHICLE SUSPENSION ARRANGEMENTS
    • B60G2401/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60G2401/14Photo or light sensitive means, e.g. Infrared
    • B60G2401/142Visual Display Camera, e.g. LCD
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective

Definitions

  • the present invention relates to a driving support device that displays a rear image of a vehicle captured by a vehicle-mounted camera on a vehicle-mounted monitor and assists driving when the vehicle is moving backward.
  • the present invention relates to a driving assistance device that is not provided. Background technology>
  • Driving support devices that install an in-vehicle camera in a rear trunk portion of a vehicle or the like and present the captured image behind the vehicle obtained from the in-vehicle camera to a driver have begun to spread.
  • Some of these driving assistance devices convert the live-action video of the on-board camera into a video as if it were taken from a virtually set viewpoint, synthesize the video, and display it on a monitor. Used for safety checks and parking assistance.
  • a three-dimensional projection model used when synthesizing and converting images for example, as shown in FIG. 10, a three-dimensional projection model 1 composed of a cylindrical surface model 101 and a plane model 102 is used. 0 0 is used. Then, the real image taken by the ability camera 103 is converted into an image viewed from the virtual camera 104, synthesized, and displayed on the in-vehicle monitor as an image projected on the three-dimensional projection model 100.
  • FIG. 11 is an explanatory diagram of an image obtained by projecting the captured image of the straight line 105 shown in FIG. 10 onto the three-dimensional projection model 100.
  • the straight line image 105 a on the monitor screen 106 is bent at the model boundary 107 between the cylindrical surface model 101 and the plane model 102.
  • the straight line 105 that is originally a straight line is bent.
  • the reason why the image is converted as image 105 a is that display distortion is concentrated on the model boundary 107 of the two three-dimensional projection models 101 and 102, and this image 105 a The driver who sees it feels strange.
  • the two 3D projection models are smoothed by a curved surface (third 3D projection model). If they are easily connected, the straight-line image 105a can be smoothly bent as shown in Fig. 12 to reduce the sense of discomfort. However, since the distortion concentrates on the projection plane 108 onto the third three-dimensional model, the sense of incongruity still remains.
  • the three-dimensional projection model 200 is composed of a cylindrical surface model 101 for projecting a distant view image, and a spherical model 201 that smoothly continues to project a nearby image.
  • the spherical model 201 as a model for projecting the captured image near the vehicle, the entire projected image on the spherical model 201 changes smoothly, and the uncomfortable feeling for the driver is considerably reduced.
  • the captured image near the vehicle does not concentrate at a specific location and is distorted, but the entire image is distorted. is there.
  • an image obtained by capturing a lattice pattern on the ground surface 202 with the ability camera 103 and projecting the captured image onto the spherical model 201 as shown in FIG. 14 is totally distorted.
  • the straight lines that form the grid on the ground 202 are originally displayed as curves on the screen 106, and it is difficult to grasp the positional relationship between the vehicle and the surroundings. There's a problem.
  • An object of the present invention is to provide a driving support device equipped with a three-dimensional projection model capable of monitoring and displaying a captured image near a vehicle as an image with little distortion while suppressing a sense of incongruity of a captured image farther from the vehicle.
  • a driving support device that achieves the above object includes: an imaging unit that captures an image of a periphery of a vehicle on a road surface; and a vehicle that has a convex shape on the road surface side when the image captured by the imaging unit is converted into an image viewed from a virtual viewpoint.
  • Image conversion means for performing image conversion using a three-dimensional projection model whose height from the road surface does not change within a predetermined range from the front end portion of the traveling direction, and a display for displaying an image converted by the image conversion means. It is characterized by having means.
  • a straight line parallel to the vehicle traveling direction such as a parking frame drawn on a road surface near the vehicle, is displayed as a straight line on the screen of the display unit. This makes it easier to grasp the relative positional relationship between the vehicle and the surroundings.
  • the three-dimensional projection model is provided with a continuous projection surface that gradually rises from the road surface in a region beyond a predetermined range in the width direction of the vehicle.
  • a projection surface gradually rising from the road surface is continuously provided in a region in the traveling direction of the vehicle exceeding the predetermined range.
  • the three-dimensional projection model is formed of a continuous curved surface that can be differentiated in all regions except the end points.
  • the three-dimensional projection model is formed of a continuous curved surface that can be differentiated in all regions except the end points.
  • there are no discontinuous singularities on the screen and there is no discomfort caused by connecting multiple 3D models (cylindrical or spherical).
  • the slope of the convex surface the magnification and distortion on the screen can be changed, and by using this, the sense of distance and direction on the screen can also be adjusted.
  • each of the three-dimensional models is a smooth curved surface that is convex downward, the image distortion is not concentrated at a specific location, but is dispersed over the entire screen, and the screen is easy to see. This makes it possible to provide the driver with an easy-to-understand image of the sense of distance and without discomfort.
  • the three-dimensional projection model has a cylindrical surface having a convex shape on the road surface side and a spherical surface smoothly continuing to an end of the cylindrical surface.
  • the three-dimensional projection model can be represented by an equation, and image conversion processing or creation of a mapping table described later becomes easy.
  • the predetermined range is such that the length of the vehicle in the traveling direction is less than 120% of a general or parking frame length of 5 m, and the width is 3 m of a general parking frame width. It has an arbitrary size in the range of 80% to 120%, and is projected on the cylindrical surface. With this configuration, it is possible to provide the driver with a screen suitable for parking driving. More preferably, the cylindrical surface is an elliptical cylindrical surface, and the ratio of the maximum width to the minimum width between equally spaced grid lines parallel to the central axis of the cylindrical surface on the road surface projected on the cylindrical surface is An ellipse that is at least 80% in the predetermined range is defined as the ⁇ -dimensional projection model. It is characterized by having. With this configuration, a screen with less distortion can be presented to the driver.
  • the left and right ends of the rear end image of the vehicle displayed on the screen of the display means are within at least 15% of the screen width from both end positions of the screen.
  • a projection model and a position of the virtual viewpoint are set.
  • the positions of the three-dimensional projection model and the virtual viewpoint are set such that a straight line shape of the rear end of the vehicle within the predetermined range is displayed as a straight line image on a screen of the display means. I do.
  • the shape of the bumper and the like of the own vehicle can be easily confirmed, and the positional relationship between the road surface and the own vehicle can be accurately grasped.
  • the three-dimensional projection model and the three-dimensional projection model described above such that both left and right ends of the rear end image of the vehicle displayed on the screen of the display means are within at least 15% of the screen width from both end positions of the screen.
  • a vehicle rear image such as a bumper displayed larger than the width of the vehicle on the road surface is cut to an appropriate width by the screen width. Since it is displayed, it is possible to reduce the factor of discomfort that the width of the vehicle on the road surface and the width of the bumper are displayed greatly differently.
  • a guide line indicating a straight line on a road surface that is parallel to the traveling direction of the vehicle and that is outside the vehicle width by a predetermined value is superimposed on the image converted using the three-dimensional projection model. And displaying it on the screen of the display means.
  • the image conversion means converts the captured image using a mapping table storing a conversion address based on the three-dimensional projection model.
  • FIG. 1 is a configuration diagram of a driving support device according to an embodiment of the present invention mounted on a vehicle.
  • FIG. 2 is a detailed configuration diagram of a driving assistance device according to an embodiment of the present invention.
  • FIG. 3 is a diagram of a wide-angle camera captured by an imaging device of the driving assistance device according to the embodiment of the present invention. It is a schematic diagram showing a captured image,
  • FIG. 4 is a schematic view of an image obtained by removing a lens distortion from an image captured by a wide-angle camera captured by an image capturing apparatus of a driving assistance device according to an embodiment of the present invention.
  • FIG. It is a schematic diagram showing a monitor display screen by the driving support device according to the embodiment,
  • FIG. 6 is a schematic diagram showing a modified example of a monitor display screen by the driving assistance device according to one embodiment of the present invention
  • FIG. 7 is an explanatory diagram of a three-dimensional projection model used in the driving assistance device according to one embodiment of the present invention.
  • FIG. 8 is an explanatory diagram of a three-dimensional projection model according to one embodiment of the present invention.
  • FIG. 9 is a schematic diagram illustrating a conversion example of a converted image by the three-dimensional projection model according to one embodiment of the present invention.
  • FIG. 10 is an explanatory diagram of a three-dimensional projection model used in a conventional driving assistance device.
  • FIG. 11 is a schematic diagram of a converted image based on a three-dimensional projection model used in a conventional driving assistance device.
  • FIG. 12 is a schematic diagram showing a modified example of the converted image by the conventional driving support device.
  • FIG. 13 is an explanatory diagram of another three-dimensional projection model used in the conventional driving support device.
  • FIG. 14 is a schematic diagram illustrating image distortion by the three-dimensional projection model of FIG. 13 used in a conventional driving assistance device.
  • 1 is the own vehicle
  • la is a pamper image
  • 2 is an imaging device
  • 3 is an image synthesis conversion device
  • 4 is a display device (monitor)
  • 10 is a distance display guide line
  • 11 is a car.
  • 12 is a straight guide line on the road surface
  • 21 and 23 are cameras
  • 22 and 24 are frame memories
  • 31 is image synthesis means
  • 32 is mapping table reference means
  • 3 2a is conversion address memory
  • 3 2b is necessity memory
  • 3 3 is video signal generation means
  • 300 is a three-dimensional projection model
  • 310 is a cylindrical surface model (ellipse)
  • 302 is a spherical model (ellipse)
  • 506 is a plane model
  • 512 and 522 are elliptical cylindrical surfaces.
  • FIG. 1 is a configuration diagram of a driving support device according to an embodiment of the present invention mounted on a vehicle.
  • This driving support device includes an imaging device 2 installed in a vehicle 1, an image synthesis conversion device 3 that processes an image captured by the imaging device 2, and a module 4 that displays an image after the image synthesis conversion. Be composed.
  • the imaging device 2 is installed so as to photograph the rear of the vehicle 1, and the image acquired by the imaging device 2 is subjected to lens distortion removal by the image synthesis conversion device 3, and it is also possible to use a virtual virtual viewpoint.
  • the image is converted into an image as if it were taken from the camera, and displayed on the monitor (display means) 4.
  • FIG. 2 is a detailed configuration diagram of the driving support device.
  • the imaging device 2 includes a camera 21 installed to capture an image of the left area behind the vehicle, a frame memory 22 for temporarily storing an image taken by the camera 21, and an image of the right area behind the vehicle. And a frame memory 24 for temporarily storing captured image data of the camera 23.
  • the left and right images of the rear of the vehicle are captured by the cameras 21 and 23, respectively, and the left and right captured images are combined, but the left and right images of the rear of the vehicle are captured by one camera at a time. It may be.
  • the image synthesizing and converting device 3 is composed of image synthesizing means 31 for synthesizing left and right images behind the vehicle taken from the two frame memories 22 and 24 of the imaging device 2, and an image to be synthesized by the image synthesizing means 31. It comprises mapping table reference means 32 which stores mapping information of each pixel of the above, and video signal generation means 33 which converts an image synthesized by the image synthesis means 31 into a video signal.
  • the mapping table reference means 32 corresponds to the correspondence between the position coordinates of each pixel of the output image (the image displayed on the monitor 4) and the position coordinates of each pixel of the input image (the images captured by the cameras 21 and 23).
  • a translation address memory 32 a storing a translation address (mapping table) indicating the necessity and a necessity memory 32 b storing the necessity of each pixel of the input image Is provided.
  • the “necessity level” refers to the right side when determining the value of each pixel data in the area where the left and right input images overlap when, for example, the left and right input images are joined to the left and right to generate one output image.
  • the required value of the input pixel is “0.5” and the required value of the left input pixel is “0.5”.
  • the conversion address is generated in advance based on a three-dimensional projection model described later in detail, and is stored in the conversion address memory 32a.
  • the image synthesizing means 31 converts each pixel data in the frame memories 22 and 24 based on the conversion address (mapping table) recorded in the mapping table reference means 32 according to the designated necessity.
  • the combining operation is performed by the mixers 31a and 31b, and the combined left and right pixel data is added by the adder 31c to generate the output pixel data.
  • the image synthesizing means 31 operates based on, for example, an appropriate synchronization signal such as an input image signal, and converts images input from two different cameras 21 and 23 according to the moving-table reference means 32.
  • an appropriate synchronization signal such as an input image signal
  • the video signal generation means 33 converts the output pixel data output from the image synthesis means 31 into a video signal and outputs the video signal to the monitor 4.
  • the conversion address stored in the mapping table reference means 32 is generated based on the three-dimensional projection model according to the present embodiment.
  • This three-dimensional projection model is a model showing a correspondence relationship when an image captured by the cameras 21 and 23 is converted into an image captured by a virtual camera installed at a virtual viewpoint position.
  • the cameras 21 and 23 are actually wide-angle cameras, and the image behind the vehicle, which can be obtained by combining the captured images left and right, is larger as the distance is closer and smaller as the distance is farther away, as shown in Fig. 3. Is displayed.
  • the parking area behind the vehicle (generally, a rectangular area about 5 m in length and about 3 m in width.
  • this parking area is shown in a grid pattern.
  • the image is captured by a wide-angle camera, in the present embodiment, the image of FIG. 3 is generated using a three-dimensional projection model described later.
  • the converted address is displayed on the monitor 4 as an easy-to-see image with little distortion as shown in FIGS.
  • FIG. 7 is a diagram showing a three-dimensional projection model used in the present embodiment.
  • the three-dimensional projection model 300 used in the present embodiment includes a cylindrical surface model 301 that projects an image of a distant view, and a spherical model 3 that smoothly follows this cylindrical surface model 301 and projects a nearby image. 0 and 2.
  • This three-dimensional projection model 300 differs from the conventional three-dimensional projection model 200 described in FIG. 13 in the arrangement direction. That is, in the present embodiment, the axis of the cylindrical surface model 301 is arranged parallel to the ground (road surface), that is, the traveling direction of the vehicle 1, and the lower convex surface of the cylindrical surface model 301 is the ground. It is characterized by the configuration arranged on the side.
  • An imaging device 2 for rearward imaging mounted on the vehicle 1 captures a rearward image in the axial direction of the three-dimensional projection model 300, and an image synthesis conversion device 3 converts an image captured by the imaging device 2 into a three-dimensional image.
  • the image is converted into an image taken by the virtual camera 2 a installed via the projection model 300 and as if it were above the actual imaging device 2, and displayed on the monitor 4.
  • the cylindrical surface 300 of the three-dimensional projection model 300 is set on a road surface such that the central axis of the cylindrical surface 301 is parallel to the traveling direction of the vehicle 1.
  • This is a semi-cylindrical model cut in half on a plane parallel to the road surface.
  • the spherical model 302 has the same radius as the cylindrical model 301, and its center is on the central axis of the cylindrical model 301, and passes through the center of the cylindrical model 3102.
  • the cut surface when cut along a plane perpendicular to the central axis of 01 is a spherical surface that completely matches the cylindrical surface 301. That is, the cylindrical surface model 301 and the spherical model 302 become differentiable at all points (excluding the end points) on the boundary.
  • the three-dimensional projection model 300 described above has been described as a “cylindrical” or “sphere” for convenience of explanation, but it is not necessary to be a complete “cylindrical” or “sphere”. Is also good.
  • a flat ellipse on the road surface side is used as a three-dimensional projection model.
  • FIG. 8 is a diagram in which the three-dimensional projection model formed by the ellipse is cut by a plane perpendicular to the traveling direction of the vehicle 1. In FIG. 8, not only the lower half of the ellipse constituting the model but also the entire ellipse is shown.
  • FIG. 8 shows three three-dimensional projection models.
  • FIGS. 9 (a), 9 (b) and 9 (c) respectively show images converted into images as if they were taken by the virtual camera 2a shown in FIG. Note that this is the case when the virtual camera 2a is facing directly below.
  • the axis parallel to the center axis of the cylindrical surface of the ellipses 5 2 1 and 5 2 2 and on the road is the Y axis
  • the axis orthogonal to the Y axis and perpendicular to the road is Z
  • the values on the Y axis are the same for each model 506, 521, and 522.
  • the height (value in the Z-axis direction) differs as the distance increases.
  • the lines parallel to the Y axis are drawn as parallel lines on the screen converted using each model 506, 521, 5222, and the flatness As shown in Fig. 9 (c), in the small model of the model, i.e., the model 522 that moves away from the road surface as it moves away in the X-axis direction, the grid pattern The interval X 2 becomes narrower.
  • the three-dimensional projection model 300 used in the present embodiment (the cylindrical surface model 301 of the actually used model 300 is the elliptical cylindrical surface model 521 shown in FIG. 8). Then, as the spherical model 302, an elliptical spherical model that is smoothly continuous with the elliptical cylindrical model 5 21 is used. Is determined as follows.
  • the X-axis direction shown in FIG. 8 is the vehicle width direction of the own vehicle 1 shown in FIG. 7, it is from 80% of 3 m which is a width of a general parking frame centered on the Y-axis to 12% Take an arbitrary range 503 of 0%, and in the image after conversion via the three-dimensional projection model 521 in this range 503, as shown in Fig. 9 (b), An elliptic three-dimensional projection model 521 is set such that the ratio between the maximum value Xmax and the minimum value Xmin of the grid pattern that is equally spaced on the road surface is at least 80% or more.
  • FIGS. 5 and 6 show the results of determining the cylindrical surface model 301 of FIG. 7 using the ellipse and displaying the converted image of the lattice pattern.
  • a straight line extending in the same direction as the traveling direction of the host vehicle 1 is displayed as a straight line in the converted image, and the image distortion in the converted image with respect to the vehicle width direction is a gentle distortion that does not cause a sense of discomfort. Can be suppressed.
  • a straight line parallel to the Y-axis such as the line on the roadside or the side of the parking frame, is used as a mark when driving a vehicle, so a straight line parallel to the Y-axis may not be displayed as a straight line in the converted image.
  • This is a great advantage in driving operation.
  • the cylindrical surface model 301 is adopted as a model for projecting the captured image of the road surface, the straight line is converted into a straight line, and this advantage can be enjoyed.
  • the projection surface be a surface rising from the road surface.
  • this projection surface is a surface that rises sharply from the cylindrical surface 301, image distortion is concentrated at the boundary, so it is better to use a projection surface that rises gradually. Since the elliptical model 521 gradually rises in the range 504, the image distortion can be dispersed throughout the screen by using the elliptical model 521 in the range 504. Thus, a converted image with less discomfort can be provided.
  • the Y-axis direction is the traveling direction of the vehicle, that is, the vehicle length direction
  • image conversion is performed using the model 521 in a predetermined range from the rear end of the vehicle, and model 521 is performed in a range beyond the predetermined range from the rear end of the vehicle.
  • Image conversion is performed using an elliptical sphere (model 302 in FIG. 7) that is continuous with the image.
  • the predetermined range in the Y-axis direction since the range of a general parking frame is 5 m in length, it is desirable to set an arbitrary value in a range of 80% to 120% of this 5 m. Further, it is preferable not to have a tilt in the Y-axis direction within this predetermined range.
  • the cylindrical surface model 300 of the three-dimensional projection model 300 according to the present embodiment has a height from the road surface at the lowermost position. Is set to zero (coincides with the road surface) over the length of the cylindrical surface model 301. Thus, the straight line in the captured image within the predetermined range is displayed as a straight line in the converted image.
  • a straight line is displayed as a straight line in front of distance display line 10 indicating a range of 2 m from the rear end of the vehicle, and 2 m
  • image conversion is performed using the elliptical sphere model 302.
  • the range to be set depends on the installation position and resolution of the imaging device 2, the position of the virtual viewpoint, and the like.From the viewpoint of driving support, the range of the parking frame from the rear end of the vehicle 1 is considered. It is desirable to apply the ellipse model 301 with a predetermined range, and to apply the ellipsoidal sphere model 302 to the rest.
  • a three-dimensional projection model is configured by an elliptical cylindrical surface model 301 and an elliptical spherical model 302.
  • the spherical model 3 0 2 of the ellipse and the cylindrical model 3 0 1 of the ellipse are continuously connected, and as a result, as shown in FIGS.
  • the connection is smooth, the boundary cannot be identified, and the interface does not feel uncomfortable.
  • the degree of image distortion of the three-dimensional object in this range 504 can be adjusted.
  • the degree of distortion of an image photographed by an imaging device using a wide-angle lens can be adjusted, and It becomes possible to set the enlargement ratio of the vehicle so as to be closer to the sense of distance when viewed from the actual rear window.
  • FIG. 4 shown for comparison is a diagram showing an image obtained by removing the lens distortion of the wide-angle lens from the image of the wide-angle camera in FIG. By simply removing this lens distortion, It can be confirmed that the effect of emphasizing perspective due to the use of the wide-angle lens has not been reduced. In other words, a far image appears farther, and the perspective is still emphasized.
  • the perspective image is transformed using the spherical model of the ellipse 302, so that the perspective is reduced and the image becomes easy to see as shown in FIG. I have.
  • the image shown in Fig. 5 is obtained.
  • the image can be converted and displayed on the monitor 4 as shown in FIG. That is, the width d of the vehicle 1 on the road surface can be displayed so as to be enlarged on the screen.
  • the image of FIG. 5 is converted and displayed so that both end positions of the vehicle are within 15% of the screen width from both end positions of the screen.
  • a mark 11 indicating the vehicle width, and a straight line on the road surface which is parallel to the vehicle traveling direction and slightly outside the vehicle width d is a guide line 12 Display as By displaying these, the relative positional relationship between the roadside parking frame and the host vehicle can be intuitively grasped from the screen, which helps accurate driving operation.
  • the three-dimensional projection model which is a combination of the cylindrical surface model and the spherical model described above, does not necessarily need to be constituted by a curved surface defined by an equation, but is determined by the applicable range and properties.
  • the elliptical cylindrical model 3 0 1 does not necessarily have to be elliptical according to the elliptic equation, but is a three-dimensional projection model that is convex downward, and the distortion of the transformed image is dispersed throughout the image. Any shape may be used.
  • a driving assistance device that can display a captured image near a vehicle on a monitor as an image with little distortion.

Abstract

本発明の課題は、車両近傍の撮像画像を歪みの少ない画像としてモニタ表示可能とすることができる運転支援装置を提供することである。本発明に係る運転支援装置は、路面上の車両(1)の周囲を撮像する撮像手段(2)と、撮像手段(2)による撮像画像を仮想カメラ(2a)から見た画像に変換するに際し路面側に凸形状で且つ車両(1)の進行方向端部から所定範囲内では路面からの高さが無変化な三次元投影モデル(300)を用いて画像変換を行う画像変換手段(3)と、画像変換手段(3)により変換された画像を表示する表示手段(4)とを設ける。三次元投影モデル(300)は、路面側に凸形状の円筒面モデル(301)と、この円筒面モデル(301)の端部に連続する球面モデル(302)とで構成する。これにより、円筒面モデル(301)の中心軸に平行な路面上の直線が変換画像で直線となり、見やすく歪みの少ない画面を運転者に提示可能となる。

Description

明 細
<技術分野 >
本発明は車載カメラで撮像した車両後方画像を車載モニタに表示し車両後退時 の運転を支援する運転支援装置に係り、 特に、 車載モニタに歪みの少ない画像を 表示して運転者に違和感を与えない様にした運転支援装置に関する。 ぐ背景技術 >
車載カメラを車両のリアトランク部等に後ろ向きに設置し、 この車載カメラか ら得られた車両後方の撮像画像を運転者に提示する運転支援装置が普及し始めて いる。 この運転支援装置には、 車載カメラの実写映像をあたかも仮想的に設定し た視点から撮影したかのような映像に変換、 合成して、 モニタに表示するものも あり、 主として、 車両後退時の安全確認と駐車支援を目的として使用される。 画像を合成、 変換する際に使用する三次元投影モデルとして、 例えば、 図 1 0 に示す様に、 円筒面モデル 1 0 1と、 平面モデル 1 0 2とで構成された三次元投 影モデル 1 0 0が使用される。 そして、 実力メラ 1 0 3による実写映像を、 仮想 カメラ 1 0 4から見た画像に変換、 合成し、 三次元投影モデル 1 0 0に投影した 画像として車載モニタに表示する。
図 1 1は、 図 1 0に示す直線 1 0 5の撮像画像を三次元投影モデル 1 0 0に投 影した画像の説明図である。 モニタ画面 1 0 6上の直線画像 1 0 5 aは、 円筒面 モデル 1 0 1と平面モデル 1 0 2とのモデル境界 1 0 7において折れ曲がって表 示されてしまう。 このように、 遠方画像を投影する円筒面と、 近傍画像を投影す る平面とを組み合わせた三次元投影モデル 1 0 0を使用した場合、 本来は真つ直 ぐな直線 1 0 5が折れ曲がった画像 1 0 5 aとして変換されてしまうのは、 2つ の三次元投影モデル 1 0 1、 1 0 2のモデル境界 1 0 7に表示の歪みが集中する ためであり、 この画像 1 0 5 aを見た運転者は、 違和感を感じてしまう。
そこで、 2つの三次元投影モデルを曲面 (第 3の三次元投影モデル) により滑 らかに接続すれば、 図 1 2に示す様に、 直線画像 1 0 5 aが滑らかに曲がり、 違 和感を和らげることは可能である。 しかし、 第 3の三次元モデルへの投影面 1 0 8に歪みが集中するため、 依然として違和感は残る。
このため、 例えば特開 2 0 0 2— 8 3 2 8 5号公報記載の従来技術では、 図 1 3に示す三次元投影モデルを提案している。 この三次元投影モデル 2 0 0は、 遠 景画像を投影する円筒面モデル 1 0 1と、 これに滑らかに連続し近傍画像を投影 する球面モデル 2 0 1とで構成される。 このように、 車両近傍の撮像画像を投影 するモデルとして球面モデル 2 0 1を用いることで、 球面モデル 2 0 1への投影 画像全体が滑らかに変化し、 運転者への違和感はかなり緩和する。
しかしながら、 上述した図 1 3に示す三次元投影モデル 2 0 0を用いた場合、 車両近傍の撮像画像が特定場所で集中して歪んでしまうことはないが、 画像全体 に歪みが生じるという問題がある。 例えば、 地面 2 0 2上の格子模様を実力メラ 1 0 3によって撮像し、 この撮像画像を球面モデル 2 0 1に投影した画像は、 図 1 4に示す様に、 全体的に歪んでしまう。 即ち、 本来、 地面 2 0 2上で格子を構 成する直線群が、 画面 1 0 6上で曲線群として表示され、 自車両と周辺との位置 関係を把握しがたい画像になってしまうという問題がある。
本発明の目的は、 車両より遠方の撮像画像の違和感を抑えながら車両近傍の撮 像画像を歪みの少ない画像としてモニタ表示可能な三次元投影モデルを搭載した 運転支援装置を提供することにある。
<発明の開示 >
上記目的を達成する運転支援装置は、 路面上の車両の周囲を撮像する撮像手段 と、 前記撮像手段による撮像画像を仮想視点から見た画像に変換するに際し前記 路面側に凸形状で且つ前記車両の進行方向先端部から所定範囲内では前記路面か らの高さが無変化な三次元投影モデルを用いて画像変換を行う画像変換手段と、 前記画像変換手段により変換された画像を表示する表示手段とを備えたことを特 徴とする。
この構成により、 本発明の運転支援装置では、 車両近傍の路面に描かれた駐車 枠等の様な車両進行方向に平行な直線が、 表示手段の画面上でも直線として表示 され、 自車両と周りとの相対位置関係の把握が容易となる。
好適には、 前記三次元投影モデルには、 前記車両の幅の方向の予め決められた 範囲を超えた領域で前記路面から徐々に立ち上がる投影面が連続して設けられる ことを特徴とする。 この構成により、 車幅方向の広い範囲の撮像画像を、 画像歪 みを目立たせることなく、 画面に表示可能となる。
好適には、 前記三次元投影モデルには、 前記所定範囲を超えた前記車両の進行 方向の領域で前記路面から徐々に立ち上がる投影面が連続して設けられることを 特徴とする。 この構成により、 車両進行方向の広い範囲の撮像画像を、 画像歪み を目立たせることなく、 画面に表示可能となる。
更に好適には、 前記三次元投影モデルは、 端点以外の全領域で微分可能な連続 する曲面で形成されていることを特徴とする。 この構成により、 画面に不連続な 特異点が存在せず、 複数の三次元モデル (円筒面や球面) を接続したことによる 違和感は生じない。 また、 凸な面の傾きを調整することで、 画面上での拡大率や 歪み方を変更でき、 これを利用して、 画面上での距離感や方向感も調整可能とな る。 さらに、 いずれの三次元モデルも下に凸な滑らかな曲面であるため、 画像歪 みが特定個所に集中することはなく、画面全体に分散され、見やすい画面となる。 これにより、 距離感の把握が容易で違和感のない映像を運転者に提供することが 可能となる。
更に好適には、 前記三次元投影モデルは、 前記路面側に凸形状の円筒面と、 前 記円筒面の端部に滑らかに連続する球面とを有することを特徴とする。 この構成 により、 三次元投影モデルを方程式で表現でき、 画像変換処理あるいは後述のマ ヅピングテーブルの作成が容易となる。
更に好適には、 前記所定範囲は、 前記車両の進行方向の長さを一般的や駐車枠 の長さ 5 mの 1 2 0 %以内の大きさとし、 幅を一般的な駐車枠の幅 3 mの 8 0 % から 1 2 0 %の範囲の任意の大きさとし、 前記円筒面に投影されることを特徴と する。 この構成により、 駐車運転に適した画面を運転者に提供可能となる。 更に好適には、 前記円筒面は楕円の円筒面であり、 前記円筒面に投影した前記 路面上の前記円筒面の中心軸に平行な等間隔の格子線間の最大幅と最小幅の比が 少なくとも前記所定範囲において 8 0 %となる楕円を前記≡次元投影モデルとし たことを特徴とする。 この構成により、 より歪みの少ない画面を運転者に提示す ることができる。
更に好適には、 前記表示手段の画面に表示される前記車両の後端画像の左右両 端が、 前記画面の両端位置から画面幅の少なくとも 1 5 %の範囲内に入る様に前 記三次元投影モデルと前記仮想視点の位置とが設定されることを特徴とする。 こ の構成により、 運転者から直接視認することのできない死角位置の画像が画面上 で大きく表示され、 運転者は安心感をもって運転することが可能となる。
更に好適には、 前記所定範囲内における車両後端の直線形状が前記表示手段の 画面上で直線画像として表示される様に前記三次元投影モデルと前記仮想視点の 位置を設定したことを特徴とする。 この構成により、 自車両のバンパー等の形状 を容易に確認でき、 且つ、 路面と自車両との位置関係を正確に把握することが可 能となる。 更に、 前記表示手段の画面に表示される前記車両の後端画像の左右両 端が、 前記画面の両端位置から画面幅の少なくとも 1 5 %の範囲内に入る様に前 記三次元投影モデルと前記仮想視点の位置とが設定されることにより、 視点変換 による画面上では、 路面上の車両の幅よりも大きく表示されるバンパー等の車両 後部画像が、 画面幅により適当な幅に切り取られて表示されるため、 路面上の車 幅とバンパーの幅とが大きく異なって表示されるという違和感の要因を低減する ことが可能となる。
更に好適には、 前記三次元投影モデルを用いて変換した画像に、 前記車両の進 行方向に平行で且つ車両幅よりも所定値だけ外側を示す路面上の直線を示すガイ ド線を重畳して前記表示手段の画面に表示することを特徴とする。 この構成によ り、 ガイド線と路面上の直線との相対位置関係を画面上から直感的に把握可能と なり、 駐車時に駐車枠ゃ路側等の目印との位置合わせ操作が容易になる。
更に好適には、 前記画像変換手段は、 前記三次元投影モデルに基づく変換アド レスを格納したマッピングテーブルを用いて前記撮像画像を変換することを特徴 とする。 この構成により、 いちいち三次元投影モデルを用いて演算処理する必要 がなくなり、 高速に画像変換処理を行うことが可能となる。
<図面の簡単な説明 > 図 1は、 本発明の一実施の形態に係る運転支援装置の車両への取り付け構成図 であり、
図 2は、 本発明の一実施の形態に係る運転支援装置の詳細構成図であり、 図 3は、 本発明の一実施の形態に係る運転支援装置の撮像装置によって撮像さ れた広角カメラの撮像画像を示す模式図であり、
図 4は、 本発明の一実施の形態に係る運転支援装置の撮像装置によって撮像さ れた広角カメラの撮像画像からレンズ歪みを除去した画像の模式図であり、 図 5は、 本発明の一実施の形態に係る運転支援装置によるモニタ表示画面を示 す模式図であり、
図 6は、 本発明の一実施の形態に係る運転支援装置によるモニタ表示画面の変 形例を示す模式図であり、
図 7は、 本発明の一実施の形態に係る運転支援装置で用いる三次元投影モデル の説明図であり、
図 8は、 本発明の一実施の形態に係る三次元投影モデルの説明図であり、 図 9は、 本発明の一実施の形態に係る三次元投影モデルによる変換画像の変換 例を示す模式図であり、
図 1 0は、従来の運転支援装置で用いられる三次元投影モデルの説明図であり、 図 1 1は、 従来の運転支援装置で用いられる三次元投影モデルによる変換画像 の模式図であり、
図 1 2は、 従来の運転支援装置による変換画像の変形例を示す模式図であり、 図 1 3は、 従来の運転支援装置で用いられる別の三次元投影モデルの説明図で あり、
図 1 4は、 従来の運転支援装置で用いられる図 1 3の三次元投影モデルによる 画像歪みを例示する模式図である。
なお、 図中の符号、 1は自車両、 l aはパンパ画像、 2は撮像装置、 3は画像 合成変換装置、 4は表示装置 (モニタ) 、 1 0は距離表示ガイ ド線、 1 1は車幅 表示ガイ ド線、 1 2は路面上の直線ガイ ド線、 2 1, 2 3はカメラ、 2 2, 2 4 はフレームメモリ、 3 1は画像合成手段、 3 2はマッピングテーブル参照手段、
3 2 aは変換ァドレスメモリ、 3 2 bは必要度メモリ、 3 3は映像信号生成手段、 3 0 0は三次元投影モデル、 3 0 1は円筒面モデル (楕円) 、 3 0 2は球面モデ ル(楕円)、 5 0 6は平面モデル、 5 2 1 , 5 2 2は楕円の円筒面モデルである。
<発明を実施するための最良の形態 >
以下、 本発明の実施の形態について、 図面を参照して説明する。
図 1は、 本発明の一実施の形態に係る運転支援装置の車両への取り付け構成図 である。 この運転支援装置は、 車両 1に設置された撮像装置 2と、 撮像装置 2の 撮像画像を処理する画像合成変換装置 3と、 画像合成変換後の映像を表示するモ 二夕 4とを備えて構成される。
撮像装置 2は、 車両 1の後方を撮影するように設置され、 撮像装置 2で取得さ れた映像は、 画像合成変換装置 3によりレンズ歪みが除去されたり、 また、 あた かも任意の仮想視点から撮影したかのような映像に変換され、モニタ(表示手段) 4に表示される。
図 2は、 運転支援装置の詳細構成図である。 撮像装置 2は、 車両後方の左側領 域を撮像する様に設置されたカメラ 2 1及びこのカメラ 2 1の撮像画像デ一夕を 一時保持するフレームメモリ 2 2と、 車両後方の右側領域を撮像する様に設置さ れたカメラ 2 3及びこのカメラ 2 3の撮像画像データを一時保持するフレームメ モリ 2 4とを備える。 尚、 この実施の形態では、 車両後方の左右を夫々カメラ 2 1、 2 3で撮像し左右の撮像画像を合成する構成としているが、 1台のカメラで 車両後方の左右を一度に撮像する構成としてもよい。
画像合成変換装置 3は、 撮像装置 2の 2つのフレームメモリ 2 2、 2 4から取 り込んだ車両後方の左右の画像を合成する画像合成手段 3 1と、 画像合成手段 3 1が合成する画像の各画素のマッピング情報を格納したマヅピングテ一ブル参照 手段 3 2と、 画像合成手段 3 1が合成した画像を映像信号に変換する映像信号生 成手段 3 3とから構成される。
マッピングテ一ブル参照手段 3 2は、 出力画像 (モニタ 4に表示する画像) の 各画素の位置座標と入力画像 (カメラ 2 1、 2 3の撮像画像) の各画素の位置座 標との対応を示す変換アドレス (マッピングテーブル) を格納した変換アドレス メモリ 3 2 aと、 入力画像の各画素の必要度が記憶された必要度メモリ 3 2 bと を備える。
ここで 「必要度」 とは、 例えば左右の入力画像を左右つなぎ合わせて 1枚の出 力画像を生成する場合に、 左右の入力画像が重複する領域の各画素データの値を 決めるとき、 右側の入力画素の必要度を 「0 . 5」 、 左側の入力画素の必要度を 「0 . 5」 などとして加算演算する値である。 また、 上記変換アドレスは、 詳細 は後述する三次元投影モデルに基づいて予め生成され、 変換アドレスメモリ 3 2 aに格納される。
画像合成手段 3 1は、 マッピングテーブル参照手段 3 2に記録されている変換 アドレス (マッピングテーブル) に基づき、 フレームメモリ 2 2、 2 4内の各画 素データを、 指定された必要度に応じて混合器 3 1 a、 3 1 bで合成演算し、 更 に、 合成演算された左右の各画素データを加算器 3 1 cで加算することにより出 力画素のデ一夕を生成する。
即ち、 画像合成手段 3 1は、 例えば、 入力画像信号等の適切な同期信号に基づ いて動作し、マヅビングテ一プル参照手段 3 2に従って 2つの異なるカメラ 2 1、 2 3から入力される画像を合成したり、 各画素位置を変更したりして出力画像を 生成することで、 リアルタイムに、 異なる複数のカメラ 2 1、 2 3からの入力画 像を滑らかにつなぎ合わしたり、 仮想視点からの映像に変換したりする。
映像信号生成手段 3 3は、 画像合成手段 3 1から出力される出力画素デ一夕を 映像信号に変換し、 モニタ 4に出力する。
マッピングテーブル参照手段 3 2内に格納されている変換アドレスは、 本実施 の形態に係る三次元投影モデルに基づいて生成される。この三次元投影モデルは、 カメラ 2 1、 2 3により撮像された映像をあたかも仮想視点位置に設置された仮 想カメラによって撮像した映像へと変換する際の対応関係を示すモデルである。 カメラ 2 1、 2 3は、 実際には広角カメラであり、 その撮像画像を左右合成し て得ることができる車両後方の画像は、 図 3に示す様に、 近いほど大きく、 遠い ほど小さい画像として表示される。 図示する例は、 車両後方の駐車領域 (一般的 には、 縦がほぼ 5 m、 横がほぼ 3 mの矩形領域。 分かりやすくするために、 この 駐車領域を格子模様で示している。 ) を広角カメラによって撮像した画像である が、 本実施形態では、 この図 3の画像を、 後述する三次元投影モデルを用いて生 成した変換アドレスにより、 図 5や図 6に示す様に、 見やすく歪みの少ない画像 としてモニタ 4に表示するものである。
図 7は、 本実施の形態で用いる三次元投影モデルを示す図である。 本実施の形 態で用いる三次元投影モデル 3 0 0は、 遠景の画像を投影する円筒面モデル 3 0 1と、 この円筒面モデル 3 0 1に滑らかに連続し近傍画像を投影する球面モデル 3 0 2とで構成される。 この三次元投影モデル 3 0 0は、 図 1 3で説明した従来 の三次元投影モデル 2 0 0とは、 その配置方向が異なる。 即ち、 本実施の形態で は、 円筒面モデル 3 0 1の軸が、 地面 (路面) すなわち自車両 1の進行方向と平 行に配置され、 且つ、 円筒面モデル 3 0 1の下凸面が地面側に配置される構成を 特徴とする。
自車両 1に搭載された後方撮影用の撮像装置 2は、 三次元投影モデル 3 0 0の 軸方向に後方画像を撮像し、 画像合成変換装置 3は、 撮像装置 2による撮像画像 を、 三次元投影モデル 3 0 0を介し、 且つ、 あたかも、 実際の撮像装置 2より上 方位置に設置した仮想カメラ 2 aによって撮影した映像に変換し、 モニタ 4に表 示する。
三次元投影モデル 3 0 0の円筒面 3 0 1は、 円筒面 3 0 1の中心軸が車両 1の 進行方向に平行となるように路面上に設置され、 円筒面 3 0 1の中心軸を通り路 面と平行な平面で半分に切り取った半円筒形状のモデルである。 球面モデル 3 0 2は、 その半径が円筒面モデル 3 0 1の半径と同じであり、 しかもその中心が円 筒面モデル 3 0 1の中心軸上にあり、 且つ、 その中心を通り円筒面 3 0 1の中心 軸を垂線とする平面で切り取った時の切り口が円筒面 3 0 1と完全に一致する球 面である。 即ち、 円筒面モデル 3 0 1と球面モデル 3 0 2とは境界上の全ての点 (端点を除く) において微分可能となる。
上述した三次元投影モデル 3 0 0は、 説明の都合上、 「円筒」 「球」 として説 明したが、 完全な 「円筒」 「球」 である必要はなく、 夫々楕円、 楕円球であって もよい。 例えば、 路面側に扁平な楕円を三次元投影モデルとする。 この楕円で成 る三次元投影モデルを車両 1の進行方向に対して垂直な平面で切った図が図 8で ある。 尚、 図 8では、 モデルを構成する楕円の下半分だけでなく、 楕円全体を図 示している。 図 8には、 3つの三次元投影モデルを示している。 一つは、 路面と一致する平 面モデル 5 0 6であり、他の二つは扁平率の異なる楕円モデル 5 2 1、 5 2 2 (図 7の三次元投影モデル 3 0 1に対応する部分) である。 楕円モデル 5 2 1、 5 2 2は、 短軸の長さのみが異なる。 ここで、 路面上に描かれた図示しない等間隔で 成る格子模様を図 7に示す撮像装置 2で撮影し、図 8に示す 3つのモデル 5 0 6、 5 2 1、 5 2 2を介して、 図 7に示す仮想カメラ 2 aで撮影したかのような画像 に変換した図が、 夫々、 図 9 ( a ) ( b ) ( c ) である。 尚、 仮想カメラ 2 aが 真下を向いているときのものである。
図 8に示す様に、 楕円 5 2 1、 5 2 2の円筒面の中心軸に平行で、 且つ、 路面 上にある軸を Y軸とし、 Y軸に直交し路面に対し垂直な軸を Z軸とし、 これらの Y軸、 Z軸と直交する軸を X軸としたとき、 各モデル 5 0 6、 5 2 1、 5 2 2で Y軸上の値は一致するが、 Y軸から X軸方向に離れるに従って、 高さ (Z軸方向 の値) が異なってくる。
即ち、 路面に描かれた格子模様のうち、 Y軸に平行な線は、 各モデル 5 0 6、 5 2 1、 5 2 2を用いて変換された画面上でも平行線として描かれ、 扁平率の小 さいモデル、即ち、 X軸方向に離れるに従って路面から離れるモデル 5 2 2では、 図 9 ( c ) に示される通り、 中心付近の格子模様の間隔 X 1に対し、 画面端側の 格子模様の間隔 X 2は狭くなつてしまう。
そこで、 本実施の形態で使用する三次元投影モデル 3 0 0 (実際に使用するモ デル 3 0 0の円筒面モデル 3 0 1としては、 図 8に示す楕円の円筒面モデル 5 2 1を使用し、 球面モデル 3 0 2としては、 楕円の円筒面モデル 5 2 1に滑らかに 連続する楕円の球面モデルを使用する。 ) では、 どの程度の扁平率の楕円を円筒 面モデル 5 2 1とするかを次の様にして決めている。
即ち、 図 8に示す X軸方向は、 図 7に示す自車両 1の車幅方向であるため、 Y 軸を中心とする一般的な駐車枠の幅である 3 mの 8 0 %から 1 2 0 %のうちの任 意の範囲 5 0 3を取り、 この範囲 5 0 3内にある三次元投影モデル 5 2 1を介し た変換後の画像内で、 図 9 ( b ) に示す様に、 路面上で等間隔であった格子模様 の間隔の最大値 Xmax と最小値 Xmin との比が少なくとも 8 0 %以上となるよ うな楕円の三次元投影モデル 5 2 1を設定する。 この様な三次元投影モデル 5 2 1は、 楕円の長軸と短軸との長さを調整するこ とで容易に設定可能である。 このようにして楕円による図 7の円筒面モデル 3 0 1を決定し、 格子模様の変換画像を表示した図が、 図 5、 図 6である。 これらの 変換画像では、 自車両 1の進行方向と同方向に延びる直線は変換画像中でも直線 として表示され、 且つ、 車幅の方向に対する変換画像中の画像歪みを違和感の無 い程度の緩やかな歪みに抑制可能となる。
車両の運転操作においては、 路側ゃ駐車枠の側面の線など Y軸に平行な直線を 目印とすることが多いため、 Y軸に平行な直線が変換後の画像でも直線として表 示されることは運転操作上大きな利点となる。 本実施の形態では、 路面の撮像画 像を投影するモデルとして円筒面モデル 3 0 1を採用していたため、 直線が直線 に変換され、 この利点を享受することが可能となる。
一方、 図 8に示す範囲 5 0 3を超えた車幅方向の遠方範囲 5 0 4については、 撮像画像を例えば平面に投影すると、 立体物が大きく歪み違和感を覚える。 従つ て、 この画像歪みを低減するために、 投影面を路面から立ち上がる面とするのが 良い。 しかし、 この投影面を、 円筒面 3 0 1から急激に立ち上がる面にすると、 境界部分で画像歪みが集中するため、 徐々に立ち上がる投影面とするのがよい。 楕円のモデル 5 2 1は、 範囲 5 0 4において徐々に立ち上がつているため、 この 楕円のモデル 5 2 1を範囲 5 0 4でも用いることで、 画面全体に画像歪みを分散 させることが可能となり、 違和感の少ない変換画像を提供することができる。
Y軸方向についても同様であり、 Y軸方向の遠方の撮像画像を平面に投影した 場合、 立体物が大きく歪んでしまい、 違和感を覚える。 従って、 Y軸方向につい ても遠方では投影面を立ち上げることが必要となる。 Y軸方向は車両の進行方向 すなわち車長方向となるため、 車両後端から、 所定範囲ではモデル 5 2 1を用い て画像変換を行い、 車両後端から所定範囲を越える範囲ではモデル 5 2 1に連続 する楕円球 (図 7のモデル 3 0 2 ) を用いて画像変換を行う。
この Y軸方向の所定範囲としては、一般的な駐車枠の範囲が縦 5 mであるため、 この 5 mの 8 0 %から 1 2 0 %の範囲のうちの任意値とするのが望ましい。また、 この所定範囲内では Y軸方向に傾きを持たせないのがよい。 本実施の形態に係る 三次元投影モデル 3 0 0の円筒面モデル 3 0 1は、 最下端の位置の路面からの高 さを円筒面モデル 3 0 1の長さに渡ってゼロ (路面と一致) としている。 これに より、 所定範囲内の撮像画像中の直線は変換画像でも直線として表示されること となる。
しかし、 図 7に示す撮像装置 2による撮像画像の半分程度は、 車両後端から 2 m程度の範囲であることが多い。 このような画像においては、 必ずしも上記の 5 mにかかわる必要は無く、 十分な空間解像度の得られる 2 m以内のみにおいて Y 軸方向に傾きを設けず、 それ以遠は、 X軸方向と同様に、 徐々に傾きを大きくす ることでも良い。
本実施の形態に係る図 5、 図 6の変換画像では、 車両後端から 2 mの範囲を示 す距離表示線 1 0より手前側では直線が直線として表示される様にしており、 2 mより遠い範囲では、 楕円球モデル 3 0 2を用いて画像変換をしている。 この所 定範囲をどの範囲にするかは、 撮像装置 2の設置位置や解像度、 仮想視点の位置 等により異なってくるが、 運転支援の観点からは、 車両 1の後端から駐車枠の範 囲を所定範囲として楕円によるモデル 3 0 1を適用し、 それ以遠に対して、 楕円 球のモデル 3 0 2を適用するのが望ましい。
本実施の形態では、 三次元投影モデルとして、 楕円の円筒面モデル 3 0 1と楕 円の球面モデル 3 0 2とにより三次元投影モデルを構成している。 これにより、 これにより、 楕円の球面モデル 3 0 2と楕円の円筒面モデル 3 0 1とは連続的に 結合され、 その結果、 図 5、 図 6に示されるように、 変換画像は、 三次元投影モ デル 3 0 0のモデル 3 0 1とモデル 3 0 2との境界面においても滑らかに結合さ れ、 その境界を識別することはできず、 境界面に違和感を覚えることは無い。 上述した様に、 図 8に示す範囲 5 0 4の投影モデルの傾きを調整することによ り、この範囲 5 0 4の立体物の画像歪みの程度を調整することができる。例えば、 図 5に示す様に、 この範囲 5 0 4の投影モデルに適度な傾きを設けることで、 広 角レンズを用いた撮像装置により撮影した画像の歪み具合が調整でき、 遠方にあ る他車両の拡大率を実際のリアウィンドから視いた時の距離感に近くなるように 設定することが可能となる。
比較のために示した図 4は、 図 3の広角カメラの画像に対して、 広角レンズの レンズ歪みをとつた画像を示す図である。 このレンズ歪みを除去しただけでは、 広角レンズを使用したことによる遠近感の強調の効果が緩和されていないことが 確認できる。 即ち、 遠くの画像がより遠くに見えて、 遠近感が強調されたままの 画像となっている。 これに対し、 本実施の形態では、 楕円の球面モデル 3 0 2を 用いて遠方画像を変換しているため、 図 5に示されるように、 遠近感が緩和され ており、 見やすい画像となっている。
図 7の円筒面モデル 3 0 1と球面モデル 3 0 2の楕円の長軸と短軸の長さ、 並 びに、 仮想カメラ 2 aの視点位置を調整することにより、 図 5に示す画像を図 6 に示す画像のように変換してモニタ 4に表示することができる。 即ち、 自車両 1 の路面上の幅 dが、画面上で拡大する様に表示することができる。この図 6では、 車両の両端位置が、 画面両端位置から画面幅の 1 5 %の範囲内に入るように図 5 の画像を変換して表示している。
このように拡大表示することで、 運転者から死角となる自車両 1の後端近傍の 画像がモニタ 4の画面いっぱいに表示され、 運転者に安心感を与えることが可能 となる。 その結果、 運転者は、 安心感を持って運転操作を実施できる。 ' また同様に、 円筒面モデル 3 0 1と球面モデル 3 0 2の楕円の長軸と短軸の長 さ、 並びに仮想カメラ 2 aの位置とを調整することにより、 図 5、 図 6に示す様 に、 自車両 1のパンパ画像 1 aが直線となるように表示することができる。 バン パー画像 1 aが図 3や図 4に示されるように曲線表示される場合と比べて違和感 がなくなり、 運転操作がし易くなる。
更に、 本実施の形態では、 例えば図 6に示す様に、 車幅を示すマーク 1 1や、 車両進行方向に平行で車両幅 dよりも少し外側を示す路面上の直線をガイ ド線 1 2として表示する。 これらを表示することで、 路側ゃ駐車枠と自車両との間の相 対位置関係が画面上から直感的に把握でき、 的確な運転操作の一助となる。 尚、 上述した円筒面モデルと球面モデルの組み合わせでなる三次元投影モデル は、 必ずしも方程式により定義される曲面で構成される必要はなく、 適用範囲と 性質によって決められるものである。 例えば、 楕円の円筒面モデル 3 0 1は必ず しも楕円方程式に従う楕円形状でなければならないものではなく、 下に凸な三次 元投影モデルであって、 変換された画像の歪みが画像全体に分散される形状であ ればよい。 球面モデル 3 0 2においても同様である。 本発明を詳細にまた特定の実施態様を参照して説明したが、 本発明の精神と範 囲を逸脱することなく様々な変更や修正を加えることができることは当業者にと つて明らかである。 本出願は、 2002年 6月 12日出願の日本特許出願 No.2002-171484に基づくもの であり、 その内容はここに参照として取り込まれる。
<産業上の利用可能性 >
本発明によれば、 車両近傍の撮像画像を歪みの少ない画像としてモニタ表示す ることができる運転支援装置を提供可能となる。

Claims

請 求 の 範 囲
1 . 路面上の車両の周囲を撮像する撮像手段と、 前記撮像手段による撮像 画像を仮想視点から見た画像に変換するに際し前記路面側に凸形状で且つ前記車 両の進行方向先端部から所定範囲内では前記路面からの高さが無変化な三次元投 影モデルを用いて画像変換を行う画像変換手段と、 前記画像変換手段により変換 された画像を表示する表示手段とを備えたことを特徴とする運転支援装置。
2 . 前記三次元投影モデルには、 前記車両の幅の方向の予め決められた範 囲を超えた領域で前記路面から徐々に立ち上がる投影面が連続して設けられるこ とを特徴とする請求の範囲第 1項に記載の運転支援装置。
3 . 前記三次元投影モデルには、 前記所定範囲を超えた前記車両の進行方 向の領域で前記路面から徐々に立ち上がる投影面が連続して設けられることを特 徴とする請求の範囲第 1項または第 2項に記載の運転支援装置。
4 . 前記三次元投影モデルは、 端点以外の全領域で微分可能な連続する曲 面で形成されていることを特徴とする請求の範囲第 1項乃至第 3項のいずれかに 記載の運転支援装置。
5 . 前記三次元投影モデルは、 前記路面側に凸形状の円筒面と、 前記円筒 面の端部に滑らかに連続する球面とを有することを特徴とする請求の範囲第 4項 に記載の運転支援装置。
6 . 前記所定範囲は、 前記車両の進行方向の長さを一般的な駐車枠の長さ 5 mの 1 2 0 %以内の大きさとし、 幅を一般的な駐車枠の幅 3 mの 8 0 %から 1 2 0 %の範囲の任意の大きさとし、 前記円筒面に投影されることを特徴とする請 求の範囲第 5項に記載の運転支援装置。
7 . 前記円筒面は楕円の円筒面であり、 前記円筒面に投影した前記路面上 の前記円筒面の中心軸に平行な等間隔の格子線間の最大幅と最小幅の比が少なく とも前記所定範囲において 8 0 %となる楕円を前記三次元投影モデルとしたこと を特徴とする請求の範囲第 5項または第 6項に記載の運転支援装置。
8 . 前記表示手段の画面に表示される前記車両の後端画像の左右両端が、 前記画面の両端位置から画面幅の少なくとも 1 5 %の範囲内に入る様に前記三次 元投影モデルと前記仮想視点の位置とが設定されることを特徴とする請求の範囲 第 5項乃至第 7項のいずれかに記載の運転支援装置。
9 . 前記所定範囲内における車両後端の直線形状が前記表示手段の画面上 で直線画像として表示される様に前記三次元投影モデルと前記仮想視点の位置を 設定したことを特徴とする請求の範囲第 5項乃至第 8項のいずれかに記載の運転
1 0 . 前記三次元投影モデルを用いて変換した画像に、 前記車両の進行方 向に平行で且つ車両幅よりも所定値だけ外側を示す路面上の直線を示すガイ ド線 を重畳して前記表示手段の画面に表示することを特徴とする請求の範囲第 1項乃 至第 9項のいずれかに記載の運転支援装置。
1 1 . 前記画像変換手段は、 前記三次元投影モデルに基づく変換ァドレス を格納したマツピングテ一ブルを用いて前記撮像画像を変換することを特徴とす る請求の範囲第 1項乃至第 1 0項のいずれかに記載の運転支援装置。
PCT/JP2003/006482 2002-06-12 2003-05-23 運転支援装置 WO2003107273A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP20030730616 EP1513101A4 (en) 2002-06-12 2003-05-23 DRIVER ASSISTANCE SYSTEM
US10/488,458 US7554573B2 (en) 2002-06-12 2003-05-23 Drive assisting system
KR1020047005845A KR100937750B1 (ko) 2002-06-12 2003-05-23 운전 지원 장치

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002171484A JP3871614B2 (ja) 2002-06-12 2002-06-12 運転支援装置
JP2002-171484 2002-06-12

Publications (1)

Publication Number Publication Date
WO2003107273A1 true WO2003107273A1 (ja) 2003-12-24

Family

ID=29727811

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/006482 WO2003107273A1 (ja) 2002-06-12 2003-05-23 運転支援装置

Country Status (5)

Country Link
US (1) US7554573B2 (ja)
EP (1) EP1513101A4 (ja)
JP (1) JP3871614B2 (ja)
KR (1) KR100937750B1 (ja)
WO (1) WO2003107273A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102385741A (zh) * 2010-08-31 2012-03-21 日立信息通讯工程有限公司 图像校正、校正表生成装置、校正图像、校正表生成方法及程序
CN102792334A (zh) * 2010-04-12 2012-11-21 住友重机械工业株式会社 图像生成装置及操作支持系统

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005088970A1 (ja) * 2004-03-11 2005-09-22 Olympus Corporation 画像生成装置、画像生成方法、および画像生成プログラム
US7782374B2 (en) * 2005-03-03 2010-08-24 Nissan Motor Co., Ltd. Processor and processing method for generating a panoramic image for a vehicle
JP4596978B2 (ja) * 2005-03-09 2010-12-15 三洋電機株式会社 運転支援システム
JP4715334B2 (ja) * 2005-06-24 2011-07-06 日産自動車株式会社 車両用画像生成装置および方法
JP4727329B2 (ja) * 2005-07-15 2011-07-20 パナソニック株式会社 画像合成装置及び画像合成方法
JP4677847B2 (ja) * 2005-08-01 2011-04-27 日産自動車株式会社 車両用周囲監視装置及び車両周囲監視方法
JP4760831B2 (ja) * 2005-08-02 2011-08-31 日産自動車株式会社 車両周囲監視装置及び車両周囲監視方法
JP4679293B2 (ja) * 2005-08-08 2011-04-27 三洋電機株式会社 車載パノラマカメラシステム
JP4810953B2 (ja) * 2005-10-07 2011-11-09 日産自動車株式会社 車両用死角映像表示装置
JP2007180803A (ja) 2005-12-27 2007-07-12 Aisin Aw Co Ltd 運転支援方法及び運転支援装置
US20090128630A1 (en) * 2006-07-06 2009-05-21 Nissan Motor Co., Ltd. Vehicle image display system and image display method
JP5159070B2 (ja) * 2006-08-31 2013-03-06 アルパイン株式会社 車両周辺画像表示装置及び表示方法
JP4927512B2 (ja) * 2006-12-05 2012-05-09 株式会社日立製作所 画像生成装置
JP4853712B2 (ja) * 2006-12-28 2012-01-11 アイシン精機株式会社 駐車支援装置
JP4924896B2 (ja) * 2007-07-05 2012-04-25 アイシン精機株式会社 車両の周辺監視装置
JP2009053818A (ja) * 2007-08-24 2009-03-12 Toshiba Corp 画像処理装置及びその方法
JP2009060404A (ja) * 2007-08-31 2009-03-19 Denso Corp 映像処理装置
DE102007049821A1 (de) * 2007-10-16 2009-04-23 Daimler Ag Verfahren zum Kalibrieren einer Anordnung mit mindestens einer omnidirektionalen Kamera und einer optischen Anzeigeeinheit
TW200925023A (en) * 2007-12-07 2009-06-16 Altek Corp Method of displaying shot image on car reverse video system
JP4934579B2 (ja) * 2007-12-14 2012-05-16 三洋電機株式会社 運転支援装置
US8884883B2 (en) * 2008-01-25 2014-11-11 Microsoft Corporation Projection of graphical objects on interactive irregular displays
US9459784B2 (en) 2008-07-25 2016-10-04 Microsoft Technology Licensing, Llc Touch interaction with a curved display
US8704907B2 (en) * 2008-10-30 2014-04-22 Panasonic Corporation Camera body and camera system with interchangeable lens for performing image data correction
US8446367B2 (en) * 2009-04-17 2013-05-21 Microsoft Corporation Camera-based multi-touch mouse
JP5376223B2 (ja) * 2009-05-18 2013-12-25 アイシン精機株式会社 運転支援装置
JP5135380B2 (ja) * 2010-04-12 2013-02-06 住友重機械工業株式会社 処理対象画像生成装置、処理対象画像生成方法、及び操作支援システム
DE102010015079A1 (de) 2010-04-15 2011-10-20 Valeo Schalter Und Sensoren Gmbh Verfahren zum Anzeigen eines Bildes auf einer Anzeigeeinrichtung in einem Fahrzeug. Fahrerassistenzsystem und Fahrzeug
WO2011148455A1 (ja) * 2010-05-25 2011-12-01 富士通株式会社 映像処理装置、映像処理方法及び映像処理プログラム
JP5413516B2 (ja) 2010-08-19 2014-02-12 日産自動車株式会社 立体物検出装置及び立体物検出方法
JP5558973B2 (ja) * 2010-08-31 2014-07-23 株式会社日立情報通信エンジニアリング 画像補正装置、補正画像生成方法、補正テーブル生成装置、補正テーブル生成方法、補正テーブル生成プログラムおよび補正画像生成プログラム
DE102010042276A1 (de) 2010-10-11 2012-04-12 Robert Bosch Gmbh Sensor, Justageverfahren und Vermessungsverfahren für einen Sensor
DE102010042248A1 (de) * 2010-10-11 2012-04-12 Robert Bosch Gmbh Verfahren und Vorrichtung zur optischen Darstellung einer Umgebung eines Fahrzeugs
JP5544277B2 (ja) * 2010-10-29 2014-07-09 株式会社日立情報通信エンジニアリング 画像補正装置、補正画像生成方法、補正テーブル生成装置、補正テーブル生成方法、補正テーブル生成プログラムおよび補正画像生成プログラム
WO2012089258A1 (en) * 2010-12-29 2012-07-05 Tele Atlas Polska Sp.Z.O.O Methods for mapping and associated apparatus
DE102011010860A1 (de) * 2011-02-10 2012-08-16 Connaught Electronics Ltd. Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug
JP5124671B2 (ja) * 2011-06-07 2013-01-23 株式会社小松製作所 作業車両の周辺監視装置
JP5124672B2 (ja) 2011-06-07 2013-01-23 株式会社小松製作所 作業車両の周辺監視装置
KR102111707B1 (ko) * 2011-07-18 2020-05-15 카덴스 메디컬 이매징 아이엔씨. 렌더링을 수행하기 위한 방법 및 시스템
EP2554434B1 (en) * 2011-08-05 2014-05-21 Harman Becker Automotive Systems GmbH Vehicle surround view system
GB2494414A (en) * 2011-09-06 2013-03-13 Land Rover Uk Ltd Terrain visualisation for vehicle using combined colour camera and time of flight (ToF) camera images for augmented display
WO2013038818A1 (ja) * 2011-09-12 2013-03-21 日産自動車株式会社 立体物検出装置
JP5682788B2 (ja) 2011-09-27 2015-03-11 アイシン精機株式会社 車両周辺監視装置
KR101265711B1 (ko) * 2011-11-30 2013-05-20 주식회사 이미지넥스트 3d 차량 주변 영상 생성 방법 및 장치
JP5861871B2 (ja) * 2011-12-28 2016-02-16 スズキ株式会社 俯瞰画像提示装置
DE102012203171A1 (de) * 2012-02-29 2013-08-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten
US10046700B2 (en) 2012-05-22 2018-08-14 Mitsubishi Electric Corporation Image processing device
US9225942B2 (en) * 2012-10-11 2015-12-29 GM Global Technology Operations LLC Imaging surface modeling for camera modeling and virtual view synthesis
WO2014073282A1 (ja) * 2012-11-08 2014-05-15 住友重機械工業株式会社 舗装機械用画像生成装置及び舗装機械用操作支援システム
US20150077560A1 (en) * 2013-03-22 2015-03-19 GM Global Technology Operations LLC Front curb viewing system based upon dual cameras
JP6302624B2 (ja) * 2013-04-24 2018-03-28 住友重機械工業株式会社 画像生成装置
KR101491324B1 (ko) * 2013-10-08 2015-02-06 현대자동차주식회사 차량용 영상 획득 장치
JP6380410B2 (ja) * 2014-01-10 2018-08-29 アイシン精機株式会社 画像表示制御装置および画像表示システム
DE102014116441A1 (de) * 2014-11-11 2016-05-12 Connaught Electronics Ltd. Verfahren zum Darstellen einer Sicherheitsinformation, Fahrerassistenzsystem und Kraftfahrzeug
JP6293089B2 (ja) * 2015-05-12 2018-03-14 萩原電気株式会社 後方モニタ
DE112016001048A5 (de) * 2015-06-11 2017-12-21 Conti Temic Microelectronic Gmbh Verfahren zur erzeugung eines virtuellen bildes einer fahrzeugumgebung
DE102016211227A1 (de) * 2016-06-23 2017-12-28 Conti Temic Microelectronic Gmbh Verfahren und Fahrzeugsteuersystem zum Erzeugen von Abbildungen eines Umfeldmodells und entsprechendes Fahrzeug
DE102016217488A1 (de) * 2016-09-14 2018-03-15 Robert Bosch Gmbh Verfahren zum Bereitstellen einer Rückspiegelansicht einer Fahrzeugumgebung eines Fahrzeugs
DE102016225066A1 (de) 2016-12-15 2018-06-21 Conti Temic Microelectronic Gmbh Rundumsichtsystem für ein Fahrzeug
US10268907B2 (en) * 2017-01-11 2019-04-23 GM Global Technology Operations LLC Methods and systems for providing notifications on camera displays for vehicles
JP6958163B2 (ja) * 2017-09-20 2021-11-02 株式会社アイシン 表示制御装置
JP6975003B2 (ja) * 2017-09-29 2021-12-01 株式会社デンソー 周辺監視装置およびその校正方法
CN110045721B (zh) * 2018-01-17 2022-10-28 大陆泰密克汽车系统(上海)有限公司 用于辅助车辆行驶的方法及其装置
TWI688502B (zh) * 2018-02-14 2020-03-21 先進光電科技股份有限公司 用於警告車輛障礙物的設備
DE102018203590A1 (de) 2018-03-09 2019-09-12 Conti Temic Microelectronic Gmbh Surroundview-System mit angepasster Projektionsfläche
WO2020068960A1 (en) * 2018-09-26 2020-04-02 Coherent Logix, Inc. Any world view generation

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0399952A (ja) * 1989-09-12 1991-04-25 Nissan Motor Co Ltd 車両用周囲状況モニタ
JP2001010427A (ja) * 1999-06-29 2001-01-16 Fujitsu Ten Ltd 車両の駐車支援装置
JP2001114047A (ja) * 1999-10-20 2001-04-24 Matsushita Electric Ind Co Ltd 車両周囲状況提示装置
JP2001163132A (ja) * 1999-09-30 2001-06-19 Toyota Autom Loom Works Ltd 車両後方監視装置用画像変換装置
JP2001339716A (ja) * 2000-05-25 2001-12-07 Matsushita Electric Ind Co Ltd 車両周辺監視装置及び方法
JP2002010115A (ja) * 2000-06-16 2002-01-11 Toyota Central Res & Dev Lab Inc 車載撮像装置
JP2002084456A (ja) * 2000-09-07 2002-03-22 Clarion Co Ltd 画像変換装置
JP2002083285A (ja) * 2000-07-07 2002-03-22 Matsushita Electric Ind Co Ltd 画像合成装置および画像合成方法
JP2002125224A (ja) * 2000-07-19 2002-04-26 Matsushita Electric Ind Co Ltd 監視システム
JP2002127852A (ja) * 2000-10-27 2002-05-09 Aisin Seiki Co Ltd 車両周辺表示装置
JP2002160597A (ja) * 2000-11-28 2002-06-04 Mitsubishi Motors Corp 駐車支援装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH039952A (ja) * 1989-06-08 1991-01-17 Nippon Steel Chem Co Ltd 熱可塑性樹脂組成物
US6498620B2 (en) * 1993-02-26 2002-12-24 Donnelly Corporation Vision system for a vehicle including an image capture device and a display system having a long focal length
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US6550949B1 (en) * 1996-06-13 2003-04-22 Gentex Corporation Systems and components for enhancing rear vision from a vehicle
EP1179958B1 (en) * 1999-04-16 2012-08-08 Panasonic Corporation Image processing device and monitoring system
JP2003054340A (ja) * 2001-08-08 2003-02-26 Yazaki Corp 駐車支援装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0399952A (ja) * 1989-09-12 1991-04-25 Nissan Motor Co Ltd 車両用周囲状況モニタ
JP2001010427A (ja) * 1999-06-29 2001-01-16 Fujitsu Ten Ltd 車両の駐車支援装置
JP2001163132A (ja) * 1999-09-30 2001-06-19 Toyota Autom Loom Works Ltd 車両後方監視装置用画像変換装置
JP2001114047A (ja) * 1999-10-20 2001-04-24 Matsushita Electric Ind Co Ltd 車両周囲状況提示装置
JP2001339716A (ja) * 2000-05-25 2001-12-07 Matsushita Electric Ind Co Ltd 車両周辺監視装置及び方法
JP2002010115A (ja) * 2000-06-16 2002-01-11 Toyota Central Res & Dev Lab Inc 車載撮像装置
JP2002083285A (ja) * 2000-07-07 2002-03-22 Matsushita Electric Ind Co Ltd 画像合成装置および画像合成方法
JP2002125224A (ja) * 2000-07-19 2002-04-26 Matsushita Electric Ind Co Ltd 監視システム
JP2002084456A (ja) * 2000-09-07 2002-03-22 Clarion Co Ltd 画像変換装置
JP2002127852A (ja) * 2000-10-27 2002-05-09 Aisin Seiki Co Ltd 車両周辺表示装置
JP2002160597A (ja) * 2000-11-28 2002-06-04 Mitsubishi Motors Corp 駐車支援装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102792334A (zh) * 2010-04-12 2012-11-21 住友重机械工业株式会社 图像生成装置及操作支持系统
CN102385741A (zh) * 2010-08-31 2012-03-21 日立信息通讯工程有限公司 图像校正、校正表生成装置、校正图像、校正表生成方法及程序

Also Published As

Publication number Publication date
JP2004021307A (ja) 2004-01-22
EP1513101A1 (en) 2005-03-09
US20040260469A1 (en) 2004-12-23
EP1513101A4 (en) 2010-10-06
JP3871614B2 (ja) 2007-01-24
KR20040111329A (ko) 2004-12-31
KR100937750B1 (ko) 2010-01-20
US7554573B2 (en) 2009-06-30

Similar Documents

Publication Publication Date Title
WO2003107273A1 (ja) 運転支援装置
JP4786076B2 (ja) 運転支援表示装置
JP5682788B2 (ja) 車両周辺監視装置
JP5194679B2 (ja) 車両用周辺監視装置および映像表示方法
JP3300334B2 (ja) 画像処理装置および監視システム
JP4642723B2 (ja) 画像生成装置および画像生成方法
WO2012096058A1 (ja) 画像生成装置
JP3778849B2 (ja) 車両周辺画像処理装置及び記録媒体
JP2009524171A (ja) 複数の画像を結合して鳥瞰図画像にする方法
WO2011090163A1 (ja) パラメータ決定装置、パラメータ決定システム、パラメータ決定方法、及び記録媒体
JP2005311868A (ja) 車両周辺視認装置
WO2002089485A1 (fr) Procede et dispositif pour la presentation d&#39;une image de camera embarquee a bord d&#39;un vehicule
CN107027329B (zh) 将行进工具的周围环境的局部图像拼接成一个图像
JP2008077628A (ja) 画像処理装置並びに車両周辺視界支援装置及び方法
CN111095921B (zh) 显示控制装置
JP2010028432A (ja) 駐車支援装置および画像表示方法
JP3834967B2 (ja) 死角範囲表示装置
JP2021013072A (ja) 画像処理装置および画像処理方法
JP4860835B2 (ja) パノラマ画像表示方法及びパノラマ画像表示装置
JP2003346189A (ja) 車両用映像表示装置
JP2012116400A (ja) コーナーポール投影装置
JP3830025B2 (ja) 描画装置
JP7029350B2 (ja) 画像処理装置および画像処理方法
JP5049304B2 (ja) 車両の周辺を画像表示するための装置
US20220222947A1 (en) Method for generating an image of vehicle surroundings, and apparatus for generating an image of vehicle surroundings

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2003730616

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10488458

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020047005845

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2003730616

Country of ref document: EP