WO2002104032A1 - Processeur d'images peripheriques pour vehicule et support d'enregistrement - Google Patents

Processeur d'images peripheriques pour vehicule et support d'enregistrement Download PDF

Info

Publication number
WO2002104032A1
WO2002104032A1 PCT/JP2002/002525 JP0202525W WO02104032A1 WO 2002104032 A1 WO2002104032 A1 WO 2002104032A1 JP 0202525 W JP0202525 W JP 0202525W WO 02104032 A1 WO02104032 A1 WO 02104032A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
bird
eye view
vehicle
view image
Prior art date
Application number
PCT/JP2002/002525
Other languages
English (en)
French (fr)
Inventor
Hirohiko Yanagawa
Tetsuri Ishikawa
Haruhiko Ogiso
Masayuki Imanishi
Original Assignee
Denso Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corporation filed Critical Denso Corporation
Priority to US10/333,745 priority Critical patent/US7317813B2/en
Priority to DE10292327T priority patent/DE10292327B4/de
Priority to KR1020037002069A priority patent/KR100550299B1/ko
Publication of WO2002104032A1 publication Critical patent/WO2002104032A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/10Automatic or semi-automatic parking aid systems

Definitions

  • the present invention relates to a vehicle peripheral image processing device and a recording medium that can photograph, for example, the rear of a vehicle and display the captured image on a monitor.
  • Japanese Patent Application Laid-Open No. H10-102-14949 discloses that an image taken by a rear view camera (rear camera image) is converted into a bird's-eye view, and the vehicle is displayed in the view.
  • rear camera image rear view camera
  • the vehicle is shown in the bird's-eye view, so the positional relationship between the object displayed in the image and the vehicle is easier to understand than displaying the captured image as it is on the monitor.
  • the present invention has been made in order to solve the above-described problems, and provides, for example, a vehicle peripheral image processing apparatus and a recording medium that can estimate and draw a part that is out of the field of view of a force camera. This is the first purpose. Furthermore, the present invention provides a method of estimating and drawing a part that is out of the field of view of a camera. It is a second object of the present invention to provide a vehicle peripheral image processing device and a recording medium capable of reducing the load of the arithmetic processing while reducing the load on the vehicle. Disclosure of the invention
  • the first invention is directed to a vehicle having a photographing means (for example, a camera) for photographing an image around the vehicle and a display means (for example, a monitor) for displaying an image.
  • a vehicle periphery image processing apparatus for processing an image taken by the photographing means and displaying the image on the display means, wherein the image photographed by the photographing means is projected on the ground plane coordinate system using the photographing means as a viewpoint.
  • the image becomes a bird's-eye view image that is easy to see as viewed from above the ground, instead of a distorted image that has been taken with a camera, for example.
  • the first bird's-eye view image generated in this way is compared with the second bird's-eye view image generated thereafter, and a coincidence area and a non-coincidence area are determined. Then, a combined image is created by adding the unmatched area obtained by this determination to the second bird's-eye view image, the combined image is processed so that it can be displayed on the display means, and displayed on the display means.
  • the first bird's-eye view image and the second bird's-eye view image differ in the mismatched area (the first bird's-eye view). This appears in the image, but disappears in the second bird's-eye view image).
  • the present invention by detecting a shift between the image of the first bird's-eye view image and the image of the second bird's-eye view image, by adding an image of the shifted portion (the part displayed in the past) to the second bird's-eye view image,
  • the situation around the vehicle can be grasped more clearly.
  • an area out of the current field of view of the camera can be displayed, so that, for example, in the case of parking in the back, the operation is extremely easy.
  • the image photographed by the photographing means may be, for example, an image behind the vehicle photographed by a camera arranged behind the vehicle. Therefore, for example For example, when the vehicle is put in the parking frame at the back, the positional relationship between the parking frame and the vehicle can be easily understood, so that there is an effect that parking can be easily performed.
  • the side of the vehicle can be photographed by the photographing means
  • the situation of the side can be easily understood when the side is moved by the back, so that the side can be easily moved.
  • examples of the image photographed by the photographing means include not only the rear of the vehicle but also the front of the vehicle. In this case, if the side of the vehicle can also be photographed, the situation of the side can be easily understood when the vehicle is moved forward, so that the vehicle can be easily moved.
  • the bird's eye view image generating means may generate a bird's eye view image by extracting an image indicating a lane (for example, a parking frame).
  • a lane for example, a parking frame
  • the entire captured image may be converted to a bird's-eye view image, but only lanes (indicated by white lines, for example) are extracted and displayed by, for example, binarization processing. You may.
  • lanes indicated by white lines, for example
  • the first bird's-eye view image and the second bird's-eye view image can be temporally continuous bird's-eye view images.
  • the image shift between the first bird's-eye view image and the second bird's-eye view image is slight, it is easy to detect the coincident region and the non-coincident region.
  • a non-coincidence area is added to the second bird's-eye view image, it is preferable because the connection between the images has no unnatural feeling.
  • the display processing means performs coordinate conversion for displaying the image data of the composite image on the display means. That is, in order to display a bird's-eye view image on a monitor, for example, it is necessary to adjust the size of the image.
  • a second invention is directed to a vehicle including a photographing unit (for example, a camera) for photographing an image around the vehicle and a display unit (for example, a monitor) for displaying an image.
  • a photographing unit for example, a camera
  • a display unit for example, a monitor
  • the image captured by the image capturing means is, for example, data on a ground surface coordinate system projected from the image capturing means as a viewpoint.
  • image data such as a first bird's-eye view image and a second bird's-eye view image that is a later image are created.
  • the image is not a distorted image taken with a camera, for example, but an easy-to-view bird's-eye view image as viewed from above the ground.
  • the amount of movement (movement) of the vehicle is detected based on a vehicle signal (for example, a vehicle speed signal and a speed signal) obtained from the vehicle. Since the detected movement amount of the vehicle corresponds to the movement amount of the first bird's-eye view image, the first bird's-eye view image is moved according to the movement amount of the vehicle to create image data of the moved bird's-eye view image.
  • a vehicle signal for example, a vehicle speed signal and a speed signal
  • the image data of the new second bird's-eye view image (from the first bird's-eye view image) and the image data of the moved bird's-eye view image are combined to create image data of the combined bird's-eye view image to be displayed on the display means.
  • the field of view of the camera changes. Therefore, it is natural that the first bird's-eye view image and the second bird's-eye view image, which have different shooting times, have different images (differences in the shot part). Occurs.
  • the second bird's-eye view image is appropriately added with the bird's-eye view image after the movement of the part (that is, the part that was in the field of view in the past but has disappeared from the current field of view), so that it can be used for a monitor or the like.
  • the part that disappeared from the camera's field of view can be displayed, so that the situation around the vehicle can be grasped more clearly.
  • the present invention for example, Since it is possible to display an area that is out of the current field of view, there is an effect that, for example, when parking in the back, the operation becomes extremely easy.
  • a post-movement bird's-eye view image is created by using a vehicle signal instead of calculating the movement of the vehicle from a temporal change of the image to create a post-movement bird's-eye view image.
  • the synthesized bird's-eye view image can be an image to which the moved bird's-eye view image is added in addition to the display area for displaying the second bird's-eye view image.
  • This is an example of a method of forming a composite bird's-eye view image, and this enables continuous display of images around the vehicle. That is, as described above, for example, the image currently captured by the camera can be displayed on the monitor as the second bird's-eye view image. (2) By adding it to the area other than the bird's-eye view image display area, past surrounding conditions that have disappeared from the camera's field of view can also be displayed on the monitor.
  • the latest bird's-eye view image can be used as the second bird's-eye view image used for the composite bird's-eye view image. If the latest bird's-eye view image newly captured by a camera or the like is used as the second bird's-eye view image, the situation around the vehicle can be grasped more accurately.
  • the memory A may store the bird's-eye view image created by the bird's-eye view image creating unit
  • the memory B may store the combined bird's-eye view image created by the combined bird's-eye view image creating unit.
  • This is an example of a memory for storing each bird's-eye view image.
  • the composite bird's-eye view image can be displayed on a monitor or the like.
  • an image indicating the own vehicle may be added and displayed.
  • the positional relationship between the own vehicle and, for example, the parking frame becomes clear, so that the operation of the vehicle is facilitated.
  • the position of the own vehicle on the monitor screen is always constant, for example. Therefore, the host vehicle can be displayed at a fixed position on the monitor screen, and the vehicle may be described in advance by printing on the monitor screen.
  • the viewing angle of the camera is usually constant, not only the own vehicle but also the screen angle of the camera (the left and right range) may be displayed on the screen of the moeta.
  • the means for executing the processing by the vehicle peripheral image processing device described above can be stored as a program on a recording medium.
  • the recording medium include various recording media such as an electronic control unit configured as a microcomputer, a microchip, a floppy disk, a hard disk, and an optical disk.
  • FIG. 1 is an explanatory diagram illustrating a main configuration of the vehicle periphery image processing device according to the first embodiment.
  • FIG. 2 is an explanatory diagram illustrating an electrical configuration of the vehicle peripheral image processing device according to the first embodiment.
  • FIG. 3 is an explanatory diagram illustrating a procedure of a process performed by the vehicle peripheral image processing device according to the first embodiment.
  • FIG. 4 is an explanatory diagram illustrating a positional relationship at the time of coordinate conversion by the vehicle periphery image processing device of the first embodiment.
  • FIG. 5 is an explanatory diagram illustrating a procedure of a process performed by the vehicle peripheral image processing device according to the first embodiment.
  • FIG. 6 is an explanatory diagram showing a procedure for obtaining the moving amount of the image of the vehicle periphery image processing device of the first embodiment.
  • FIG. 7 is a flowchart illustrating a process performed by the vehicle peripheral image processing device according to the first embodiment.
  • FIG. 8 is a flowchart illustrating the processing of the vehicle periphery image processing device according to the second embodiment.
  • Fig. 9 shows the image around the vehicle in Example 3.
  • FIG. 3 is an explanatory diagram illustrating a main configuration of a processing device.
  • FIG. 10 is an explanatory diagram illustrating an electrical configuration of the vehicle periphery image processing apparatus according to the third embodiment.
  • FIG. 11A and 11B show images used by the vehicle peripheral image processing device of the third embodiment, (a) is an explanatory diagram of an image taken by a camera, and (b) is an explanatory diagram showing a bird's-eye view image.
  • FIG. 12 is an explanatory diagram showing a positional relationship at the time of coordinate conversion by the vehicle periphery image processing device of the third embodiment.
  • FIG. 13 is a flowchart showing the processing of the vehicle periphery image processing apparatus according to the third embodiment.
  • FIG. 14 is an explanatory diagram illustrating a procedure for creating an image by the vehicle periphery image processing apparatus according to the third embodiment.
  • FIG. 15 is an explanatory diagram illustrating a monitor image displayed by the vehicle periphery image processing device according to the third embodiment.
  • the vehicle peripheral image processing apparatus of the present embodiment includes a camera (for example, a CCD camera) 1 disposed at the rear of an automobile and an on-vehicle monitor (for example, a liquid crystal display) 3 disposed on a dashboard.
  • An image processing unit 5 for performing image processing is provided.
  • the image processing unit 5 is an electronic device that performs processing of image data mainly including a microcomputer, and functionally performs coordinate conversion of image data captured by the camera 1.
  • a coordinate transformation unit 11 that generates a bird's-eye view image, a matching unit 13 that takes in two temporally continuous bird's-eye view images, and compares them, and a part that does not match the two bird's-eye view images deviates from the field of view of camera 1.
  • An area estimating unit 15 for estimating a region that has been drawn and a drawing unit 17 for drawing an image to be displayed on the monitor 3 are provided.
  • the image processing unit 5 may be integrated with the camera 1.
  • Fig. 3 (a) the image (output image) output from camera 1 is shown in Fig. 3 (a), left figure.
  • This image is a picture of the parking frame drawn on the ground and its surroundings, taken by the camera 1 placed at the top of the rear part of the vehicle.
  • the originally rectangular parking frame is distorted according to the distance from the parking space.
  • the bird's-eye view image is generated by performing coordinate transformation on the image shown on the left, and the position of the vehicle and the viewing angle of camera 1 are added to the bird's-eye view image.
  • the image is added and synthesized, and the synthesized image is displayed on the screen of Moyuta 5, as shown in the right figure of Fig. 3 (a).
  • the output image of camera 1 is subjected to coordinate conversion (well-known bird's-eye view conversion) by coordinate conversion unit 11, and FIG.
  • coordinate conversion well-known bird's-eye view conversion
  • the process of converting the image photographed by the camera 1 into a bird's-eye view image and displaying the image on the monitor 5 uses a conventional technique (for example, Japanese Patent Application Laid-Open No. H10-218149) as described below. it can.
  • the position of the image (for example, a parking frame) on the ground plane is obtained as a bird's-eye view by performing the reverse process of the normal perspective transformation. Specifically, as shown in FIG. 4, a perspective transformation is performed when projecting the position data of the ground image onto a screen plane T located at a focal distance f from the camera position R.
  • the camera 1 is located at a point R (0, 0, H) on the Z axis and monitors an image on the ground surface (XY coordinate plane) at a look-down angle ⁇ . Therefore, here, the two-dimensional coordinates ( ⁇ , 6) on the screen plane T can be converted into coordinates on the ground surface (bird's eye view coordinates) (reverse perspective transformation) as shown in the following equation (1).
  • -x- "H ⁇ / (one jS cos ⁇ + fsi ⁇ ⁇ )-,
  • the projected image data is displayed on the monitor 5 screen (showing a bird's-eye view image). It can be converted to the corresponding image data and displayed on a monitor.
  • the matching unit 13 captures two temporally continuous bird's-eye view images and compares them.
  • Fig. 5 (a) and Fig. 5 (b) show successive bird's-eye view images (changed from image A to image B).
  • image A and B As described later, It is possible to extract a completely matching area (matching area) between the two images.
  • the region estimating unit 15 regards the V-shaped region on the camera 1 side as the region (moving region) where the image has moved due to the movement of the vehicle among the regions where the images do not match (mismatching region).
  • a composite image that also displays the vehicle frame (compositing area) outside the field of view of the camera 1 is created as shown in Fig. 5 (c).
  • a method of matching image A and image B will be described, but various conventional methods in image processing can be adopted.
  • a predetermined (matching) area of images A and B is divided into a plurality of fine areas (pixels) as shown in Fig. 6, and the degree of coincidence of the pixels of images A and B is the highest.
  • the positional relationship between image A and image B (that is, how much image A has moved) can be obtained from the positional relationship between the matching pixels.
  • FIG. 6 for example, a case where the degree of brightness (or color) of a figure at each pixel is represented by a number is considered.
  • the brightness of the lower three rows of pixels in Image A matches the brightness of the upper three rows of pixels in Image B. Therefore, in this case, image A can be regarded as being coincident with image B by moving up and down in the figure by the width of one column of pixels. In this case, the figure in image B appears to have moved upward because the vehicle has moved downward in the figure.
  • the two images are divided into small areas, and if many of the divided fine areas match (the degree of matching is high), the match Are considered to be the same image. Therefore, if the matching part is shifted between the image A and the image B, it can be considered that the image is shifted due to the movement, and the movement amount and the movement direction can be obtained. Similarly, the moving amounts in the left-right direction and the diagonal direction can be obtained.
  • step 100 it is determined whether or not the shift position is back. If the determination is affirmative, the process proceeds to step 110, and if the determination is negative, the process proceeds to step 170.
  • the shift position can be detected by a signal from a shift position detection sensor (not shown) or a signal from another electronic control unit.
  • step 170 the image of the area outside the field of view of the camera drawn previously is erased, that is, only the current camera image (bird's-eye view image) is displayed, and the process returns to step 1000.
  • step 110 coordinate conversion (bird's-eye view conversion) of the image taken by camera 1 is performed to obtain a bird's-eye view image.
  • step 120 a matching area is extracted from two consecutive bird's-eye view images. For example, a matching area is extracted from the image A and the image B in FIG.
  • step 130 a moving region outside the current field of view of the camera 1 is extracted.
  • step 140 the moving area of the screen A is later drawn out of the camera view of the screen B. Before drawing, only the moving area that has already been drawn on the screen B (screen B The drawing area is secured by shifting the drawing area.
  • step 150 for example, as shown in FIG. 5 (c), an image of the moving area is drawn in the drawing area secured in step 130 (a composite image is created).
  • step 160 a V-shaped line indicating the own vehicle and the viewing angle is drawn, for example, as shown in the right diagram of FIG. 3 (c), and the process ends.
  • the mismatched area is determined by comparing the combined image with the latest bird's-eye view image, and this mismatched area is added to the stored combined image. It is preferable to generate a new composite image. This makes it possible to continuously combine images by appropriately taking into account the bird's-eye view image after the movement, so that the situation around the vehicle can be grasped more clearly.
  • the image captured by the camera is converted into a bird's-eye view image, and the coincident region of the temporally continuous bird's-eye view image is extracted, and the moving region, which is a shift portion between the bird's-eye view images, is extracted.
  • the moving area is combined with the bird's-eye view image showing the current image to create a combined image, and when displaying the combined image on the screen of the monitor 5, the image of the own vehicle and the viewing angle are added. . That is, in this embodiment, when the vehicle moves, by estimating the area deviating from the field of view of the camera and by combining the areas, it is possible to display a portion that cannot be displayed normally outside the field of view of the camera.
  • the positional relationship between the vehicle and the parking frame can be clearly understood. This has the remarkable effect that the operation of parking at the back is extremely easy.
  • step 200 it is determined whether or not the shift position is back. If the determination is affirmative, the process proceeds to step 210, and if the determination is negative, the process proceeds to step 280.
  • step 280 the previously drawn image in the area outside the field of view of the camera is deleted.
  • step 210 the images of the parking frame and the bollard are extracted from the images captured by the camera by binarization processing.
  • the parking frames and bollards are painted in white and can be easily separated from the black asphalt ground.
  • the binarized image is converted into a bird's-eye view to generate a bird's-eye view image of a parking frame and a car stop.
  • the background is a single color.
  • a matching area is extracted from two consecutive bird's-eye view images.
  • a moving area outside the current field of view of camera 1 is extracted.
  • step 250 the drawing area is secured by shifting the portion already drawn on the screen B by only the moving area (below the screen B) before drawing.
  • step 260 an image of the moving area is drawn in the drawing area secured in step 250 (a composite image is created).
  • step S270 a V-shaped line indicating the own vehicle and the view angle is drawn, and the process is temporarily terminated.
  • the same effects as those of the first embodiment can be obtained.
  • the present embodiment instead of converting the entire captured image into a bird's-eye view and displaying the converted image, other than the own vehicle and the viewing angle, for example, the parking frame Required for driving, like a car or a car stop Only those that are not.
  • the parking frame Required for driving like a car or a car stop Only those that are not.
  • a vehicle peripheral image processing apparatus includes a camera (eg, a CCD camera) 21 arranged at the rear of an automobile and an in-vehicle monitor (eg, a liquid crystal display) 23 arranged on a dashboard.
  • the image processing unit 29 is an electronic device that performs processing of image data mainly including a microcomputer, and performs coordinate transformation of image data captured by the camera 21.
  • an image memory B for storing the data of the bird's-eye view image.
  • the image data of the bird's-eye view image stored in the image memory B is, as described later, a bird's-eye view image (first 1 bird's-eye view image) (moved bird's-eye view image) and a new (for example, at time T + 1) camera 21 and a bird's-eye view image (second image) created based on the image data.
  • This is image data of a bird's-eye view image (synthetic bird's-eye view image) obtained by synthesizing a bird's-eye view image.
  • the image processing unit 29 may be integrated with the camera 21, and each configuration in the image processing unit 29 may be partially or partially May be integrated and configured as an LSI.
  • FIG. 11 an example is given in which the vehicle is moved backward (back) and enters the parking frame.
  • the original image (output image) output from the camera 21 is shown in Fig. 11 (a). Since the original image is an image of the parking frame drawn on the ground and its surroundings taken by the camera 21 arranged at the upper part of the rear part of the vehicle, the vehicle (accordingly, the camera 21) and the parking frame The originally rectangular parking frame is distorted according to the distance from the position of each line.
  • the image data of the original image is coordinate-transformed to create a bird's-eye view image without distortion as shown in FIG. 11 (b). Is stored in the image memory A.
  • the vehicle travel distance L [m] is obtained from the following equation (2) using the vehicle speed S [km / h] obtained from the vehicle speed signal. ] Can be calculated.
  • the angle ⁇ 1 at which the vehicle has moved ⁇ 1 is obtained from the following equation (3) using the rate ⁇ ⁇ ° / s] obtained from the rate signal. Can be calculated. ⁇ 1 [degree ⁇ 0 [degree Z s] x 100 [ms] ⁇ 100 0 [ms / s] ⁇ ⁇ (3) Furthermore, here, the center of rotation of the vehicle is on the extension of the rear wheel axle.
  • the center of rotation is calculated with the camera position as the origin, and if the traveling direction of the vehicle is Y and the direction perpendicular to this is X, the rotation center position XC [m ⁇ in the X direction is given by the following equation ( It can be calculated from 4).
  • the bird's-eye view image is moved as follows.
  • the image data of the bird's-eye view image stored in the image memory A is also temporarily stored in the image memory B. Therefore, here, the image data of the bird's-eye view image stored in the image memory B is transferred to the internal memory of the CPU 37, and the bird's-eye view image is obtained using the rotation center position (xc, YC) and the rotation angle ec. To rotate.
  • the conversion equation for performing this rotational movement is shown in the following equation (5).
  • the image From the bird's-eye view image stored in Mori A (the first bird's-eye view image at time T)
  • a bird's-eye view image after moving (the moving bird's-eye view image at time T) is created.
  • a bird's-eye view image created based on a new image taken by the camera 21, that is, a current bird's-eye view image (second bird's-eye view image at time T + 1) is newly stored in the image memory A from the CPU 37.
  • the CPU 37 writes the second bird's-eye view image at a position corresponding to the time T and the positional relationship (a position where the image does not deviate from the moved bird's-eye view image).
  • the image data of the synthesized bird's-eye view image that is synthesized with the second bird's-eye view image is created, and the image data is stored in the image memory B.
  • images of the position of the vehicle and the viewing angle of the camera 21 are also added and stored in the image memory B, and the composite bird's-eye view image is displayed on the screen of the monitor 23.
  • the image of the position of the host vehicle and the viewing angle of the camera 21 may not be stored in the image memory B, and the rendered bird's-eye view image stored in the image memory B may be drawn on the monitor 23.
  • the image may be drawn in addition to the image of the position of the own vehicle or the viewing angle of the camera 21.
  • step 300 it is determined whether or not the shift position is back. If the determination is affirmative, the process proceeds to step 310, while if the determination is negative, the process proceeds to step 390.
  • the shift position can be detected by a signal from a shift position detection sensor (not shown) or a signal from another electronic control unit.
  • step 390 the image of the area outside the field of view of the camera 21 previously drawn is deleted, that is, only the current image (bird's-eye view image) of the camera 21 is displayed, and the process returns to step 300.
  • step 310 a coordinate transformation (the bird's-eye view transformation) of the image taken by the camera 21 is performed to create a bird's-eye view image.
  • step 3 2 c stores the bird's eye view image in the image memory A Note, at this time, stores the same bird's-eye view image in the image memory B.
  • the movement amount (movement amount) of the vehicle indicated by the movement distance L and the rotation angle 6C is obtained based on the vehicle speed signal and the sho rate signal.
  • the bird's-eye view image (first bird's-eye view image at time T) stored in the image memory B is moved based on the moving amount of the vehicle, and the bird's-eye view image after movement (movement at time T) is moved. (Back view image).
  • the second bird's-eye view image (at time T + 1) newly shot and stored in the image memory A is read from the image memory A.
  • the combined bird's-eye view image and the second bird's-eye view image are combined to create a combined bird's-eye view image. Specifically, as shown in Fig.
  • a composite bird's-eye view image is created by writing a part of the moved bird's-eye view image (specifically, excluding the part that overlaps with the second bird's-eye view image) formed by moving the image corresponding to the moving amount of the vehicle.
  • the vehicle is shown in the figure for reference, and a frame indicating the vehicle is actually drawn, for example, when drawing a monitor screen.
  • the composite bird's-eye view image is stored in the image memory B.
  • the combined bird's-eye view image stored in the image memory B is displayed on the monitor 23 in consideration of the image indicating the vehicle, the image indicating the view angle, and the like, and the process is temporarily terminated.
  • the image captured by the camera 21 is converted into a bird's-eye view image
  • the moving amount of the vehicle is detected based on the vehicle signal
  • the bird's-eye view image is moved according to the moving amount of the vehicle.
  • a bird's-eye view image is created after moving.
  • a combined bird's-eye view image is created by combining the bird's-eye view image after moving with the newly read bird's-eye view image, and an image of the vehicle and the viewing angle is added to the combined bird's-eye view image, and the image is displayed on the monitor 23 screen. it's shown.
  • FIGS. 15 (a), (b), and (c) when the vehicle moves linearly to the rear of the parking frame after making a turn, it is processed by the method of this embodiment.
  • the display screens of MOYUTA 23 are shown in order.
  • the vehicle speed sensor 25 Since a bird's-eye view image after movement is created using the obtained vehicle signal, there is an advantage that the arithmetic processing is easy. In other words, image processing such as image matching that requires a large amount of arithmetic processing can be omitted, so that the burden of the arithmetic processing is reduced and the required image can be displayed on the monitor 23 quickly.
  • the image of the parking frame or the parking lot is not only a coordinate transformation of an image taken simply and displayed, but also serves as a marker for vehicle operation from an image taken by a camera. It is desirable to extract an image of a parking frame or a car stop and to make the image emphasized by the color or shade of the parking frame or the car stop.
  • the shift position is the back position.
  • the process is started and the process is started, since the process is performed even when the vehicle advances due to the reverse driving during parking, the start and continuation of the process may be determined based on the vehicle speed signal. For example, processing is started at an hourly speed of 10 kmZh, during which processing is executed to display a bird's-eye view image. This allows the bird's-eye view image to be displayed continuously without being reset even if the shift position changes due to switching.
  • a synthetic bird's-eye view image near the vehicle body that is out of the field of view is displayed by a camera that captures an image in front of the vehicle, and information for determining whether a vehicle can pass through on a narrow road or the like is determined. Can also be provided.
  • the vehicle peripheral image processing apparatus has been described.
  • a recording medium storing means for executing the processing by this apparatus is also within the scope of the present invention.
  • examples of the recording medium include various recording media such as an electronic control unit configured as a microcomputer, a microchip, a floppy disk, a hard disk, and an optical disk. That is, there is no particular limitation as long as it stores means such as a program that can execute the processing of the above-described vehicle peripheral image processing device.
  • the vehicle peripheral image processing device and the recording medium according to the present invention can estimate a portion outside the field of view of the camera and draw the peripheral image of the vehicle on the monitor. It is preferably used as a device that assists the driving operation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)

Description

明細書 車両周辺画像処理装置及び記録媒体 技術分野
本発明は、 例えば車両の後方を撮影してモニタに表示できる車両周辺 画像処理装置及び記録媒体に関するものである。 背景技術
従来より、 車両の後方の様子を表示する装置として、 車両の後部に取 り付けたカメラの画像を、 そのままモニタに出力する表示装置が知られ ている。 この表示装置では、 車両後方の状態が有る程度分かるが、 自車 両とモニタに表示されている対象物 (例えば駐車枠) の画像の相対位置 関係が分かりに難いという問題がある。
また、 これとは別に、 特開平 1 0— 2 1 1 8 4 9号公報には、 後方力 メラで撮影した画像 (後方カメラ画像) を鳥瞰図に変換し、 自車両をそ の中に表示するという技術が提案されている。 この技術の場合には、 鳥 瞰図の中に自車両を示すので、 画像に表示された対象物と自車両の位置 関係は、 撮影した画像をそのままモニタに表示するものより分かり易く なっているが、 カメラの現在の視野の外にあるものは表示できないとい う別の問題があった。
よって、 例えば車両を後退させて駐車枠に入れるような場合には、 力 メラの視野外に出た駐車枠を表示できないので、 依然として、 車両を駐 車枠に入れる操作が容易ではないという問題があった。
本発明は、 前記課題を解決するためになされたものであり、 例えば力 メラの視野の外に出た部分を推定して描画することができる車両周辺 画像処理装置及び記録媒体を提供することを第 1の目的とする。 さらに、 本発明は、 例えばカメラの視野の外に出た部分を推定して描画すること ができるとともに、 その演算処理の負担を軽減することができる車両周 辺画像処理装置及び記録媒体を提供することを第 2の目的とする。 発明の開示
上記第 1の目的を達成するために、 第 1の発明は、 車両周辺の画像を撮 影する撮影手段 (例えばカメラ) と、 画像を表示する表示手段 (例えば モニタ) とを備えた車両に対して、 撮影手段により撮影された画像を処 理して表示手段に表示する車両周辺画像処理装置において、 撮影手段に より撮影した画像を、 撮影手段を視点として投影した地上面座標系のデ ータに変換して鳥瞰図画像を生成する。 これにより、 画像は、 例えば力 メラで撮影したままの歪んだ画像ではなく、 地面の上方より見たような 見やすい鳥瞰図画像となる。 次に、 この様,にして生成した第 1鳥瞰図画 像と、 それより後に生成した第 2鳥瞰図画像とを比較し、 その一致領域 と不一致領域とを判別する。 そして、 この判別により得られた不一致領 域を、 第 2鳥瞰図画像に加味して合成画像を作成し、 この合成画像を、 表示手段に表示できるように処理して、 表示手段に表示する。
つまり、 車両が移動するにつれて、 例えばカメラの視野が変化するの で、 当然、 (撮影レた時間が異なる) 第 1鳥瞰図画像と第 2鳥瞰図画像 では、 画像のずれである不一致領域 (第 1鳥瞰図画像では表示されてい るが、 第 2鳥瞰図画像では消えている部分) が生ずる。
そこで、 本発明では、 第 1鳥瞰図画像と第 2鳥瞰図画像の画像のずれ を検出し、 第 2鳥瞰図画像にそのずれの部分 (過去に表示されていた部 分) の画像を加味することにより、 車両の周囲の状況をより明確に把握 することができる。 この様に、 本発明では、 例えばカメラの現在の視野 から外れた領域を表示できるので、 例えばバックで駐車する場合に、 そ の操作が極めて容易になるという効果を奏する。
撮影手段により撮影される画像は、 例えば車両後部配置されたカメラ により撮影された車両の後方の画像とすることができる。 従って、 例え ば車両をバックで駐車枠に入れる場合には、 駐車枠と車両との位置関係 がよく分かるので、 容易に駐車ができるという効果がある。 また、 撮影 手段により、 車両の側方も撮影できる場合には、 バックで幅寄せする際 に、 側方の状況がよく分かるので、 容易に幅寄せを行うことができる。 更に、 撮影手段により撮影される画像としては、 車両の後方以外に、 車 両の前方が挙げられる。 この場合、 車両の側方も撮影できる場合には、 前進で幅寄せする際に、 側方の状況がよく分かるので、 容易に幅寄せを 行うことができる。
鳥瞰図画像生成手段は、 車線 (例えば駐車枠) を示す画像を抽出して 鳥瞰図画像を生成してもよい。つまり、鳥瞰図画像を生成する場合には、 撮影した画像全体を鳥瞰図画像に変換してもよいが、 (例えば白線で示 される) 車線だけを例えば 2値化処理することにより抽出して表示して もよい。 この場合には、 車線だけを処理すれば良いので、 画像処理の負 担が軽減されるという効果がある。 また、 例えば車両を車線で囲まれた 駐車枠に入れる場合には、 駐車枠の位置だけを認識できればよく、 他の 画像があるとかえつて見づらいという点もあるので、 車線だけを抽出し た方が、 車両の操作が容易になるという利点がある。
第 1鳥瞰図画像と第 2鳥瞰図画像とは、 時間的に連続した鳥瞰図画像 とすることができる。 この場合、 第 1鳥瞰図画像と第 2鳥瞰図画像との 画像のずれは僅かであるので、 一致領域及び不一致領域の検出が容易で ある。 また、 第 2鳥瞰図画像に不一致領域を加味する場合でも、 画像間 のつながりに違和感がなく好適である。
表示処理手段は、 合成画像の画像データを、 表示手段に表示するため の座標変換を行うことが好ましい。 つまり、 鳥瞰図画像を例えばモニタ に表示するためには、 そのサイズの調節などが必要であるので、 モニタ に好適に表示できる様に必要な処理を行う。
合成画像と、 それより後に撮影されて生成された第 3鳥瞰図画像とを 比較して不一致領域を判別し、 この不一致領域を前記合成画像に加味し て新たな合成画像を生成することができる。 これにより、 移動後の鳥瞰 図画像を適宜加味することにより、 連続的に画像を合成することができ. それによつて、 車両の周囲の状況をより明確に把握することができる。 次に、 上記第 2の目的を達成するために、 第 2の発明は、 車両周辺の 画像を撮影する撮影手段 (例えばカメラ) と、 画像を表示する表示手段 (例えばモニタ) とを備えた車両に対して、 撮影手段により撮影された 画像を処理して表示手段に表示する車両周辺画像処理装置において、 撮 影手段により撮影した画像を、 例えば撮影手段を視点として投影した地 上面座標系のデータに変換して鳥瞰図画像の画像データを順次作成す る。 即ち、 第 1鳥瞰図画像及びそれより後の画像である第 2鳥瞰図画像 等の画像データを作成する。 これにより、 画像は、 例えばカメラで撮影 したままの歪んだ画像ではなく、 地面の上方より見たような見やすい鳥 瞰図画像となる。
更に、 本発明では、 車両の動き量 (移動量) を、 車両から得られる車 両信号 (例えば車速信号ゃョーレイ ト信号) に基づいて検出する。 この 検出した車両の動き量は、 第 1鳥瞰図画像の動き量に対応しているので- 車両の動き量に応じて第 1鳥瞰図画像を移動させて移動後鳥瞰図画像 の画像データを作成する。
そして、 (第 1鳥瞰図画像より) 新しい第 2鳥瞰図画像の画像データ と、 移動後鳥瞰図画像の画像データとを合成して、 表示手段に表示する 合成鳥瞰図画像の画像データを作成する。 つまり、 車両が移動するにつ れて、 例えばカメラの視野が変化するので、 当然、 撮影した時間が異な る第 1鳥瞰図画像と第 2鳥瞰図画像では、 画像のずれ (撮影された部分 の違い) が発生する。 そこで、 本発明では、 第 2鳥瞰図画像に、 そのず れの部分 (即ち過去に視野内であつたが現在視野から消えている部分) の移動後鳥瞰図画像を適宜加味することにより、 モニタ等にカメラの視 野から消えた部分を表示でき、 それによつて、 車両の周囲の状況をより 明確に把握することができる。 この様に、 本発明では、 例えばカメラの 現在の視野から外れた領域を表示できるので、 例えばバックで駐車する 場合に、 その操作が極めて容易になるという効果を奏する。
特に、 本発明では、 画像の時間的変化から車両の動きを算出して移動 後鳥瞰図画像を作成するのではなく、 車両信号を用いて移動後鳥瞰図画 像を作成するので、 画像処理のための演算等を簡易化できるという利点 がある。 よって、 マイクロコンピュータ等の負担が軽減するので、 全体 として処理速度を高めることができる。 また、 演算処理能力の低いマイ ク口コンピュータでも処理が可能になるので、 コス トダウンにも寄与す る。
合成鳥瞰図画像は、 第 2鳥瞰図画像を表示する表示領域以外に、 移動 後鳥瞰図画像を加入した画像とすることができる。 これは、 合成鳥瞰図 画像の形成方法の一例であるが、 これにより、 車両の周囲の画像を連続 して表示することができる。 つまり、 上述した様に、 例えばカメラによ り現在撮影されている画像は、 第 2鳥瞰図画像としてモニタに表示可能 であるので、 それ以前のモニタから消えてしまう画像を、 移動後鳥瞰図 画像として第 2鳥瞰図画像の表示領域以外に加えることにより、 カメラ の視野から消えた過去の周囲の状況をもモニタに表示することができ る。
合成鳥瞰図画像に用いる第 2鳥瞰図画像として、 最新の鳥瞰図画像を 用いることができる。 第 2鳥瞰図画像として、 新たにカメラ等にて撮影 された最新の鳥瞰図画像を用いると、 車両の周辺の状況をより的確に把 握することができる。
メモリ Aに、 鳥瞰図画像作成手段により作成された鳥瞰図画像を記憶 し、 メモリ Bに、 合成鳥瞰図画像作成手段により作成された合成鳥瞰図 画像を記憶するように構成しても良い。 これは、 各鳥瞰図画像を記憶す るメモリを例示したものである。 そして、 メモリ Bに記憶された合成鳥 瞰図画像を、 表示手段に表示することが好ましい。 これにより、 合成鳥 瞰図画像をモニタ等に表示することができる。 上述した第 1及び第 2の発明において、 表示手段に合成画像を表示す る場合には、 自車両を示す画像を加えて表示しても良い。 このように、 車両の周囲の状況を示す合成画像に自車両を示す画像を加えて表示す ることにより、 自車両と例えば駐車枠との位置関係が明瞭となるので、 車両の操作が容易になる。 尚、 例えばカメラは車両の所定位置に固定さ れているので、 例えばモニタの画面における自車両の位置は常に一定で ある。 従って、 モニタの画面の決まった位置に自車両を表示することが でき、 更には、 モニタの画面上に予めプリント等により車両を記載して もよい。 また、 カメラの視野角も通常は一定であるので、 自車両だけで なく、 モエタの画面に、 カメラの視野角 (左右の範囲) も表示してもよ い。
上述した車両周辺画像処理装置による処理を実行させる手段を、 プロ グラムとして記録媒体に記憶させることができる。 例えば記録媒体とし ては、 マイクロコンピュータとして構成される電子制御装置、 マイクロ チップ、 フロッピィディスク、 ハードディスク、 光ディスク等の各種の 記録媒体が挙げられる。 図面の簡単な説明
図 1は、 実施例 1の車両周辺画像処理装置の主要構成を示す説明図で ある。 図 2は、 実施例 1の車両周辺画像処理装置の電気的構成を示す説 明図である。 図 3は、 実施例 1の車両周辺画像処理装置による処理の手 順を示す説明図である。 図 4は、 実施例 1の車両周辺画像処理装置によ る座標変換の際の位置関係を示す説明図である。 図 5は、 実施例 1の車 両周辺画像処理装置による処理の手順を示す説明図である。 図 6は、 実 施例 1の車両周辺画像処理装置の画像の移動量を求めるための手順を 示す説明図である。 図 7は、 実施例 1の車両周辺画像処理装置の処理を 示すフローチャートである。 図 8は、 実施例 2の車両周辺画像処理装置 の処理を示すフローチャートである。 図 9は、 実施例 3の車両周辺画像 処理装置の主要構成を示す説明図である。 図 1 0は、 実施例 3の車両周 辺画像処理装置の電気的構成を示す説明図である。 図 1 1は、 実施例 3 の車両周辺画像処理装置により用いられる画像を示し、 (a ) はカメラ により撮影された画像の説明図、 (b ) は鳥瞰図画像を示す説明図であ る。 図 1 2は、 実施例 3の車両周辺画像処理装置による座標変換の際の 位置関係を示す説明図である。 図 1 3は、 実施例 3の車両周辺画像処理 装置の処理を示すフローチヤ一トである。 図 1 4は、 実施例 3の車両周 辺画像処理装置による画像作成の手順を示す説明図である。 図 1 5は、 実施例 3の車両周辺画像処理装置により表示されるモニタ画像を示す 説明図である。
- 発明を実施するための最良の形態
以下に、 本発明の車両周辺画像処理装置及ぴ記録媒体の実施の形態の 例 (実施例) を説明する。
(実施例 1 )
本実施例の基本的なシステム構成を図 1及び図 2を用いて説明する。 図 1に示す様に、 本実施例の車両周辺画像処理装置は、 自動車の後部 に配置されたカメラ (例えば C C Dカメラ) 1 と、 ダッシュボードに配 置された車載モニタ (例えば液晶ディスプレイ) 3と、 画像処理を行う 画像処理ュニッ ト 5を備えている。
前記画像処理ユニット 5は、 図 2に示す様に、 マイクロコンピュータ を主要部とする画像データの処理を行う電子装置であり、 機能的に、 力 メラ 1で撮影した画像データの座標変換を行って鳥瞰図画像を生成す る座標変換部 1 1と、 時間的に連続した 2つの鳥瞰図画像を取り込んで その比較を行うマッチング部 1 3と、 その 2つの鳥瞰図画像の不一致部 分からカメラ 1の視野から外れた領域を推定する領域推定部 1 5と、 モ ニタ 3に表示する画像を描画する描画部 1 7とを備えている。 尚、 画像 処理ュニッ ト 5は、 カメラ 1と一体の構造となっていてもよい。 次に、 本実施例における画像処理の手順等を、 図 3〜図 5に基づいて 説明する。 ここでは、 車両を後退 (バック) させて駐車枠内に入れる場 合を例に挙げる。
まず、 カメラ 1から出力される画像 (出力画像) を、 図 3 ( a ) 左図 に示す。 この画像は、 車両の後部の上部に配置されたカメラ 1により、 地上に描かれた駐車枠及ぴその周囲を撮影した画像であるので、 自車両 (従ってカメラ 1 ) と駐車枠の各線の位置との距離などに応じて、 本来 矩形である駐車枠が歪んで表示されている。
次に、 図 3 ( a ) 左図の画像を、 後に詳述する様に、 座標変換して鳥 瞰図画像を生成し、 更に、 その鳥瞰図画像に、 自車両の位置やカメラ 1 の視野角の画像を加入して合成し、 その合成画像を、 図 3 ( a ) 右図に 示す様に、 モユタ 5の画面に表示する。 つまり、 カメラ 1の取り付け高 さや、 取り付け角度、 視野角は既知であるため、 カメラ 1の出力画像を 座標変換部 1 1にて座標変換 (周知の鳥瞰図変換) し、 図 3 ( a ) 右図 に示す様な鳥瞰図画像とする。
このカメラ 1で撮影した画像を鳥瞰図画像に変換してモニタ 5に表 示する処理は、 以下に説明する様に、 従来技術 (例えば特開平 1 0— 2 1 1 8 4 9号公報) を利用できる。 ここでは、 通常の透視変換の逆の処 理を行うことにより、 地上平面における画像 (例えば駐車枠) の位置を 鳥瞰図として求める。 具体的には、 図 4に示す様に、 地上の画像の位置 データをカメラ位置 Rからの焦点距離 f にあるスク リーン平面 Tに投 影するときの透視変換を実行する。
詳しくは、 カメラ 1は、 Z軸上の点 R ( 0, 0 , H ) に位置し、 見下 ろし角 τで地上面(X y座標面)における画像をモニタしているとする。 従って、 ここでは、 下記式 (1 ) に示す様にして、 スクリーン平面 T上 の 2次元座標 (α、 6) を、 地上面上の座標 (鳥瞰図座標) に変換 (逆の 透視変換) できる。 -x- 「H ■ / (一 jS cos τ + f s i π τ ) -,
• ■ (Ί )
Ly」 -H ■ (j8 sinr + f cos τ) / (一 jScosT+ f sinて) - つまり、 上記式 (1 ) を用いることにより、 投影画像データを (鳥瞰 図画像を示す) モニタ 5の画面に対応した画像データに変換してモニタ 表示することができる。
次に、 車両がバックして駐車枠に近づく と、 図 3 (b) 左図及び図 3 ( c ) 左図に示す様に、 車両に近い部分は、 カメラ 1の視野から徐々に 外れてしまうが、 このとき、 マッチング部 1 3にて、 時間的に連続した 2つの鳥瞰図画像を取り込んで比較を行う。
例えば図 5 ( a )、 図 5 ( b ) に連続した (画像 Aから画像 Bに変化 した) 鳥瞰図画像を示すが、 後述する様にして、 画像 Aと画像 Bのマツ チングを取ることにより、 2つの画像で完全に一致する領域(一致領域) を抽出することができる。 尚、 画像 Bは、 画像 Aより車両が駐車枠に近 づいている画像であるので、駐車枠の一部が力ットされている。 よって、 領域推定部 1 5では、 画像が一致しない領域 (不一致領域) のうち、 力 メラ 1側の V字状の領域を、 車両の移動により画像が移動した領域 (移 動領域) であると推定する。 そして、 画像 Bに、 画像 Aのうちの移動領 域を合成することにより、 図 5 ( c ) に示す様に、 カメラ 1の視野外の 車両枠 (合成領域) をも表示した合成画像を作成することができる。 ここで、 画像 Aと画像 Bのマッチングの手法を説明するが、 画像処理 における従来の各種の手法を採用できる。例えば画像 A、 Bの所定の(マ ツチング用の) 領域を、 図 6に示す様に、 複数の細かい領域 (ピクセル) に分割し、 各画像 A、 Bのピクセルの一致する程度が最も高いものを検 出し、一致するピクセルの位置関係から、画像 Aと画像 Bの位置関係(即 ち画像 Aがどれだけ移動したか) を求めることができる。
具体的には、 図 6に示す様に、 各ピクセルにおける例えば図形の明る さ (色彩でもよい) の程度を数字で示す場合を考えると、 ここでは、 画 像 Aの下 3列のピクセルの明るさと、 画像 Bの上 3列のピクセルの明る さとが一致する。 従って、 この場合には、 画像 Aは、 1列のピクセルの 幅だけ図の上下方向に移動して、 画像 Bと一致すると見なすことができ る。 この場合は、 車両が図の下方に移動したことにより、 画像 Bの図形 が上方に移動したように見える。
つまり、 画像 Aと画像 Bとを比較する場合には、 両画像を細かい領域 に区分し、 その分割した細かい領域のうち多くの領域で一致する場合 (一致の程度が高い場合) には、 一致する部分が同じ画像であると見な すものである。 従って、 画像 Aと画像 Bにおいて、 一致する部分がずれ ている場合には、 画像が移動することによりずれたと見なすことができ、 その移動量や移動方向も求めることができる。 尚、 同様に、 左右方向及 び斜め方向の移動量も求めることができる。
次に、 この合成画像をモユタ 3に表示する場合には、 図 3 ( b ) 右図 及び図 3 ( c ) 右図に示す様に、 描画部 1 7により、 上述した合成画像 を描画するとともに、 車両の位置とカメラ 1の視野角の画像も合成して 描画する。 この場合、 カメラ 1は車両に固定されて一定であるので、 モ ユタ 3の画面の同じ位置 (例えば表示画面中央の上部) に表示すればよ い。
次に、 前記画像処理ユニット 5等にて行われる処理を、 図 7のフロー チャートに基づいて説明する。
図 7に示す様に、 まず、 ステップ 1 0 0にて、 シフ ト位置がバックで あるか否かを判定する。 ここで肯定判断されるとステップ 1 1 0に進み、 一方否定判断されるとステップ 1 7 0に進む。 尚、 シフ ト位置は、 シフ ト位置検出センサ (図示せず) からの信号や、 他の電子制御装置からの 信号により検出することができる。
ステップ 1 7 0では、 以前に描画したカメラの視野外の領域の画像を 消去し、 即ち、 現在のカメラの画像 (鳥瞰図画像) のみを表示し、 前記 ステップ 1 0 0に戻る。 —方、 ステップ 1 1 0では、 カメラ 1で撮影した画像の座標変換 (前 記鳥瞰図変換)を行って、鳥瞰図画像を得る。続くステップ 1 2 0では、 連続した 2つの鳥瞰図画像の中で、 一致する領域を抽出する。 例えば図 5の画像 Aと画像 Bとから、 一致する領域を抽出する。 続くステップ 1 3 0では、 現在のカメラ 1の視野から外れる移動領域を抽出する。
続くステップ 1 4 0では、 後に画面 Aの移動領域を画面 Bのカメラ視 野の外に描画するのであるが、 描画する前に、 既に画面 Bに描画されて いる部分を移動領域だけ (画面 Bの下方に) ずらせることにより、 描画 領域を確保する。
続くステップ 1 5 0では、 例えば図 5 ( c ) に示す様に、 前記ステツ プ 1 3 0にて確保した描画領域に移動領域の画像を描画する (合成画像 を作成する)。 続くステップ 1 6 0では、 例えば図 3 ( c ) 右図に示す 様に、 自車両及び視野角を示す V字状の線の描画を行い、 ー且本処理を 終了する。
なお、 すでに合成画像が作成され記憶されている場合は、 その合成画 像と最新の鳥瞰図画像とを比較して不一致領域を判別し、 この不一致領 域を記憶されている合成画像に加味して新たな合成画像を生成するこ とが好ましい。 これにより、 移動後の鳥瞰図画像を適宜加味することに より、 連続的に画像を合成することができ、 それによつて、 車両の周囲 の状況をより明確に把握することができる。
この様に、 本実施例では、 カメラで撮影した画像を鳥瞰図画像に変換 するとともに、 時間的に連続した鳥瞰図画像の一致領域を抽出して、 そ の両鳥瞰図画像のずれ部分である移動領域を検出する。 そして、 現在の 画像を示す鳥瞰図画像に移動領域を合成して合成画像を作成するとと もに、 合成画像をモニタ 5の画面に表示する場合には、 自車両及び視野 角の画像を加えている。 つまり、 本実施例では、 車両が移動する際に力 メラ視野から外れた領域を推定し、 合成することによって、 通常はカメ ラ視野外となる表示できない部分も含めて表示することができるので、 自車両と駐車枠との位置関係が明瞭に把握できる。 そのため、 バックで 駐車する操作などが、 極めて容易になるという顕著な効果を奏する。
(実施例 2 )
次に、 実施例 2について説明するが、 前記実施例 1と同様な箇所の説 明は省略する。 本実施例は、 駐車枠や車止めのみを抽出して描画し、 そ の背景の画像は省略するものである。
図 8のフローチャートに示す様に、 まず、 ステップ 2 0 0にて、 シフ ト位置がバックであるか否かを判定する。 ここで肯定判断されるとステ ップ 2 1 0に進み、 一方否定判断されるとステップ 2 8 0に進む。
ステップ 2 8 0では、 以前に描画したカメラの視野外の領域の画像を 消去する。 一方、 ステップ 2 1 0では、 カメラで撮影した画像から、 駐 車枠及び車止めの画像を、 2値化処理により抽出する。 尚、 ここでは、 駐車枠及ぴ車止めは、 白色で塗られており、 アスファルトの黒色の地面 から容易に分離可能だとする。
続くステップ 2 2 0では、 2値化処理した画像を鳥瞰図変換して、 駐 車枠及び車止めの鳥瞰図画像を生成する。 ここでは、 背景は、 単一の色 彩とする。続くステップ 2 3 0では、連続した 2つの鳥瞰図画像の中で、 —致する領域を抽出する。 続くステップ 2 4 0では、 現在のカメラ 1の 視野から外れる移動領域を抽出する。
続くステップ 2 5 0では、 描画する前に、 既に画面 Bに描画されてい る部分を移動領域だけ (画面 Bの下方に) ずらせることにより、 描画領 域を確保する。 続くステップ 2 6 0では、 前記ステップ 2 5 0にて確保 した描画領域に移動領域の画像を描画する (合成画像を作成する)。 続 くステップ 2 7 0では、 自車両及び視野角を示す V字状の線の描画を行 い、 一旦本処理を終了する。
本実施例においても、 前記実施例 1と同様な効果を奏するが、 特に本 実施例では、 撮影した画像全体を鳥瞰図変換して表示するのではなく、 自車両や視野角以外に、 例えば駐車枠や車止めのみの様に、 運転に必要 なもののみを表示するようにしている。 これにより、 画像処理の負担が 軽減されるとともに、 モニタ 3における画像表示も見やすくなって、 車 両の操作が容易になるという利点がある。
(実施例 3 )
次に実施例 3について説明する。 まず、 本実施例の基本的なシステム 構成を図 9及び図 1 0を用いて説明する。
図 9に示す様に、 本実施例の車両周辺画像処理装置は、 自動車の後部 に配置されたカメラ (例えば C C Dカメラ) 2 1と、 ダッシュボードに 配置された車載モニタ (例えば液晶ディスプレイ) 2 3と、 車速を検出 する車速センサ 2 5と、 ョーレイ トを検出するョーレイ トセンサ 2 7と、 画像処理を行う画像処理ュ-ッ ト 2 9を備えている。
画像処理ュ-ット 2 9は、 図 1 0に示す様に、 マイクロコンピュータ を主要部とする画像データの処理を行う電子装置であり、 カメラ 2 1で 撮影した画像データの座標変換を行って鳥瞰図画像を作成する座標変 換部 (鳥瞰図変換回路) 3 1 と、 作成された鳥瞰図画像の画像データを 一時的に蓄える画像メモリ Aと、 車速信号を入力する車速信号入力回路 3 3と、 ョーレイ ト信号を入力するョーレイ ト信号入力回路 3 5と、 車 速信号及ぴョーレイ ト信号を読み込んで鳥瞰図画像を移動 (例えば回転 移動) させる等の演算を行う C P U 3 7と、 モニタ 2 3に表示する鳥瞰 図画像のデータを記憶する画像メモリ Bとを備えている。
ここで、 画像メモリ Bに記憶する鳥瞰図画像の画像データとは、 後述 する様に、 前回 (例えば時刻丁に) カメラ 2 1にて撮影され、 その画像 データに基づいて作成された鳥瞰図画像 (第 1鳥瞰図画像) を移動させ た鳥瞰図画像 (移動後鳥瞰図画像) と、 新たに (例えば時刻 T + 1に) カメラ 2 1にて撮影され、 その画像データに基づいて作成された鳥瞰図 画像 (第 2鳥瞰図画像) とを合成した鳥瞰図画像 (合成鳥瞰図画像) の 画像データである。 尚、 画像処理ュエツト 2 9は、 カメラ 2 1 と一体の 構造となっていてもよく、 画像処理ュニット 2 9内の各構成は、 一部又 は全体で一体化して L S Iで構成してもよい。
次に、 本実施例における画像処理の手順等を、 図 1 1及び図 1 2に基 づいて説明する。 ここでは、 車両を後退 (バック) させて駐車枠内に入 れる場合を例に挙げる。
最初に、 カメラ 2 1から入力された画像を、 座標変換部 3 1で上空か ら見た鳥瞰図画像に変換し、 画像メモリ Aに保存する手順を説明する。 カメラ 2 1から出力される原画像 (出力画像) を、 図 1 1 (a ) に示す。 この原画像は、 車両の後部の上部に配置されたカメラ 2 1により、 地上 に描かれた駐車枠及びその周囲を撮影した画像であるので、 自車両 (従 つてカメラ 2 1 ) と駐車枠の各線の位置との距離などに応じて、 本来矩 形である駐車枠が歪んで表示されている。
よって、 実施例 1にて説明したと同様の手法により、 原画像の画像デ ータを座標変換して、 図 1 1 (b ) に示す様な歪みのない鳥瞰図画像を 作成し、 この鳥瞰図画像の画像データを画像メモリ Aに記憶する。
次に、 車速信号とョーレイ ト信号を用い、 車両の動き量 (移動量) に 応じて、 前記画像メモリ Aに記憶した鳥瞰図画像を移動 (例えば回転移 動) させる手順を説明する。 ここでは、 図 1 2に時刻 Tの車両位置を示 すが、 時刻 T+ 1になるまでの車両の移動距離は L、 時刻 T+ 1になる までに車両が動いた角度は Θ 1 (=回転中心における回転角度 ΘΟ と する。
まず、 カメラ 2 1のサンプリング時間が 1 0 0[m s ]の場合、 車速信 号から得られる車速 S[k m/h]を用いて、 下記式 (2 ) から、 車両が 移動した距離 L[m]を算出できる。
L[m]= S [k m/h]x 1 0 0 0 [m/ k m]÷3 6 0 0 [S/h]
x 1 0 0 [m s ]÷1 0 0 0 [m s / s ] · - - ( 2)
また、 図 1 2に示す図形の関係があるので、 ョーレイ ト信号から得ら れるョ一レイ ト ΘΟ〖度 / s ]を用いて、 下記式 (3 ) から、 車両が動い た角度 Θ 1を算出できる。 θ 1 [度 θ 0 [度 Z s ]x 1 00 [m s ]÷ 1 0 0 0 [m s / s ]■ · ( 3 ) 更に、 ここでは、 車両の回転中心は後輪車軸の延長線上にあるとして いるので、 その回転中心は、 カメラ位置を原点として算出し、 車両の進 行方向を Y、 これに垂直な方向を Xとすると、 X方向の回転中心位置 X C[m〗は、 下記式 (4) から算出できる。
X C[m]= L[m]÷T AN (θ 1 ) . - (4)
一方、 Υ方向の中心位置は、 後輪車軸上であるので、 カメラ 2 1 と後 輪車軸までの距離は YC[c m]である。 また、 回転中心における回転角 度 6Cは、 図 1 2に示す図形の関係から、 車両が動いた角度 Θ1に一致 する。
次に、 上述した様にして求めた回転中心位置 (XC、 YC)、 回転角 度 ecを用いて、 下記の様にして、 鳥瞰図画像を移動する。
画像メモリ Aに記憶された鳥瞰図画像の画像データは、 一旦、 画像メ モリ Bにも記憶される。 従って、 ここでは、 画像メモリ Bに記憶された 鳥瞰図画像の画像データを、 C PU 3 7の内部メモリに転送し、 前記回 転中心位置 (xc、 YC) 及び回転角度 ecを用いて、 鳥瞰図画像を回 転移動する。
この回転移動を行うための変換式を、 下記式 (5) に示すが、 この変 換式を用いた C PU 3 7の内部処理により、 回転角度 Θにて移動させた 移動後の座標 (XB、 YB) に対して、 移動前の対応する点 (XA、 Y A) を算出し、 (XA、 Y A) の画素値を (XB、 YB) のア ドレスメ モリに保存する。 · · ■ ( 5 )
Figure imgf000017_0001
但し、 (XA、 YB) :移動前の座標
(XB、 YB) :移動後の座標
Θ : 回転角度
そして、 全ての座標についてこれらの演算を行うことにより、 画像メ モリ Aに記憶された鳥瞰図画像(時刻 Tにおける第 1鳥瞰図画像)から、 移動後の鳥瞰図画像 (時刻 Tにおける移動後鳥瞰図画像) を作成する。 それとともに、 新たにカメラ 2 1により撮影した画像に基づいて作成し た鳥瞰図画像、 即ち、 現在の鳥瞰図画像 (時刻 T + 1における第 2鳥瞰 図画像) を、 新たに画像メモリ Aより C P U 3 7に転送する。
よって、 C P U 3 7では、 第 2鳥瞰図画像を時刻 Tと位置関係が対応 する位置 (移動後鳥瞰図画像との画像のずれが生じない位置) に書き込 み、 それによつて、 移動後鳥瞰図画像と第 2鳥瞰図画像とを合成した合 成鳥瞰図画像の画像データを作成し、 その画像データを画像メモリ Bに 記憶する。
尚、 合成鳥瞰図画像を作成する際には、 自車両の位置やカメラ 2 1の 視野角の画像なども加入して画像メモリ Bに記憶し、 その合成鳥瞰図画 像をモニタ 2 3の画面に表示してもよいが、 自車両の位置やカメラ 2 1 の視野角の画像などは画像メモリ Bに記憶せずに、 モニタ 2 3に画像メ モリ Bに記憶した合成鳥瞰図画像を描画する際に、 自車両の位置やカメ ラ 2 1の視野角の画像など加えて描画してもよい。
次に、 画像処理ュニッ ト 2 9等にて行われる処理を、 図 1 3のフロー チヤ一トに基づいて説明する。
図 1 3に示す様に、 まず、 ステップ 3 0 0にて、 シフ ト位置がバック であるか否かを判定する。 ここで肯定判断されるとステップ 3 1 0に進 み、 一方否定判断されるとステップ 3 9 0に進む。 尚、 シフト位置は、 シフト位置検出センサ (図示せず) からの信号や、 他の電子制御装置か らの信号により検出することができる。
ステップ 3 9 0では、 以前に描画したカメラ 2 1の視野外の領域の画 像を消去し、 即ち、 現在のカメラ 2 1の画像 (鳥瞰図画像) のみを表示 し、 前記ステップ 3 0 0に戻る。 一方、 ステップ 3 1 0では、 カメラ 2 1で撮影した画像の座標変換 (前記鳥瞰図変換) を行って、 鳥瞰図画像 を作成する。 続くステップ 3 2 0では、 前記鳥瞰図画像を画像メモリ Aに記憶する c 尚、 このときには、 画像メモリ Bにも同様な鳥瞰図画像を記憶する。 続 くステップ 3 3 0では、 車速信号及びョーレイ ト信号に基づいて、 移動 距離 L及ぴ回転角度 6 Cで示される車両の動き量 (移動量) を求める。 続くステップ 3 4 0では、 車両の移動量に基づいて、 前記画像メモリ Bに記憶されている鳥瞰図画像 (時刻 Tの第 1鳥瞰図画像) を移動させ て、 移動後の鳥瞰図画像 (時刻 Tの移動後鳥瞰図画像) を求める。
続くステップ 3 5 0では、 新たに撮影されて画像メモリ Aに記憶され た (時刻 T + 1における) 第 2鳥瞰図画像を、 画像メモリ Aから読み込 む。 続くステップ 3 6 0では、 移動後鳥瞰図画像と第 2鳥瞰図画像とを 合成して合成鳥瞰図画像を作成する。 具体的には、 図 1 4に示す様に、 新たな (第 2鳥瞰図画像に対応する) カメラ視野の外に、 今回の車両の 移動によりカメラ視野外となった部分、 即ち、 第 1鳥瞰図画像を車両の 移動量に対応して移動させて形成した移動後鳥瞰図画像の一部 (詳しく は第 2鳥瞰図画像と重なる部分は除いたもの) を書き込むようにして、 合成鳥瞰図画像を作成する。 尚、 同図で車両は参考にために記載したも のであり、 実際には、 例えばモニタ画面の描画の際に、 車両を示す枠等 を描画する。
続くステップ 3 7 0では、 合成鳥瞰図画像を、 画像メモリ Bに記憶す る。 続くステップ 3 8 0では、 車両を示す画像や視野角を示す画像など を加味して、 画像メモリ Bに記憶した合成鳥瞰図画像をモニタ 2 3に表 示し、 一旦本処理を終了する。
この様に、 本実施例では、 カメラ 2 1で撮影した画像を鳥瞰図画像に 変換し、 車両信号に基づいて車両の移動量を検出し、 その車両の移動量 に応じて鳥瞰図画像を移動させて移動後鳥瞰図画像を作成している。 そ して、 移動後鳥瞰図画像と新たに読み込んだ鳥瞰図画像とを合成して合 成鳥瞰図画像を作成し、 その合成鳥瞰図画像に自車両及び視野角の画像 を加えて、 モニタ 2 3の画面に表示している。 つまり、 本実施例では、 車両が移動する際にカメラ視野から外れた領 域を推定し、 合成することによって、 通常はカメラ視野外となる表示で きない部分も含めて表示することができるので、図 1 5 ( a ) , ( b ) ( c ) に示す様に、 自車両と駐車枠との位置関係が明瞭に把握できる。 そのた め、 バックで駐車する操作などが、 極めて容易になるという顕著な効果 を奏する。
尚、 図 1 5 ( a )、 (b )、 ( c ) では、 車両が駐車枠に対して、 回転移 動した後に後方に直線的に移動する際に、 本実施例の手法によって演算 処理されたモユタ 2 3の表示画面を順を追って示している。
特に本実施例では、 例えば第 1及び第 2鳥瞰図画像の画像の時間的変 化から車両の動きを算出して移動後鳥瞰図画像を作成するのではなく、 車速センサ 2 5ゃョーレイ トセンサ 2 7によって得られた車両信号を 用いて移動後鳥瞰図画像を作成するので、 その演算処理が容易であると いう利点がある。 つまり、 多くの演算処理が必要な画像のマッチングな どによる画像処理を省略できるので、 演算処理の負担が軽減され、 速や かに必要な画像をモニタ 2 3に表示することができる。
よって、 マイクロコンピュータ等の負担が軽減するので、 全体として 処理速度を高めることができる。 また、 演算処理能力の低いマイクロコ ンピュータでも処理が可能になるので、 コストダウンにも寄与する。 尚、 本発明は前記実施例になんら限定されるものではなく、 本発明を 逸脱しない範囲において種々の態様で実施しうることはいうまでもな い。 '
( 1 ) 例えば、 前記実施例 1において、 駐車枠や車止めの画像は、 単 に撮影した画像を座標変換して表示するだけではなく、 カメラで撮影し た画像から、 車両の操作の目印になる駐車枠や車止めの画像を抽出し、 その駐車枠や車止めの色彩や色の濃淡等で強調した画像とすることが 望ましい。
( 2 ) また、 前記実施例 3では、 シフ ト位置がバックであることを検 出して処理を開始しているが、 駐車時の切り返し運転による車両の前進 時でも処理するため、 車速信号で処理の開始 ·継続を決定してもよい。 例えば、 時速が 1 0 k mZ hで処理を開始し、 この間は処理を実行して 鳥瞰図画像を表示するなどである。 これにより、 切り返しでシフ ト位置 が変化しても、 鳥瞰図画像がリセッ トされることなく継続して表示でき る。
( 3 ) 更に、 本発明のその他の応用例として、 車両の前方を撮像する カメラによって、 視野外となる車体近傍の合成鳥瞰図画像を表示し、 狭 い道などでのすり抜けの可否を判断する情報を提供することもできる。
( 4 ) また、 前記実施例 1、 2、 3では、 車両周辺画像処理装置につ いて述べたが、 この装置による処理を実行させる手段を記憶している記 録媒体も、 本発明の範囲である。 例えば記録媒体としては、 マイクロコ ンピュータとして構成される電子制御装置、 マイクロチップ、 フロッピ ィディスク、 ハードディスク、 光ディスク等の各種の記録媒体が挙げら れる。 つまり、 上述した車両周辺画像処理装置の処理を実行させること ができる例えばプログラム等の手段を記憶したものであれば、 特に限定 はない。 産業上の利用可能性
以上のように、 本発明に係わる車両周辺画像処理装置及び記録媒体は、 カメラの視野の外に出た部分を推定して車両の周辺画像をモニタに描 画させることができるので、 例えば駐車のための運転操作を援助する装 置として好適に利用されるものである。

Claims

請求の範囲
1 . 車両周辺の画像を撮影する撮影手段と、 画像を表示する表示手段と を備えた車両に対して、 前記撮影手段により撮影された画像を処理して 前記表示手段に表示する車両周辺画像処理装置において、
前記撮影手段により撮影した画像を、 前記撮影手段を視点として投影 した地上面座標系のデータに変換して鳥瞰図画像を生成する鳥瞰図画 像生成手段と、
前記鳥瞰図画像生成手段により生成された第 1鳥瞰図画像と、 それよ り後に撮影されて生成された第 2鳥瞰図画像とを比較して、 その一致領 域と不一致領域とを判別する領域判別手段と、
前記領域判別手段により判別された不一致領域を、 前記第 2鳥瞰図画 像に加味して合成画像を作成する合成画像作成手段と、
前記合成画像を、 前記表示手段に表示する表示処理手段と、 を備えたことを特徴とする車両周辺画像処理装置。
2 . 前記撮影手段により撮影される画像は、 車両の後方の画像であるこ とを特徴とする請求の範囲第 1項に記載の車両周辺画像処理装置。
3 . 前記鳥瞰図画像生成手段は、 車線を示す画像を抽出して鳥瞰図画像 を生成することを特徴とする請求の範囲第 1項に記載の車両周辺画像 処理装置。
4 . 前記第 1鳥瞰図画像と第 2鳥瞰図画像とは、 時間的に連続した鳥瞰 図画像であることを特徴とする請求の範囲第 1項に記載の車両周辺画 像処理装置。
5 . 前記表示処理手段は、 前記合成画像の画像データを、 前記表示手段 に表示するための座標変換を行うことを特徴とする請求の範囲第 1項 に記載の車両周辺画像処理装置。
6 . 前記表示手段に前記合成画像を表示する場合には、 自車両を示す画 像を加えて表示することを特徴とする請求の範囲第 1項に記載の車両 周辺画像処理装置。
7 . 前記領域判別手段は、 前記合成画像生成手段により作成された合成 画像と、 それより後に撮影されて生成された第 3鳥瞰図画像とを比較し て、 その一致領域と不一致領域とを判別するとともに、
前記合成画像作成手段は、 判別された不一致領域を、 前記合成画像に 加味して新たな合成画像を生成することを特徴とする請求の範囲第 1 項に記載の車両周辺画像処理装置。
8 . 請求の範囲第 1項〜第 7項のいずれかに記載の車両周辺画像処理装 置による処理を実行させる手段を記憶していることを特徴とする記録 媒体。
9 . 車両周辺の画像を撮影する撮影手段と、 画像を表示する表示手段と を備えた車両に対して、 前記撮影手段により撮影された画像を処理して 前記表示手段に表示する車両周辺画像処理装置において、
前記撮影手段により撮影した画像に基づいて、 その鳥瞰図画像を作成 する鳥瞰図画像作成手段と、
前記車両の動き量を、 前記車両から得られる車両信号に基づいて検出 する車両動き量検出手段と、
前記: 両動き量検出手段により検出した車両の動き量に基づいて、 前 記鳥瞰図画像作成手段により作成された第 1鳥瞰図画像を移動させて、 移動後鳥瞰図画像を作成する鳥瞰図画像移動手段と、
前記第 1鳥瞰図画像より後に撮影されて作成された第 2鳥瞰図画像 と、 前記移動後鳥瞰図画像とを合成して、 前記表示手段に表示する合成 鳥瞰図画像を作成する合成鳥瞰図画像作成手段と、
を備えたことを特徴とする車両周辺画像処理装置。
1 0 . 前記合成鳥瞰図画像は、 前記第 2鳥瞰図画像を表示する表示領域 以外に、 前記移動後鳥瞰図画像を加入した画像であることを特徴とする 請求の範囲第 9項に記載の車両周辺画像処理装置。
1 1 . 前記合成鳥瞰図画像に用いる第 2鳥瞰図画像として、 最新の鳥瞰 図画像を用いることを特徴とする請求の範囲第 9項に記載の車両周辺 画像処理装置。
1 2 . 前記鳥瞰図画像作成手段により作成された鳥瞰図画像を記憶する メモリ Aと、
前記合成鳥瞰図画像作成手段により作成された合成鳥瞰図画像を記 ) 憶するメモリ Bと、
を備えたことを特徴とする請求の範囲第 9項に記載の車両周辺画像 処理装置。
1 3 . 前記メモリ Bに記憶された合成鳥瞰図画像を、 前記表示手段に表 示することを特徴とする請求の範囲第 1 2項に記載の車両周辺画像処
1 4 . 前記表示手段に前記合成鳥瞰図画像を表示する場合には、 自車両 を示す画像を加えて表示することを特徴とする請求の範囲第 9項に記 載の車両周辺画像処理装置。
1 5 . 前記請求の範囲第 9項〜第 1 4項のいずれかに記載の車両周辺画 像処理装置による処理を実行させる手段を記憶していることを特徴と する記録媒体。
PCT/JP2002/002525 2001-06-13 2002-03-15 Processeur d'images peripheriques pour vehicule et support d'enregistrement WO2002104032A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US10/333,745 US7317813B2 (en) 2001-06-13 2002-03-15 Vehicle vicinity image-processing apparatus and recording medium
DE10292327T DE10292327B4 (de) 2001-06-13 2002-03-15 Fahrzeugumgebungsbildverarbeitungsvorrichtung und Aufzeichnungsmedium
KR1020037002069A KR100550299B1 (ko) 2001-06-13 2002-03-15 차량 주변 이미지 처리 장치 및 기록 매체

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001178776A JP4156214B2 (ja) 2001-06-13 2001-06-13 車両周辺画像処理装置及び記録媒体
JP2001-178776 2001-06-13

Publications (1)

Publication Number Publication Date
WO2002104032A1 true WO2002104032A1 (fr) 2002-12-27

Family

ID=19019425

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/002525 WO2002104032A1 (fr) 2001-06-13 2002-03-15 Processeur d'images peripheriques pour vehicule et support d'enregistrement

Country Status (6)

Country Link
US (1) US7317813B2 (ja)
JP (1) JP4156214B2 (ja)
KR (1) KR100550299B1 (ja)
CN (1) CN1210958C (ja)
DE (1) DE10292327B4 (ja)
WO (1) WO2002104032A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104854640A (zh) * 2012-12-05 2015-08-19 戴姆勒股份公司 探测并显示用于车辆的停车位的车辆侧方法和车辆侧设备

Families Citing this family (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7729831B2 (en) 1999-07-30 2010-06-01 Oshkosh Corporation Concrete placement vehicle control system and method
US7107129B2 (en) 2002-02-28 2006-09-12 Oshkosh Truck Corporation Turret positioning system and method for a fire fighting vehicle
JP3575364B2 (ja) * 1999-12-28 2004-10-13 株式会社豊田自動織機 操舵支援装置
US7277782B2 (en) 2001-01-31 2007-10-02 Oshkosh Truck Corporation Control system and method for electric vehicle
US7392122B2 (en) 2002-06-13 2008-06-24 Oshkosh Truck Corporation Steering control system and method
US7412307B2 (en) * 2002-08-02 2008-08-12 Oshkosh Truck Corporation Refuse vehicle control system and method
JP3879696B2 (ja) * 2003-04-25 2007-02-14 日産自動車株式会社 運転支援装置
US20050031169A1 (en) * 2003-08-09 2005-02-10 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view
WO2005088970A1 (ja) * 2004-03-11 2005-09-22 Olympus Corporation 画像生成装置、画像生成方法、および画像生成プログラム
JP4380550B2 (ja) * 2004-03-31 2009-12-09 株式会社デンソー 車載用撮影装置
JP3722487B1 (ja) * 2004-05-19 2005-11-30 本田技研工業株式会社 車両用走行区分線認識装置
JP3898709B2 (ja) * 2004-05-19 2007-03-28 本田技研工業株式会社 車両用走行区分線認識装置
JP3722486B1 (ja) * 2004-05-19 2005-11-30 本田技研工業株式会社 車両用走行区分線認識装置
JP4744823B2 (ja) * 2004-08-05 2011-08-10 株式会社東芝 周辺監視装置および俯瞰画像表示方法
JP4724522B2 (ja) * 2004-10-28 2011-07-13 株式会社デンソー 車両周囲視界支援システム
JP2006224873A (ja) * 2005-02-18 2006-08-31 Denso Corp 車両周辺監視装置
JP4596978B2 (ja) * 2005-03-09 2010-12-15 三洋電機株式会社 運転支援システム
US7415134B2 (en) * 2005-05-17 2008-08-19 Honda Motor Co., Ltd. Traffic lane marking line recognition system for vehicle
JP4760831B2 (ja) * 2005-08-02 2011-08-31 日産自動車株式会社 車両周囲監視装置及び車両周囲監視方法
JP4809019B2 (ja) * 2005-08-31 2011-11-02 クラリオン株式会社 車両用障害物検出装置
TW200829466A (en) * 2007-01-03 2008-07-16 Delta Electronics Inc Advanced bird view visual system
JP2007099261A (ja) * 2005-09-12 2007-04-19 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP2007124609A (ja) * 2005-09-28 2007-05-17 Nissan Motor Co Ltd 車両周囲映像提供装置
FR2891934B1 (fr) * 2005-10-12 2008-01-18 Valeo Electronique Sys Liaison Dispositif de traitement de donnees video pour un vehicule automobile
DE102006003538B3 (de) * 2006-01-24 2007-07-19 Daimlerchrysler Ag Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
JP4661658B2 (ja) * 2006-03-30 2011-03-30 アイシン・エィ・ダブリュ株式会社 運転支援方法、運転支援装置及び運転支援プログラム
JP4321543B2 (ja) 2006-04-12 2009-08-26 トヨタ自動車株式会社 車両周辺監視装置
US8243994B2 (en) * 2006-05-09 2012-08-14 Nissan Motor Co., Ltd. Vehicle circumferential image providing device and vehicle circumferential image providing method
JP5309442B2 (ja) 2006-05-29 2013-10-09 アイシン・エィ・ダブリュ株式会社 駐車支援方法及び駐車支援装置
JP4232794B2 (ja) * 2006-05-31 2009-03-04 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
EP2030067B1 (en) * 2006-06-20 2023-05-31 Datalogic USA, Inc. Imaging scanner with multiple image fields
US20090128630A1 (en) * 2006-07-06 2009-05-21 Nissan Motor Co., Ltd. Vehicle image display system and image display method
JP4497133B2 (ja) * 2006-07-12 2010-07-07 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
KR101143176B1 (ko) * 2006-09-14 2012-05-08 주식회사 만도 조감도를 이용한 주차구획 인식 방법, 장치 및 그를 이용한주차 보조 시스템
TW200829464A (en) * 2007-01-03 2008-07-16 Delta Electronics Inc Bird view visual system with fish eye improvement and method thereof
JP4893945B2 (ja) * 2007-02-06 2012-03-07 株式会社デンソー 車両周辺監視装置
JP2008219063A (ja) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
EP3480057B1 (en) 2007-04-30 2022-07-06 Mobileye Vision Technologies Ltd. Rear obstruction detection
JP2008312004A (ja) * 2007-06-15 2008-12-25 Sanyo Electric Co Ltd カメラシステム及び機械装置
JP5088074B2 (ja) * 2007-10-01 2012-12-05 日産自動車株式会社 駐車支援装置及び方法
JP5380941B2 (ja) * 2007-10-01 2014-01-08 日産自動車株式会社 駐車支援装置及び方法
WO2009057410A1 (ja) * 2007-10-30 2009-05-07 Nec Corporation 路面標示画像処理装置,路面標示画像処理方法及びプログラム
WO2009102616A2 (en) 2008-02-12 2009-08-20 Datalogic Scanning, Inc. Systems and methods for forming a composite image of multiple portions of an object from multiple perspectives
US8678287B2 (en) * 2008-02-12 2014-03-25 Datalogic ADC, Inc. Two-plane optical code reader for acquisition of multiple views of an object
DE102008046214A1 (de) 2008-09-08 2009-04-30 Daimler Ag Verfahren und Vorrichtung zur Überwachung einer Umgebung eines Fahrzeuges
DE102008046544A1 (de) 2008-09-10 2009-05-20 Daimler Ag Verfahren und Vorrichtung zur Überwachung einer Umgebung eines Fahrzeuges
EP2179892A1 (de) 2008-10-24 2010-04-28 Magna Electronics Europe GmbH & Co. KG Verfahren zum automatischen Kalibrieren einer virtuellen Kamera
US8322621B2 (en) 2008-12-26 2012-12-04 Datalogic ADC, Inc. Image-based code reader for acquisition of multiple views of an object and methods for employing same
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
US8732592B2 (en) * 2009-06-08 2014-05-20 Battelle Energy Alliance, Llc Methods and systems relating to an augmented virtuality environment
JP5108840B2 (ja) * 2009-07-29 2012-12-26 クラリオン株式会社 車両用周辺監視装置および車両用周辺画像表示方法
US8988525B2 (en) * 2009-08-27 2015-03-24 Robert Bosch Gmbh System and method for providing guidance information to a driver of a vehicle
JP4952765B2 (ja) * 2009-10-21 2012-06-13 トヨタ自動車株式会社 車両用夜間視界支援装置
EP2491527B1 (en) 2009-10-22 2013-07-31 Tomtom Belgium N.V. Method for creating a mosaic image using masks
WO2011047732A1 (en) * 2009-10-22 2011-04-28 Tele Atlas B.V. Method for identifying moving foreground objects in an orthorectified photographic image
US20110169957A1 (en) * 2010-01-14 2011-07-14 Ford Global Technologies, Llc Vehicle Image Processing Method
JP5479956B2 (ja) * 2010-03-10 2014-04-23 クラリオン株式会社 車両用周囲監視装置
JP2011257940A (ja) * 2010-06-08 2011-12-22 Panasonic Corp 逆変換テーブル生成方法、逆変換テーブル生成プログラム、画像変換装置、画像変換方法、及び画像変換プログラム
CN101976429B (zh) * 2010-10-27 2012-11-14 南京大学 基于游弋图像的水面鸟瞰图成像方法
DE102010051206A1 (de) * 2010-11-12 2012-05-16 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen eines Bilds einer Fahrzeugumgebung und Abbildungsvorrichtung
RU2544775C1 (ru) * 2011-09-12 2015-03-20 Ниссан Мотор Ко., Лтд. Устройство обнаружения трехмерных объектов
US9440585B2 (en) * 2011-09-13 2016-09-13 Toyoya Jidosha Kabushiki Kaisha Optical axis ascertaining device for in-vehicle camera
MX339625B (es) * 2012-02-23 2016-06-02 Nissan Motor Dispositivo de deteccion de objetos tridimensionales.
JP2013186245A (ja) * 2012-03-07 2013-09-19 Denso Corp 車両周辺監視装置
JP6003226B2 (ja) 2012-05-23 2016-10-05 株式会社デンソー 車両周囲画像表示制御装置および車両周囲画像表示制御プログラム
JP5994437B2 (ja) * 2012-07-04 2016-09-21 株式会社デンソー 車両周囲画像表示制御装置および車両周囲画像表示制御プログラム
JP2014089513A (ja) * 2012-10-29 2014-05-15 Denso Corp 画像生成装置、および画像生成プログラム
CN104871204B (zh) * 2012-11-27 2018-01-26 歌乐株式会社 车载图像处理装置
JP6024581B2 (ja) * 2013-04-15 2016-11-16 株式会社デンソー 車両用画像処理装置
DE102013010233B4 (de) * 2013-06-18 2018-08-30 Volkswagen Aktiengesellschaft Verfahren zum Anzeigen von Umgebungsinformationen in einem Fahrzeug und Anzeigesystem für ein Fahrzeug
US9845191B2 (en) 2013-08-02 2017-12-19 Oshkosh Corporation Ejector track for refuse vehicle
KR20150019192A (ko) * 2013-08-13 2015-02-25 현대모비스 주식회사 Avm 시스템을 위한 영상 합성 장치 및 그 방법
DE102013217699A1 (de) * 2013-09-05 2015-03-05 Robert Bosch Gmbh Verfahren zum Manövrieren eines Fahrzeuges
KR102175961B1 (ko) * 2013-11-29 2020-11-09 현대모비스 주식회사 차량 후방 주차 가이드 장치
KR101572065B1 (ko) * 2014-01-03 2015-11-25 현대모비스(주) 영상 왜곡 보정 방법 및 이를 위한 장치
JP6375633B2 (ja) * 2014-02-12 2018-08-22 株式会社デンソー 車両周辺画像表示装置、車両周辺画像表示方法
US9825706B2 (en) 2014-02-28 2017-11-21 United Technologies Corporation Support system for fiber optic components in harsh environment machines
JP6326869B2 (ja) * 2014-03-05 2018-05-23 株式会社デンソー 車両周辺画像表示装置、車両周辺画像表示方法
DE102014204872B4 (de) 2014-03-17 2018-03-22 Volkswagen Aktiengesellschaft Verfahren und Anzeigesystem zum Anzeigen von Umgebungsinformationen eines Fahrzeugs
KR101670847B1 (ko) * 2014-04-04 2016-11-09 주식회사 와이즈오토모티브 차량 주변 이미지 생성 장치 및 방법
KR101611194B1 (ko) * 2014-04-04 2016-04-11 주식회사 와이즈오토모티브 차량 주변 이미지 생성 장치 및 방법
KR102159353B1 (ko) * 2014-04-24 2020-09-23 현대모비스 주식회사 어라운드 뷰 시스템의 동작방법
KR102176773B1 (ko) * 2014-06-11 2020-11-09 현대모비스 주식회사 자동차의 주차시스템
DE102014223941A1 (de) * 2014-11-25 2016-05-25 Robert Bosch Gmbh Verfahren zum Kennzeichnen von Kamerabildern eines Parkmanöverassistenten
JP6464846B2 (ja) 2015-03-17 2019-02-06 株式会社デンソー 車両周囲画像表示制御装置、および車両周囲画像表示制御プログラム
CN104811663B (zh) * 2015-04-17 2018-09-04 浙江吉利汽车研究院有限公司 车辆的图像处理方法及处理装置
JP6464952B2 (ja) * 2015-08-04 2019-02-06 株式会社デンソー 表示制御装置、表示制御プログラム及び表示制御方法
DE102015217258A1 (de) * 2015-09-10 2017-03-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Darstellen eines Fahrzeugumfeldes eines Fahrzeuges
JP6493143B2 (ja) 2015-10-15 2019-04-03 株式会社デンソー 表示制御装置及び表示制御プログラム
CN106608220B (zh) * 2015-10-22 2019-06-25 比亚迪股份有限公司 车辆底部影像的生成方法、装置和车辆
US20170132476A1 (en) * 2015-11-08 2017-05-11 Otobrite Electronics Inc. Vehicle Imaging System
JP6561824B2 (ja) 2015-12-18 2019-08-21 株式会社デンソー 表示制御装置
JP6512145B2 (ja) * 2016-03-22 2019-05-15 株式会社デンソー 画像処理装置、画像処理方法、及びプログラム
CN105763854B (zh) * 2016-04-18 2019-01-08 扬州航盛科技有限公司 一种基于单目摄像头的全景成像系统及其成像方法
CN105898228B (zh) * 2016-04-29 2019-07-09 北京小米移动软件有限公司 用于摄像设备的控制方法及装置
GB2553143A (en) * 2016-08-26 2018-02-28 Jaguar Land Rover Ltd A Vehicle camera system
US10594934B2 (en) 2016-11-17 2020-03-17 Bendix Commercial Vehicle Systems Llc Vehicle display
KR101911926B1 (ko) * 2016-11-25 2019-01-03 주식회사 와이즈오토모티브 주차 보조 장치 및 방법
CN106846243A (zh) * 2016-12-26 2017-06-13 深圳中科龙智汽车科技有限公司 在设备移动过程中获得三维俯视全景图的方法及装置
KR20210144945A (ko) * 2017-07-07 2021-11-30 닛산 지도우샤 가부시키가이샤 주차 지원 방법 및 주차 지원 장치
US10579067B2 (en) * 2017-07-20 2020-03-03 Huawei Technologies Co., Ltd. Method and system for vehicle localization
US10744941B2 (en) 2017-10-12 2020-08-18 Magna Electronics Inc. Vehicle vision system with bird's eye view display
JP6740991B2 (ja) 2017-11-10 2020-08-19 株式会社デンソー 表示処理装置
US20200349367A1 (en) * 2018-01-19 2020-11-05 Sony Corporation Image processing device, image processing method, and program
KR102103418B1 (ko) * 2018-04-06 2020-04-23 주식회사 와이즈오토모티브 조감도 이미지 생성 장치 및 방법
CN112218988B (zh) * 2018-07-31 2023-06-09 住友建机株式会社 挖土机
DE102018214874B3 (de) 2018-08-31 2019-12-19 Audi Ag Verfahren und Anordnung zum Erzeugen einer mit Bildinformationen texturierten Umfeldkarte eines Fahrzeugs und Fahrzeug umfassend eine solche Anordnung
US10922881B2 (en) * 2018-11-02 2021-02-16 Star Global Expert Solutions Joint Stock Company Three dimensional/360 degree (3D/360°) real-time full information smart management integrated mapping system (SMIMS) and process of generating the same
JP7065068B2 (ja) * 2019-12-13 2022-05-11 本田技研工業株式会社 車両周囲監視装置、車両、車両周囲監視方法およびプログラム
EP3979632A1 (en) * 2020-10-05 2022-04-06 Continental Automotive GmbH Motor vehicle environment display system and method
CN114185450A (zh) * 2021-10-18 2022-03-15 北京鸿合爱学教育科技有限公司 鸟瞰图处理方法、装置及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0848198A (ja) * 1994-08-08 1996-02-20 Nissan Motor Co Ltd 車両用周囲モニタ装置
JPH10211849A (ja) * 1997-01-30 1998-08-11 Isuzu Motors Ltd 車両後方視界支援装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0399952A (ja) * 1989-09-12 1991-04-25 Nissan Motor Co Ltd 車両用周囲状況モニタ
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
JP3357749B2 (ja) * 1994-07-12 2002-12-16 本田技研工業株式会社 車両の走行路画像処理装置
JPH09193710A (ja) * 1996-01-24 1997-07-29 Matsushita Electric Ind Co Ltd カメラシステム表示装置
JP3711705B2 (ja) * 1996-10-15 2005-11-02 いすゞ自動車株式会社 車両後方視界支援装置
US7307655B1 (en) * 1998-07-31 2007-12-11 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying a synthesized image viewed from a virtual point of view
CA2369648A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Limited Image processing device and monitoring system
EP1050866B1 (en) * 1999-04-28 2003-07-09 Matsushita Electric Industrial Co., Ltd. Parking assistance device and method
JP2001010432A (ja) * 1999-04-28 2001-01-16 Matsushita Electric Ind Co Ltd 駐車支援装置と駐車支援方法
JP3462812B2 (ja) * 1999-09-22 2003-11-05 富士重工業株式会社 車載カメラの電源制御方法ならびに装置
JP3479006B2 (ja) 1999-09-22 2003-12-15 富士重工業株式会社 車載カメラの検査方法ならびに装置
JP3301421B2 (ja) * 1999-10-20 2002-07-15 松下電器産業株式会社 車両周囲状況提示装置
US6515597B1 (en) * 2000-01-31 2003-02-04 Matsushita Electric Industrial Co. Ltd. Vicinity display for car
US6734896B2 (en) * 2000-04-28 2004-05-11 Matsushita Electric Industrial Co., Ltd. Image processor and monitoring system
EP1158803A3 (en) * 2000-05-24 2003-12-10 Matsushita Electric Industrial Co., Ltd. Rendering device for generating a display image
US6870945B2 (en) * 2001-06-04 2005-03-22 University Of Washington Video object tracking by estimating and subtracting background

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0848198A (ja) * 1994-08-08 1996-02-20 Nissan Motor Co Ltd 車両用周囲モニタ装置
JPH10211849A (ja) * 1997-01-30 1998-08-11 Isuzu Motors Ltd 車両後方視界支援装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104854640A (zh) * 2012-12-05 2015-08-19 戴姆勒股份公司 探测并显示用于车辆的停车位的车辆侧方法和车辆侧设备

Also Published As

Publication number Publication date
JP4156214B2 (ja) 2008-09-24
US20030165255A1 (en) 2003-09-04
KR100550299B1 (ko) 2006-02-08
KR20030024857A (ko) 2003-03-26
CN1473433A (zh) 2004-02-04
DE10292327T5 (de) 2004-09-23
DE10292327B4 (de) 2009-06-04
JP2002373327A (ja) 2002-12-26
CN1210958C (zh) 2005-07-13
US7317813B2 (en) 2008-01-08

Similar Documents

Publication Publication Date Title
WO2002104032A1 (fr) Processeur d'images peripheriques pour vehicule et support d'enregistrement
US8553081B2 (en) Apparatus and method for displaying an image of vehicle surroundings
JP5817927B2 (ja) 車両用表示装置、車両用表示方法及び車両用表示プログラム
JP3778849B2 (ja) 車両周辺画像処理装置及び記録媒体
JP4067424B2 (ja) 車両周辺画像処理装置及びプログラム並びに記録媒体
JP2003191810A (ja) 車両周辺監視システム及び車両移動状態検出装置
JP2002019556A (ja) 監視システム
JP4200343B2 (ja) モニタ装置
CN101808236A (zh) 车辆周边显示设备
JP3301421B2 (ja) 車両周囲状況提示装置
JP2007102798A (ja) 車両周辺監視システム
JP3521859B2 (ja) 車両周辺画像処理装置及び記録媒体
JP2004147083A (ja) 運転支援装置
JP2012138876A (ja) 画像生成装置、画像表示システム及び画像表示方法
JP4071463B2 (ja) 車両周辺画像処理装置
JP6327115B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP3900415B2 (ja) 車両周辺画像処理装置,プログラム及び記録媒体
JP3796417B2 (ja) 車両周辺画像処理装置及び記録媒体
JP2006252577A (ja) 地図データ生成装置
JP3677458B2 (ja) 車両周辺画像表示装置
JP2013062657A (ja) 画像表示システム、画像表示装置、画像表示方法、及び画像表示プログラム
JP3850271B2 (ja) 車両周辺画像処理装置及び記録媒体
JP2006276964A (ja) 車両用表示装置
JP2001341600A (ja) 駐車支援装置
JP7081481B2 (ja) 車両用映像処理装置、車両用映像処理システム、車両用映像処理方法およびプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN DE KR US

WWE Wipo information: entry into national phase

Ref document number: 10333745

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020037002069

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 1020037002069

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 028029828

Country of ref document: CN

WWG Wipo information: grant in national office

Ref document number: 1020037002069

Country of ref document: KR