WO2006123438A1 - Method of detecting planar road region and obstruction using stereoscopic image - Google Patents

Method of detecting planar road region and obstruction using stereoscopic image Download PDF

Info

Publication number
WO2006123438A1
WO2006123438A1 PCT/JP2005/009701 JP2005009701W WO2006123438A1 WO 2006123438 A1 WO2006123438 A1 WO 2006123438A1 JP 2005009701 W JP2005009701 W JP 2005009701W WO 2006123438 A1 WO2006123438 A1 WO 2006123438A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
plane
area
road
road surface
Prior art date
Application number
PCT/JP2005/009701
Other languages
French (fr)
Japanese (ja)
Inventor
Masatoshi Okutomi
Akihito Seki
Original Assignee
The Circle For The Promotion Of Science And Engineering
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by The Circle For The Promotion Of Science And Engineering filed Critical The Circle For The Promotion Of Science And Engineering
Priority to PCT/JP2005/009701 priority Critical patent/WO2006123438A1/en
Publication of WO2006123438A1 publication Critical patent/WO2006123438A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Definitions

  • the present invention in order to realize driver assistance for safe driving of automobiles and automatic driving of autonomous mobile vehicles, on-vehicle stereo cameras, road plane areas, leading vehicles, oncoming vehicles, parking vehicles, pedestrians, etc.
  • the present invention relates to a road plane area and an obstacle detection method using stereo images for detecting all obstacles present on the road. Background art
  • laser radar, ultrasonic waves, and millimeter wave radars have been used for visually recognizing the driving environment in the guidance of autonomous mobile vehicles, particularly for detecting areas that can be driven, and for detecting obstacles in the driving environment. It can be roughly divided into the method of using images and the method of using images.
  • the device In the detection method using laser radar or millimeter wave radar, the device is generally expensive, and sufficient spatial resolution cannot be obtained.
  • the detection method using an ultrasonic sensor has problems that it is difficult to measure far away and that the spatial resolution is low.
  • the method using an image can be divided into a method using a single eye and a method using a compound eye.
  • most of the methods using images are monocular, that is, using images obtained from one viewpoint, and are mainly used in developed environments such as expressways, and white lines on the road surface (for example, The traveling area is detected by detecting separation lines and center lines.
  • the density pattern projected on a monocular image is obtained by the monocular imaging method. Therefore, there is a problem that it is difficult to stably distinguish the travelable area and the obstacle.
  • Non-Patent Document 1 Non-Patent Document 2
  • Non-Patent Document 3 Non-Patent Document 4
  • Non-Patent Document 1 Non-Patent Document 2
  • Non-Patent Document 3 Non-Patent Document 4
  • the fixed two-dimensional projective transformation is performed to detect the planar area of the road and obstacles.
  • the running surface road surface
  • the vehicle body may tilt with movement
  • the assumption that the positional relationship between the in-vehicle camera and the road plane is always constant does not actually hold. Often there is. Therefore, with the conventional detection method using the same fixed two-dimensional projective transformation, it is extremely difficult to cope with the inclination of the running surface (road surface) or the inclination of the vehicle body as the vehicle moves. There was a problem that there was.
  • road plane areas and obstacle detection methods can be broadly classified into those that use laser radar, ultrasound and millimeter wave radar, and those that use images.
  • Use laser radar, ultrasonic wave and millimeter wave radar has a problem that the apparatus is expensive, the measurement accuracy is low, and the spatial resolution is low.
  • detection methods that use images are limited to high-speed roads and other well-established usage environments, and cannot deal with vibrations during driving and slopes of roads. In the environment, there was a problem that the measurement accuracy deteriorated remarkably.
  • the present invention has been made for the above-described circumstances, and an object of the present invention is to use only image information obtained from an in-vehicle stereo camera, and to vibrate the camera due to the inclination of the road surface or the traveling of the car. It is now possible to dynamically determine the area in which the vehicle can travel in the real space, and to calculate and present the distance and relative speed to the obstacle in each direction as seen from the vehicle. It is intended to provide a road plane area and obstacle detection method using stereo images. Disclosure of the invention
  • the present invention relates to a road plane region and an obstacle detection method using stereo images
  • the object of the present invention is a stereo moving image composed of a reference image and a reference image captured by an imaging means mounted on an automobile.
  • a road plane area and an obstacle detection method using a stereo image that can detect a road plane area that can be traveled and all obstacles existing on the road surface by using only an image.
  • the third step of calculating the slope of the road surface by decomposing the obtained projection transformation matrix and the road surface is raised based on the slope of the road surface calculated in the third step.
  • the present invention provides a sixth step of calculating a direction-specific distance from the vehicle to the obstacle from the plane area where the vehicle can travel on the virtual projection plane image, and the top of the virtual projection plane image.
  • the method further comprises an eighth step of displaying the possible plane regions in a superimposed manner and displaying the direction-specific distance and the direction-specific relative velocity information, or in the first step, LOG filter processing and histogram flattening processing are performed on the reference image and the reference image, and then the projection transformation matrix corresponding to the road surface between the stereo images is dynamically estimated by a region-based method.
  • the reference image is projectively transformed by the projective transformation matrix, a difference image between the reference image and the projective transformed reference image is obtained, and a smoothing filter is applied to the difference image.
  • a binarized image is obtained by binarization using a threshold value, and a plane region that can be traveled is obtained by using the estimation result of the previous time plane region and taking a textureless region into the binary image.
  • the road plane attitude parameter indicating the inclination of the road surface is determined by the distance from the reference camera optical center to the road plane and the normal vector of the road plane.
  • the reference image is projectively transformed to generate a virtual projection plane image parallel to the road plane. Ri is effectively achieved.
  • FIG. 1 is a flowchart showing the overall flow of the present invention.
  • FIG. 2 is a schematic diagram for explaining plane projection and two-dimensional projective transformation.
  • FIG. 3 is a diagram showing an example of a stereo original image.
  • FIG. 4 is a diagram showing a result image obtained by subjecting the stereo original image shown in FIG. 3 to LOG filter processing and histogram flattening processing.
  • FIG. 5 is a schematic diagram for explaining a projection transformation matrix and time domain estimation procedure using time series information.
  • FIG. 6 is a diagram showing a planar area extraction result.
  • FIG. 7 is a schematic diagram for explaining a region expected from the previous time.
  • FIG. 8 is a diagram for explaining planar region extraction of a stereo image in which a large textureless region exists.
  • FIG. 9 is a schematic diagram for explaining textureless area processing.
  • FIG. 10 is a diagram showing a planar area extraction result obtained by performing textureless area processing on a stereo image having a large textureless area.
  • FIG. 11 is a diagram showing a planar area extraction result obtained by performing textureless area processing on a stereo image in which a textureless area is also present in the planar area.
  • FIG. 12 is an overall flowchart of plane extraction in the present invention.
  • Fig. 13 is a schematic diagram for explaining the method of considering the textureless area.
  • FIG. 14 is a diagram for explaining the virtual projection plane image (VPP image) of the present invention. It is a schematic diagram of
  • Figure 15 shows an example of a reference image o
  • Figure 16 shows an example of a reference image o
  • Figure 17 shows the result of planar area extraction.
  • FIG. 18 is a diagram showing the result of overlaying the planar area of FIG. 17 on the original image of FIG.
  • FIG. 19 is a view showing a VPP image of the reference image of FIG.
  • FIG. 20 is a diagram showing a VPP image of the planar region of FIG.
  • FIG. 2 1 is a diagram for explaining the characteristics of the VPP image.
  • Fig. 22 is a schematic diagram for explaining the calculation of the vehicle ft force in the plane area on the VPP image and the distance by direction to these obstacles.
  • FIG. 23 is a diagram for explaining a relative speedometer in a direction-specific plane area.
  • FIG. 24 is an image showing a road plane area and an obstacle detection result using the present invention.
  • FIG. 25 is a diagram showing an example of a road plane area and an obstacle detection result using the present invention.
  • FIG. 26 is a diagram showing another example of the road plane area and the obstacle detection result using the present invention.
  • two left and right stereo cameras are mounted on a car, and the car equipped with the stereo camera (hereinafter referred to as the vehicle equipped with the stereo camera).
  • the vehicle equipped with the stereo camera All obstacles present on the road surface, such as pedestrians, parking vehicles, oncoming vehicles, and preceding vehicles, under conditions where there are vibrations and changes in the slope of the road surface due to the movement of the vehicle (referred to as a vehicle or vehicle) It is assumed that a situation is detected.
  • the right stereo camera is used as the reference camera
  • the left stereo camera is used as the reference camera.
  • the stereo image taken with the reference camera is taken as the reference image
  • the stereo image taken with the reference camera is taken as the reference image.
  • only a stereo image that is, a base image and a reference image
  • a camera that captures a stereo image that is, a camera
  • the left stereo camera is used as the reference camera
  • the right stereo camera is used as the reference force camera. You can also do this.
  • the reference force meter is mounted on the left side of the vehicle, and the reference force meter is the vehicle. It is mounted on the right side.
  • the standard camera is mounted on the right side of the car, and the reference power camera is mounted on the left side of the car.
  • the travelable area in the coordinate system corresponding to the real space is dynamically determined, and the distance to the obstacle and the relative speed in each direction of the vehicle are calculated and presented. It is where it is.
  • the object detection method is a method for dynamically determining a flat area where a vehicle can travel (hereinafter referred to as a travelable area) using image information obtained from two on-vehicle stereo cameras.
  • a travelable area a flat area where a vehicle can travel
  • image information obtained from two on-vehicle stereo cameras.
  • a C CD camera it is desirable to use a stereo camera mounted on an automobile, but the present invention is not limited to this.
  • a CD camera is used as a stereo force camera.
  • FIG. 1 is a flowchart showing the overall flow of the present invention.
  • a projective transformation matrix for the road surface is dynamically estimated (step S 1 0). 0).
  • the road surface plane area (hereinafter, the road plane plane area is referred to as the road plane area, and may also be referred to as the travelable plane area).
  • the slope of the road surface is calculated by decomposing the projective transformation matrix obtained in step S 1 0 0 (step S
  • Step S 1 2 Based on the slope of the road surface calculated in step S 1 2 0, an image of the road surface viewed from above (in the present invention, this image is referred to as a virtual projection plane (VPP) image) is generated ( Step S
  • step S 1 3 the travelable plane area and the position and direction of the vehicle are presented.
  • Step S 1 4 0 the distance in each direction to the farthest part from the vehicle, that is, the obstacle, in the road plane area on the virtual projection plane image is calculated.
  • Step SI 5 0 the relative speed in each direction to the farthest portion from the vehicle in the road plane area on the virtual projection plane image, that is, to the obstacle is also calculated (step S 1 60).
  • the plane area that can be traveled is displayed superimposed on the virtual projection plane image (VPP image), and the direction-specific distance and direction-specific relative velocity information calculated in steps S 1 5 0 and S 1 6 0 are displayed. Is displayed (step S 1 70).
  • H is a 3 X 3 projective transformation matrix, and is assumed to be equal, allowing constant indefiniteness.
  • O is the optical center of the reference camera
  • o ' is the optical center of the reference camera
  • R is the rotation matrix from the reference camera coordinate system to the reference camera coordinate system
  • t is the reference.
  • d is the distance between the reference camera and the plane
  • n is the normal vector of the plane.
  • the area When there is an obstacle, the area is not recognized as a plane, so it is possible to detect that the area is not a travelable area.
  • obstacles are included in areas other than the plane area, and as a result, obstacles can be detected by measuring the spread of the plane.
  • FIG. 3 shows an example of the input stereo original image.
  • Fig. 3 (A) shows the reference image
  • Fig. 3 (B) shows the reference image.
  • Fig. 4 shows the resulting image obtained by applying LOG filter processing and histogram flattening processing to the stereo original image shown in Fig. 3.
  • Fig. 4 (A) shows the reference image.
  • FIG. 4 (B) Shows the image after processing of the reference image in FIG. 3 (B).
  • a projective transformation matrix corresponding to a plane is obtained by the region-based method disclosed in Non-Patent Document 5.
  • that minimizes the following evaluation function is obtained by iterative optimization.
  • I b (m) and I r (m) represent the density values of the reference image and the reference image at the image position m, respectively.
  • a projective transformation matrix between consecutive reference images I b (t — 1) and I b (t) is obtained.
  • the initial value of the projective transformation matrix is the projection transformation matrix — estimated at the previous time, and the calculation domain is obtained at the previous time for I b (t — 1).
  • the planar area R (t ⁇ 1) can be used.
  • the projection transformation matrix between the stereo images I b (t) and I r (t) is estimated at the previous time — 1) as the initial value, and t calculated in (2). ) As the calculation area.
  • the projection transformation matrix and the calculation area as the initial value sufficiently close to the true value are obtained in the continuous estimation using the time series image. Therefore, in the present invention, the projection transformation matrix and the calculation region estimation procedure described above require that the projection transformation matrix be obtained from the stereo image each time. Therefore, it is not necessary to know the camera's buttock parameters, the arrangement of the two cameras, the positional relationship between the camera and the road surface, etc. Even if there is a change due to the car body tilting or the camera vibrating due to the unevenness of the surface.
  • Step S 1 1 0> Using the obtained projective transformation matrix, extract the plane area of the road surface (the plane area that can be driven)
  • FIG. 6 shows the results of a series of processing using the stereo original image of Fig. 3.
  • Fig. 6 (A) is a reference image (same as Fig. 4 (A)) that has been subjected to LOG filtering and histogram flattening.
  • FIG. 6 (B) shows the result of projective transformation of the reference image of FIG. 4 (B) using the projective transformation matrix estimated by the method described in step S100.
  • Figure 6 (C) shows the difference (absolute value) between the image in Fig. 6 (A) and the image in Fig. 6 (B). Looking at the image in Fig. 6 (C), the positions of the images in Fig.
  • Fig. 6 (A) and Fig. 6 (B) coincide with the plane (road surface). Because it is black and it is shifted in other parts, it looks whitish.
  • the difference image in Fig. 6 (C) is binarized after applying an averaging filter in Fig. 6 (D).
  • Fig. 6 (D) uses the image of Fig. 6 (A) and Fig. 6 (B) [Sum of Absolute Difference)! / Equivalent to performing a tricky matching.
  • the planar area extraction result of the previous time is used as follows.
  • the plane area expected at the current time is obtained from the projection transformation matrix between the plane area R (t — 1) at the previous time and the time series of the reference image.
  • the boundary between the planar area and the non-planar area at the current time falls within a certain width with respect to the boundary expected from the previous time. it is conceivable that. Therefore, the other parts can be regarded as planar or non-planar areas based on the results of the previous time, and this is reflected in the matching results in Fig. 6 (D).
  • FIG. 6 shows the original image with reduced brightness other than the extracted plane area so that it can be seen how the extracted result corresponds to the original image. . From Fig. 6 (F), it can be seen that the extracted area is in good agreement with the actual road surface.
  • the reference image and the reference image after the projective transformation are used to create a flat surface. It is assumed that the position on the image is shifted with respect to other than this, resulting in a difference in image density.
  • Fig. 8 (A) and Fig. 8 (B) show examples of such images.
  • the matching result in this case (equivalent to Fig. 6 (D)) is shown in Fig. 8 (D). It will be shown.
  • Fig. 8 (D) the matching result clearly includes the wall of the building in front.
  • the area where the output result of the LOG filter is close to 0 is the textureless area.
  • the textureless area is a planar area (in other words, area B). It should be noted that there are some boundaries between the actual planar area and the non-planar area, such as edges and shading differences on the image. In the present invention, the boundary portion is not a textureless region and belongs to the matching region. Therefore, even if the textureless area exists at the edge of the planar area, the textureless area appears inside the matching area by the boundary in the processing result. If the entire textureless area is not included in the matching results in Fig. 9 (c), the entire textureless area is defined as a non-planar area (that is, area A).
  • the textureless region processing described above can be interpreted as follows. First, in the textureless region, it is not possible to determine whether or not there is a displacement even if local matching is performed. Therefore, the textureless areas are put together, and each area is regarded as a lump, and the deviation is judged. At that time, in the textureless area included in the planar area, However, since there is no displacement, the whole will match, but in the case of a textureless area in a non-planar area, the position will be displaced, so that a certain part of the area will always overlap with another area around it. The part is determined to be a non-planar part by matching. Therefore, the entire textureless area is determined as a non-planar area.
  • FIG. 10 shows the results obtained by performing the above textureless region processing.
  • FIG. 10 (B) shows the result of extracting the textureless region from the reference image of FIG. 10 (A).
  • Figure 10 (C) shows the result of extracting the planar area by applying the textureless area processing described above.
  • FIG. 10 (D) is a superimposed display with the original image.
  • Figure 11 shows another result obtained by performing textureless region processing.
  • Non-Patent Document 5 As a disadvantage of the region-based method used in the present invention (see Non-Patent Document 5), if the brightness of the two images is different, processing cannot be performed successfully. Therefore, in order to remove the brightness difference between the images, a LOG filter is applied to the input stereo original image.
  • the image is increased by increasing the contrast by histogram flattening.
  • step S 1 0 the projection transformation matrix of the plane between stereo images is dynamically estimated.
  • the reference image is projectively transformed using the projective transformation matrix representing the plane obtained by 2>.
  • the plane represented by the projective transformation matrix matches as if it were taken from the reference camera, and anything that is not on the plane represented by the projective transformation matrix is distorted and projected. In the present invention, this property is used to obtain a planar area.
  • the difference in luminance value is small. Conversely, the difference in luminance values of points that are not on the plane increases.
  • An area with a small difference is set as a plane area by performing threshold processing. At this time, the difference between each pixel is greatly affected by noise. Specifically, this is achieved by applying a smoothing filter to the difference image. Then, binarize using the threshold.
  • the boundary between the planar region and the non-planar region extracted at the current time falls within a certain width with respect to the boundary expected from the previous time. Therefore, the other parts can be regarded as a planar area or non-planar area based on the result of the previous time, and this is reflected in the binary image (matching result).
  • the road area we want to find is the road area where cars can travel. Therefore, the area where the car cannot travel is removed from the extracted results. First, a small area where the car cannot travel is removed from the road area extraction result. The area is obtained from the road area extraction result and the area below the threshold is excluded. Leaving. The entire road area is contracted and expanded.
  • the projective transformation matrix H of the road plane is expressed by the following equation 4 in the case of a camera arrangement as shown in Fig. 2.
  • R is the rotation matrix from the reference camera coordinate system to the reference camera coordinate system
  • t is the translation vector of the reference camera and reference camera in the reference camera coordinate system
  • d is the reference camera and road the distance of the plane
  • n represents at normal base data collected by Le road plane
  • a have a 2 is an internal parameter of each the reference camera reference camera.
  • n Vn t, t
  • R,-, n from the above number 1 0, R,-, n can be obtained a a
  • d is determined by giving the baseline
  • Step S 1 3 Generate an image (virtual projection plane image) of the road plane viewed from above
  • VPP Virtual Projection Plane
  • n p is the normal vector in the coordinate system of the road plane and the reference camera
  • f is the focal length of the reference camera
  • d is the distance between the reference camera optical center and the road plane
  • e. z is the optical axis of the reference camera.
  • the normal vector obtained by decomposing the projective transformation matrix in step S 1 2 0! Let it be ⁇ .
  • the projective transformation matrix that converts the reference camera into a VPP image rotated by this R is A ⁇ .
  • the unit vector e 0z (0,0,1 / in the optical axis direction of the reference camera is considered to be a vector u viewed from the VPP camera coordinate system, and is a vector obtained by orthogonally projecting it to the VPP image coordinate system.
  • Reference image coordinates ⁇ 3 ⁇ 4 O 0i , v 0 f obtained by projecting a point that can be expressed as m in the three-dimensional space onto the reference image, Dot,.
  • the luminance of the point m on the VPP image can be obtained by substituting the luminance value of the point m oi on the corresponding original image using the inverse matrix H- 1 of H. [Equation 2 8]
  • is a representative of a row i and column j elements of the matrix T 1.
  • FIG. 15 is a reference image
  • FIG. 18 is the result of superimposing the planar area shown in FIG. 17 on the original image.
  • Step S 1 4 0> Calculate the position and direction of the plane area that can be traveled on the V P P image and the vehicle
  • Fig. 20 shows an image obtained by converting only the planar region (white region) into a VPP image as shown in Fig. 17 by the method described in step S 1 30 (in this image).
  • the white area is the flat area).
  • the points on the estimated plane are converted into VPP images with the correct coordinates by the transformation of Equation 27 above, but points floating from the plane (for example, cars and walls) are converted into VPP images. When converted, it is not converted to the correct position.
  • a VPP image an image of the estimated road plane region viewed from above in parallel was generated, and the coordinates obtained from the image are a coordinate system corresponding to real space. .
  • O is the point where the optical center of the basic camera is projected onto the road plane.
  • this point will be the reference camera position origin. Therefore, from the positional relationship between the camera and the vehicle
  • V ⁇ ⁇ The vertical axis ⁇ in the image coincides with the optical axis. In other words, if the mounting angle between the optical axis and the vehicle is known, the direction of the vehicle can be calculated in the VPP image.
  • Step S 1 5 0> Calculate the distance in each direction to the farthest part from the vehicle in the road plane area on the V P P image, that is, the obstacle.
  • the upper limit was calculated as the area expansion from the reference camera position origin to 32 m in the optical axis direction.
  • the measurement range was 25 degrees from the optical axis, with increments of 0.5 degrees.
  • Step S 1 6 The highest point from the vehicle in the road plane area on the VPP image. Calculate the relative speed in each direction to the far part, that is, the obstacle
  • the relative speed by direction to the farthest part from the vehicle in the road plane area on the VPP image, that is, to the obstacle is calculated.
  • the distance for each direction tilted ⁇ from the optical axis (Y axis) is used in the past 5 frames. Since the image was taken at 30 fps, 1 frame is 1/30 s, so using the least squares method, the gradient is obtained from the time-series data of distance by direction for each 1/30 s. Thus, the relative speed in that direction could be calculated (see Fig. 23). Therefore, by performing the same process for each direction, the relative velocity of the planar area is calculated for almost the entire planar area.
  • Step S 1 7 0> V P P Overlays the plane area that can be driven on the image, and displays the calculated distance by direction and relative speed information by direction.
  • step S 1 5 0 and step S 1 60 the distance and relative speed of the road plane area in each direction can be calculated.
  • the image on the right side of the image shown in Fig. 24 is obtained by superimposing a reference image converted into a VPP image and a flat region converted into a VPP image.
  • the light blue area is the combined plane area
  • each point at the end of the plane area is the end point of the area ( Each point is a distance according to the direction of the plane, and represents the point indicated by arrow A in the figure.
  • the following rules apply to the coloration of the end points.
  • the plane expansion speed of the plane is negative (the plane contracts, that is, the direction toward the camera), there is a danger, so it is displayed as a warm color point.
  • the plane expansion speed is positive (the plane expands, that is, the direction away from the camera), the risk is low, so it is displayed with a cold color point, and the plane expansion Those without are displayed as green dots.
  • the gradient below the left side of the image shown in Figure 24 shows the transition of the color of the point due to the spread speed of the plane, and each number corresponds to the speed per hour (km / h). .
  • the image on the left side of the image shown in Fig. 24 is a composite of the plane area with the reference image, and the plane area is shown in light blue.
  • Each endpoint of the planar area is
  • the coordinates corresponding to the end points of the area in the reference image are calculated. Is displayed (indicated by arrow D in the figure).
  • the method of determining the color used here uses the same rule as the end point of the image on the right side of the image shown in Fig. 24.
  • the distance from the origin of the reference camera position is displayed in units of meters on a point at a certain angle from the optical axis (every 5 degrees in this example) (indicated by arrow E in the figure). ing) .
  • FIGS. 25 and 26 show examples of road plane areas and obstacle detection results using the present invention by the above-described method of displaying distance by direction and relative speed information by direction.
  • Figures 25 and 26 show the camera mounted on the car.
  • the result of applying the present invention to the captured stereo moving image is shown.
  • the result is the road plane area and the obstacle detection result in the urban area, and 3 frames (1/10 seconds) from the processing result of the stereo moving image. )
  • the results for each are extracted and displayed.
  • the two stereo cameras mounted on the automobile are used.
  • time-series information obtained from the captured stereo video it is possible to stably estimate the projection transformation matrix and road plane area continuously, and the road surface itself can be tilted or run.
  • the projection transformation matrix is not constant, even if the car body is tilted due to curves or unevenness of the road surface, or the camera mounted on the car vibrates, and the projection transformation matrix is not always constant. Therefore, we were able to solve these problems.
  • a virtual projection plane image (VPP image) is generated based on the slope of the road surface calculated by decomposing the projective transformation matrix, and the vehicle in the plane area on the VPP image is further generated. The distance from each to the obstacle and the relative speed by direction are calculated. Finally, the plane area that can be traveled is superimposed on the VPP image, and the calculated distance by direction and relative speed information by direction are calculated.
  • the display of the area that can be traveled to the vehicle and the obstacle is a visual display, which is a highly practical method. It is preferable to use a CCD camera as the stereo camera to be used. However, the present invention is not limited to this, and any other means can be used as long as it is a photographing means capable of photographing a stereo moving image. That. In addition, the present invention is applied to a traveling object other than an automobile. It is also possible to apply. Industrial applicability
  • the apparatus is inexpensive. It is versatile and has an excellent effect of achieving cost reduction.
  • the road plane area and the obstacle detection method using the stereo image according to the present invention it is possible to dynamically obtain the area where the vehicle can travel and the distance from the vehicle to the obstacle in each direction stably relative speed. So, based on the required travelable area and the distance from the vehicle to the obstacle in each direction, based on the relative speed, it is possible to provide driver assistance such as warning of collision risk, avoidance of collision, automatic driving of the vehicle, etc. Excellent effect.
  • Non-patent document 1

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

A method of detecting a planar road region and an obstruction, the method detecting a travelable planar region and an obstruction by using a stereoscopic image from a vehicle mounted camera. The method has a step of dynamically estimating a projective transformation matrix relative to a road surface; a step of extracting a travelable planar region by using the projective transformation matrix; a step of calculating the inclination of a road surface by decomposing the projective transformation matrix; a step of creating a VPP image based on the inclination of the road surface; a step of presenting the travelable planar surface on the VPP image, and the position and direction of user’s vehicle; a step of calculating a distance for each direction based on the travelable planar region on the VPP image, the distance being the distance from the user’s vehicle to the obstruction; a step of calculating relative speed for each direction based on the travelable planar region on the VPP image, the relative speed for each direction being relative speed from the user’s vehicle to the obstruction; and a step of superposing displaying the VPP image superposed with the travelable planar region and displaying the distance for each direction and the relative speed for each direction.

Description

明 細 書  Specification
ステ レオ画像を用いた道路平面領域並びに障害物検出方法 技術分野 Road plane area and obstacle detection method using stereo images
本発明は、 自動車の安全運転の運転者支援や自律移動車の自動運転を 実現するために、 車載ステ レオカメ ラによ り、 道路平面領域並びに、 先 行車、 対向車、 駐車車輛、 歩行者など道路上に存在する全ての障害物を 検出するためのステ レオ画像を用いた道路平面領域並びに障害物検出方 法に関するものである。 背景技術  In the present invention, in order to realize driver assistance for safe driving of automobiles and automatic driving of autonomous mobile vehicles, on-vehicle stereo cameras, road plane areas, leading vehicles, oncoming vehicles, parking vehicles, pedestrians, etc. The present invention relates to a road plane area and an obstacle detection method using stereo images for detecting all obstacles present on the road. Background art
従来、 自律移動車の誘導において視覚による走行環境の認識、 特に走 行可能な領域の検出、 また、 走行環境に存在する障害物の検出のため に、 レーザレーダ、 超音波やミ リ波レーダーを利用する方法と、 画像を 利用する方法に大別することができる。  Conventionally, laser radar, ultrasonic waves, and millimeter wave radars have been used for visually recognizing the driving environment in the guidance of autonomous mobile vehicles, particularly for detecting areas that can be driven, and for detecting obstacles in the driving environment. It can be roughly divided into the method of using images and the method of using images.
レーザレーダゃミ リ波レーダーを用いる検出方法では、 一般に装置が 高価であり、 また十分な空間解像が得られないという問題があった。 超 音波センサを用いる検出方法では、 遠く の計測が困難であって、 また空 間分解能も低いという問題があつた。  In the detection method using laser radar or millimeter wave radar, the device is generally expensive, and sufficient spatial resolution cannot be obtained. The detection method using an ultrasonic sensor has problems that it is difficult to measure far away and that the spatial resolution is low.
また、 画像を用いる方法では、 単眼による方法と、 複眼を用いる方法 に分けることができる。 従来、 画像を用いる方法の多く は単眼、 すなわ ち、 1つの視点から得られる画像を用いるもので、 主に、 高速道路等の 整備された環境で用いることを想定し、 路面の白線 (例えば分離線や中 央線) 等を検出することによ り、 走行領域を検出している。 しかしなが ら、 白線等の存在が保証されず、 また路面の色やパターンがさまざまで あるよ うな一般道や駐車場等では、 単眼による画像方法によ り、 つま り 、 単眼画像に投影された濃度パターンのみから、 走行可能領域と障害物 を安定に区別することは困難であるという問題があった。 In addition, the method using an image can be divided into a method using a single eye and a method using a compound eye. Conventionally, most of the methods using images are monocular, that is, using images obtained from one viewpoint, and are mainly used in developed environments such as expressways, and white lines on the road surface (for example, The traveling area is detected by detecting separation lines and center lines. However, In general roads and parking lots where the presence of white lines, etc. is not guaranteed, and the colors and patterns of the road surface are varied, the density pattern projected on a monocular image is obtained by the monocular imaging method. Therefore, there is a problem that it is difficult to stably distinguish the travelable area and the obstacle.
一方、 複眼による画像方法、 すなわち、 ステ レオ画像を利用する検出 方法では、 原理的には環境の 3次元構造を利用できるため、 よ り安定に 走行環境を認識できる可能性がある。 特に、 走行可能な領域は空間中で ほぼ平面であるとみなせることから、 画像を 2次元射影変換し、 各画像. の重なり具合から、 平面領域か否か、 或いは、 障害物か否かを検出する という方法が、 例えば、 非特許文献 1、 非特許文献 2、 非特許文献 3及 び非特許文献 4に示されたよ うに、 既に提案されている。  On the other hand, in the imaging method using compound eyes, that is, the detection method using a stereo image, the three-dimensional structure of the environment can be used in principle, so the driving environment may be recognized more stably. In particular, since the area that can be traveled can be considered to be almost a plane in the space, the image is two-dimensionally projected to detect whether it is a planar area or an obstacle from the overlapping state of each image. For example, Non-Patent Document 1, Non-Patent Document 2, Non-Patent Document 3 and Non-Patent Document 4 have already been proposed.
ところが、 非特許文献 1、 非特許文献 2、 非特許文献 3及び非特許文 献 4に示された従来の検出方法では、 カメ ラと道路平面の位置関係が常 に一定であることを前提と し、 予めキヤ リブレーショ ンすることによ り 、 固定された同一の 2次元射影変換を行う ことによ り、 道路の平面領域 並びに障害物を検出するよ うにしている。 しかしながら、 走行面 (道路 面) が傾斜したり、 移動に伴って車体が傾いたりすることがあるので、 車載カメ ラと道路平面の位置関係が常に一定であるといった仮定は、 実 際に成立しないことがよく ある。 従って、 固定された同一の 2次元射影 変換を用いる従来の検出方法では、 走行面 (道路面) が傾斜したり、 移 動に伴って車体が傾いたりすることに対処することが、 極めて困難であ るという問題があった。  However, the conventional detection methods shown in Non-Patent Document 1, Non-Patent Document 2, Non-Patent Document 3, and Non-Patent Document 4 assume that the positional relationship between the camera and the road plane is always constant. However, by carrying out calibration in advance, the fixed two-dimensional projective transformation is performed to detect the planar area of the road and obstacles. However, since the running surface (road surface) may tilt or the vehicle body may tilt with movement, the assumption that the positional relationship between the in-vehicle camera and the road plane is always constant does not actually hold. Often there is. Therefore, with the conventional detection method using the same fixed two-dimensional projective transformation, it is extremely difficult to cope with the inclination of the running surface (road surface) or the inclination of the vehicle body as the vehicle moves. There was a problem that there was.
上記のよ うに、 道路平面領域並びに障害物検出方法には、 レーザレー ダ、 超音波やミ リ波レーダーを利用するもの と、 画像を利用するものに 大別することができる。 レーザレーダ、 超音波やミ リ波レーダーを利用 する検出方法は、 装置が高価であったり、 計測精度が低い点と空間分解 能も低いという問題があった。 また、 画像を利用する検出方法では、 高 速道路等の整備された使用環境に限定されていたり、 車の走行中の振動 や道路面の傾斜に対処できないため、 一般道や駐車場等の使用環境では 計測精度が著しく悪く なるという問題があった。 As described above, road plane areas and obstacle detection methods can be broadly classified into those that use laser radar, ultrasound and millimeter wave radar, and those that use images. Use laser radar, ultrasonic wave and millimeter wave radar However, this detection method has a problem that the apparatus is expensive, the measurement accuracy is low, and the spatial resolution is low. In addition, detection methods that use images are limited to high-speed roads and other well-established usage environments, and cannot deal with vibrations during driving and slopes of roads. In the environment, there was a problem that the measurement accuracy deteriorated remarkably.
本発明は、 上述のよ うな事情よ りなされたものであり、 本発明の目的 は、 車載ステレオカメ ラから得られる画像情報のみを利用して、 道路面 の傾斜や車の走行によるカメラの振動に対処できるよ うに、 車輛の実空 間における走行可能な領域を動的に求め、 また車輛から見た各方向毎の 障害物までの距離や相対速度を算出 · 提示するこ とを可能にした、 ステ レオ画像を用いた道路平面領域並びに障害物検出方法を提供することに める。 発明の開示  The present invention has been made for the above-described circumstances, and an object of the present invention is to use only image information obtained from an in-vehicle stereo camera, and to vibrate the camera due to the inclination of the road surface or the traveling of the car. It is now possible to dynamically determine the area in which the vehicle can travel in the real space, and to calculate and present the distance and relative speed to the obstacle in each direction as seen from the vehicle. It is intended to provide a road plane area and obstacle detection method using stereo images. Disclosure of the invention
本発明は、 ステレオ画像を用いた道路平面領域並びに障害物検出方法 に関し、 本発明の上記目的は、 自動車に搭載される撮像手段によって撮 影された、 基準画像と参照画像から構成されるステレオ動画像のみを利 用して、 走行可能な道路平面領域及び道路面上に存在する全ての障害物 を検出できるよ うにしたステレオ画像を用いた道路平面領域並びに障害 物検出方法であって、 道路面に対する射影変換行列を動的に推定する第 1 のステップと、 第 1 のステップで求まった前記射影変換行列を用い て、 走行可能な平面領域を抽出する第 2のステップと、 第 1 のステップ で求まつた前記射影変換行列を分解することによ り道路面の傾きを算出 する第 3 のステップと、 第 3 のステップで算出された前記道路面の傾き を基に道路面を上方から見た仮想投影面画像を生成する第 4のステップ と、 第 4のステップで生成された前記仮想投影面画像の上で、 前記走行 可能な平面領域と 自車輛の位置と方向を算出する第 5のステップとを有 するこ とによつて達成される。 The present invention relates to a road plane region and an obstacle detection method using stereo images, and the object of the present invention is a stereo moving image composed of a reference image and a reference image captured by an imaging means mounted on an automobile. A road plane area and an obstacle detection method using a stereo image that can detect a road plane area that can be traveled and all obstacles existing on the road surface by using only an image. A first step of dynamically estimating a projective transformation matrix with respect to, a second step of extracting a plane region that can be traveled using the projection transformation matrix obtained in the first step, and a first step of The third step of calculating the slope of the road surface by decomposing the obtained projection transformation matrix and the road surface is raised based on the slope of the road surface calculated in the third step. A fourth step of generating a virtual projection plane image viewed from And a fifth step of calculating the travelable plane area and the position and direction of the vehicle on the virtual projection plane image generated in the fourth step. The
また、 本発明は、 前記仮想投影面画像の上での前記走行可能な平面領 域よ り 自車輛から障害物までの方向別距離を算出する第 6 のステップ と、 前記仮想投影面画像の上での前記走行可能な平面領域よ り 自車輛か ら障害物までの方向別相対速度を算出する第 7のステップとを更に有す ることによ り、 或いは、 前記仮想投影面画像に前記走行可能な平面領域 を重ね合わせて表示すると共に、 前記方向別距離と前記方向別相対速度 情報を表示する第 8のステップとを更に有することによ り、 或いは、 前 記第 1 のステップでは、 前記基準画像及び前記参照画像に L O Gフィル タ処理と ヒス トグラム平坦化処理を施してから、 領域ベースの手法によ り、 前記ステレオ画像間の道路面に対応する射影変換行列を動的に推定 するよ うにし、 前記第 2のステップでは、 前記射影変換行列によって前 記参照画像を射影変換し、 前記基準画像と射影変換された前記参照画像 との差分画像を求め、 前記差分画像に平滑化フィルタをかけてから、 閾 値を使って 2値化して 2値画像が得られ、 前記 2値画像に前時刻平面領 域の推定結果を利用すると共にテクスチャ レス領域を考慮することによ つて、 走行可能な平面領域を抽出するよ うにし、 前記第 3のステップで は、 前記道路面の傾きを示す道路平面姿勢パラメータは、 基準カメ ラ光 学中心から道路平面までの距離と道路平面の法線べク トルであるよ うに し、 前記第 4のステップでは、 前記道路平面姿勢パラメータを使って、 前記基準画像を射影変換して、 道路平面と平行な仮想投影面画像を生成 するよ うにすることによってよ り効果的に達成される。 図面の簡単な説明 Further, the present invention provides a sixth step of calculating a direction-specific distance from the vehicle to the obstacle from the plane area where the vehicle can travel on the virtual projection plane image, and the top of the virtual projection plane image. And a seventh step of calculating a relative speed for each direction from the vehicle to the obstacle from the plane area where the vehicle can travel, or alternatively, the virtual projection plane image includes the traveling The method further comprises an eighth step of displaying the possible plane regions in a superimposed manner and displaying the direction-specific distance and the direction-specific relative velocity information, or in the first step, LOG filter processing and histogram flattening processing are performed on the reference image and the reference image, and then the projection transformation matrix corresponding to the road surface between the stereo images is dynamically estimated by a region-based method. In fact, In the second step, the reference image is projectively transformed by the projective transformation matrix, a difference image between the reference image and the projective transformed reference image is obtained, and a smoothing filter is applied to the difference image. A binarized image is obtained by binarization using a threshold value, and a plane region that can be traveled is obtained by using the estimation result of the previous time plane region and taking a textureless region into the binary image. In the third step, the road plane attitude parameter indicating the inclination of the road surface is determined by the distance from the reference camera optical center to the road plane and the normal vector of the road plane. In the fourth step, by using the road plane attitude parameter, the reference image is projectively transformed to generate a virtual projection plane image parallel to the road plane. Ri is effectively achieved. Brief Description of Drawings
第 1 図は、 本発明の全体の流れを示すフローチャー トである。  FIG. 1 is a flowchart showing the overall flow of the present invention.
第 2図は、 平面の投影と 2次元射影変換を説明するための模式図であ る。  FIG. 2 is a schematic diagram for explaining plane projection and two-dimensional projective transformation.
第 3図は、 ステレオ原画像の一例を示す図である。  FIG. 3 is a diagram showing an example of a stereo original image.
第 4図は、 第 3図に示されるステレオ原画像に L O Gフィルタ処理と ヒ ス トグラム平坦化処理を施した結果画像を示す図である。  FIG. 4 is a diagram showing a result image obtained by subjecting the stereo original image shown in FIG. 3 to LOG filter processing and histogram flattening processing.
第 5図は、 時系列情報を利用した射影変換行列と計算領域の推定手順 を説明するための模式図である。  FIG. 5 is a schematic diagram for explaining a projection transformation matrix and time domain estimation procedure using time series information.
第 6図は、 平面領域抽出結果を示す図である。  FIG. 6 is a diagram showing a planar area extraction result.
第 7図は、 前時刻から予想される領域を説明するための模式図である 第 8図は、 大きなテクスチャレス領域が存在するステレオ画像の平面 領域抽出を説明するための図である。  FIG. 7 is a schematic diagram for explaining a region expected from the previous time. FIG. 8 is a diagram for explaining planar region extraction of a stereo image in which a large textureless region exists.
第 9図は、 テクスチャ レス領域処理を説明するための模式図である。 第 1 0図は、 大きなテクスチャレス領域が存在するステレオ画像に対 してテクスチャ レス領域処理を行って得られた平面領域抽出結果を示す 図である。  FIG. 9 is a schematic diagram for explaining textureless area processing. FIG. 10 is a diagram showing a planar area extraction result obtained by performing textureless area processing on a stereo image having a large textureless area.
第 1 1図は、 平面領域内にもテクスチャ レス領域が存在するステレオ 画像に対してテクスチャ レス領域処理を行って得られた平面領域抽出結 果を示す図である。  FIG. 11 is a diagram showing a planar area extraction result obtained by performing textureless area processing on a stereo image in which a textureless area is also present in the planar area.
第 1 2図は、 本発明での平面抽出の全体の流れ図である。  FIG. 12 is an overall flowchart of plane extraction in the present invention.
第 1 3図は、 テクスチャ レス領域の考慮方法を説明するための模式図 である。  Fig. 13 is a schematic diagram for explaining the method of considering the textureless area.
第 1 4図は、 本発明の仮想投影面画像 (V P P画像) を説明するため の模式図である FIG. 14 is a diagram for explaining the virtual projection plane image (VPP image) of the present invention. It is a schematic diagram of
第 1 5図は、 参照画像の一例を示す図である o  Figure 15 shows an example of a reference image o
第 1 6図は、 基準画像の一例を示す図である o  Figure 16 shows an example of a reference image o
第 1 7図は、 平面領域抽出結果を示す図であ ■Ό o  Figure 17 shows the result of planar area extraction.
第 1 8図は、 第 1 7図の平面領域を第 1 6図の原画像に重ね合わせた 結果を示す図である  FIG. 18 is a diagram showing the result of overlaying the planar area of FIG. 17 on the original image of FIG.
第 1 9図は、 第 1 6図の基準画像の V P P画像を示す図である。  FIG. 19 is a view showing a VPP image of the reference image of FIG.
第 2 0図は、 第 1 7図の平面領域の V P P画像を示す図である。  FIG. 20 is a diagram showing a VPP image of the planar region of FIG.
第 2 1 図は、 V P P画像の特徴を説明するための図であ 0  FIG. 2 1 is a diagram for explaining the characteristics of the VPP image.
第 2 2図は、 V P P画像上での平面領域の 車車 ft力、らの障害物までの 方向別距離の算出を説明するための模式図であ Ό。  Fig. 22 is a schematic diagram for explaining the calculation of the vehicle ft force in the plane area on the VPP image and the distance by direction to these obstacles.
第 2 3図は、 方向別平面領域の相対速度計 を説明するための図であ 第 2 4図は、 本発明を用いた道路平面領域並びに障害物検出結果を示 す画像である。  FIG. 23 is a diagram for explaining a relative speedometer in a direction-specific plane area. FIG. 24 is an image showing a road plane area and an obstacle detection result using the present invention.
第 2 5図は、 本発明を用いた道路平面領域並びに障害物検出結果の一 例を示す図である。  FIG. 25 is a diagram showing an example of a road plane area and an obstacle detection result using the present invention.
第 2 6図は、 本発明を用いた道路平面領域並びに障害物検出結果の他 の例を示す図である。 発明を実施するための最良の形態  FIG. 26 is a diagram showing another example of the road plane area and the obstacle detection result using the present invention. BEST MODE FOR CARRYING OUT THE INVENTION
以下、 図面を参照しながら、 本発明を実施するための最良の形態を詳 細に説明する。  Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.
本実施形態では、 左右 2台のステレオカメ ラを自動車に搭載し、 該ス テレオカメ ラを搭載した自動車 (以下、 該ステレオカメ ラを搭載した自 動車を自車輛または車輛と称する) が走行することによる振動や道路面 の傾斜変化がある条件の下で、 歩行者、 駐車車輛、 対向車や先行車等道 路面上に存在する全ての障害物を検出する状況を想定している。 In this embodiment, two left and right stereo cameras are mounted on a car, and the car equipped with the stereo camera (hereinafter referred to as the vehicle equipped with the stereo camera). All obstacles present on the road surface, such as pedestrians, parking vehicles, oncoming vehicles, and preceding vehicles, under conditions where there are vibrations and changes in the slope of the road surface due to the movement of the vehicle (referred to as a vehicle or vehicle) It is assumed that a situation is detected.
また、 本実施形態では、 右側のステ レオカメ ラを基準カメ ラと し、 左 側のステレオカメ ラを参照カメ ラとする。 そして、 基準カメ ラで撮影さ れたステ レオ画像を基準画像と し、 参照カメ ラで撮影されたステ レオ画 像を参照画像とする。 なお、 本発明では、 ステ レオ画像 (つま り、 基準 画像及び参照画像) のみを利用して、 走行可能な平面領域及び障害物を 検出しているので、 そのステレオ画像を撮影するカメ ラ (つま り、 基準 力メ ラ及び参照力メ フ ) の酉己 と して、 場合によつて、 左側のステ レオ カメラを基準カメ ラと し、 右側のステ レ才カメ ラを参照力メ ラとするこ ともできる。  In the present embodiment, the right stereo camera is used as the reference camera, and the left stereo camera is used as the reference camera. Then, the stereo image taken with the reference camera is taken as the reference image, and the stereo image taken with the reference camera is taken as the reference image. Note that in the present invention, only a stereo image (that is, a base image and a reference image) is used to detect a plane area and an obstacle that can travel, so a camera that captures a stereo image (that is, a camera) In some cases, the left stereo camera is used as the reference camera, and the right stereo camera is used as the reference force camera. You can also do this.
ちなみに、 下記ステップ S 1 0 0及ぴステップ S 1 1 0にねけるステ レオ画像を撮影するステレォカメ ラと して、 基準力メ ラは自動車の左側 に搭載されており、 参照力メ ラは自動車の右側に搭載されている。 ほか のステップにおけるステレォ画像を撮影するステレォカメラと して、 基 準カメ ラは自動車の右側に搭載されており、 参照力メ ラは自動車の左側 に搭載されている。  By the way, as a stereo camera that takes a stereo image that goes to step S 1 0 0 and step S 1 1 0 below, the reference force meter is mounted on the left side of the vehicle, and the reference force meter is the vehicle. It is mounted on the right side. The standard camera is mounted on the right side of the car, and the reference power camera is mounted on the left side of the car.
まず、 本発明の着眼点と しては 、 2台の車載ステレオ力メ ラを利用し て、 そのステレオカメ ラょ り撮影されたステレオ画像中から空間の平面 に対応する領域とその平面の向きを求めることによ り、 実空間に対応し た座標系における走行可能領域を動的に求め、 さ らに車輛の各方向毎の 障害物までの距離や相対速度を算出 · 提示するよ うにしているところで ある。  First, as a point of interest of the present invention, using two in-vehicle stereo force cameras, an area corresponding to the plane of the space from the stereo image captured by the stereo camera and the orientation of the plane Thus, the travelable area in the coordinate system corresponding to the real space is dynamically determined, and the distance to the obstacle and the relative speed in each direction of the vehicle are calculated and presented. It is where it is.
つま り 、 本発明に係るステレオ画像を用いた道路平面領域並びに障害 物検出方法とは、 2台の車载ステレオカメ ラから得られる画像情報を用 いて、 車輛が走行できる平坦な領域 (以下、 走行可能領域と称する) を 動的に求め、 且つ、 求められた走行可能領域を実空間に対応した座標系 にマッピングすることによ り、 車輛の各方向毎の障害物までの距離や相 対速度を算出 * 提示し、 車輛の衝突危険性の警告 · 衝突回避等の運転者 支援や車輛の自動運転等を可能にするための方法である。 That is, the road plane area and the obstacle using the stereo image according to the present invention. The object detection method is a method for dynamically determining a flat area where a vehicle can travel (hereinafter referred to as a travelable area) using image information obtained from two on-vehicle stereo cameras. By mapping the travelable area to the coordinate system corresponding to the real space, the distance and relative speed to the obstacle in each direction of the vehicle are calculated * and presented, warning of vehicle collision risk and collision avoidance This is a method to enable driver assistance and automatic driving of vehicles.
なお、 本発明では、 自動車に搭載されるステレオカメ ラと して、 C C Dカメ ラを用いることが望ましいが、 それに限定されることはない。 ま た、 以下の実施の形態において、 ステレオ力メ ラと して、 C C Dカメ ラ を用いることを前提とする。  In the present invention, it is desirable to use a C CD camera as a stereo camera mounted on an automobile, but the present invention is not limited to this. In the following embodiments, it is assumed that a CD camera is used as a stereo force camera.
第 1 図は本発明の全体の流れを示すフローチヤ一トである。 第 1 図に 示されるよ うに、 本発明に係るステレオ画像を用いた道路平面領域並ぴ に障害物検出方法では、 先ず、 道路面に対する射影変換行列を動的に推 定する (ステップ S 1 0 0 ) 。 次に、 ステップ S 1 0 0で求まつた射影 変換行列を用いて、 道路面の平面領域 (以下、 道路面の平面領域を道路 平面領域と称し、 また、 走行可能な平面領域と称することもある) を抽 出する (ステップ S 1 1 0 ) 。 さらに、 ステップ S 1 0 0で求まった射 影変換行列を分解することによ り道路面の傾きを算出する (ステップ S FIG. 1 is a flowchart showing the overall flow of the present invention. As shown in FIG. 1, in the road plane region and obstacle detection method using the stereo image according to the present invention, first, a projective transformation matrix for the road surface is dynamically estimated (step S 1 0). 0). Next, by using the projective transformation matrix obtained in step S 1 0 0 0, the road surface plane area (hereinafter, the road plane plane area is referred to as the road plane area, and may also be referred to as the travelable plane area). (Yes) is extracted (step S 1 1 0). Furthermore, the slope of the road surface is calculated by decomposing the projective transformation matrix obtained in step S 1 0 0 (step S
1 2 0 ) 。 ステップ S 1 2 0で算出された道路面の傾きを基に道路面を 上方から見た画像 (本発明では、 この画像を仮想投影面 ( V P P : Virtual Projection Plane) 画像と称する) を生成する (ステップ S1 2 0). Based on the slope of the road surface calculated in step S 1 2 0, an image of the road surface viewed from above (in the present invention, this image is referred to as a virtual projection plane (VPP) image) is generated ( Step S
1 3 0 ) 。 そして、 ステップ S 1 3 0で生成された仮想投影面画像 ( V P P画像) 上で、 走行可能な平面領域と 自車輛の位置、 方向を提示する1 3 0). Then, on the virtual projection plane image (V P P image) generated in step S 1 3 0, the travelable plane area and the position and direction of the vehicle are presented.
(ステップ S 1 4 0 ) 。 次に、 仮想投影面画像上での道路平面領域の自 車輛からの最遠部すなわち障害物までの各方向毎の距離を算出する (ス テツプ S I 5 0 ) 。 同様に、 仮想投影面画像上での道路平面領域の自車 輛からの最遠部すなわち障害物までの各方向毎の相対速度をも算出する (ステップ S 1 6 0 ) 。 最後に、 仮想投影面画像 (V P P画像) に走行 可能な平面領域を重ね合わせて表示すると共に、 ステップ S 1 5 0、 ス テツプ S 1 6 0で算出された方向別距離、 方向別相対速度情報を表示す る (ステップ S 1 7 0 ) 。 (Step S 1 4 0). Next, the distance in each direction to the farthest part from the vehicle, that is, the obstacle, in the road plane area on the virtual projection plane image is calculated. Step SI 5 0). Similarly, the relative speed in each direction to the farthest portion from the vehicle in the road plane area on the virtual projection plane image, that is, to the obstacle is also calculated (step S 1 60). Finally, the plane area that can be traveled is displayed superimposed on the virtual projection plane image (VPP image), and the direction-specific distance and direction-specific relative velocity information calculated in steps S 1 5 0 and S 1 6 0 are displayed. Is displayed (step S 1 70).
次に、 本発明をステップ毎によ り詳細に説明する。 まず、 本発明に用 いられる平面の投影と 2次元射影変換の原理を説明する。  Next, the present invention will be described in detail step by step. First, the principle of plane projection and two-dimensional projective transformation used in the present invention will be described.
第 2図に示されたよ うに、 空間中にある平面上の点 Mが 2枚のステレ ォ画像に投影されるとき、 ステレオ画像における基準画像 I b上での同 次座標を m b、 参照画像 I r 上での同次座標を m r とすると、 各々は下記 数 1 に示すよ うに、 2次元射影変換によって関係付けられることはよく 知られている。 As shown in Fig. 2, when a point M on a plane in the space is projected onto two stereo images, the stereo coordinates of the standard image I b in the stereo image are m b , the reference image Assuming that the homogeneous coordinates on I r are m r , each is well known to be related by two-dimensional projective transformation, as shown in Equation 1 below.
【数 1 】  [Equation 1]
mr - Hmb m r -Hm b
ここで、 Hは 3 X 3の射影変換行列であり、 は定数倍の不定性を許 して等しいものとする。 また、 第 2図において、 Oは基準カメラの光学 中心で、 o 'は参照カメ ラの光学中心で、 Rは基準カメ ラ座標系から参 照カメ ラ座標系への回転行列で、 tは参照カメ ラ座標系における基準力 メ ラと参照カメラの並進ベク トルで、 dは基準カメ ラと平面の距離で、 nは平面の法線べク トルである。  Here, H is a 3 X 3 projective transformation matrix, and is assumed to be equal, allowing constant indefiniteness. In Fig. 2, O is the optical center of the reference camera, o 'is the optical center of the reference camera, R is the rotation matrix from the reference camera coordinate system to the reference camera coordinate system, and t is the reference. In the camera coordinate system, the translation vector of the reference force camera and the reference camera, d is the distance between the reference camera and the plane, and n is the normal vector of the plane.
そこで、 道路等の走行可能な領域は、 空間中でほぼ平面であると見な すことができれば、 一方のステレオ画像に対して適切な射影変換を施す ことによ り、 平面の部分に対しては一致するよ うな画像が得られる。 つま り、 平面抽出を利用して障害物検出を行う本発明では、 平面上に 0 Therefore, if the area that can be traveled, such as a road, can be considered to be almost flat in the space, by applying an appropriate projective transformation to one stereo image, Images that match. In other words, in the present invention in which obstacle detection is performed using plane extraction, 0
障害物が存在する場合、 その領域は平面と して認識されないため、 走行 可能な領域でないとの検出が可能となる。 また、 平面領域以外の領域で は障害物が含まれており、 結果的に平面の拡がり を計測することで障害 物の検出が可能となる。 When there is an obstacle, the area is not recognized as a plane, so it is possible to detect that the area is not a travelable area. In addition, obstacles are included in areas other than the plane area, and as a result, obstacles can be detected by measuring the spread of the plane.
<ステップ S 1 0 0 〉道路面に対する射影変換行列を動的に推定する まず、 自動車に搭載される 2台のステレオカメ ラで撮影されて入力さ れたステレオ画像に対して、 カメ ラ間の明るさの違い等を除く ため、 L O G (Laplacian Of Gaussian)フイノレタを力 け、 さ らに、 ヒ ス トグラ ム平坦化処理を施す。 第 3図は入力されるステレオ原画像の一例を示す 。 第 3図 (A) は基準画像を示し、 第 3図 (B ) は参照画像を示してい る。 また、 第 4図は、 第 3図に示されるステレオ原画像に L O Gフィル タ処理と ヒス トグラム平坦化処理を施した結果画像を示す。 第 4図 (A<Step S 1 0 0> Dynamically estimating the projective transformation matrix for the road surface First, for stereo images captured and input by two stereo cameras mounted on the car, In order to eliminate differences in brightness, the LOG (Laplacian Of Gaussian) finalizer is used, and the histogram is flattened. FIG. 3 shows an example of the input stereo original image. Fig. 3 (A) shows the reference image, and Fig. 3 (B) shows the reference image. Fig. 4 shows the resulting image obtained by applying LOG filter processing and histogram flattening processing to the stereo original image shown in Fig. 3. Fig. 4 (A
) は第 3図 (A) の基準画像の処理後の画像を示し、 第 4図 (B ) は第 3図 (B ) の参照画像の処理後の画像を示している。 ) Shows the image after processing of the reference image in FIG. 3 (A), and FIG. 4 (B) shows the image after processing of the reference image in FIG. 3 (B).
次いで、 非特許文献 5に開示された領域ベースの手法によ り、 平面 ( 本実施例では、 道路面) に対応する射影変換行列を求める。 すなわち、 ある領域 R1内で、 以下の評価関数 )を最小化する ^を、 繰り返し最 適化によ り求める。 Next, a projective transformation matrix corresponding to a plane (in this embodiment, a road surface) is obtained by the region-based method disclosed in Non-Patent Document 5. In other words, in a certain region R 1 , ^ that minimizes the following evaluation function is obtained by iterative optimization.
【数 2】 e( )= ∑ {Ir(Hmb)-Ib(mb)}2 [Equation 2] e () = ∑ {I r (Hm b ) -I b (m b )} 2
mbeR' 但し、 I b(m)、 I r(m)は、 それぞれ画像位置 mでの基準画像、 参照 画像の濃度値を表す。 m b eR ′ where I b (m) and I r (m) represent the density values of the reference image and the reference image at the image position m, respectively.
上記の推定には、 適当に真値に近い初期値と しての射影変換行列 7^ 1 For the above estimation, the projective transformation matrix 7 ^ 1
と、 領域 R1 (本発明では、 以後 「計算領域」 と呼ぶこ とにする) を必 要とする。 そこで本発明では、 時系列情報を利用し、 以下に述べる手順 により、 その射影変換行列と計算領域を求める。 And region R 1 (in the present invention, hereinafter referred to as “computation region”) is required. Therefore, in the present invention, the time series information is used, and the projective transformation matrix and the calculation area are obtained by the procedure described below.
まず、 各時刻においてステ レオ画像間の射影変換行列 と、 基準画 像の時間的に連続する 2画像間の射影変換行列 Hm、 及び基準画像に対 する平面領域 Rを求めていく。 そして、 ある時刻 t の推定の際には、 前 時刻 t 一 1 までの上記推定結果を利用する。 以下、 第 5図を参照しなが ら、 その手順を更に詳細に説明する。 First, at each time, a projection transformation matrix between stereo images, a projection transformation matrix H m between two consecutive images of the reference image, and a planar region R for the reference image are obtained. When estimating a certain time t, the above estimation results up to the previous time t 1 are used. Hereinafter, the procedure will be described in more detail with reference to FIG.
( 1 ) まず、 連続する基準画像 I b( t — 1 )、 I b( t )間の射影変換行列 )を求める。 その時、 射影変換行列の初期値と しては、 前時刻に推 定された射影変換行列 — を、 また計算領域と しては、 I b( t — 1 )に対して前時刻で求められている平面領域 R ( t — 1 )を用いるこ とが できる。 (1) First, a projective transformation matrix between consecutive reference images I b (t — 1) and I b (t) is obtained. At that time, the initial value of the projective transformation matrix is the projection transformation matrix — estimated at the previous time, and the calculation domain is obtained at the previous time for I b (t — 1). The planar area R (t − 1) can be used.
( 2 ) 次に、 ( 1 ) で求められた射影変換行列 ,„ )を用いて、 前時刻 の平面領域 R ( t - 1 )を変換することによ り、 現時刻における平面領域 の予測値 R^ t )を求める。  (2) Next, by using the projective transformation matrix („) obtained in (1), the plane area R (t-1) at the previous time is transformed, and the predicted value of the plane area at the current time is calculated. R ^ t).
( 3 ) 更に、 ステ レオ画像 I b( t )、 I r( t )間の射影変換行列 )は 、 前時刻において推定された — 1)を初期値と し、 ( 2 ) で求められ た t )を計算領域と して、 求められる。 (3) Furthermore, the projection transformation matrix between the stereo images I b (t) and I r (t) is estimated at the previous time — 1) as the initial value, and t calculated in (2). ) As the calculation area.
本発明では、 上記手順 ( 1 ) 、 ( 2 ) 、 ( 3 ) によ り、 時系列画像を 用いた連続推定において、 十分に真値に近い初期値と しての射影変換行 列と計算領域を用いることができるため、 安定な推定を可能にしている また、 本発明において、 上述した射影変換行列と計算領域の推定手順 では、 射影変換行列 は、 その都度ステ レオ画像から求めるこ と が可能なため、 カメ ラの內部パラメータや 2台のカメ ラ配置、 カメ ラと 道路面との位置関係等は知る必要がなく、 また、 道路面自体が傾いたり 、 走行中にカーブや道路面の凹凸で車体が傾斜したり、 カメ ラが振動し たりすることによっての変化があっても対応することができる。 In the present invention, according to the above steps (1), (2), (3), the projection transformation matrix and the calculation area as the initial value sufficiently close to the true value are obtained in the continuous estimation using the time series image. Therefore, in the present invention, the projection transformation matrix and the calculation region estimation procedure described above require that the projection transformation matrix be obtained from the stereo image each time. Therefore, it is not necessary to know the camera's buttock parameters, the arrangement of the two cameras, the positional relationship between the camera and the road surface, etc. Even if there is a change due to the car body tilting or the camera vibrating due to the unevenness of the surface.
<ステップ S 1 1 0 〉求まつた射影変換行列を用いて、 道路面の平面領 域 (走行可能な平面領域) を抽出する <Step S 1 1 0> Using the obtained projective transformation matrix, extract the plane area of the road surface (the plane area that can be driven)
ステップ S 1 0 0で求めた射影変換行列を利用して、 基準画像中から 平面に対応した領域を抽出する。 第 6図に第 3図のステレオ原画像を用 いた一連の処理結果を示す。 第 6図(A)は、 L O Gフィルタ処理と ヒス トグラム平坦化処理を施した基準画像 (第 4図(A)と同じ) である。 第 6図(B )は、 ステップ S 1 0 0で述べた方法によ り推定した射影変換行 列 を用いて、 第 4図(B )の参照画像を射影変換した結果である。 第 6図(A)の画像と第 6図(B)の画像の差分 (差の絶対値) を求めたもの が第 6図(C)である。 第 6図(C)の画像を見ると、 平面 (道路面) に対 しては、 第 6図(A)、 第 6図(B )両画像の位置が一致しているため、 全 体的に黒く、 それ以外の部分ではずれているため、 白っぽく見える。 次 に、 第 6図(C)の差分画像に対し、 平均化フィルタをかけた上で 2値化 したものが第 6図(D)である。 第 6図(D)は、 第 6図(A)と第 6図(B ) の画像【こ対し、 S A D (Sum of Absolute Difference)を用!/ヽたマツ チングを行っていることに相当する。  Using the projective transformation matrix obtained in step S 1 0 0, an area corresponding to a plane is extracted from the reference image. Figure 6 shows the results of a series of processing using the stereo original image of Fig. 3. Fig. 6 (A) is a reference image (same as Fig. 4 (A)) that has been subjected to LOG filtering and histogram flattening. FIG. 6 (B) shows the result of projective transformation of the reference image of FIG. 4 (B) using the projective transformation matrix estimated by the method described in step S100. Figure 6 (C) shows the difference (absolute value) between the image in Fig. 6 (A) and the image in Fig. 6 (B). Looking at the image in Fig. 6 (C), the positions of the images in Fig. 6 (A) and Fig. 6 (B) coincide with the plane (road surface). Because it is black and it is shifted in other parts, it looks whitish. Next, the difference image in Fig. 6 (C) is binarized after applying an averaging filter in Fig. 6 (D). Fig. 6 (D) uses the image of Fig. 6 (A) and Fig. 6 (B) [Sum of Absolute Difference)! / Equivalent to performing a tricky matching.
ここで、 前時刻の平面領域抽出結果が利用できる場合には、 その結果 を以下のよ うに利用する。 ステップ S 1 0 0でも述べたように、 前時刻 の平面領域 R ( t — 1 )と基準画像の時系列間の射影変換行列 よ り 、 現時刻において予想される平面領域が得られる。 時系列画像間では平 面領域がそれほど急激には変化しないとすれば、 第 7図に示すよ うに、 現時刻における平面領域と非平面領域の境界は、 前時刻から予想される 境界に対してある一定の幅に収まると考えられる。 そこで、 それ以外の 部分に関しては、 前時刻の結果よ り平面領域ないし非平面領域とみなす ことができるため、 それを第 6図(D )のマッチング結果に反映する。 さ らに、 走行可能な平面領域はある程度の大きさを持っていると考えられ るため、 収縮 · 膨張処理によ り、 面積が小さな領域や細長い領域を除く 処理を施した結果が第 6図(E )である。 第 6図(F )は、 抽出された結果 が原画像と どう対応しているのかが分かるよ う に、 原画像に対し、 抽出 された平面領域以外の明るさを落して表示したものである。 第 6図(F ) よ り、 抽出された領域が実際の道路面に良く一致していることが分かる 一方、 以上で述べた方法においては、 基準画像と射影変換後の参照画 像で、 平面以外に対する画像上の位置がずれ、 その結果、 画像濃度に差 が生じるという ことを前提と している。 しかしながら、 例えば、 テクス チヤの無い建物の壁が画像上で大きな領域を占めるよ うな場合には、 問 題が生じる。 そのよ うな領域では、 たとえ位置がずれていても、 濃度の 差が生じないからである。 第 8図(A )と第 8図(B )は、 そのよ うな画像 の例を示しており、 この場合のマッチング結果 (第 6図(D )に相当) は 、 第 8図(D )に示すものとなる。 第 8図(D )に示されるよう に、 明らか に、 マッチング結果に正面の建物の壁を含んでしまっている。 Here, when the planar area extraction result of the previous time can be used, the result is used as follows. As described in step S 1 0 0, the plane area expected at the current time is obtained from the projection transformation matrix between the plane area R (t — 1) at the previous time and the time series of the reference image. Flat between time series images If the surface area does not change so rapidly, as shown in Fig. 7, the boundary between the planar area and the non-planar area at the current time falls within a certain width with respect to the boundary expected from the previous time. it is conceivable that. Therefore, the other parts can be regarded as planar or non-planar areas based on the results of the previous time, and this is reflected in the matching results in Fig. 6 (D). In addition, since the plane area that can be traveled is considered to have a certain size, the results of applying a process that excludes small areas and elongated areas by shrinking and expanding processes are shown in Fig. 6. (E). Figure 6 (F) shows the original image with reduced brightness other than the extracted plane area so that it can be seen how the extracted result corresponds to the original image. . From Fig. 6 (F), it can be seen that the extracted area is in good agreement with the actual road surface. On the other hand, in the method described above, the reference image and the reference image after the projective transformation are used to create a flat surface. It is assumed that the position on the image is shifted with respect to other than this, resulting in a difference in image density. However, problems arise when, for example, the walls of buildings without textures occupy a large area on the image. In such a region, even if the position is shifted, there is no difference in density. Fig. 8 (A) and Fig. 8 (B) show examples of such images. The matching result in this case (equivalent to Fig. 6 (D)) is shown in Fig. 8 (D). It will be shown. As shown in Fig. 8 (D), the matching result clearly includes the wall of the building in front.
そこで、 このよ うな問題に対処するため、 以下のよ うなテクスチャレ ス領域処理を施す。 以下、 第 9図を参照しながら、 その具体的な処理手 順を説明する。  Therefore, the following textureless region processing is applied to deal with such problems. The specific processing procedure will be described below with reference to FIG.
先ず、 L O Gフィルタの出力結果が 0に近い領域をテクスチャ レス領 4 First, the area where the output result of the LOG filter is close to 0 is the textureless area. Four
域と して抽出し、 領域毎にラベリ ングする (第 9図(a )の A、 B ) 。 つ ま り、 これらの領域は、 マッチングによる平面領域判定が困難な部分で ある。 実際、 このよ うな画像に対してマッチングによる判定を行う と、 第 9図( c )の斜線部のよ うな領域が得られ、 結果と して Cの部分が誤判 定となる。 Extracted as regions and labeled for each region (A and B in Fig. 9 (a)). In other words, these areas are difficult to determine planar areas by matching. In fact, if such an image is judged by matching, a region like the shaded area in Fig. 9 (c) is obtained, and as a result, the portion C is misjudged.
次に、 テクスチャ レス領域 A、 Bに対し、 次のよ うな判定を行う (第 9図(d )を参照) 。 あるテクスチャ レス領域の全体が、 第 9図(c )のマ ツチング結果に含まれていれば、 そのテクスチャレス領域は、 平面領域 とする (つま り、 領域 Bの場合) 。 なお、 実際の平面領域と非平面領域 の間には、 画像上でエッジや濃淡の差等の何らかの境界が存在すると考 えられる。 その境界部は、 本発明では、 テクスチャ レス領域とはならず 、 かつマッチング領域に属することになる。 従って、 テクスチャ レス領 域が仮に平面領域の縁に存在しているよ うな場合でも、 処理結果におい ては、 テクスチャレス領域が、 マッチング領域内で境界部の分だけ内側 に現れることになる。 また、 あるテクスチャ レス領域の全体が、 第 9図 ( c )のマツチング結果に含まれていなければ、 そのテクスチャレス領域 全体を非平面領域とする (つま り、 領域 Aの場合) 。  Next, the following determination is performed for textureless areas A and B (see Fig. 9 (d)). If the entire textureless area is included in the matching results in Fig. 9 (c), the textureless area is a planar area (in other words, area B). It should be noted that there are some boundaries between the actual planar area and the non-planar area, such as edges and shading differences on the image. In the present invention, the boundary portion is not a textureless region and belongs to the matching region. Therefore, even if the textureless area exists at the edge of the planar area, the textureless area appears inside the matching area by the boundary in the processing result. If the entire textureless area is not included in the matching results in Fig. 9 (c), the entire textureless area is defined as a non-planar area (that is, area A).
最後に、 第 9図( c )のマッチング結果から、 非平面領域と判定された テクスチャ レス領域を除いて、 正確な平面領域が得られる (第 9図(e ) を参照) 。  Finally, from the matching results in Fig. 9 (c), an accurate planar region can be obtained by removing the textureless region determined as a non-planar region (see Fig. 9 (e)).
上記で述べたテクスチャレス領域処理は、 以下のよ うに解釈すること ができる。 まず、 テクスチャ レス領域では、 局所的なマッチングを行つ ても、 位置ずれが生じているかどうかの判定をすることができない。 そ こで、 テクスチャ レス領域をまとめ、 各々の領域を〃塊〃と して、 ずれの 判定を行う。 その際、 平面領域に含まれるテクスチャ レス領域では、 当 然位置ずれがないために全体がマッチングすることになるが、 非平面領 域中のテクスチャ レス領域の場合には、 位置がずれるため、 領域のある 部分が必ず周囲の別の領域と重なり、 その部分はマッチングによ り非平 面部と判定されることになる。 そこで、 そのよ うなテクスチャレス領域 全体を非平面領域と判定する。 The textureless region processing described above can be interpreted as follows. First, in the textureless region, it is not possible to determine whether or not there is a displacement even if local matching is performed. Therefore, the textureless areas are put together, and each area is regarded as a lump, and the deviation is judged. At that time, in the textureless area included in the planar area, However, since there is no displacement, the whole will match, but in the case of a textureless area in a non-planar area, the position will be displaced, so that a certain part of the area will always overlap with another area around it. The part is determined to be a non-planar part by matching. Therefore, the entire textureless area is determined as a non-planar area.
以上のテクスチャレス領域処理を行って得られた結果を第 1 0図に示 す。 第 1 0図(B )は、 第 1 0図(A )の基準画像に対して、 テクスチャ レ ス領域を抽出した結果である。 第 1 0図(C )は、 上記.で述べたテクスチ ャ レス領域処理を加えて、 平面領域を抽出した結果である。 第 1 0図( D )は、 原画像との重ね合わせ表示である。  Figure 10 shows the results obtained by performing the above textureless region processing. FIG. 10 (B) shows the result of extracting the textureless region from the reference image of FIG. 10 (A). Figure 10 (C) shows the result of extracting the planar area by applying the textureless area processing described above. FIG. 10 (D) is a superimposed display with the original image.
また、 第 1 1図にテクスチャ レス領域処理を行って得られた別の結果 を示す。 この例では、 空 (非平面領域) の部分と、 路面のペイ ン ト (平 面領域) の部分にテクスチャ レス領域が存在しているが、 テクスチャ レ ス領域処理によ り、 空 (非平面領域) に対応したテクスチャ レス領域の みがマッチング結果から除かれ、 第 1 1図(E )及び第 1 1図(F )に示す よ うに、 良好な結果が得られていることが良く分かる。  Figure 11 shows another result obtained by performing textureless region processing. In this example, there are textureless areas in the sky (non-planar area) and the road surface (planar area). Only the textureless region corresponding to (region) is excluded from the matching results, and it can be clearly seen that good results are obtained as shown in Fig. 11 (E) and Fig. 11 (F).
以上をまとめると、 本発明での平面抽出の全体の流れは第 1 2図に示 される通りで、 その各々の部分の処理を以下で説明する。  In summary, the overall flow of plane extraction in the present invention is as shown in FIG. 12, and the processing of each part will be described below.
< 1 > L O Gフィルタ <1> L O G filter
本発明で用いられる領域ベースの手法 (非特許文献 5参照) の短所と して、 2つの画像の明るさが異なると、 うまく処理が行えないところで ある。 そこで、 この画像間の明るさの差を取り除くために、 入力された ステレオ原画像に L O Gフィルタをかける。 L O Gフィルタは下記数 3 のよ うに示される。 本実施例では σ = 1、 ウィンドウサイズ = 7 と して いる。 6 As a disadvantage of the region-based method used in the present invention (see Non-Patent Document 5), if the brightness of the two images is different, processing cannot be performed successfully. Therefore, in order to remove the brightness difference between the images, a LOG filter is applied to the input stereo original image. The LOG filter is expressed as shown in Equation 3 below. In this embodiment, σ = 1 and window size = 7. 6
【数 3 】
Figure imgf000018_0001
[Equation 3]
Figure imgf000018_0001
また、 L O Gフィルタをかけた画像は、 コン トラス トがとても低いの で、 本発明では、 ヒ ス トグラム平坦化によってコン トラス トを上げるよ うにしてレヽる。  Further, since the contrast of the image to which the LOG filter has been applied is very low, the image is increased by increasing the contrast by histogram flattening.
< 2 >射影変換行列の推定  <2> Projective transformation matrix estimation
ステップ S 1 0 0 に説明された方法によ り、 ステレオ画像間の平面の 射影変換行列を動的に推定する。  By the method described in step S 1 0 0, the projection transformation matrix of the plane between stereo images is dynamically estimated.
< 3 >射影変換画像  <3> Projective transformation image
く 2 >によ り得られた平面を表す射影変換行列によって、 参照画像を 射影変換する。 射影変換行列が表す平面は、 あたかも基準カメ ラから撮 影したかのよ うに一致し、 射影変換行列が表す平面上にないものは、 歪 んで投影される。 本発明ではこの性質を利用して平面領域を求める。 く 4〉差分画像  The reference image is projectively transformed using the projective transformation matrix representing the plane obtained by 2>. The plane represented by the projective transformation matrix matches as if it were taken from the reference camera, and anything that is not on the plane represented by the projective transformation matrix is distorted and projected. In the present invention, this property is used to obtain a planar area. <4> Difference image
平面上に存在する点は基準画像へ正確に投影されるので、 輝度値の差 分は小さい。 逆に、 平面上にない点の輝度値の差分は大きく なる。 閾値 処理を施して差分の小さい領域を平面領域とする。 このとき、 ピクセル ごとの差分ではノイズによる影響が大きいので、 S A Dによるマツチン グを施す。 具体的には、 差分画像に平滑化フィルタをかけることで実現 している。 その後、 閾値を使って 2値化する。  Since the points existing on the plane are accurately projected onto the reference image, the difference in luminance value is small. Conversely, the difference in luminance values of points that are not on the plane increases. An area with a small difference is set as a plane area by performing threshold processing. At this time, the difference between each pixel is greatly affected by noise. Specifically, this is achieved by applying a smoothing filter to the difference image. Then, binarize using the threshold.
< 5 >前時刻平面領域の利用  <5> Use of previous time plane area
ステレオ動画像において、 前時刻と現時刻に撮影された画像にはとて も高い相関がある。 同様に、 処理結果においても相関が高いことを利用 して、 前時刻の処理結果を利用することで安定した処理を行う よ う して 7 In stereo moving images, images taken at the previous time and the current time have a very high correlation. Similarly, by using the high correlation in the processing results, it is possible to perform stable processing by using the processing results of the previous time. 7
いる。 ここでは現時刻に抽出される平面領域と非平面領域の境界が前時 刻から予想される境界に対してある一定幅に収まると考えられる。 そこ で、 それ以外の部分に関しては、 前時刻の結果よ り平面領域ないし非平 面領域と見なすことができるため、 それを 2値画像(マッチング結果)に 反映する。 Yes. Here, it is considered that the boundary between the planar region and the non-planar region extracted at the current time falls within a certain width with respect to the boundary expected from the previous time. Therefore, the other parts can be regarded as a planar area or non-planar area based on the result of the previous time, and this is reflected in the binary image (matching result).
< 6 〉テクスチャレス領域  <6> Textureless area
く 4 >の差分画像だけを利用すると、 画像上であま りテクスチヤの無 い領域、 つま りテクスチャ レス領域では、 濃度値の変化が無いため、 た とえ異なる場所が重なり あっていたと しても道路領域と して認識してし ま う恐れがある。 また、 テクスチャ レス領域をそのまま道路領域からす ベて取り除いてしま う と、 本来道路領域であるのに誤って非道路領域と してしま う恐れがある。 道路領域内にもテクスチャ レス領域が存在する ためである。 そこで L O Gフィルタをかけると、 空間周波数が 0に近い 領域をテクスチャ レス領域と して抽出し、 領域ごとにラベリ ングする ( 第 1 3図(a )の A、 B ) 。  If only the difference image of 4> is used, there will be no change in density value in the texture-free area, that is, in the textureless area, even if different places overlap. It may be recognized as a road area. Also, if the textureless area is completely removed from the road area as it is, there is a risk that it will become a non-road area accidentally even though it is originally a road area. This is because there are textureless areas in the road area. Therefore, when an LOG filter is applied, the region where the spatial frequency is close to 0 is extracted as a textureless region and labeled for each region (A and B in Fig. 13 (a)).
< 7 >テクスチャ レス領域の考慮  <7> Consider textureless area
< 6 >でラベリ ングしたテクスチャ レス領域ごとに基準画像と参照画 像のマッチング結果 (第 1 3図(c ) ) に完全に収まっている領域は道路 領域と し、 ずれが生じている領域 (第 1 3図(c )の C ) は非道路領域と する。  For each textureless region labeled in <6>, the region that is completely within the matching result of the reference image and the reference image (Fig. 13 (c)) is the road region, and the region where the deviation occurs ( C) in Figure 13 (c) is a non-road area.
< 8 > Open i ng処理  <8> Open i ng processing
求めたい道路領域は、 自動車の走行可能な道路領域である。 そこで、 抽出された結果から、 自動車の走行できない領域を取り除いている。 ま ず、 自動車の走行不可能な小さな領域を道路領域抽出結果から取り除く 。 得られた道路領域抽出結果からその面積を求め、 閾値以下の領域を除 去している。 また、 道路領域全体に収縮膨張処理を施す。 The road area we want to find is the road area where cars can travel. Therefore, the area where the car cannot travel is removed from the extracted results. First, a small area where the car cannot travel is removed from the road area extraction result. The area is obtained from the road area extraction result and the area below the threshold is excluded. Leaving. The entire road area is contracted and expanded.
<ステップ S 1 2 0 〉射影変換行列を分解することによ り道路面の傾き を算出する <Step S 1 2 0> Calculate the slope of the road surface by decomposing the projective transformation matrix
ここでは平面領域抽出において得られた射影変換行列から、 道路面の 姿勢を表すパラメータである、 基準カメラから道路平面までの距離 と 道路平面の法線ベク トル nを求める方法について説明する。  Here, a method for obtaining the distance from the reference camera to the road plane and the normal vector n of the road plane, which are parameters representing the posture of the road plane, from the projective transformation matrix obtained in the plane area extraction will be described.
まず、 道路平面の射影変換行列 Hは第 2図のよ う なカメ ラ配置の場 合、 下記数 4で表される。  First, the projective transformation matrix H of the road plane is expressed by the following equation 4 in the case of a camera arrangement as shown in Fig. 2.
【数 4】  [Equation 4]
H = A2 (R + 1 H = A 2 (R + 1
a  a
但し、 Rは基準カメ ラ座標系から参照カメ ラ座標系への回転行列で 、 tは参照カメ ラ座標系における基準カメ ラと参照カメ ラの並進べタ ト ルで、 dは基準カメラと道路平面の距離で、 nは道路平面の法線べタ ト ルで、 Aい A 2 はそれぞれ基準カメラと参照カメ ラの内部パラメータで ある。 Where R is the rotation matrix from the reference camera coordinate system to the reference camera coordinate system, t is the translation vector of the reference camera and reference camera in the reference camera coordinate system, and d is the reference camera and road the distance of the plane, n represents at normal base data collected by Le road plane, a have a 2 is an internal parameter of each the reference camera reference camera.
ここで、 定数項 k ≠ 0を付けるのは、 画像から得られた射影変換行列 には定数倍の自由度が存在することを表す。 カメ ラの内部パラメータ A い A 2が既知であるとすると、 下記数 5は成立する。 Here, adding the constant term k ≠ 0 indicates that the projective transformation matrix obtained from the image has a constant multiple of degrees of freedom. When the internal parameter A have A 2 of camera are known, the number 5 below holds.
【数 5】
Figure imgf000020_0001
[Equation 5]
Figure imgf000020_0001
ここで、 非特許文献 6に記載された Faugeras らの手法によって射影 変換行列 H'を特異値分解する。 【数 6 】Here, the singular value decomposition of the projective transformation matrix H ′ is performed by the method of Faugeras et al. [Equation 6]
Figure imgf000021_0001
Figure imgf000021_0001
【数 7】  [Equation 7]
Figure imgf000021_0002
Figure imgf000021_0002
上記数 6 において、 U、 Vでそれぞれ対応する行、 列を入れ換えれ ば > σ2 >び 3 > 0のよ うに並べ替えるこ とができる。 以後、 降順に並ん でいるとする。 上記数 5 と上記数 6 を比較して、 In the above equation 6, if the corresponding rows and columns in U and V are interchanged, they can be rearranged as> σ 2 > 3 > 0. After that, it is assumed that they are arranged in descending order. Compare number 5 and number 6 above.
【数 8】  [Equation 8]
Figure imgf000021_0003
Figure imgf000021_0003
UtRV = R 、 U*t = t' V = n 1 UtRV = R, U * t = t 'V = n 1
とすると、 下記数 9を得る。 Then, the following number 9 is obtained.
【数 9】
Figure imgf000021_0004
[Equation 9]
Figure imgf000021_0004
t  t
もとの R、 d nは、 以下のよ うな関係式から求めることができる  The original R and d n can be obtained from the following relational expression
【数 1 0】 [Equation 1 0]
R = UR V R = UR V
- = U- d d -= U- d d
n = Vn t , t n = Vn t, t
上記数 1 0から、 R、 ―, nを得るには R、 — , n を求めればよい a a  To obtain R,-, n from the above number 1 0, R,-, n can be obtained a a
ことが分かる。 I understand that.
こ こ で 、 基 準 カ メ ラ 座 標 系 の 基 底 ( ,ε β を 導 入 し 、 n = +«2e2 + 3e3と し、 上記数 9から得られる 3つの方程式と nは単 位べク トルであるこ と、 Vは正規直交行列よ り n も単位べク トルとな るこ と、 また R'は回転行列なのでノルム変化がないこ と よ り 、 下記数 1 1が導出される。 Here we introduce the basis of the standard camera coordinate system (, ε β, n = + « 2 e 2 + 3 e 3, and the three equations obtained from Equation 9 and n are Since V is a unit vector and n is a unit vector than an orthonormal matrix, and R 'is a rotation matrix, there is no norm change. Is done.
【数 1 1 】  [Equation 1 1]
(左辺のノルムの 2乗) = (右辺のノルムの 2乗)  (The square of the norm on the left side) = (the square of the norm on the right side)
(k - ntf + (k · Ujf = (σ.^.)2 + (び ) 2 ·≠ゾ) (k-n t f + (k · Ujf = (σ. ^.) 2 + ( b ) 2 · ≠ zo)
( 2 -び>;2+ ( 2 -び» 0 (i≠j) これを( 2—び ) = A、 · = ι~3)と置き、 の連立一次方程式と して 解く と、 下記数 1 2を得る。 ( 2 -bi>; 2 + ( 2 -bi »0 (i ≠ j) If this is set as ( 2 —bi) = A, · = ι ~ 3) and solved as a simultaneous linear equation of, 1 get 2
【数 1 2】  [Equation 1 2]
= 0  = 0
(k2一び fX 2―び 2 2)( 2—び 3 2) = 0 よって、 下のよ うに H'の特異値が (I) 重解を持たない場合、 (II) 重解を持つ場合、 (III) 3重解を持つ場合に場合分けして考える。 (k 2 and fX 2- and 2 2 ) ( 2- and 3 2 ) = 0 Therefore, if the singular value of H 'does not have (I) multiple solutions as shown below, (II) has multiple solutions Cases (III) Consider cases with triple solutions.
(I) σχ≠σ2≠ σ3 (I) σ χ ≠ σ 2 ≠ σ 3
(II) <Tj = σ ≠ σ3 or σ1≠ σ2 = σ3 (II) <Tj = σ ≠ σ 3 or σ 1 ≠ σ 2 = σ 3
(III) σ12 = σ3 (III) σ 1 = σ 2 = σ 3
ここで、 k =± CT l も しく は k = ± a 3は成り立たない。 これは背理法 で示される。 よって、 Hにかかっている定数倍の項 kは、 H'を特異値 分解したときの σ 2 と して求まることが分かる。 次に、 k > 0のときに は、 2台のカメ ラを平面の同じ側に配置にして平面の同じ面をカメ ラが 撮影している場合に相当 し、 本発明で扱 う カメ ラ配置である。 また (III)の 3重解の場合は、 2つのカメ ラの光学中心が一致、 つま り回転 だけの場合なので、 除外する れらの関係よ り、 一般的 nは下記 数 1 3のよ う に書ける。 Here, k = ± CT l or k = ± a 3 does not hold. This is indicated by a contradiction. Therefore, it can be seen that the constant multiple term k applied to H is obtained as σ 2 when H 'is decomposed into singular values. Then when k> 0 This corresponds to the case where two cameras are arranged on the same side of the plane, and the camera takes a picture of the same plane, and is the camera arrangement handled in the present invention. In the case of the triple solution of (III), the optical centers of the two cameras are coincident, that is, they are only rotated. Therefore, from these relationships, general n is expressed by the following Equation 13 You can write
【数 1 3】  [Equation 1 3]
n ( =±1)
Figure imgf000023_0001
n (= ± 1)
Figure imgf000023_0001
(I) び t≠び 2≠び 3のとき (I) and t ≠ and 2 ≠ and 3
?¾:=0ょ り 1162=62を得る。 つま り、 Rは e2周 り の回転行列である。 以下それぞれ条件を入れて計算すると 下記数 1 4、 数 1 5及び数 1 6 を得る。 ? ¾: get 116 2 = 6 2 after 0. That is, R is the rotation matrix are two laps e. The following formulas 14 and 15 and 16 are obtained by calculating each with the following conditions.
【数 1 4】  [Equation 1 4]
Figure imgf000023_0002
Figure imgf000023_0002
数 1 5】  Number 1 5]
Figure imgf000023_0003
【数 1 6】
Figure imgf000023_0003
[Equation 1 6]
7% 7%
σι一び 3 Σ ι 一 3
1 σ' 2 0  1 σ '2 0
(II) σ】 = σ2≠ σ3 or ≠ σ2 =び3のとき及ぴ (ill) σ i = σ 2 ( σ 2 = σ 3)のとき (II) σ] = σ 2 ≠ σ 3 or ≠ σ 2 = 3 and (ill) σ i = σ 22 = σ 3 )
上記数 1 3よ り、 = = 0、 = ±1 ( = ±1 , = = 0 )。 R'は単位 行列になる。 このとき、  From the above equation 1 = 3, = = 0, = ± 1 (= ± 1, = = 0). R 'becomes an identity matrix. At this time,
【数 1 7】  [Equation 1 7]
R = I R = I
t σ,-σ, <  t σ, -σ, <
― = ― Ln ― = ― L n
d び 2 と書ける。  You can write d and 2.
ここで、 , の符号の違いによ り、 R,t/ ,nは 4つの解の不定性が発 生している。 そこで、 「 2台のカメラから平面が見えている」 という条 件を与える。 つま り、 光学中心を出た視線がレンズを通り、 平面へ到達 するという ことである。 得られた nの候補のう ち、 mとの内積が正にな る nを選べば良い。 これで 4つから 2つに絞れる。 さ らに、 解を一意に するために、 本実施例では 2台のカメラ同士の位置関係が撮影中変化し ないという条件を加えることで解決している。 また、 dを求めるために t Here, due to the difference in the sign of,, R, t /, and n have indefiniteness of four solutions. Therefore, we give the condition that the plane is visible from two cameras. In other words, the line of sight that exits the optical center passes through the lens and reaches the plane. Of the n candidates obtained, select the n that makes the inner product with m positive. This reduces the number from 4 to 2. Furthermore, in order to make the solution unique, this embodiment solves this problem by adding a condition that the positional relationship between the two cameras does not change during shooting. Also to find d t
得られた の絶対値と tから次の式よ り求めることができる  The absolute value of obtained and t can be obtained from the following equation
a  a
d つま り、 2台のカメ ラのベースライン |t|を与えることで dが決まる。 d In other words, d is determined by giving the baseline | t | of two cameras.
くステップ S 1 3 0 >道路平面を上方から見た画像 (仮想投影面画像) を生成する Step S 1 3 0> Generate an image (virtual projection plane image) of the road plane viewed from above
ステップ S 1 2 0で求められた道路平面の姿勢パラメータを使って、 第 1 4図に示されるよ う に、 基準画像に基づいて、 道路平面と平行な仮 想投影面(V P P : Virtual Projection Plane)画像を生成する。 第 1 4図の中の記号を以下のよ うに定義する。  Using the road plane attitude parameters obtained in step S 1 2 0, as shown in Fig. 14, a virtual projection plane (VPP: Virtual Projection Plane) parallel to the road plane based on the reference image is used. ) Generate an image. The symbols in Figure 14 are defined as follows.
npは道路平面と基準カメ ラの座標系における法線ベク トルで、 f は 基準カメ ラの焦点距離で、 dは基準カメラ光学中心と道路平面との距離 で、 また、 e。zは基準カメ ラの光軸である。 ' n p is the normal vector in the coordinate system of the road plane and the reference camera, f is the focal length of the reference camera, d is the distance between the reference camera optical center and the road plane, and e. z is the optical axis of the reference camera. '
ここで、 ステップ S 1 2 0で射影変換行列を分解することで得られた 法線べク トルを!^とする。  Here, the normal vector obtained by decomposing the projective transformation matrix in step S 1 2 0! Let it be ^.
まず、 基準カメ ラの光軸 e oz と !^との外積を回転軸と して、 ez と npのなす角を 0 回転させる変換行列を R"とすると、 First, the optical axis of the reference camera e oz ! E , where the outer product of ^ is the axis of rotation. If the transformation matrix that rotates the angle between z and n p by 0 is R ",
【数 1 8 】 cx a + cosO ολο2α― c3sin6 cxc7 + c2sin6 [Equation 1 8] c x a + cosO ο λ ο 2 α― c 3 sin6 c x c 7 + c 2 sin6
cxc2 + c3sin0 c2 a + cos0 c2c3a - cxsin6 c x c 2 + c 3 sin0 c 2 a + cos0 c 2 c 3 a-c x sin6
c^a一 c2sin6 c2c,a + cxsin6 c3 2 + cosO c ^ a one c 2 sin6 c 2 c, a + c x sin6 c 3 2 + cosO
V 【数 1 9】 ' V [Equation 1 9] '
a = (l- cos6)  a = (l-cos6)
【数 2 0】  [Equation 2 0]
C = n P X e。z = (Cl,C2,C3)r C = n P X e . z = ( C l, C 2, C 3) r
【数 2 1】
Figure imgf000026_0001
[Equation 2 1]
Figure imgf000026_0001
と表せる。 基準カメ ラをこの R"によ り 回転させた V P P画像へ変換す る射影変換行列は、 基準カメ ラの内部パラメータ行列を A^.、 仮想カメ ラ (つま り、 V p pカメ ラ) の内部パラメータ行列を Avppとすると、It can be expressed. The projective transformation matrix that converts the reference camera into a VPP image rotated by this R "is A ^., The internal parameter matrix of the reference camera, that is, the interior of the virtual camera (that is, the V pp camera). If the parameter matrix is A vpp ,
【数 2 2】 [Equation 2 2]
H" = A,R〃A 1 と表せる。 . H "= A, R〃A 1 can be expressed.
次に、 V P P画像の鉛直軸と基準カメ ラの光軸を道路平面に射影した も のの向き を一致させる。 基準カ メ ラ の光軸方向の単位べク トル e0z = (0,0,1/を V P Pカメ ラ座標系から見たベク トル uを考え、 それを V P P画像座標系に正射影したべク トル Vを考える。 Next, the direction of the projection of the vertical axis of the VPP image and the optical axis of the reference camera on the road plane is matched. The unit vector e 0z = (0,0,1 / in the optical axis direction of the reference camera is considered to be a vector u viewed from the VPP camera coordinate system, and is a vector obtained by orthogonally projecting it to the VPP image coordinate system. Consider Toll V.
まず、  First,
【数 2 3】 である。  [Equation 2 3]
次に、 uの X成分を ux、 y成分を uy と表すとき、 uを X — y平面 に正射影した u = (ux,uy,0)Tなるベタ トル uを考える。 Next, let us consider a vector u such that u = (u x , u y , 0) T, which is an orthogonal projection of u onto the X — y plane, where u is the x component and u y is the u component.
この Uを V P P画像座標に射影すると、 同次 V P P画像座標上での無 限遠点 = ( , ,ο)Γに変換される。 When this U is projected onto the VPP image coordinates, there is nothing on the homogeneous VPP image coordinates. Limited point = (,, ο) Converted to Γ .
【数 2 4】  [Equation 2 4]
= (ただし, II 11=1)  = (However, II 11 = 1)
と を定義し、' これをカメ ラ方向と呼ぶ。 求める回転行列 Rはカメ ラ方 向 を、 「 V Ρ Ρ画像座標の一 V方向」 = 「 V Ρ Ρカメ ラ座標系の一 y 方向」 に一致させる回転変換であるので、 And define 'and call this the camera direction. The rotation matrix R to be obtained is a rotational transformation that matches the camera direction to “V Ρ の 一 one V direction of image coordinates” = “V Ρ の 一 one y direction of camera coordinate system”.
【数 2 5】  [Equation 2 5]
(0,-l,0f =Rv  (0, -l, 0f = Rv
を満たす Rを求める。 上記数 2 2の H"と組み合わせることによ り、 基 準画像から V P P画像への射影変換行列 Hは、 Find R that satisfies By combining with H ”in the above equation 2 2, the projective transformation matrix H from the reference image to the V P P image is
【数 2 6】  [Equation 2 6]
H = RH''  H = RH ''
となる。 It becomes.
上記数 2 6 の Hによ り 、 基準画像を射影変換して V P P画像を生成 する。 3次元空間で mと表すこ とのできる点を基準画像へ投影して得 られる基準画像座標《¾=O0i,v0f と、 同じく 点 mを V P P画像へ投影 したときの V P P画像座標の点 ,.
Figure imgf000027_0001
の間には、
The reference image is subjected to projective transformation using the H in Equation 26 to generate a VPP image. Reference image coordinates << ¾ = O 0i , v 0 f obtained by projecting a point that can be expressed as m in the three-dimensional space onto the reference image, Dot,.
Figure imgf000027_0001
In between
【数 2 7】  [Equation 2 7]
=HmQi = Hm Qi
が成り立つので、 V P P画像上の点 m の輝度は、 Hの逆行列 H—1を用 いて対応する原画像上の点 moiの輝度値を代入することで得られる。 【数 2 8】 Therefore, the luminance of the point m on the VPP image can be obtained by substituting the luminance value of the point m oi on the corresponding original image using the inverse matrix H- 1 of H. [Equation 2 8]
u 【数 2 9】 u [Equation 2 9]
v 二 H i + H; v Two H i + H;
。'· W ¾  . '· W ¾
ただし、 ^は行列 T1の i行 j 列成分を表すとする。 However, ^ is a representative of a row i and column j elements of the matrix T 1.
以上の射影変換行列を使い、 第 1 6図の基準画像を入力と して V P P 画像を計算すると、 第 1 9図が生成される。 なお、 第 1 5図は参照画像 で、 また、 第 1 8図は第 1 7図に示される平面領域を原画像に重ね合わ せた結果である。  Using the above projective transformation matrix and calculating the V P P image with the reference image in Fig. 16 as input, Fig. 19 is generated. Note that FIG. 15 is a reference image, and FIG. 18 is the result of superimposing the planar area shown in FIG. 17 on the original image.
<ステップ S 1 4 0 〉V P P画像上で走行可能な平面領域と 自車輛の位 置、 方向を算出する <Step S 1 4 0> Calculate the position and direction of the plane area that can be traveled on the V P P image and the vehicle
まず、 ステップ S 1 3 0で説明された方法によって、 第 1 7図のよ う に平面領域のみ (白い領域) を V P P画像に変換した画像が第 2 0図で ある (つま り、 この画像において白い領域が平面領域である) 。  First, Fig. 20 shows an image obtained by converting only the planar region (white region) into a VPP image as shown in Fig. 17 by the method described in step S 1 30 (in this image). The white area is the flat area).
次に、 V P P画像の特徴について説明する。 推定した平面上に載って いる点は、 上記数 2 7の変換によ り正しい座標の V P P画像に変換され るが、 平面から浮いている点 (例えば、 車や壁など)は、 V P P画像に 変換すると正しい位置に変換されるわけではない。 すなわち、 V P P画 像に変換することで、 推定した道路平面領域を平行に上方から見た画像 が生成されたわけであり、 その画像から得られる座標は、 実空間に対応 した座標系となっている。  Next, features of the VPP image will be described. The points on the estimated plane are converted into VPP images with the correct coordinates by the transformation of Equation 27 above, but points floating from the plane (for example, cars and walls) are converted into VPP images. When converted, it is not converted to the correct position. In other words, by converting to a VPP image, an image of the estimated road plane region viewed from above in parallel was generated, and the coordinates obtained from the image are a coordinate system corresponding to real space. .
次に、 V P P画像上に落と した光学中心を得るためには、 上記数 1 8 における R〃と仮想カメ ラの内部パラメ タ A,と道路平面の法線べク ト /レ p 上記数 2 5の Rを使い、 同次 V P P画像座標上での光学中心の 同次座標を o,とする と、 ovpp = (oい o2,o3) = RAvppITnpよ り 、 v P P画像 の画像座標は 0„,0 は(o^Ov) ^^^","^)と して得る。 第 2 1 図の中では Next, in order to obtain the optical center dropped on the VPP image, R〃 in the above equation 18 and the internal parameter A of the virtual camera, and the normal vector / letter p of the road plane If v is the homogeneous coordinate of the optical center on the homogeneous VPP image coordinates, and o vpp = (o o 2 , o 3 ) = RA vpp ITn p , v PP image The image coordinates of is obtained as 0 „, 0 as (o ^ Ov) ^^^", "^).
°3 °3  ° 3 ° 3
〇が基本カメ ラの光学中心を道路平面に投影した点である。 以後、 この 点を基準カメ ラ位置原点とする。 よって、 カメ ラと車輛の位置関係から O is the point where the optical center of the basic camera is projected onto the road plane. Hereinafter, this point will be the reference camera position origin. Therefore, from the positional relationship between the camera and the vehicle
V Ρ Ρ画像上での車輛の位置がわかる。 また、 第 2 1 図に示すよ うに、V Ρ わ か る You can see the position of the vehicle on the image. As shown in Fig. 2 1,
V Ρ Ρ画像で垂直な軸 Υは光軸に一致する。 つま り、 光軸と車輛との取 り付け角が既知であれば、 V P P画像中で自車輛の方向を算出できる。 V Ρ Ρ The vertical axis Ρ in the image coincides with the optical axis. In other words, if the mounting angle between the optical axis and the vehicle is known, the direction of the vehicle can be calculated in the VPP image.
<ステップ S 1 5 0 >V P P画像上での道路平面領域の自車輛からの最 遠部すなわち障害物までの各方向毎の距離を算出する <Step S 1 5 0> Calculate the distance in each direction to the farthest part from the vehicle in the road plane area on the V P P image, that is, the obstacle.
領域の拡がり を求めるには、 第 2 0図のよ うな平面領域を V P P画像 に変換した画像を用意し、 その画像上での基準カメラ位置原点から光軸 (Y軸) に対して、 Θ傾いた直線を伸ばし、 平面領域の端を計算する ( 第 2 2図参照) 。 画像上での基準カメ ラ位置原点 Oから平面領域の端の 座標を求めることによ り、 光軸から 0傾いた場所における画像上での平 面の拡がり長さを求めることができる。 画像上での長さは仮想カメ ラの 内部パラメータと、 基準カメ ラ光学中心と道路平面との距離 dを使う こ とで実際の距離に変換できる。 つま り、 この処理によ り平面領域の方向 別距離が算出されたわけである。  To determine the area expansion, prepare an image obtained by converting a planar area as shown in Fig. 20 into a VPP image, and tilt it Θ from the reference camera position origin on the image with respect to the optical axis (Y axis). Stretch the straight line and calculate the edge of the planar area (see Figure 22). By obtaining the coordinates of the edge of the plane area from the reference camera position origin O on the image, the spread length of the plane on the image at a position tilted 0 from the optical axis can be obtained. The length on the image can be converted to the actual distance using the internal parameters of the virtual camera and the distance d between the optical center of the reference camera and the road plane. In other words, the distance for each direction of the planar area was calculated by this process.
本実施例においては、 撮影した画像の解像度などの制約上、 基準カメ ラ位置原点から光軸方向に 3 2 mまで前方を領域の拡がり と して計算 できる上限と した。 また、 計測範囲は光軸から 2 5度の範囲で 0. 5度 刻みと した。  In this example, due to restrictions such as the resolution of the captured image, the upper limit was calculated as the area expansion from the reference camera position origin to 32 m in the optical axis direction. The measurement range was 25 degrees from the optical axis, with increments of 0.5 degrees.
<ステップ S 1 6 0 > V P P画像上での道路平面領域の自車輛からの最 遠部すなわち障害物までの各方向毎の相対速度を算出する <Step S 1 6 0> The highest point from the vehicle in the road plane area on the VPP image. Calculate the relative speed in each direction to the far part, that is, the obstacle
次に、 V P P画像上での道路平面領域の自車輛からの最遠部すなわち 障害物までの方向別相対速度を算出する。 各時刻について、 各方向別に ステップ S 1 5 0で述べた方法を利用し、 道路平面領域の方向別距離を 計算する。  Next, the relative speed by direction to the farthest part from the vehicle in the road plane area on the VPP image, that is, to the obstacle is calculated. For each time, calculate the distance for each direction of the road plane area by using the method described in step S 1 50 for each direction.
こ こでは、 例えば、 光軸(Y軸)から Θ 傾いた平面の相対速度を求め るために、 光軸( Y軸)から Θ 傾いた方向別距離を過去の 5 フ レーム使 い、 また、 画像は 3 0 f p s で撮影しているため、 1 フ レームで 1 / 3 0 s であるので、 最小 2乗法を使う こ とで 1 / 3 0 s 毎の方向別距 離の時系列データから傾きを求め、 時速に換算したことで、 その方向の 相対速度が算出できたわけである (第 2 3図参照) 。 従って、 同様の処 理を各方向について行う ことで、 平面領域のほぼ全体について平面領域 の相対速度が算出される。  Here, for example, in order to find the relative velocity of the plane tilted Θ from the optical axis (Y axis), the distance for each direction tilted Θ from the optical axis (Y axis) is used in the past 5 frames. Since the image was taken at 30 fps, 1 frame is 1/30 s, so using the least squares method, the gradient is obtained from the time-series data of distance by direction for each 1/30 s. Thus, the relative speed in that direction could be calculated (see Fig. 23). Therefore, by performing the same process for each direction, the relative velocity of the planar area is calculated for almost the entire planar area.
<ステップ S 1 7 0 > V P P画像に走行可能な平面領域を重ね合わせて 表示すると共に、 算出された方向別距離、 方向別相対速度情報を表示す る <Step S 1 7 0> V P P Overlays the plane area that can be driven on the image, and displays the calculated distance by direction and relative speed information by direction.
ステップ S 1 5 0及びステップ S 1 6 0で述べた方法によ り、 各方向 における道路平面領域の距離と相対速度が計算できたわけである。  By the method described in step S 1 5 0 and step S 1 60, the distance and relative speed of the road plane area in each direction can be calculated.
'本発明では、 得られた道路平面の方向別距離と方向別相対速度を分か り易く表示できるよ うに工夫した。 その結果が第 2 4図で示す画像であ る。 まず、 第 2 4図に示された画像の右側の画像は、 基準画像を V P P 画像に変換したものに、 平面領域を V P P画像に変換したものを重ねた ものである。 第 2 4図に示された画像の右側の画像において、 水色の領 域が合成した平面領域であり、 平面領域の端にある各点は領域の端点 ( この点 1つ 1つが平面の方向別距離であり、 図中では矢印 Aで示してい る点) を表し、 端点の色の付け方は次のよ うなルールがある。 'In the present invention, it has been devised so that the distance by direction and the relative speed by direction of the obtained road plane can be displayed easily. The result is the image shown in FIG. First, the image on the right side of the image shown in Fig. 24 is obtained by superimposing a reference image converted into a VPP image and a flat region converted into a VPP image. In the image on the right side of the image shown in Fig. 24, the light blue area is the combined plane area, and each point at the end of the plane area is the end point of the area ( Each point is a distance according to the direction of the plane, and represents the point indicated by arrow A in the figure. The following rules apply to the coloration of the end points.
まず.、 平面の拡がり速度が負 (平面が縮む、 つま り、 カメ ラに向かつ てく る方向) の場合は、 危険度があるため、 暖色系の色の点で表示する 。 一方'、 平面の拡がり速度が正 (平面が拡がる、 つま り、 カメ ラから離 れる方向) の場合は、 危険度は低く なるため、 寒色系の色の点で表示し 、 また、 平面の拡がりがないものについては緑の点で表示すること と し た。 第 2 4図に示された画像の左側の下にあるグラデーショ ンは、 平面 の拡がり速度による点の色の推移を示すものであり、 各数字はそれぞれ 時速 ( k m / h ) に相当している。 また、 基準カメ ラ位置原点からの 一定距離になるよ う な同心円弧 5 m毎に描き (図中では矢印 Bで示し ている') 、 カメ ラを搭載した車の幅を赤いラインで示した (図中では矢 印 Cで示している) 。  First, if the expansion speed of the plane is negative (the plane contracts, that is, the direction toward the camera), there is a danger, so it is displayed as a warm color point. On the other hand, if the plane expansion speed is positive (the plane expands, that is, the direction away from the camera), the risk is low, so it is displayed with a cold color point, and the plane expansion Those without are displayed as green dots. The gradient below the left side of the image shown in Figure 24 shows the transition of the color of the point due to the spread speed of the plane, and each number corresponds to the speed per hour (km / h). . In addition, it is drawn every 5 m concentric arcs (indicated by arrow B 'in the figure) so as to be a constant distance from the reference camera position origin, and the width of the car equipped with the camera is shown in red (Indicated by arrow C in the figure).
次に、 第 2 4図に示された画像の左側の画像は、 基準画像に平面領域 を合成.したもので、 平面領域を水色で表している。 平面領域の各端点は Next, the image on the left side of the image shown in Fig. 24 is a composite of the plane area with the reference image, and the plane area is shown in light blue. Each endpoint of the planar area is
、 V P P画像を基に計算した画像の座標を数 2 7の H—1を使って変換す ることで、 基準画像での領域の端点に対応する座標が計算されるため、 その座標を利用し、 表示している (図中では矢印 Dで示している) 。 こ こで使用される色の決定の仕方は、 第 2 4図に示された画像の右側の画 像の端点と同じルールを利用する。 また、 光軸から一定角度毎 (本実施 例では 5度ごと) の点の上にその点の基準カメ ラ位置原点からの距離を メー トル単位で表示している (図中では矢印 Eで示している) 。 By converting the coordinates of the image calculated based on the VPP image using H- 1 in Equation 27, the coordinates corresponding to the end points of the area in the reference image are calculated. Is displayed (indicated by arrow D in the figure). The method of determining the color used here uses the same rule as the end point of the image on the right side of the image shown in Fig. 24. In addition, the distance from the origin of the reference camera position is displayed in units of meters on a point at a certain angle from the optical axis (every 5 degrees in this example) (indicated by arrow E in the figure). ing) .
上記のよ うな方向別距離、 方向別相対速度情報の表示方法によ り、 本 発明を用いた道路平面領域並びに障害物検出結果の例を第 2 5図と第 2 6図に示す。 なお、 第 2 5図と第 2 6図は、 自動車に搭載したカメ ラで 撮影したステレオ動画像に対し、 本発明を適用した結果を示し、 ちなみ に、 その結果は市街地における道路平面領域並びに障害物検出結果で、 ステレオ動画像に対する処理結果から 3 フレーム ( 1 / 1 0秒) 毎の結 果を抜き出して表示している。 FIGS. 25 and 26 show examples of road plane areas and obstacle detection results using the present invention by the above-described method of displaying distance by direction and relative speed information by direction. Figures 25 and 26 show the camera mounted on the car. The result of applying the present invention to the captured stereo moving image is shown. Incidentally, the result is the road plane area and the obstacle detection result in the urban area, and 3 frames (1/10 seconds) from the processing result of the stereo moving image. ) The results for each are extracted and displayed.
上述したよ うに、 ステップ S 1 0 0〜ステップ S 1 7 0を有する本発 明に係るステレオ画像を用いた道路平面領域並びに障害物検出方法では 、 自動車に搭載された 2台のステレオカメ ラから撮像されたステレオ動 画像から得られる時系列情報を利用することによ り、 安定に射影変換行 列と道路平面領域を連続的に推定することが可能になり、 道路面自体が 傾いたり、 走行中にカーブや路面の凹凸で車体が傾斜したり、 自動車に 搭載されたカメ ラが振動したりすることがあっても、 射影変換行列は一 定ではなく、 常に、 ステレオ動画像から射影変換行列が求められるので 、 こ ういった問題を解決することができた。  As described above, in the road plane area and the obstacle detection method using the stereo image according to the present invention having steps S1100 to S1700, the two stereo cameras mounted on the automobile are used. By using time-series information obtained from the captured stereo video, it is possible to stably estimate the projection transformation matrix and road plane area continuously, and the road surface itself can be tilted or run. The projection transformation matrix is not constant, even if the car body is tilted due to curves or unevenness of the road surface, or the camera mounted on the car vibrates, and the projection transformation matrix is not always constant. Therefore, we were able to solve these problems.
また、 本発明では、 射影変換行列を分解することによって算出された 道路面の傾きに基づいて、 仮想投影面画像 (V P P画像) を生成し、 更 に、 V P P画像上での平面領域の自車輛からの障害物までの方向別距離 、 方向別相対速度を算出し、 最後に、 V P P画像に走行可能な平面領域 を重ね合わせて表示すると共に、 算出された方向別距離、 方向別相対速 度情報を表示するよ うにしているので、 自動車に対する走行可能な領域 及ぴ障害物の表示は視覚的な表示となり、 大変実用性の高い方法である なお、 本発明を適用する際に、 自動車に搭載されるステレオカメ ラ と しては C C Dカメ ラを用いることが好ましいが、 それに限定されること はなく 、 ステレオ動画像を撮影できる撮影手段であれば、 ほかの撮影手 段を用いることも可能である。 また、 本発明を自動車以外の走行物体に 適用することも可能である。 産業上の利用可能性 Further, in the present invention, a virtual projection plane image (VPP image) is generated based on the slope of the road surface calculated by decomposing the projective transformation matrix, and the vehicle in the plane area on the VPP image is further generated. The distance from each to the obstacle and the relative speed by direction are calculated. Finally, the plane area that can be traveled is superimposed on the VPP image, and the calculated distance by direction and relative speed information by direction are calculated. The display of the area that can be traveled to the vehicle and the obstacle is a visual display, which is a highly practical method. It is preferable to use a CCD camera as the stereo camera to be used. However, the present invention is not limited to this, and any other means can be used as long as it is a photographing means capable of photographing a stereo moving image. That. In addition, the present invention is applied to a traveling object other than an automobile. It is also possible to apply. Industrial applicability
以上のよ う に、 本発明に係るステレオ画像を用いた道路平面領域並び に障害物検出方法によれば、 ステレオ画像の撮像手段である画像センサ と して C C Dカメ ラを用いるため、 装置が安価で汎用的もので、 コス ト 削減の達成といった優れた効果を奏する。  As described above, according to the road plane region arrangement and the obstacle detection method using the stereo image according to the present invention, since the CCD camera is used as the image sensor which is a stereo image capturing device, the apparatus is inexpensive. It is versatile and has an excellent effect of achieving cost reduction.
そして、 本発明に係るステレオ画像を用いた道路平面領域並びに障害 物検出方法によれば、 常に安定に走行可能領域と車輛から障害物までの 方向別距離 ' 相対速度を動的に求めることができるので、 求められた走 行可能領域と車輛から障害物までの方向別距離 ' 相対速度に基づいて、 衝突危険性の警告 · 衝突回避等の運転者支援や車輛の自動運転等を可能 にするといつた優れた効果を奏する。  According to the road plane area and the obstacle detection method using the stereo image according to the present invention, it is possible to dynamically obtain the area where the vehicle can travel and the distance from the vehicle to the obstacle in each direction stably relative speed. So, based on the required travelable area and the distance from the vehicle to the obstacle in each direction, based on the relative speed, it is possible to provide driver assistance such as warning of collision risk, avoidance of collision, automatic driving of the vehicle, etc. Excellent effect.
更に、 本発明に係るステレオ画像を用いた道路平面領域並びに障害物 検出方法において、 カメ ラの設置やキャ リブレーショ ンが大変容易であ るという ことで、 本発明は大変実用化に向いた方法であることには間違 いなレヽ。 ぐ参考文献一覧 >  Furthermore, in the road plane area and obstacle detection method using stereo images according to the present invention, the camera is very easy to install and calibrate. There is a mistake in something. Reference List>
非特許文献 1 : Non-patent document 1:
ノレオン ' キュー. 一ティー (Luong, Q.— T) , ゥエーノ 一 ' ジエイ ( Weber, J) , (コラー ' ディー (Roller, D) , マリ ク ' ジエイ (Malik , J) 共著、 「イ ンテグレイティ ッ ド ' ステレオ ' ベイス ド ' ァプロ一 チ . ト ゥ ー . オー ト マテ ィ ッ ク ' ビー ク ノレ ' ガイ ダ ンス ( An Integrated stereo-based approach to automat i G vehicle guidance) 」 、 1 9 9 5年、 プロシジァ一. アイ ' シ一 ' シー ' ブイ ( Proc. ICCV) 、 D . 5 2 - 5 7 非特許文献 2 : Noreon 'Q.—T, Ueno' Weber, J, Coller 'D, Malik' Malik, J, 'Integrity 'Stereo' based 'Approach' Auto-automatic 'Beek Nore' guidance (An Integrated stereo-based approach to automat i G vehicle guidance) ", 1 9 5 5 years, Proc. I." Chi "'C' buoy (Proc. ICCV), D. 5 2-5 7 Non-patent literature 2:
ォノ グチ . ケィ (Onoguchi, K) 'タケダ ' ェヌ (Takeda, N) , ワタナベ . ェム (Watanabe, M) 共著、 「プランナー . プロジェクシヨ ン ' ステレ ォプシス · メ ソ ッ ド · フォア · ロー ド · ェクス ト ラ ク シヨ ン (Planar'Onoguchi, K' Takeda, N and Watanabe, M, “Planner. Projection” Stereopsis Method For Low Do Extrusion (Planar
Pro ject ion Stereopsis Method for Road Extraction) 」 、 1 9 9 5年、 プロシジァ一. アイ ' アール ' ォー ' エス (Proc. IROS) 、 pProjection Stereopsis Method for Road Extraction) ”, 1 9 5 5 Procedia. I'R'o'S (Proc. IROS), p
. 2 4 9 - 2 5 6 非特許文献 3 : 2 4 9-2 5 6 Non-Patent Document 3
ス ト一ノレョノヽン ' ケィ (Stor johann, K) ,ジーノレケ · ティー (Zielke, T ) ,マロ ッ ト . ェイチ (Mallot, H) , フォンシー レ ン ' ダブリ ュー ( Vonseelen, W) 共著、 「ビジュアル · ォブスタ クル · ディテク ショ ン · フ ォ ア ' オー ト マテ ィ カ リ ー ' ガイ ディ ッ ド ' ビーク ル ( Visual Obstacle Detection for Automatically Guided Vehicles; 、 1 9 9 0年、 プロシジァ一. アイ ' シ一 ' アーノレ ' エイ (Proc. ICRA) 、 p . 7 1 6 - 7 6 6 非特許文献 4 : “Visual” by Stor Johann, K, Zielke, T, Mallot, H, Vonseelen, W · Obstacle Detection · Fore-automatically 'Guided Vehicles (Visual Obstacle Detection for Automatically Guided Vehicles; 1990), Proc. 'Arnole' A (Proc. ICRA), p. 7 1 6-7 6 6 Non-Patent Document 4:
シェ . ェム ( Xie, M) 著、 「マッチング ' フ リ ー ' ステレオ ' ビジョ ン • フォア ' ディテクティ ング ' ォブスタクル ' オン ' グラン ド ' プレイ ン, マシン ' ビジョ ン · アン ド ' アプリ ケーショ ン (Matching free stereo vision for detecting obstacles on a ground plane , Machine Vision and Application) 、 1 9 9 6年、 ボリ ューム 9 . ナンバー 1 (Vol.9,No. l) 、 p . 9 - 1 3 非特許文献 5 : Xie, M, “Matching 'Free' Stereo 'Vision • Fore' Detecting 'Obstacle' On 'Grand' Plane, Machine 'Vision &End' Application ( Matching free stereo vision for detecting obstacles on a ground plane , Machine Vision and Application), 1 9 96, Volume 9. Number 1 (Vol. 9, No. l), p. 9-13 Non-patent document 5:
ホイ ング一ヤング ' シャム ( Heung-Yeung Shum) 、 リ チャー ド . セー リ スキ (Richard Szeliski) , 「 " ノ ノ ラ ミ ック ' イメージ ' モザィ ク テクニカル ' レホー 卜" Panorami c Image Mosaics' , Technical report」 、 1 9 9 7年、 ェム . エス ' アーノレーティー ' アーノレー 9 7 — 2 3 , マ イ ク ロ ソ フ 卜 · リ サ ー チ ( MSR-TR-97-23 , Microsoft Research; 非特許文献 6 : Heung-Yeung Shum, Richard Szeliski, "" Non-Ramic "Image" Mosaik Technical "Reho" Panoramic Image Mosaics ", Technical report, 1 997, M. S. Arnolety Arnole 9 7 — 2 3, Microsoft Soft Research (MSR-TR-97-23, Microsoft Research; Patent Document 6:
ォ一 · ディ ー · フォーゲラス ( 0. D. Faugeras ) , エフ · ラスマン ( F. Lustman) 共著、 「 "モーショ ン ' アン ド ' ス ト ラクチャー ' フロム • モーショ ン · ィ ン · ピースワイズ · プランナー · エンバイァロ ンメ ン ト ,, ("Motion and Structure from Motion In A Piecewi se Planar Environment") 、 1 9 9 8年、 プロシジァ一. インターナショ ナ/レ ' ジャーナノレ · ォブ · ノ ターン · レコグニシヨ ン ' アン ド ' ァーテ ィ フイ シャル ' イ ンテ リ ジェンス, ボリ ューム 1 . 2 , ナンバー 3 ( Proc. International Journal of Pattern Recognition and Artificial Intelligence, Vol.2, No.3) , p 4 5 8 — 5 0 8 Co-authored by O. D. Faugeras and F. Lustman, ““ Motion ”and“ Structure ”, From • Motion, Peacewise, Planner, Environment,, ("Motion and Structure from Motion In A Piecewise Planar Environment"), 1 9 98, Procedure. 'Artificial' Intelligence, Volume 1.2, Number 3 (Proc. International Journal of Pattern Recognition and Artificial Intelligence, Vol.2, No.3), p 4 5 8 — 5 0 8

Claims

請 求 の 範 囲 The scope of the claims
1 . 自動車に搭載される撮像手段によって撮影された、 基準画像と参照 画像から構成されるステレオ動画像のみを利用して、 走行可能な道路平 面領域及び道路面上に存在する全ての障害物を検出できるよ うにしたス テレオ画像を用いた道路平面領域並びに障害物検出方法であって、 道路面に対する射影変換行列を動的に推定する第 1 のステップと、 第 1 のステップで求まつた前記射影変換行列を用いて、 走行可能な平 面領域を抽出する第 2のステップと、  1. All the obstacles that exist on the road surface area and the road surface that can be traveled using only the stereo moving image composed of the standard image and the reference image, which is taken by the imaging means mounted on the car. A road plane region and obstacle detection method using a stereo image that can detect a road surface, which is obtained in a first step and a first step for dynamically estimating a projective transformation matrix for the road surface. Using the projective transformation matrix, a second step of extracting a plane area that can travel;
第 1 のステップで求まつた前記射影変換行列を分解することによ り道 路面の傾きを算出する第 3のステップと、  A third step of calculating the slope of the road surface by decomposing the projective transformation matrix obtained in the first step;
第 3のステップで算出された前記道路面の傾きを基に道路面を上方か ら見た仮想投影面画像を生成する第 4のステップと、  A fourth step of generating a virtual projection plane image in which the road surface is viewed from above based on the inclination of the road surface calculated in the third step;
第 4のステップで生成された前記仮想投影面画像の上で、 前記走行可 能な平面領域と 自車輛の位置と方向を算出する第 5のステップと、  On the virtual projection plane image generated in the fourth step, a fifth step of calculating the travelable plane area and the position and direction of the vehicle,
を有することを特徴とするステレオ画像を用いた道路平面領域並びに 障害物検出方法。  A road plane area and an obstacle detection method using a stereo image characterized by comprising:
2 . 前記仮想投影面画像の上での前記走行可能な平面領域よ り 自車輛か ら障害物までの方向別距離を算出する第 6のステップと、 2. a sixth step of calculating a direction-specific distance from the own vehicle to the obstacle from the plane area where the vehicle can travel on the virtual projection plane image;
前記仮想投影面画像の上での前記走行可能な平面領域より 自車輛から 障害物までの方向別相対速度を算出する第 7のステップと、  A seventh step of calculating a relative speed for each direction from the vehicle to the obstacle from the plane area where the vehicle can travel on the virtual projection plane image;
を更に有する請求の範囲第 1項に記載のステレオ画像を用いた道路平 面領域並びに障害物検出方法。  The road surface area and obstacle detection method using the stereo image according to claim 1, further comprising:
3 . 前記仮想投影面画像に前記走行可能な平面領域を重ね合わせて表示 すると共に、 前記方向別距離と前記方向別相対速度情報を表示する第 8 のステップと、 3. The virtual plane image is displayed by superimposing the travelable plane area. And an eighth step of displaying the direction-specific distance and the direction-specific relative velocity information;
を更に有する請求の範囲第 2項に記載のステレオ画像を用いた道路平 面領域並びに障害物検出方法。  The road surface area and obstacle detection method using the stereo image according to claim 2, further comprising:
4 . 前記第 1 のステップでは、 前記基準画像及び前記参照画像に L O G フィルタ処理と ヒ ス トグラム平坦化処理を施してから、 領域ベースの手 法によ り、 前記ステレオ画像間の道路面に対応する射影変換行列を動的 に推定するよ うにし、 4. In the first step, the base image and the reference image are subjected to a LOG filter process and a histogram flattening process, and then a region-based method is used to deal with the road surface between the stereo images. The projection transformation matrix to be estimated dynamically,
前記第 2 のステップでは、 前記射影変換行列によって前記参照画像を 射影変換し、 前記基準画像と射影変換された前記参照画像との差分画像 を求め、 前記差分画像に平滑化フィルタをかけてから、 閾値を使って 2 値化して 2値画像が得られ、 前記 2値画像に前時刻平面領域の推定結果 を利用すると共にテクスチャ レス領域を考慮することによって、 走行可 能な平面領域を抽出するよ う にし、  In the second step, the reference image is projectively transformed by the projective transformation matrix, a difference image between the reference image and the projective transformed reference image is obtained, a smoothing filter is applied to the difference image, A binary image is obtained by binarization using a threshold, and a plane region that can be traveled is extracted by using the estimation result of the previous time plane region and taking a textureless region into the binary image. In fact,
前記第 3のステップでは、 前記道路面の傾きを示す道路平面姿勢パラ メータは、 基準カメ ラ光学中心から道路平面までの距離と道路平面の法 線べク トルであるよ うにし、  In the third step, the road plane attitude parameter indicating the inclination of the road surface is a distance from the reference camera optical center to the road plane and a normal vector of the road plane,
前記第 4のステップでは、 前記道路平面姿勢パラメータを使って、 前 記基準画像を射影変換して、 道路平面と平行な仮想投影面画像を生成す る請求の範囲第 3項に記載のステレオ画像を用いた道路平面領域並びに 障害物検出方法。  4. The stereo image according to claim 3, wherein in the fourth step, the reference image is projectively transformed using the road plane attitude parameter to generate a virtual projection plane image parallel to the road plane. Road plane area and obstacle detection method using
PCT/JP2005/009701 2005-05-20 2005-05-20 Method of detecting planar road region and obstruction using stereoscopic image WO2006123438A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2005/009701 WO2006123438A1 (en) 2005-05-20 2005-05-20 Method of detecting planar road region and obstruction using stereoscopic image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2005/009701 WO2006123438A1 (en) 2005-05-20 2005-05-20 Method of detecting planar road region and obstruction using stereoscopic image

Publications (1)

Publication Number Publication Date
WO2006123438A1 true WO2006123438A1 (en) 2006-11-23

Family

ID=37431022

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/009701 WO2006123438A1 (en) 2005-05-20 2005-05-20 Method of detecting planar road region and obstruction using stereoscopic image

Country Status (1)

Country Link
WO (1) WO2006123438A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2471276A (en) * 2009-06-22 2010-12-29 Bae Systems Plc Terrain sensing apparatus for an autonomous vehicle
CN108027423A (en) * 2016-03-14 2018-05-11 日立建机株式会社 Mine Work machine

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SEKI A. AND OKUTOMI M.: "Stereo Dogazo o Riyo shita Doromen Pattern Chushutsu ni yoru Jisharyo no Undo Suitei", INFORMATION PROCESSING SOCIETY OF JAPAN KENKYU HOKOKU 2004-CVIM-146, vol. 2004, no. 113, 12 November 2004 (2004-11-12), XP003006111 *
SEKI A. AND OKUTOMI M.: "Stereo Dogazo o Riyo shita Heimen Ryoiki Chushutsu ni yoru Shogaibutsu Kenshutsu", INFORMATION PROCESSING SOCIETY OF JAPAN KENKYU HOKOKU 2004-CVIM-143, vol. 2004, no. 26, 5 March 2004 (2004-03-05), XP003006112 *
SEKI A. AND OKUTOMI M.: "Stereo Dogazo o Riyo shita Heimen Ryoiki Chushutsu ni yoru Shogaibutsu Kenshutsu", TRANSACTIONS OF INFORMATION PROCESSING SOCIETY OF JAPAN KONPYUTA BIJON TO IMEJI MEDIA, 15 December 2004 (2004-12-15), XP003006110 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2471276A (en) * 2009-06-22 2010-12-29 Bae Systems Plc Terrain sensing apparatus for an autonomous vehicle
CN108027423A (en) * 2016-03-14 2018-05-11 日立建机株式会社 Mine Work machine

Similar Documents

Publication Publication Date Title
US10354151B2 (en) Method of detecting obstacle around vehicle
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
Goldbeck et al. Lane detection and tracking by video sensors
JP3937414B2 (en) Planar detection apparatus and detection method
US8872925B2 (en) Method and device for camera calibration
US9862318B2 (en) Method to determine distance of an object from an automated vehicle with a monocular device
US20100246901A1 (en) Operation Support System, Vehicle, And Method For Estimating Three-Dimensional Object Area
US20110169957A1 (en) Vehicle Image Processing Method
Nedevschi et al. A sensor for urban driving assistance systems based on dense stereovision
KR20160123668A (en) Device and method for recognition of obstacles and parking slots for unmanned autonomous parking
JP4344860B2 (en) Road plan area and obstacle detection method using stereo image
JP2006053756A (en) Object detector
Liu et al. Development of a vision-based driver assistance system with lane departure warning and forward collision warning functions
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
CN105512641B (en) A method of dynamic pedestrian and vehicle under calibration sleet state in video
JP5501084B2 (en) Planar area detection apparatus and stereo camera system
WO2018149539A1 (en) A method and apparatus for estimating a range of a moving object
US20200193184A1 (en) Image processing device and image processing method
Dhiman et al. A multi-frame stereo vision-based road profiling technique for distress analysis
Yang Estimation of vehicle's lateral position via the Lucas-Kanade optical flow method
Hwang et al. Vision-based vehicle detection and tracking algorithm design
JP2006053754A (en) Plane detection apparatus and detection method
Na et al. Drivable space expansion from the ground base for complex structured roads
WO2006123438A1 (en) Method of detecting planar road region and obstruction using stereoscopic image
JP4106163B2 (en) Obstacle detection apparatus and method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

NENP Non-entry into the national phase

Ref country code: RU

WWW Wipo information: withdrawn in national office

Country of ref document: RU

122 Ep: pct application non-entry in european phase

Ref document number: 05743283

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP