WO2005111937A1 - 車両用走行区分線認識装置 - Google Patents

車両用走行区分線認識装置 Download PDF

Info

Publication number
WO2005111937A1
WO2005111937A1 PCT/JP2005/008937 JP2005008937W WO2005111937A1 WO 2005111937 A1 WO2005111937 A1 WO 2005111937A1 JP 2005008937 W JP2005008937 W JP 2005008937W WO 2005111937 A1 WO2005111937 A1 WO 2005111937A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
vehicle
lane marking
photographed
time
Prior art date
Application number
PCT/JP2005/008937
Other languages
English (en)
French (fr)
Inventor
Tetsuo Ikeda
Kiyozumi Unoura
Sachio Kobayashi
Original Assignee
Honda Motor Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co., Ltd. filed Critical Honda Motor Co., Ltd.
Priority to EP05741423A priority Critical patent/EP1760662A4/en
Priority to US11/596,900 priority patent/US7421095B2/en
Priority to CN2005800157914A priority patent/CN1954343B/zh
Publication of WO2005111937A1 publication Critical patent/WO2005111937A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/28Wheel speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Definitions

  • the present invention relates to a traveling lane marking recognition device for a vehicle.
  • Various road markings such as a white line, a yellow line, a cat's eye and the like are displayed or installed on a road surface (traveling road) on which a vehicle travels.
  • a road surface travelling road
  • an edge is detected by performing differentiation and binary image processing on an image captured by a capturing device such as a CCD camera and an image processing ECU, and the detected edge is detected.
  • the edge point sequence (white line candidate point sequence) is recognized by performing a Hough transformation to obtain a similar linear component.
  • Patent Document 1 Japanese Patent Publication No. 6-42261
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2001-236506
  • a white line candidate point sequence extracted from a captured image captured a predetermined time ago is combined with a white line candidate point sequence extracted from the current white line image (superposition).
  • To extend the white line candidate point sequence find a straight line approximating the extended white line candidate point sequence, and recognize it as a white line to compensate for missing or unclear portions. This is not always satisfactory in terms of recognition accuracy of the lane marking (white line) because the alignment is performed on the edge image after the edge detection.
  • an object of the present invention is to solve the above-mentioned disadvantages, and it is possible to eliminate a point sequence corresponding to a distant lane marking from a combined image when combining captured images. It is an object of the present invention to provide a vehicular lane marking recognition device capable of accurately recognizing a lane marking.
  • the present invention provides a photographing means for photographing an area including a road surface in a traveling direction of a vehicle, and a photographing photographed by the photographing means.
  • a lane marking recognizing means capable of recognizing at least a dashed lane marking on the road surface in an image, and a plurality of photographed images photographed at different times by the photographing means;
  • An image synthesizing unit for extending the length of a line, wherein the image synthesizing unit includes at least one of the captured images in the lane marking recognition process performed by the lane marking recognition unit.
  • the configuration is such that the photographed images are combined in a processing step that does not change the shape of the traveling lane marking.
  • the present invention provides a photographing means for photographing an area including a road surface in a traveling direction of a vehicle as described in claim 2 described below, and an edge in a photographed image photographed by the photographing means.
  • a lane marking recognizing means capable of recognizing at least a broken lane marking on the road surface by detecting and performing a Hough transform on the detected edge; and a plurality of images photographed at different times by the photographing means.
  • the captured image is composed before the edge detection in the line recognition process.
  • the captured lane markings are combined at a processing step in which at least the shape of the lane markings in the captured image is not changed in the traveling lane marking recognition processing.
  • distant lane markings can also be accurately detected, so that the lane markings can be apparently extended, and recognition accuracy can be improved.
  • the travel lane markings may have a short length depending on whether the lane markings are blurred or chipped or depending on the construction. In such a case, the lane markings can be accurately recognized. In addition, the direction of the lane marking is more accurately recognized by extending the length of the lane marking than by recognizing a dotted lane marking normally drawn on a road surface. As a result, the lane marking can be recognized with higher accuracy.
  • the "vehicle traveling direction" described in the above-mentioned claim is provided only with a front part of the forward traveling, and is provided with a photographing means for photographing an area including a rear road surface at the time of forward traveling. It is also possible to recognize the traveling lane markings behind the captured image. As described above, it is needless to say that the “vehicle traveling direction” indicates the longitudinal direction of the vehicle.
  • FIG. 1 is a schematic diagram showing an overall configuration of a vehicle lane marking recognition apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing the operation of the control ECU shown in FIG. 1 and also showing input / output forces.
  • FIG. 3 is a flowchart showing the operation of the apparatus shown in FIGS. 1 and 2.
  • FIG. 4 is an explanatory diagram of an edge image obtained by the edge detection processing in FIG. 3.
  • FIG. 5 is an explanatory diagram of a guideline, which is a linear component corresponding to a lane marking such as a white line obtained by the Hough (No, F) conversion process in FIG. 3;
  • FIG. 6 is an explanatory diagram of lane candidates (white line candidate point sequence) obtained in the lane candidate detection processing of FIG. 3.
  • FIG. 7 is an explanatory diagram showing an estimated position of a lane in which the own vehicle travels, which is obtained by the lane position estimation process of FIG. 3.
  • FIG. 8 is a sub-routine 'flow chart' showing the frame synthesizing process of FIG. 3.
  • FIG. 9 is an explanatory diagram showing a captured image input at a current time (current processing cycle) t which is a reference in the past frame selection processing of FIG. 8.
  • FIG. 9 is an explanatory diagram showing an image corrected by the vertical line correction process in FIG.
  • FIG. 12 is an explanatory diagram showing a combined image obtained by the combining process of FIG. 8.
  • FIG. 13 is an explanatory diagram showing a predetermined area (road surface) of a shooting area to be detected in the brightness detection processing of the past frame in FIG. 8.
  • FIG. 14 is an explanatory diagram showing brightness detection processing of a past frame in FIG. 8.
  • FIG. 15 is a subroutine of a brightness correction process of FIG. 8;
  • FIG. 16 is an explanatory graph showing characteristics of a shutter speed and an aperture with respect to road surface brightness used in the processing of FIG. 15.
  • FIG. 17 is also an explanatory graph showing characteristics of amplifier gain (amplification factor) with respect to the shutter speed and the aperture used in the process of FIG.
  • FIG. 4 is an explanatory diagram showing a change in (degree).
  • FIG. 19 is a sub-routine 'Huichi I' chart of the horizontal pixel correction processing of FIG. 8.
  • FIG. 20 is a sub-routine 'Huichi Ichi' chart of the vertical line correction process of FIG. 8.
  • FIG. 21 is a chart showing a subroutine 'Fuichi Ichi' of the process in FIG. 19.
  • FIG. 22 is an explanatory diagram showing the processing of FIG. 21.
  • FIG. 23 is an explanatory diagram showing the processing in FIG. 21.
  • FIG. 24 is a subroutine 'flow chart' of the process of FIG. 19.
  • FIG. 25 is an explanatory diagram showing the processing of FIG. 24.
  • FIG. 26 is an explanatory diagram showing the processing of FIG. 24.
  • FIG. 27 is an explanatory diagram showing an image image of the image composition obtained by adding the position correction processing of FIG. 8.
  • FIG. 28 is an explanatory diagram showing an image image of image synthesis when the position correction process of FIG. 8 is not performed.
  • FIG. 29 is an explanatory diagram showing an image in the case of combining before performing the edge detection process in the combining process of FIG. 8.
  • FIG. 30 is an explanatory diagram showing an image in a case where the image is synthesized after performing the edge detection processing in the related art.
  • FIG. 31 is an explanatory diagram for explaining a no-turn matching method that replaces the edge detection process and the Hough transform.
  • FIG. 32 is an explanatory diagram showing an example of a pattern in the pattern matching shown in FIG. 31.
  • FIG. 1 is a schematic diagram showing an entire configuration of a vehicle lane marking recognition apparatus according to an embodiment of the present invention.
  • reference numeral 10 denotes a camera provided with an imaging element such as a CCD or a C-MOS mounted inside a cabin 12a in the traveling direction of the vehicle 12, and the camera 10 is mounted on the vehicle 12. The area including the road surface in the traveling direction is photographed (imaged).
  • An image processing ECU Electronic Control Unit
  • the image processing ECU receives an imaging (image) signal indicating information of a traveling lane (lane) in front of the vehicle, which is output from the camera 10, and performs image processing to be described later. Integrated Circuit).
  • the camera 10 and the image processing ECU power correspond to the above-described photographing means.
  • the "travel lane marking” refers to a vehicle lane (lane or lane).
  • a road marking such as a solid or broken white or yellow line, or a cat's eye that is placed at intervals on the road surface, as indicated by paint on the surface of the road to be divided (road).
  • the traffic lane divided by the lane marking is called “lane” or “lane”.
  • a steering wheel 16 provided in a driver's seat in a cabin 12a of the vehicle 12 is connected to a rack shaft 20 via a rack-and-pione type steering gear, and the rack shaft 20 is driven via a tie rod 22. Connected to wheel 24.
  • An electric power steering mechanism (EPS) 30 including an electric motor 26 is disposed on the rack shaft 20, and the rack shaft 20 is reciprocated by the rotation of the electric motor 26.
  • EPS electric power steering mechanism
  • Wheel speed sensors 32 are provided near the drive wheels 24 and the driven wheels (not shown), respectively, and rotate around a predetermined angle, that is, the traveling speed (vehicle speed) of the vehicle 12. Outputs a signal according to.
  • a yaw rate sensor 34 is disposed at the center of the vehicle 12 (near the rear axle) and outputs a signal corresponding to the yaw rate (rotational angular velocity) around the vertical axis (gravity axis) at the position of the center of gravity of the vehicle 12.
  • a steering angle sensor 36 is provided near the steering wheel 16, and outputs a signal corresponding to the rotation amount of the steering wheel 16 operated by the driver, that is, the steering angle.
  • control ECU also including a microcomputer
  • the control ECU 40 inputs the outputs of the image processing ECU and the above-described sensors, and is necessary for lane keeping assist control for traveling along the traveling lane or lane departure prevention control for preventing inadvertent deviation from the traveling lane.
  • the steering force is calculated, converted into a command value, and output.
  • the control ECU 40 is connected to an EPSECU 42 that controls the operation of the EPS 30.
  • the EPSECU 42 also includes a microcomputer, transmits and receives data to and from the control ECU 40, and drives the electric motor 26 based on a command value output from the control ECU 40.
  • FIG. 2 is a block diagram showing the input / output force of the operation of the control ECU 40 shown in FIG.
  • control ECU 40 receives the output of the camera 10 and the above-mentioned image processing ECU (indicated by reference numeral 44), which is also powerful, and the output of the yaw rate sensor 34, etc., and communicates command values for lane keeping assist control and the like.
  • a meter and a switch (SW) are arranged near the driver's seat in the power cabin 12a, which is omitted in FIG. 1, and the control content of the control ECU 40 is displayed on the meter. Also, the control instruction from the driver is displayed on the meter via the switch and is input to the control ECU 40.
  • FIG. 3 is a flowchart showing the operation of the apparatus shown in FIGS. 1 and 2.
  • the illustrated program is executed by the image processing ECU 44 and the control ECU 40 at predetermined time intervals, for example, every 33 msec.
  • step S10 an imaging signal is also output from the imaging element of the camera 10.
  • the imaging device of the camera 10 has an imaging area having a length of n lines and a width of m pixels.
  • the optical axis of the camera 10 is adjusted in a predetermined direction including a traveling path in a traveling direction on a production line of a factory or the like.
  • Step S 12 frame synthesis, that is, an image signal output from the image sensor is input and synthesized. Specifically, the imaging signal input in the current processing cycle and the imaging signal input in the past processing cycle and stored in the memory of the image processing ECU 44, in other words, the current image (frame) And the past image.
  • the feature of this embodiment lies in the frame synthesis, and will be described later in detail.
  • Steps S12 to S16 are processing executed by a hardware-based image processing IC in the image processing ECU 44.
  • an edge detection process including a well-known differentiation process and a subsequent binarization process is performed to generate an edge image as shown in FIG. 4 from the input image.
  • a straight line component shown by a solid line in FIG. 5 corresponding to a lane marking such as a white line is determined.
  • a plurality of edge points (a sequence of edge points; indicated by black circles in the figure) along the straight line component as shown in FIG. 6 are detected as lane candidates (a sequence of white line candidate points).
  • vehicle control is executed in S22. That is, based on the estimated lane position, Command values for vehicle control such as the lane keeping assist control and the lane departure prevention control described above are output to the EPSECU 42 to control the driving of the electric motor 26.
  • the processes up to S12 and S16 are executed by the above-mentioned hardware image processing IC in the image processing ECU 44, the processes in S18 and S20 are executed by the image processing ECU 44, and the processes after S22 are executed by the control ECU 40.
  • FIG. 8 shows the processing of the frame synthesis (frame synthesis of the acquired image (imaging signal) at the present time and the image (imaging signal) acquired and stored at the past time) in S12 in FIG. It is a chart of sub 'Noretin' flow.
  • a feature of this embodiment lies in various processes of frame synthesis shown in FIG. 8. First, referring to FIG. 8, an outline will be given. In S100, a past frame to be synthesized based on the detected vehicle speed is obtained. Select
  • an image to be synthesized with the captured image (shown in FIG. 9) input at the current time (current processing cycle) t is input for each processing cycle before the previous time and stored in the memory of the image processing ECU 44.
  • n means a sample time of a discrete system
  • t means a photographed image taken and input n times before, that is, an image photographed and stored at a different time in the past.
  • the brightness of the past frame selected in S102 is corrected.
  • the photographed image input at the present time and the photographed image at the past time selected according to the vehicle speed in S100 differ in the photographing time, so that the brightness of the photographing target (road surface) differs due to the influence of shadows, etc.
  • the composition is performed in such a way that the brightness of the road surface part of one image is brighter than that of the lane marking such as the white line of the other image, the white line will be buried in the road surface in the composite image.
  • the brightness of the captured image at the past time is adjusted to match the brightness of the captured image at the current time so that the brightness of the image at the current time and the brightness at the past time match. I do. The details will be described later.
  • a combination start position is set. That is, when the attitude of the vehicle 12 is different from the initial state (at the time of adjusting the optical axis of the camera 10) due to factors such as loading, in other words, the attitude of the static pitching direction may change.
  • This posture change causes the camera Since the 10 shooting areas fluctuate up and down, the composition start (reference) position is learned and corrected (set) in consideration of the fluctuation when compositing images. This process is performed by matching the position of the horizon between the present time and the past, since the area above the road surface is usually unnecessary when recognizing the lane marking.
  • horizontal pixel correction is performed in S 106. That is, the posture or angle of the vehicle 12 with respect to the lane may be different between the present time and the past time, so that an image obtained at the time of photographing may be shifted by the position or the angle. In this case, of course, if the images are combined as they are, the horizontal position or angular direction of the lane marking will be shifted. To prevent this, the horizontal position and angular direction of the lane marking on the image at the past time are corrected by the amount corresponding to the change in the vehicle attitude between the current time and the past time. The details will be described later.
  • the characteristic point is to select a past frame to be synthesized based on the vehicle speed (running speed) as described in S100 of FIG. That is to say.
  • an image at a past time point to be combined with a current image is an image that is a fixed time ago.
  • the moving distance of the vehicle 12 varies depending on the vehicle speed (running speed), and the shooting area of the camera 10 (of the image sensor) naturally moves in the traveling direction of the vehicle 12 as well. Also moves as the vehicle 12 advances, in other words, the higher the vehicle speed, the greater the position of the travel lane marking to be photographed. Therefore, the amount and rate of extension of the travel lane marking in the combined image will differ depending on how long the past image is selected and combined with the current image.
  • a dashed line in which a white line portion (colored portion) and a blank (achromatic portion such as asphalt) between the white line portion (colored portion) are periodically repeated is known as a travel division line.
  • the white line of this lane marking may be faded or partially missing in terms of durability, and the white line may be drawn short for temporary reasons due to construction or other reasons.
  • the white line portion is synthesized so that the white line portion is apparently extended regardless of whether the white line portion is blurred or chipped.
  • the corresponding image is selected from images (past frames) taken in the past at time intervals determined by the vehicle speed (running speed). Note that this is not limited to the white line, and the same applies to the yellow line.
  • the inventors have learned experimentally that if the length (percentage) of the white line portion with respect to the total length of the white line portion and the blank of the traveling lane marking line is about 30% or more, the traveling lane marking line It was possible to accurately recognize the traveling path of the own vehicle by accurately recognizing the road. As described above, the length of the white line portion that is extended according to the vehicle speed changes, so vehicle control such as lane keep assist control and lane departure prevention control described at the beginning using the data of the recognized lane markings The number of frames before in the imaging cycle that should be used is determined according to the control vehicle speed range.
  • the imaging cycle is 33.3 msec, for example, when the vehicle speed (running speed) is 60 km Zh or more, to secure the necessary amount of extension of the white line portion, three frames before May be used.
  • the amount of extension of the white line part is insufficient if the vehicle speed is 90 kmZh or more even in the image two frames before.
  • the amount of extension of the white line part decreases even in the vehicle speed range of 60 to 90 kmZh, but the length of extension is small. More than lm, white in total length Since the ratio of the line portion also increases to about 30%, it is possible to accurately recognize the lane markings and accurately recognize the travel path of the vehicle.
  • At least one photographed image taken in a cycle corresponding to a time interval determined according to the detected vehicle speed (running speed) should be combined with an arbitrary (current) photographed image. Now selected as an image.
  • the vehicle speed may be changed to a certain value, for example, 105 kmZh, 110 kmZh, and the image used for the synthesis two frames before and three frames before the image used for synthesis may be switched, or if the vehicle speed is 60 kmZh or more.
  • the length of the white line part of the lane marking is 30% or more of the total length of the blank line and the blank, so it is necessary to use only the image three frames before. It is good.
  • an arbitrary captured image (specifically, the current image, more specifically, the image captured in the current travel lane marking recognition cycle) At least one captured image (more than one) previously taken at a time interval determined according to the vehicle speed (traveling speed) detected for that captured image with respect to the shooting time of the Specifically, at least one photographed image taken in a cycle corresponding to a time interval determined according to the detected vehicle speed (running speed)) is taken as a photographed image to be combined with the arbitrary photographed image. Since the selection is made, the apparent extension amount or extension ratio of the white line portion of the lane marking can be set optimally regardless of the vehicle speed, and the recognition accuracy of the lane marking can be improved. Target the route of the vehicle Rukoto be recognized to leave in.
  • the configuration is such that at least one captured image captured in the past is selected at a longer time interval as the detected traveling speed is lower.
  • the total length of the white line portion (colored portion) and the blank (achromatic portion) of the lane marking is different. At least one photographed image taken in the past is selected at a time interval so that the length of the colored part to be printed is 30% or more, so if the lane markings are blurred or missing Even if the length is short due to construction or construction, the apparent extension amount or extension ratio of the white line part of the lane marking can be set optimally, and the recognition accuracy of the lane marking can be improved. Therefore, it is possible to accurately recognize the traveling path of the own vehicle.
  • the image serving as the reference for synthesis is an image captured in the current travel lane marking recognition processing cycle
  • the image can be synthesized based on the latest information.
  • V and V are determined based on the latest information. Images can be combined.
  • the second characteristic point of this embodiment is that the brightness correction of the past frame is performed as described in S102 of Fig. 8.
  • brightness refers to brightness, brightness, density, a shutter speed adjusted in accordance with brightness on a detected image, an aperture, or an output amplifier gain of a video signal. This is used to include all shooting conditions.
  • the brightness of the road surface changes every moment due to a shadow of a building or the like, a wet road surface, strong sunlight, or various environmental changes.
  • the photographing conditions are adjusted as described above.
  • the white line part is brighter than the other road surface (asphalt, concrete), so when compositing, at the same point (same place) on the image, select the It is doing.
  • the shutter speed and the like are adjusted based on the detected brightness so that the brightness is constant between the captured images.
  • the shutter speed, aperture, and amplifier gain are not changed at once but are changed gradually for reasons such as hunting prevention.
  • the white line portion of another captured image becomes darker than the road surface (asphalt portion) of one captured image.
  • FIG. 14 is an explanatory diagram showing a process of correcting image brightness in this embodiment.
  • the three types of graphs with a, b, and c attached to the right end of the figure show simplified brightness at the white line in the image on the left side of the figure and the dotted line on the road surface (asphalt).
  • FIG. The note at the top of Fig. A indicates that the protruding part of the pulse-shaped waveform is the white line, and that both sides are the road surface. Accordingly, FIG. 7A shows that in the left images A and B, the road surface of B is brighter than the white line portion of A.
  • a in FIG. 14 is an image captured and stored at a past time
  • B is an image captured and acquired at the current time.
  • the road surface of image B is brighter than the white line (dotted line in the figure) of image A.
  • the position of the image is corrected according to the change in the position of the vehicle between the present time and the past time.
  • the brightness of the image does not change between A and A.
  • both images are combined as shown by the dashed line while noting “no correction” in FIG. Since the road surface (asphalt) of the image B is brighter than the white line portion of the image A as shown in Fig. 14, the road surface portion of the image B is selected, and as shown in the image C 'of Fig. 14, the image A ( ⁇ ') The problem occurs that the image has no white line part.
  • the brightness of the captured image is detected by detecting the brightness of a predetermined area (the shaded portion in FIG. 13) on the road surface of the imaging area and the like.
  • correction is performed so that the brightness of a plurality of captured images matches with reference to one of the plurality of captured images.
  • the brightness may be actually detected or the brightness may be simply detected.
  • the above-mentioned problem is solved by calculating the ratio of the brightness of the two images and the shooting conditions at the time of the past and the present, and using this to match the brightness of the two images. I turned it off. It is also possible to match the brightness of the captured images synthesized using the difference in brightness instead of the ratio.
  • FIG. 15 is a sub-routine 'flow chart' of the brightness correction processing in S102 of FIG.
  • the photographing conditions which are the photographing conditions at the time of photographing, include the shutter speed SO, Sl of the camera 10, the aperture value 10, II, and the amplifier gain GO, Gl indicating the amplification factor of the image signal Store the conditions.
  • the shutter speed is a function of the brightness of the detected captured image, specifically, the brightness of a predetermined area of the road surface (the shaded area in FIG. 13) in the imaging area of the imaging means, such as the density of pixels in the area.
  • the sensitivity is set by adjusting (determining) according to the characteristics shown in FIG.
  • the aperture value as shown in FIG. 16
  • the amount of light to be taken changes, so that the brightness of the image can be adjusted.
  • the image density adjusted by at least one of the shutter speed and the aperture can be further adjusted n times by the amplifier gain to adjust the brightness if the surrounding environment is dark and adjustment is still insufficient. .
  • the aperture value and the amplifier gain are stored in addition to the shutter speed.
  • the brightness ratio of the image between the present time and the past time is calculated by the formula shown in the drawing based on the stored shooting conditions, and the brightness ratio calculated in S206 is compared with the previous time.
  • the brightness of the image at the past time is corrected to match the brightness of the current image.
  • a brightness ratio of a plurality of captured images is detected based on at least one of the shutter speed and the aperture value, and the shutter speed at the time of each of the captured images is determined.
  • the brightness is corrected based on at least one of the aperture values and / or the difference, specifically, based on both ratios.
  • the ratio of the brightness of a plurality of captured images is detected based on the amplification factor.
  • the brightness is determined by detecting the brightness of a predetermined area of the road surface indicated by the hatched portion in FIG. 13 from the density of the pixels at the site, and by using the detected brightness, The detected brightness is corrected based on at least the ratio between the shutter speed and the aperture value at the time of shooting.
  • the image at the past time point whose brightness has been corrected and the image at the current time point are synthesized.
  • the lane marking such as a white line is usually brighter than the surrounding road surface such as asphalt. ), The brighter in brightness, that is, the brighter one for each pixel is selected and synthesized.
  • the brightness of a captured image captured by the capturing unit is detected, and the brightness of a plurality of captured images is determined based on one of the captured images.
  • the brightness of the two images is matched. It is possible to extend the white line portion satisfactorily without the white line portion of the other image being buried in the road surface. Therefore, the recognition accuracy of the lane marking can be improved, and the traveling path of the own vehicle can be accurately recognized.
  • the image serving as the reference for synthesis is the image of the current lane marking recognition cycle
  • the images can be synthesized while matching the brightness based on the latest information.
  • the recognition accuracy of the lane marking can be improved, and thus the traveling path of the vehicle can be accurately recognized.
  • the brightness can be detected using a common scale, and the recognition accuracy of the lane marking can be improved.
  • the brightness is determined based on the gain. Since detection or correction is performed, brightness detection / correction becomes easy. Since the correction is performed so that the brightness at the same position in a plurality of images matches, the brightness can be corrected with higher accuracy.
  • the combined image power is also determined by the running classification. The line can be recognized with higher accuracy, and therefore, the traveling path of the own vehicle can be more accurately recognized.
  • the third characteristic point of this embodiment is that horizontal pixel correction and vertical line correction are performed as described in S106 and S108 in FIG.
  • the posture (angle) of the vehicle 12 with respect to the travel lane marking and the horizontal distance from the travel lane marking may be different between the present time and the past time.
  • the image is shifted in the horizontal direction or in the angular direction of the vehicle 12 with respect to the lane marking, and the image is naturally synthesized as it is, the horizontal position and angle of the lane marking will be shifted.
  • FIG. 18 shows an image taken by the camera 10, that is, from the time t when the exposure was performed to the time t after the time t.
  • FIG. 9 is an explanatory diagram showing changes in the position and attitude (angle) of the vehicle 12 with respect to the lane marking (lane) up to -2 -10.
  • the exposure time t is the current time
  • the time t is the past
  • the time t is the time t
  • the lane markings (lanes) located on the left and right sides of the vehicle 12 in FIG. 18 are recognized, and the center of the lane markings is used as a reference point. Minutes ( Figure 18 For example, in the case of lane keeping control, the short dashed line is detected and used as a line on which the vehicle should travel. Note that the lane marking in Fig. 18 was obtained by photographing at a time t in the past.
  • the point sequence is also a point sequence at time t.
  • Vehicle position at exposure time t, t Vehicle position at exposure time t, t
  • the angle between the line segment connecting the point sequence and the direction of the vehicle 12 (the front-rear direction angle of the vehicle 12 with respect to the lane marking) is 0, ⁇
  • FIG. 19 is a sub-routine 'flow' chart of the horizontal pixel correction process in S106 of FIG.
  • the figure shows the deviation of the horizontal position between the exposure times t and t (the past (time
  • 5 is a processing flow for obtaining a correction amount of a pixel position in a horizontal direction on a force image.
  • the ⁇ force also determines the amount of correction of the pixel position at the time of synthesis on the image plane, and compares the camera coordinate system (u, V) performed as hardware processing before synthesis with the coordinate system (X, Y) of the real plane. Perform association. Details of the processing in S302 will be described later.
  • FIG. 20 is a sub-routine 'Huichi I' chart of the vertical line correction process in S108 of FIG.
  • step 2 the correction amount of the vertical composite line position on the image plane is calculated based on the value, and the camera coordinate system (U, V) and the real plane coordinate system (X, Y ).
  • FIG. 21 is a flowchart showing the subroutine of the process of S300 in FIG. 19, and FIG. 22 and FIG. 23 are explanatory diagrams thereof.
  • the coordinate axes of the trajectory estimation are coordinate axes set with the center axis of the traveling direction of the vehicle (vehicle center axis) at a certain time in the past as the X axis.
  • the exposure is performed based on the vehicle position at the exposure time t.
  • Vehicle (center) at time t to determine the amount of lateral change in vehicle position at time t
  • the coordinates of the position of the vehicle 12 at the exposure time t on the detection result coordinate system x, y are (X, y).
  • the coordinates (X, y) of the position of the vehicle at the exposure time t_ are obtained.
  • the distance L between the point (X, y) on the straight line connecting, ⁇ and the preceding coordinate (X, y) is calculated as k + 1 p -1 using y — y.
  • the vehicle position at light time t, point sequence P, etc. are omitted.
  • the change amount ⁇ ⁇ of the angle of the vehicle with respect to the vehicle is determined.
  • the exposure time is calculated using the point sequence detected and photographed at the exposure time t.
  • FIG. 24 is a flowchart illustrating the subroutine “S302” in FIG. 19, and FIGS. 25 and 26 are explanatory diagrams thereof.
  • step S604 the horizontal pixel positions U5m and U30m on the image plane corresponding to the correction distances Y5m and Y30m obtained in step S600 are obtained.
  • a straight line indicating the position and angle of the vehicle at time t on the real plane to be compensated for changes is a straight line indicating the position and angle at time t shown in Fig. 25
  • composition position setting is processed in the above-described hardware-based image processing IC, high-speed processing can be performed.
  • FIG. 27 and FIG. 28 are diagrams showing an image image of the image synthesis in which the position correction processing of this embodiment is added and an image image of the image synthesis in a case where the position correction is not performed. .
  • the traveling lane marking becomes an extended form as shown in image C in Fig. 27. If there is no travel lane, the lane markings taken at the past and present time are combined in a shifted form as shown in Fig. 28, which indicates that the lane lane is not extended.
  • the longitudinal angle ⁇ of the vehicle 12 with respect to the travel lane marking in a plurality of captured images and the distance L between the travel lane marking and the vehicle 12 are determined, and the angle and the distance between the plurality of captured images are determined.
  • the photographed image is detected.
  • the image Since the difference in pitch angle between images ( ⁇ ⁇ pit) is detected, and based on the detected difference in pitch angle, the image is corrected to an image taken at the same pitch angle, and then multiple images are combined.
  • the apparent lane marking can be extended more reliably.
  • the composite position between the plurality of images is changed so that the image is captured at the same angle and distance of the vehicle with respect to the travel lane marking. It may be adjusted and combined. That is, instead of moving the image itself as described above, the image may be synthesized by adjusting the synthesis position (overlapping position).
  • one of the previously acquired image A and the currently acquired image B is shifted by the change in the horizontal position and the angle between the two times described above, and the other image is shifted.
  • the same result as the above-described correction can be obtained. That is, when considering the correction of the horizontal position, the point p of the image B shifted in the horizontal direction from the point p by the correction amount of the horizontal position should overlap the point p of the image A in FIG. In FIG. 27, there is almost no change in the angle between both times, but if there is a change in the angle, the image may be rotated according to the amount of angle change and then synthesized. Further, even when there is a difference in pitch angle, one image may be shifted in the vertical direction in FIG. 27 by an amount corresponding to the difference and synthesized. By doing so, it is possible to obtain the same effect as that for correcting the image.
  • the fourth characteristic feature of this embodiment is that, in the synthesizing process of S110 in FIG. 8, the images at the present time and the past are synthesized at the stage of the original image before the edge detection process.
  • Fig. 29 shows an image obtained when the image at the present time and the past time are combined at the stage of the original image before performing the edge detection processing
  • Fig. 30 shows the image obtained when the patent document 2 is used.
  • This figure shows an image obtained by combining the present time and a past time in the state of a so-called edge image after performing the edge detection processing as in the prior art described above.
  • the length of the traveling lane markings distant from the own vehicle on the images as in images A and B is short, that is, the size on the image is small. If the current and past images are separately subjected to edge detection processing, they will not be recognized as edges.As a result, as shown in images a and b in FIG. There will be nothing.
  • a position correction process based on a change in the vehicle attitude is performed to obtain a position correction image shown in an image a ′ in FIG. 30, and subsequently, an edge image between the current time and a past time is synthesized, There is no edge corresponding to the distant lane markings seen in the original image, such as the area surrounded by the broken line in image D in FIG.
  • an image at a past time (image A in FIG. 29) is subjected to position correction (image A ′ in FIG. 29) and image brightness correction (image A ′ in FIG. 29) based on changes in vehicle attitude.
  • image A ′ in FIG. 29 position correction
  • image A ′ in FIG. 29 image brightness correction
  • a short distant travel dividing line is formed on each original image. Even if edge detection is performed after the image is extended as shown in image C in Fig. 29, it is surrounded by a solid line in image D in Fig. 29. Thus, it is detected as an edge.
  • the configuration is such that the captured images are combined, that is, the images at the present time and the past are combined at the stage of the original image before the edge detection processing, so that the distant lane marking can be accurately detected. Therefore, the lane marking can be apparently extended, and the recognition accuracy can be improved.
  • the edge detection processing is performed before the edge detection processing.
  • the edge detection processing is usually performed as described above. Since the processing is composed of the processing, the binarization processing, and the edge detection, the effect of the present invention can be obtained if the images are synthesized before the edge detection processing, that is, before the binarization processing even if not before the differentiation processing.
  • FIG. 31 shows another method.
  • pattern matching can be performed with higher accuracy by extending the traveling lane marking, which is effective.
  • Figure 32 shows an example of the pattern.
  • the pattern of the shape of the image in which the travel lane markings are captured by the on-board camera is set in advance as a plurality of templates as shown in FIG. 32, and this is added to the captured image as shown in the center diagram of FIG. In this way, the degree of coincidence between the image and the template is determined, and the distribution line of the degree of coincidence is used as the travel lane marking line, as shown in the lower diagram of Fig. 31. According to the present invention, even in such pattern matching, the traveling lane marking is extended, and the recognition accuracy of the traveling lane marking can be further improved.
  • the number of images to be combined in the process of S100 is set to two. More than two images may be used as necessary. Further, in this embodiment, a selection is made according to the vehicle speed from images that are periodically taken, but images are taken at the same common period by providing two or more photographing means. It may be possible to select from images that do not exist according to the vehicle speed. [0115] In the correction in S108, a pitch angle sensor may be arranged at an appropriate position of the vehicle 12 instead of the change in the horizon at which the image force is also obtained, and the output force may be corrected by obtaining a dynamic shift. .
  • the camera 10 is provided with a photographing means (camera) for photographing an area including the road surface behind the vehicle when the power vehicle 12 travels forward and is configured to photograph an area including the road surface in front of the vehicle. Needless to say, it may be configured so as to recognize the traveling lane markings behind the vehicle from the photographed image taken by the photographing means. Therefore, in this specification, the term “vehicle traveling direction” is used to indicate the front-back direction of the vehicle.
  • photographing means (camera 10, image processing ECU 44) for photographing an area including the road surface in the traveling direction of the vehicle 12 as described above, and on the road surface in the photographed image photographed by the photographing means.
  • a lane marking recognizing means (image processing ECU 44, S12 to S16) capable of recognizing at least a broken lane marking, and a plurality of photographed images photographed at different times by the photographing means.
  • the image composing means comprises: In the recognition process, the photographed images are combined in the V ⁇ processing step (S12) that does not change at least the shape of the traveling lane marking in the photographed images.
  • photographing means (camera 10, image processing ECU 44) for photographing an area including a road surface in the traveling direction of the vehicle 12, an edge in a photographed image photographed by the photographing means is detected, and the detected edge is detected.
  • a lane marking recognition means (image processing ECU 44, S12 to S16) capable of recognizing at least a broken lane marking on the road surface by performing the Hough transform on the road surface, and a plurality of images taken at different times by the imaging means.
  • An image synthesizing means (image processing ECU44, S12) for synthesizing the photographed image of and extending the length of the traveling lane marking in the photographed image.
  • the photographed image is composed before the edge detection (S14) in the lane marking recognition process by the lane marking recognition means.
  • the traveling in the captured image in the traveling lane marking recognition process is performed. Since the configuration is such that captured images are synthesized at a processing stage that does not change the shape of the lane markings, distant lane markings can be accurately detected, and thus the lane markings can be apparently extended, thereby improving recognition accuracy.
  • a vehicle lane marking recognition device can be provided.
  • the driving lane may be blurred or chipped, and its length may be short depending on the case or construction.In such a case, the driving lane can be recognized with high accuracy. Since the length of the traveling lane markings is increased, the direction of the lane markings can be recognized with higher accuracy, as compared to the recognition of the dotted lane markings drawn on the road. Further, it is possible to provide a traveling lane marking recognition device for a vehicle, which can recognize a traveling lane marking with high accuracy.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 カメラで撮影された撮影画像中の路面上の少なくとも白線などの破線状の走行区分線を認識可能な区分線認識手段と、異なる時刻に撮影された複数の撮影画像を合成して撮影画像中の走行区分線の長さを延長する画像合成手段(S10からS16)とを備える車両用走行区分線認識装置において、走行区分線の認識処理における撮影画像中の少なくとも走行区分線の形状に変化を与えない処理段階、具体的にはエッジ検出前の段階で(S12)で撮影画像を合成する。これにより、撮影画像を合成するとき、遠方の走行区分線に対応する点列が欠落することがなく、走行区分線を精度良く正確に認識できる。  

Description

明 細 書
車両用走行区分線認識装置
技術分野
[0001] この発明は、車両用走行区分線認識装置に関する。
背景技術
[0002] 車両が走行する路面(走行路)には、走行区分線として白線、黄線、キャッツアイな ど種々の道路標示が表示あるいは設置されているが、従来、白線などの走行区分線 を認識するには、特許文献 1に記載されるように、 CCDカメラおよび画像処理 ECU などの撮影手段で撮影された画像に微分および二値ィ匕処理などを行ってエッジを検 出し、検出されたエッジ点列(白線候補点列)につ 、て Hough (ハフ)変換を行って近 似する直線成分を求めることで認識して 、る。
[0003] また、路面に表示された白線自体が物理的にかすれたり、欠けたりした場合、ある いは夜間走行時などに撮影画像のコントラストが低下して撮影画像中の白線が不鮮 明になった場合などは、白線を正確に認識することができないことから、特許文献 2 に記載されるように、撮影画像にウィンドウを設定し、ウィンドウ内の白線候補点の密 度などから白線のかすれ度合を判定し、かすれていると判定されるとき、現在の白線 画像カゝら抽出された白線候補点列に一定時間前の撮影画像カゝら抽出された白線候 補点列を重ね合わせ、重ね合わせた白線候補点列を近似する直線を求めて白線と 認識する技術が提案されて ヽる。
特許文献 1:特公平 6 -42261号公報
特許文献 2:特開 2001— 236506号公報
発明の開示
発明が解決しょうとする課題
[0004] このように、特許文献 2記載の技術にあっては現在の白線画像から抽出された白線 候補点列に一定時間前の撮影画像カゝら抽出された白線候補点列を合成 (重ね合わ せる)して白線候補点列を延長し、延長した白線候補点列を近似する直線を求めて 白線と認識することで欠落部分あるいは不鮮明な部分を補っているが、その重ね合 わせをエッジ検出後のエッジ画像で行って ヽることから、走行区分線 (白線)の認識 精度の点で必ずしも満足できるものではな力つた。
[0005] 即ち、撮影画像において遠方の走行区分線は、近距離のそれに比して画像上の 大きさが小さいため、エッジとして検出されない場合が生じ得る。その結果、合成され た画像力も遠方の走行区分線に対応する点列が欠落して延長されることがないため 、認識精度の点で十分ではな力つた。
[0006] 従って、この発明の目的は上記した不都合を解消することにあり、撮影画像を合成 するとき、合成された画像から遠方の走行区分線に対応する点列が欠落することが なぐよつて走行区分線を精度良く正確に認識できるようにした車両用走行区分線認 識装置を提供することにある。
課題を解決するための手段
[0007] この発明は、上記した課題を解決するために、後述する請求項 1に記載する如ぐ 車両の進行方向の路面を含む領域を撮影する撮影手段と、前記撮影手段によって 撮影された撮影画像中の前記路面上の少なくとも破線状の走行区分線を認識可能 な区分線認識手段と、前記撮影手段によって異なる時刻に撮影された複数の撮影 画像を合成して前記撮影画像中の前記走行区分線の長さを延長する画像合成手段 とを備える車両用走行区分線認識装置において、前記画像合成手段は、前記区分 線認識手段による前記走行区分線の認識処理における前記撮影画像中の少なくと も前記走行区分線の形状に変化を与えない処理段階で前記撮影画像を合成する如 く構成した。
[0008] また、この発明は、後述する請求項 2に記載する如ぐ車両の進行方向の路面を含 む領域を撮影する撮影手段と、前記撮影手段によって撮影された撮影画像中のエツ ジを検出し、検出したエッジに対してハフ変換を行うことで前記路面上の少なくとも破 線状の走行区分線を認識可能な区分線認識手段と、前記撮影手段によって異なる 時刻に撮影された複数の撮影画像を合成して前記撮影画像中の前記走行区分線 の長さを延長する画像合成手段とを備える車両用走行区分線認識装置において、 前記画像合成手段は、前記区分線認識手段による前記走行区分線の認識処理に おける前記エッジ検出前に前記撮影画像を合成する如く構成した。 発明の効果
[0009] 請求項 1に係る車両用走行区分線認識装置においては、走行区分線の認識処理 における撮影画像中の少なくとも走行区分線の形状に変化を与えない処理段階で 撮影画像を合成する如く構成したので、遠方の走行区分線も的確に検出することが でき、よって走行区分線を見掛け上、延長することができ、認識精度を向上させること ができる。
[0010] また、走行区分線にかすれ、欠けが生じている場合や工事などによっては長さが短 い場合があるが、そのような場合にも走行区分線を精度良く認識することができ、また 、通常路面に描かれている点線 (破線)状の走行区分線をそのまま認識するよりも、 走行区分線の長さが延長されることにより、走行区分線の方向をより高精度に認識す ることができ、結果として更に精度良く走行区分線を認識することが可能となる。
[0011] 請求項 2に係る車両用走行区分線認識装置においては、走行区分線の認識処理 におけるエッジ検出前に撮影画像を合成する如く構成したので、同様に遠方の走行 区分線も的確に検出することができ、よって走行区分線を見掛け上、延長することが でき、認識精度を向上させることができる。
[0012] 尚、上記した請求項に記載した「車両の進行方向」とは前進走行時の前方のみで なぐ前進走行時に後方の路面を含む領域を撮影する撮影手段を設け、前記撮影 手段が撮影した撮影画像カゝら後方の走行区分線を認識するものでも良い。このよう に「車両の進行方向」とは車両前後方向を示すものであることはいうまでもない。 図面の簡単な説明
[0013] [図 1]この発明の実施例に係る車両用走行区分線認識装置の全体構成を示す概略 図である。
[図 2]図 1に示す制御 ECUの動作を入出力力も示すブロック図である。
[図 3]図 1および図 2に示す装置の動作を示すフロー ·チャートである。
[図 4]図 3のエッジ検出処理で得られるエッジ画像の説明図である。
[図 5]図 3の Hough (ノ、フ)変換処理により得られる白線などの走行区分線に相当する 直線成分である、ガイドラインの説明図である。
[図 6]図 3の車線候補検出処理で得られる車線候補(白線候補点列)の説明図である [図 7]図 3の車線位置推定処理で得られる自車の走行する車線の推定位置を示す説 明図である。
[図 8]図 3のフレーム合成処理を示すサブ'ルーチン'フロ一'チャートである。
[図 9]図 8の過去フレーム選択処理で基準となる現在時刻(今回処理周期) tに入力さ れた撮影画像を示す説明図である。
[図 10]図 8の過去フレーム選択処理で現在時刻(今回処理周期) tに入力された撮影 画像に合成されるべき時刻(前回以前の処理周期) t に入力された撮影画像を示 す説明図である。
圆 11]図 8の垂直ライン補正処理で補正された画像を示す説明図である。
[図 12]図 8の合成処理で得られる合成画像を示す説明図である。
[図 13]図 8の過去フレームの明るさ検知処理で検知されるべき撮影領域の所定の領 域 (路面)を示す説明図である。
[図 14]図 8の過去フレームの明るさ検知処理を示す説明図である。
[図 15]図 8の明るさ補正処理のサブ ·ルーチン 'フ口一 ·チャートである。
[図 16]図 15の処理で使用される、路面の明るさに対するシャツタ速度および絞りの特 性を示す説明グラフである。
[図 17]同様に、図 15の処理で使用される、シャツタ速度および絞りに対するアンプゲ イン (増幅率)の特性を示す説明グラフである。
圆 18]図 8の水平画素補正を説明する、カメラにより撮影 (露光した)時刻 t 力も時
-2 刻 t を経て時刻 tに至るまでの車両の走行区分線 (車線)に対する位置、姿勢 (角
- 1 0
度)の変化を示す説明図である。
[図 19]図 8の水平画素補正処理のサブ'ルーチン 'フ口一'チャートである。
[図 20]図 8の垂直ライン補正処理のサブ'ルーチン 'フ口一'チャートである。
[図 21]図 19の処理のサブ ·ルーチン 'フ口一'チャートである。
[図 22]図 21の処理を示す説明図である。
圆 23]同様に、図 21の処理を示す説明図である。
[図 24]図 19の処理のサブ ·ルーチン 'フロ一'チャートである。 [図 25]図 24の処理を示す説明図である。
[図 26]同様に、図 24の処理を示す説明図である。
[図 27]図 8の位置補正の処理を加えた画像合成の画像イメージを示す説明図である
[図 28]図 8の位置補正の処理を加えない場合の画像合成の画像イメージを示す説明 図である。
[図 29]図 8の合成処理でエッジ検出処理を行う前に合成した場合の画像を示す説明 図である。
[図 30]従来技術で、エッジ検出処理を行った後に合成した場合の画像を示す説明図 である。
[図 31]エッジ検出処理、ハフ(Hough)変換に代わる、ノターンマッチング手法を説明 する説明図である。
[図 32]図 31のパターンマッチングにおけるパターン例を示す説明図である。
発明を実施するための最良の形態
[0014] 以下、添付図面に即してこの発明に係る車両用走行区分線認識装置を実施するた めの最良の形態について説明する。
実施例 1
[0015] 図 1は、この発明の実施例に係る車両用走行区分線認識装置の全体構成を示す 概略図である。
[0016] 同図において符合 10は、車両 12の進行方向に向けて車室 12aの内部に取り付け られた CCDあるいは C— MOSなどの撮像素子を備えたカメラを示し、カメラ 10は車 両 12の進行方向の路面を含む領域を撮影 (撮像)する。カメラ 10の筐体 1 Oaには画 像処理 ECU (Electronic Control Unit。電子制御ユニット)が収納される。画像処理 E CUは、カメラ 10から出力される、車両前方の走行車線 (レーン)の情報を示す撮像( 画像)信号を入力して後述する画像処理を行う、ハードウェア化された画像処理 IC ( Integrated Circuit)を備える。カメラ 10と画像処理 ECU力 前記した撮影手段に相当 する。
[0017] 尚、この実施例において、「走行区分線」は、車両通行帯(車線あるいはレーン)を 区画する、走行路 (道路)の路面にペイントによって表示された、実線状のあるいは破 線状の白線あるいは黄線、さらには路面に間隔をおいて設置されたキャッツアイなど の道路標示を意味する。また、その走行区分線で区画される車両通行帯を「車線」あ るいは「レーン」という。
[0018] 車両 12の車室 12aの運転席に設けられたステアリングホイール 16は、ラックアンド ピ-オン型のステアリングギヤを介してラック軸 20に接続され、ラック軸 20はタイロッド 22を介して駆動輪 24に連結される。ラック軸 20には電動モータ 26を含む電動パヮ 一ステアリング機構(EPS。 Electric Power Steering) 30が配置され、電動モータ 26の 回転によってラック軸 20を往復動させる。
[0019] 駆動輪 24と従動輪(図示せず)の付近にはそれぞれ車輪速センサ 32 (2個のみ図 示)が設けられ、所定角度あたりの回転、即ち、車両 12の走行速度(車速)に応じた 信号を出力する。車両 12の中央部(後車軸近傍)にはョーレートセンサ 34が配置さ れ、車両 12の重心位置における鉛直軸 (重力軸)まわりのョーレート(回転角速度)に 応じた信号を出力する。また、ステアリングホイール 16の付近には舵角センサ 36が 設けられ、運転者によって操作されたステアリングホイール 16の回転量、即ち、舵角 に応じた信号を出力する。
[0020] 車両 12の適宜位置には、同様にマイクロコンピュータを備える制御 ECU (
Electronic Control Unit) 40が設けられる。制御 ECU40は画像処理 ECUおよび前 述した各センサの出力を入力し、走行車線に沿って走行するレーンキープアシスト制 御あるいは走行車線からの不用意な逸脱を防止する車線逸脱防止制御などに必要 な操舵力を演算し、指令値に換算して出力する。制御 ECU40は、 EPS30の動作を 制御する EPSECU42に接続される。 EPSECU42も同様にマイクロコンピュータを 備え、制御用 ECU40とデータの送受を行い、制御用 ECU40から出力された指令 値に基づ 、て電動モータ 26を駆動する。
[0021] 図 2は、図 1に示す制御 ECU40の動作を入出力力 示すブロック図である。
[0022] 図示の如ぐ制御 ECU40は、カメラ 10と前記した画像処理 ECU (符合 44で示す) 力もなる撮像手段の出力およびョーレートセンサ 34などの出力を入力し、レーンキー プアシスト制御などの指令値を通信によって EPSECU42に出力し、電動モータ 26 を駆動させる。また、図 1では省略した力 車室 12aの運転席近傍にはメータおよび スィッチ(SW)が配置され、制御 ECU40の制御内容はそのメータに表示される。ま た、運転者による制御の指示はスィッチを介してメータに表示されると共に、制御 EC U40に入力される。
[0023] 図 3は、図 1および図 2に示す装置の動作を示すフロ一 ·チャートである。図示のプ ログラムは、画像処理 ECU44および制御 ECU40において所定の時間間隔、例え ば 33msecごとに実行される。
[0024] 以下説明すると、ステップ S10 (以下、ステップ略す)において、カメラ 10の撮像素 子力も撮像信号が出力される。カメラ 10の撮像素子は、縦 nライン X横 m画素力もな る撮影領域を備える。カメラ 10は、工場の製造ラインなどにおいて進行方向の走行 路を含む所定の方向にその光軸が調整される。
[0025] 次いで S 12においてフレーム合成、即ち、撮像素子から出力された画像信号を入 力して合成する。具体的には、今回の処理周期で入力された撮像信号と、過去の処 理周期で入力されて画像処理 ECU44のメモリに記憶されている撮像信号、換言す れば、現在の画像 (フレーム)と過去の画像とを合成する。尚、この実施例の特徴的 な点はこのフレーム合成にあるので、後で詳述する。 S 12から S 16までは、画像処理 ECU44内のハードウェア化された画像処理 ICが実行する処理である。
[0026] 次いで S14において周知の微分処理およびそれに続く二値ィ匕処理を含むエッジ検 出処理を行い、入力画像から図 4に示すようなエッジ画像を生成し、次いで S16にお いて同じく周知の Hough (ノ、フ)変換により、白線などの走行区分線に相当する直線 成分 (図 5に実線で示す)を判別する。
[0027] 次いで、 S18において、図 6に示す如ぐ前記直線成分に沿う複数のエッジ点(エツ ジ点列。同図に黒丸で示す)を、車線候補(白線候補点列)として検出する。
[0028] 次 、で S20にお 、て車線候補として複数の候補が存在する場合 (例えば図 6に示 すように 3本の点列 a, b, cが存在する場合)、自車 (車両 12)と各車線候補との位置 関係から、複数の車線候補の中のいずれの候補が自車 (車両 12)の走行している車 線を表しているか判別し、図 7に示す如ぐ自車の走行する車線の位置を推定する。
[0029] 次いで S 22において車両制御を実行する。即ち、推定された車線位置に基づき、 前述したようなレーンキープアシスト制御や車線逸脱防止制御などの車両制御の指 令値を EPSECU42に出力し、電動モータ 26の駆動を制御する。尚、 S12力 S16 までの処理は画像処置 ECU44内の前述したハードウェア化された画像処理 ICで、 S18および S20の処理は画像処理 ECU44で、 S22以降の処理は制御 ECU40で 実行される。
[0030] 図 8は、図 3の S12のフレーム合成 (現時点の取得画像 (撮像信号)と過去の時点で 取得されて記憶されて ヽた画像 (撮像信号)とのフレーム合成)の処理を示すサブ' ノレ一チン'フロ^ ~ ·チャートである。
[0031] この実施例において特徴的な点は図 8に示すフレーム合成の種々の処理にあるが 、最初に同図を参照して概説すると、 S100において、検出された車速によって合成 すべき過去フレームを選択する。
[0032] 即ち、現在時刻 (今回処理周期) tに入力された撮影画像(図 9に示す)に合成すベ き画像を、前回以前の処理周期ごとに入力されて画像処理 ECU44のメモリに記憶さ れていた複数の撮影画像の中から選択する。具体的には、車速に応じ、図 10に示 すような時刻 t で撮影されて記憶されていた撮影画像を選択する。ここで、 nは離散 系のサンプル時刻を意味し、 t は、 n回前に撮影されて入力された撮影画像、即ち 、過去の異なる時点に撮影されて記憶された画像を意味する。
[0033] 続いて S102において選択された過去フレームの明るさ補正を行う。即ち、現時点 で入力された撮影画像と S100で車速に応じて選択された過去の時点での撮影画像 は、撮影時点が異なることから、撮影対象 (路面)の明るさが影の影響などで異なる場 合があり、一方の画像の路面部分の明るさが他方の画像の白線などの走行区分線 のそれよりも明るいような状態で合成を行うと、合成画像で白線が路面に埋もれてしま う恐れがあることから、それを防止するため、現時点と過去の時点での画像の明るさ を一致させるように過去の時点での撮影画像の明るさを現時点での撮影画像の明る さに合わせる処理を行う。尚、その詳細は後述する。
[0034] S104において合成開始位置を設定する。即ち、車両 12の姿勢が積載などの要因 によって初期状態 (カメラ 10の光軸調整時)と異なる場合、言い換えれば、静的なピ ツチング方向の姿勢変化が生じている場合などがあり得る。この姿勢変化によりカメラ 10の撮影領域が上下に変動するため、画像を合成する際にこの変動分を考慮すベ く合成開始 (基準)位置を学習して補正する (設定する)。この処理は、走行区分線を 認識する場合には路面より上方の領域は通常不要であることから、現時点と過去の 時点での地平線位置を合わせることで行う。
[0035] 次いで S 106において水平画素補正を行う。即ち、車線に対する車両 12の姿勢や 角度が現時点と過去の時点とで異なる場合があり、そのため撮影時点によって得ら れる画像がその位置あるいは角度分だけずれる場合が生じ得る。その場合、当然の ことながら、そのままの状態で画像を合成すると、走行区分線の水平方向の位置ある いは角度方向がずれてしまう。それを防止するため、現在と過去の時点との車両姿 勢の変化に応じた量だけ、過去の時点の画像上における走行区分線の水平方向の 位置や角度方向の補正を行う。尚、その詳細も後述する。
[0036] 次いで S 108において垂直ライン補正を行う。即ち、現時点と過去の時点における 車両 12のピッチング状態が異なることが考えられるため、両時点間の動的なピッチ角 変動を画像力 得られる地平線位置の変化から求め、画像における垂直 (上下)方 向の位置を補正し、図 11に示すような補正された画像を得る。これについても後述 する。尚、 S 104で補正したのはピッチングの静的なずれであるのに対し、 S108で補 正するのはその動的なずれである。
[0037] 次いで S 110に進み、現時点と補正された過去の時点での撮影画像を合成し、図 1 2に示すように、白線などの走行区分線が、図 9から図 11との対比から明らかなように 、両時点の各々の画像上における長さよりも、見掛け上、延長された画像を得る。こ れで、図 8に示すフレーム合成処理を終了する。
[0038] 以下、この実施例において特徴的な点を順次説明すると、最初に特徴的な点は図 8の S 100で述べたように車速(走行速度)によって合成されるべき過去フレームを選 択するようにしたことである。
[0039] 以下それについて説明すると、特許文献 2記載の従来技術においては、現時点の 画像に合成されるべき過去の時点の画像は一定時間前の画像である。しかしながら 、車速 (走行速度)に応じて車両 12の移動距離が異なり、当然カメラ 10の (撮像素子 の)撮影領域も同様に車両 12の進行方向に移動することから、画像上の走行区分線 の位置も車両 12の進行につれて移動し、換言すれば、車速が高いほど、撮影される 走行区分線の位置も大きく移動することとなる。従って、どの程度の時間間隔をおい て過去の画像を選択して現時点の画像と合成するかによって合成画像における走行 区分線の延長される量および割合が異なることとなる。
[0040] ところで、走行区分線としては、白線部分 (彩色部分)とその間のブランク (ァスファ ルトなどの無彩色部分)とが周期的に繰り返される破線状のものが知られている。この 走行区分線の白線部分は耐久性の面でかすれたり、部分的に欠けたりしている場合 があり、また工事などの理由で臨時、応急的に白線部分が短く描かれている場合もあ る。
[0041] また、当然ではあるが、画像認識により走行区分線を認識するということは走行路( 自車線)を認識することであり、走行区分線の白線部分の長さが長 ヽほど走行区分 線の方向を精度良く認識できる訳であるから、前記の白線部分のかすれ、欠けの有 無を問わず、白線部分が、見掛け上、延長されるように合成することが好ましい。その 点に鑑み、この実施例においては、車速 (走行速度)によって決定される時間間隔を おいて過去に撮影された画像 (過去フレーム)の中から該当する画像を選択するよう にした。尚、これは、白線に限るものではなぐ黄線でも同様である。
[0042] 発明者達が実験的に知り得たところでは、走行区分線の白線部分とブランクの合計 長さに対する白線部分の長さ(占める割合)が 30%程度以上であれば、走行区分線 を精度良く認識して自車の走行路を的確に認識することが可能であった。前述したよ うに、車速に応じて延長される白線部分の長さが変わることから、認識された走行区 分線のデータを用いる冒頭に述べたレーンキープアシスト制御や車線逸脱防止制御 などの車両制御の制御車速の範囲に応じて撮像周期で何フレーム前を使用すれば 良!、かが決定されることとなる。
[0043] 具体的には、撮像周期が 33. 3msecであるので、例えば車速(走行速度)が 60km Zh以上の場合であれば、必要な白線部分の延長量を確保するには、 3フレーム前 の画像を用いれば良い。やや白線部分の延長量が不足する力 2フレーム前の画像 でも車速が 90kmZh以上であれば良ぐ 60〜90kmZhの車速範囲でも白線部分 の延長される量は減少するが、延長される長さが lm以上あり、合計長さに占める白 線部分の割合も約 30%に増加するので、走行区分線を精度良く認識して自車の走 行路を的確に認識することができる。
[0044] そこで、検出された車速 (走行速度)に応じて決定される時間間隔に相当する周期 に撮影された少なくとも 1つの撮影画像を、任意 (現時点)の撮影画像と合成されるべ き撮影画像として選択するようにした。尚、車速がある値、例えば 105kmZh、 110k mZhとでヒステリシスを持たせた形で、 2フレーム前、 3フレーム前と合成に使用する 画像を切替えるようにしても良ぐあるいは車速が 60kmZh以上であれば、 3フレー ム前の画像を使用すれば、走行区分線の白線部分とブランクの合計長さに対する白 線部分の長さが 30%以上となるので、 3フレーム前の画像のみを使用するようにして も良い。
[0045] このように、この実施例にぉ 、ては、撮影画像の内の任意の撮影画像 (具体的には 現時点の画像、より具体的には現在の走行区分線認識処理周期において撮影され た画像)の撮影時刻を基準としてその任意の撮影画像に対して検出された車速 (走 行速度)に応じて決定される時間間隔をおいて過去に撮影された少なくとも 1つの撮 影画像 (より具体的には検出された車速 (走行速度)に応じて決定される時間間隔に 相当する周期に撮影された少なくとも 1つの撮影画像)を、その任意の撮影画像と合 成されるべき撮影画像として選択するようにしたので、車速の高低に関わらず、最適 に走行区分線の白線部分の見掛け上の延長量もしくは延長割合を設定することがで き、走行区分線の認識精度を向上させることができ、自車の走行路を的確に認識す ることがでさる。
[0046] また、検出される走行速度が低いほど、より長い時間間隔をおいて過去に撮影され た少なくとも 1つの撮影画像を選択するように構成した。即ち、車速が低くなるほど、 車両 12の移動距離が短くなることから、車速が低い場合、合成後の画像において走 行区分線の長さの延長量もしくは延長割合が不足しな 、ように、より過去の時点で撮 影 (入力)されて記憶されていた画像を選択するようにした。他方、車速が高くなるほ ど、車両 12の移動距離が長くなるので、現時点に近い過去の時点に撮影 (入力)さ れて記憶されて 、た画像を選択することになる。
[0047] また、走行区分線の白線部分 (彩色部分)とブランク (無彩色部分)の合計長さに対 する彩色部分の長さが 30%以上となるように、時間間隔をおいて過去に撮影された 少なくとも 1つの撮影画像を選択するようにしたので、走行区分線にかすれ、欠けが 生じている場合や工事などで長さが短い場合であっても、最適に走行区分線の白線 部分の見掛け上の延長量もしくは延長割合を設定することができて走行区分線の認 識精度を向上させることができ、よって自車の走行路を的確に認識することができる。
[0048] また、合成の基準となる画像が現在の走行区分線認識処理周期において撮影され た画像であるようにしたので、最新の情報に基づいて画像を合成することができる。ま た、検出された走行速度に応じて決定される前記時間間隔に相当する周期に撮影さ れた少なくとも 1つの撮影画像を選択するようにしたので、同様に最新の情報に基づ V、て画像を合成することができる。
[0049] この実施例において第 2に特徴的な点は、図 8の S102で述べたように、過去フレー ムの明るさ補正を行うようにしたことである。
[0050] それについて説明すると、通常、走行区分線の白線部分を精度良く認識するため には、図 13に示すように、カメラ 10による撮影領域の所定の領域 (路面。図 13中の 斜線部)の明るさを検知し、検知した明るさに基づいて白線部分が明瞭に検出できる ようにシャツタ速度や絞りを調整すると共に、さらに必要に応じて撮像信号の出力ァ ンプゲイン (増幅率)などの種々の撮影条件を調整して!/、る。
[0051] 尚、この明細書において「明るさ」とは、明度、輝度、濃度、および検出された画像 上の明るさに応じて調整されるシャツタ速度、絞りあるいは映像信号の出力アンプゲ インなどの撮影条件などを全て含む意味で使用する。
[0052] 通常の走行状態においては路面の明るさは建物などの影があったり、路面が濡れ ていたり、強い日差しが差していたり、様々な環境の変化の影響により時々刻々変化 する。その明るさの違いによらず白線部分を明瞭に検出するため、先のような撮影条 件の調整を行って 、る訳である。
[0053] ここで、撮影した時点の路面の明るさが異なる場合に現時点と過去の時点との画像 を合成することを考える。同一の画像では白線部分がそれ以外の路面 (アスファルト 、コンクリート)よりも明るいため、合成するとき、画像上の同一点(同一箇所)において 明る 、方を白線部分とみなして選択することで合成を行って 、る。 [0054] 先に述べたように、検出した明るさに基づいて撮影画像間で明るさが一定となるよう にシャツタ速度などを調整しているが、実際に路面に明暗の変化が生じた場合、ハン チングの防止などの理由によりシャツタ速度、絞り、アンプゲインは一気に変更させず 、徐々に変更するようにしているため、撮影画像間で明るさが一定とはならず、多少 異なることとなり、一方の撮影画像の路面 (アスファルト部分)よりも別の撮影画像の白 線部分の方が暗くなつてしまう場合が生じる。
[0055] 図 14は、この実施例における画像の明るさ補正の処理を示す説明図である。尚、 同図の右端に a, b, cを付して示す 3種のグラフは、同図の左側の画像での白線部分 と路面 (アスファルト)の破線で示された箇所の明るさを簡略的に示した図である。同 図 aの上部の注記は、パルス状の波形において突出部が白線部分で、その両側は 路面であることを示す。従って、同図 aは、左側の画像 A, Bにおいて Aの白線部分よ り、 Bの路面の方が明るいことを示す。
[0056] 図 14の Aは過去の時点で撮影されて記憶されている画像であり、 Bは現時点で撮 影取得された画像である。画像の明るさは右端のグラフ aに示すように、 Aの画像の 白線部分(図中点線部)よりも Bの画像の路面の方が明るくなつている。後述するよう に、この実施例においては、図 14の A'に示すように、現時点と過去の時点との車両 の位置の変化に応じた画像の位置補正を行う。
[0057] この時点では画像の明るさは Aと A,では変化がなぐこの段階で図 14に「補正無」 と注記しつつ破線で示すように、両方の画像を合成すると、右端のグラフ aに示す如 ぐ画像 Aの白線部分よりも画像 Bの路面 (アスファルト)の方が明るいために画像 Bの 路面部分が選択されることとなり、図 14の C'の画像のように画像 A (Α' )の白線部分 がなくなった画像となるという不具合が生じてしまう。
[0058] その点に鑑み、この実施例にぉ ヽては、撮影された撮影画像の明るさを、撮影領域 の路面の所定領域(図 13の斜線部)の明るさなどカも検知すると共に、複数の撮影 画像の内の 1つの画像を基準として複数の撮影画像において明るさが一致するよう に補正する。この場合、実際に明るさを検出しても良ぐあるいは簡易的に検出しても 良い。具体的には過去の時点と現時点とで撮影した際の撮影条件力 両画像の明る さの比を求め、これを用いて両画像の明るさを一致させることで、前記の不具合を解 消するようにした。尚、比に代え、明るさの差を用いて合成される撮影画像の明るさを 一致させることも可能である。
[0059] 図 15は、図 8の S102の明るさ補正処理のサブ'ルーチン'フロ一'チャートである。
[0060] 以下説明すると、先ず S200, S202において、撮影時の撮影条件であるカメラ 10 のシャツタ速度 SO, Sl、絞り値 10, II、画像信号の増幅率を示すアンプゲイン GO, Glからなる撮影条件を記憶する。シャツタ速度は、検知された撮影画像の明るさ、具 体的には撮影手段の撮影領域の内、路面の所定領域 (図 13の斜線部)の明るさを、 その部位の画素の濃度などカも検知し、図 16に示す特性に従って設定 (決定)して カメラ 10の撮像素子 (画素)の感度を調整して行う。
[0061] 尚、周知の如ぐ図 16に示すように絞り値を調整することによつても、取り込む光量 が変化するので、画像の明るさを調整することができる。また、シャツタ速度と絞りの少 なくともいずれかで調整された画像濃度は、周囲環境が暗くて依然調整が不足する 場合、アンプゲインによってさらに n倍して明るさを調整することも可能である。その意 味で、 S200, S202においては、シャツタ速度に加え、絞り値とアンプゲインも記憶す る。
[0062] 次いで S 204において、記憶した各撮影条件に基づいて図示の式により現時点と 過去の時点との画像の明るさの比を算出し、 S206において算出された明るさ比を過 去の時点の画像の明るさに乗じることにより、過去の時点の画像の明るさを現時点の 画像の明るさに一致させる補正を行う。
[0063] より具体的には、シャツタ速度と絞り値の少なくともいずれかに基づいて複数の撮影 画像の明るさの比を検知すると共に、複数の撮影画像のそれぞれの撮影時点にお けるシャツタ速度と絞り値の内の少なくとも 1つの比および差の少なくともいずれか、 詳しくはその両方の比に基づいて明るさを補正するようにした。また、増幅率に基づ いても複数の撮影画像の明るさの比を検知するようにした。
[0064] 尚、明るさは、図 13の斜線部に示す路面の所定領域の明るさを、その部位の画素 の濃度から検知すると共に、それによつて、設定される複数の撮影画像のそれぞれ の撮影時点におけるシャツタ速度と絞り値の内の少なくとも比に基づいて検知された 明るさを補正する。 [0065] この結果、図 8の SI 10の処理において、明るさを補正された過去の時点の画像と 現時点の画像とが合成される。尚、 S110の処理においては、通常、白線などの走行 区分線は周囲のアスファルトなどの路面よりも明るいため、合成においては合成され る複数の画像の内、複数の箇所の同一箇所 (任意の箇所)を構成する画素の内、明 るさにおいて明るい方、即ち、画素単位で明るい方を選択して合成する。
[0066] この処理により明るさを補正すると、図 14の右端のグラフ bに示すように、過去の時 点の画像(図 14の画像 A"の点線部)と現時点の画像(図 14の画像 Bの点線部)の路 面の明るさが一致することとなる。この結果、両画像を合成すると、図 14の Cのように 路面に白線部分が埋もれることがなぐ白線部分が適切に延長された画像を得ること ができる。
[0067] 以上のように、この実施例は、撮影手段によって撮影された撮影画像の明るさを検 知し、複数の撮影画像の内の 1つの画像を基準として複数の撮影画像において明る さが一致するように補正すると共に、明るさが補正された後、複数の画像を合成する ように構成したので、両画像の明るさを一致させる結果、過去の時点と現時点との一 方の画像の路面に他方の画像の白線部分が埋もれてしまうことがなぐ良好に白線 部分を延長することが可能となる。よって、走行区分線の認識精度を向上させること ができ、自車の走行路を的確に認識することができる。
[0068] また、合成の基準となる画像が現在の走行区分線認識処理周期の画像であるよう にしたので、最新の情報に基づいて明るさを一致させつつ、画像を合成することがで きて走行区分線の認識精度を向上させることができ、よって自車の走行路を的確に 認識することができる。また、路面の所定領域の明るさを検知することで、明るさの検 知を共通の尺度で行うことができて走行区分線の認識精度を向上させることができる
[0069] また、複数の撮影画像のそれぞれの撮影時点におけるシャツタ速度と絞り値の内の 少なくとも 1つの比および差の少なくともいずれか、さらにはアンプゲイン (増幅率)に 基づ 、て明るさを検知あるいは補正するようにしたので、明るさの検知ゃ補正が容易 となる。複数の画像における同一位置の明るさが一致するように補正するので、一層 精度良く明るさをネ ΐ正することができる。 [0070] また、複数の画像の同一箇所を構成する画素の内、明るさにおいて明るい方を選 択することにより、複数の撮影画像を合成するように構成したので、合成された画像 力も走行区分線を一層精度良く認識することができ、よって自車の走行路を一層的 確に認識することができる。
[0071] この実施例において第 3に特徴的な点は図 8の S106および S108で述べたように 水平画素補正と垂直ライン補正を行うようにしたことである。
[0072] それについて説明すると、走行区分線に対する車両 12の姿勢 (角度)や走行区分 線との水平方向の距離が現時点と過去の時点とでは異なる場合があり、そのため撮 影される画像も両時点で水平方向や走行区分線に対する車両 12の角度方向にず れ、当然のことながらそのままの状態で画像を合成すると、走行区分線の水平方向 の位置や角度がずれた状態となってしまう。
[0073] これを防止するために現在と過去の時点との車両姿勢の変化に応じた量だけ過去 の時点の画像上における走行区分線の水平方向の位置や角度方向の補正を行う必 要があり、また、現時点と過去の時点における車両 12のピッチング状態が異なること も考えられるため、両時点間のピッチ角変動を画像から得られる地平線位置の変化 など力も求め、画像における垂直方向の位置を補正する必要もある。
[0074] その点、特許文献 2記載の従来技術においては、車両のョーレート変化量、即ち、 車両の回転 (旋回)運動の有無を検出し、回転運動があればその量に応じた補正を 画像に加えているのみで、水平方向の位置の補正が行われず、よって合成画像に おいて走行区分線が適切に延長されない不都合があった。また、特許文献 2記載の 技術にあっては、ピッチング変化に対しては考慮していない不都合もあった。
[0075] 図 18はカメラ 10により撮影した、即ち露光した時刻 t から時刻 t を経て時刻 tに
-2 -1 0 至るまでの車両 12の走行区分線 (車線)に対する位置、姿勢 (角度)の変化を示す説 明図である。ここで露光時刻 tが現時点であり、時刻 t が過去を、時刻 t は時刻 t
0 -1 -2 0 と t で撮影された画像を合成する際の基準として使用する画像を撮影した時刻であ り、時刻 t よりさらに過去の時点の時刻である。
[0076] この実施例においては、図 18の車両 12の左右に位置する走行区分線(車線)を認 識し、その中央を基準点とし、それら点の連続である点列とその間を結ぶ線分(図 18 の短破線)を、例えばレーンキープ制御の場合、車両が走行すべきラインとして検出 して使用する。尚、図 18の走行区分線は過去の時点の時刻 t で撮影して得られた
-2
ものであるから、点列も時刻 t における点列である。露光時刻 t , t での車両位置
-2 0 - 1
における前記点列と車両位置との距離 (走行区分線と車両 12との間の距離)を L , L
0
、点列を結ぶ線分と車両 12の向きとのなす角度(走行区分線に対する車両 12の前 後方向角度)を 0 , Θ
0 1としている。
[0077] 過去の時点である露光時刻 t に撮影して記憶された画像を現時点、即ち、露光時 刻 tで撮影された画像に合成するため、露光時刻 t で取得された走行区分線 (車
0 -2
線)、点列及び線分を基準として前記の距離 L , L、角度 0 , Θ を求め、 Lとし、
0 1 0 1 0 1
Θ と 0 との差を各々求め、時刻 tと t との間での走行区分線に対する車両 12の相
0 1 0 - 1
対位置や角度の変化に伴う撮影画像の変化を補正した上で両時刻の画像を合成す るよつにした。
[0078] 図 19は、図 8の S106の水平画素補正処理のサブ'ルーチン'フロ一'チャートであ る。
[0079] 同図は、露光時刻 tと t との横方向の位置の偏差 (現在時刻 tに対する過去(時
0 -1 0
刻 t_ )の横方向車両移動量) A および走行区分線もしくはその中間の基準ライン に対する角度 (現在時刻 tに対する過去(時刻 t )の角度変化量) Δ Θを求め、それ
0 -1
ら力 画像上での水平方向の画素位置の補正量を求める処理フローである。
[0080] 詳細は後述する力 S300において A L、 Δ Θを求め、 S302においてそれら A L、
Δ Θ力も画像平面上における合成する際の画素の位置の補正量を求め、合成前の ハードウェア処理として行われるカメラ座標系(u, V)と実平面の座標系(X, Y)との 対応付けを行う。この S302の処理については詳細を後述する。
[0081] 図 20は、図 8の S108の垂直ライン補正処理のサブ'ルーチン 'フ口一'チャートであ る。
[0082] 先ず S400において露光時刻 tと t とのピッチ方向の変化量 Δ 0 pitを求め、 S40
0 -1
2においてその値に基づいて画像面上での垂直合成ライン位置の補正量を求め、合 成前のハードウェア処理として行われるカメラ座標系(U, V)と実平面の座標系(X, Y)との対応付けを行う。 [0083] 図 21は図 19の S300の処理のサブ ·ルーチン 'フ口一'チャートであり、図 22および 図 23はその説明図である。
[0084] 図 21から図 23を参照して説明する。図 22において、軌跡推定の座標軸は、過去 のある時刻における車両の進行方向中心軸(車両中心軸)を X軸として設定された座 標軸である。この座標系において露光時刻 t における車両位置を基準として露光
-2
時刻 t での車両の位置の横方向の変化量を求めるため、時刻 t での車両(中心)
- 1 -2
位置を原点 (X, y) = (0, 0)、車両中心軸方向を X軸とする検出結果座標系 X, yを考 える。
[0085] 車輪速センサ 32、ョーレートセンサ 34の出力から求めた露光時刻 tと t との間の
0 -1 車両の推定軌跡を用いて露光時刻 t の車両 12の位置、向きを時刻 t を基準とし
- 1 -2
た y座標系上に変換する。このとき、検出結果座標系 x、 y上での露光時刻 t での 車両 12の位置の座標は、(X, y)である。図 21の S500の(1)で、露光時刻 t_での 車両の位置の座標(X, y)を求める。
[0086] また、 S500の(2)では、図 22に示すように、座標(x, y)の真横、座標 x上であって 露光時刻 t で求めた点列 1, P , P の内、露光時刻 t で車両が位置する点列 P
-2 k k+ 1 - 1 k
, Ρ とを結ぶ直線上の点 (X, y )と先の座標 (X, y)との間の距離 L を y — yにより k+1 p -1 求める。
[0087] 同様に S500の(3)で、露光時刻 t を基準として露光時刻 tにおける車両位置と
-2 0
点列間を結ぶ直線との間の距離 Lを求める。尚、図 22においては簡略ィ匕のため露
0
光時刻 tでの車両位置、点列 P などは省略した。
0 k+2
[0088] そして S500の(4)で、 L L から露光時刻 tと t との横方向位置の偏差 A Lを
0 - 1 0 -1
求める。当然の事ながら、両露光時刻での車両位置によって A Lには正負が生じる。
[0089] 続いて、露光時刻 tと t との間の基準ライン、即ち点列およびそれらを結ぶ直線に
0 -1
対する車両の角度の変化量 Δ Θを求める。
[0090] 先ず、図 21の S502の(1)で、図 23のように露光時刻 t 、時刻 tでの軌跡推定値
-1 0
の差力も図 22で示した軌跡推定座標系における角度差を求めることができる。即ち、 軌跡推定座標における露光時刻 tでの軌跡推定値を 0 、露光時刻 t での軌跡推
0 0 -1
定値を 0 とすると角度差は 0 - Θ で求められる。 [0091] さらに、露光時刻 t で求められ露光時刻 tと t の両時刻で車両が位置する点列
-2 0 - 1
P , P , P 間を結ぶ直線が異なり、それらの直線が一直線でなければ、図 23のよ i i + 1 i + 2
うにそれら直線のなす角度 Θ Rを求める必要がある。当然、直線が一直線であるか、 両時刻での車両位置が同一直線の範囲内であれば角度差 Θ =0である。
R
[0092] 図 21の S502の(2)で、露光時刻 t で撮影して検出された点列を用い、露光時刻
- 2
t 、 tにおいて車両が位置する直線の角度差 Θ を求める。そして S502の(3)で角
- 1 0 R
度の変化量 Δ 0を Δ 0 = 0 — 0 — Θ で求める。
0 - 1 R
[0093] 図 24は図 19の S302の処理を示すサブ ·ルーチン 'フ口一 ·チャートであり、図 25 および図 26はその説明図である。
[0094] 先に図 21および図 22で求めた基準ラインに対する位置の変化量 A L、角度の変 化量 Δ Θを基に、時刻 t と tとの車両の関係を簡略ィ匕して示したものが図 25である
- 1 0
。実平面座標系での車両の進行方向における距離、即ち、 Xと、ある Xでの横方向の 距離 Yとの関係は A L, Δ 0から
y=x-tan A Θ + A L
となる。
[0095] この式から図 24の S600では距離 X= 5m、 X= 30mにおける実平面上での水平 方向の合成時に要する補正距離 Y5m、 Y30mを求める。ここで 5m、 30mは一例で あり、カメラの撮像領域の広さ等力 適宜設定することが可能である。
[0096] 次!、で S602にお!/、て実平面上での距離 X= 5m、 X= 30mに対応する画像面上 でのライン位置 V5m、 V30mを求める。図 26に画像面の座標系を示す。実平面での 距離方向の X軸に対応するの力 軸であり、鉛直方向上方を原点とし、横もしくは水 平方向の Y軸に対応するのが U軸となっている。このライン位置 V5m、 V30mは図 8 の S 104で説明したピッチ方向の変動を学習した補正値を考慮した上で求められて いる。
[0097] 次!、で S604にお!/、て S600で求めた補正距離 Y5m、 Y30mに対応する画像面上 の横方向の画素位置 U5m、 U30mを求める。
[0098] 次いで S606において求められた画像面上の座標(U5m, V5m)と(U30m, V30 m)の 2点を通る直線を求める。そしてこの実施例では、画像面上の V軸上の 6点 χθ, xl, · ··, x6がこの直線上となるように、異なる時刻の画像を合成するときの合成位置 設定を行う。即ち、時刻 t と tにおける実平面上の基準ラインに対する位置、角度の
- 1 0
変化を補正するべぐ実平面上での時刻 t の車両の位置および角度を示す直線( 基準として X軸と一致している)を図 25に示した時刻 tの位置および角度を示す直線
0
と一致させることとなる。尚、この合成位置設定は前述のハードウェア化された画像 処理 IC内で処理されるので、高速処理が可能となって!/、る。
[0099] 図 27および図 28は、この実施例の位置補正の処理を加えた画像合成の画像ィメ ージと、位置補正をカ卩えな 、場合の画像合成の画像イメージを示す図である。
[0100] 図 27のように走行区分線に対する車両の横方向位置、角度の補正を加えると、同 図の画像 Cのように走行区分線が延長された形となるのに対し、補正を加えない場合 には図 28のように過去および現在の時点で撮影された走行区分線がずれた形で合 成され、走行区分線が延長されていないことが分力る。
[0101] この実施例は、複数の撮影画像における走行区分線に対する車両 12の前後方向 角度 Θおよび走行区分線と車両 12との間の距離 Lを求め、複数の撮影画像間での 角度および距離のそれぞれの差(Δ Θ , A L)を検知し、検知された角度と距離の差 に基づいて走行区分線に対する同一の車両の角度および距離で撮影した画像に補 正した後、複数の画像を合成するようにしたので、合成画像において、走行区分線を 見掛け上、確実に延長することができる。
[0102] また、複数の撮影画像の撮影時点 t と tの車両 12のピッチ角を検出して撮影画
- 1 0
像間のピッチ角の差(Δ Θ pit)を検知し、検知されたピッチ角の差に基づき、同一の ピッチ角で撮影した画像に補正した後、複数の画像を合成するようにしたので、走行 区分線を見掛け上、一層確実に延長することができる。
[0103] 尚、上記に代え、検知された角度と距離の差に基づいて走行区分線に対する同一 の車両の角度および距離で撮影した状態となるように、前記複数の画像間の合成位 置を調整して合成するようにしても良い。即ち、上記のように画像自体を移動させる 代わりに、合成位置 (重ね合わせ位置)を調整して合成しても良 、。
[0104] 図 27を参照して説明すると、過去取得画像 Aと現在取得画像 Bのいずれか一方の 画像自体を前述した両時刻間での横方向位置と角度の変化分ずらして他方の画像 に重ね合わせて合成すれば、前述の補正と同様の結果が得られることになる。即ち、 横方向位置の補正について考えれば、図 27の画像 Aの p点に横方向位置の補正量 だけ p点から横方向にずれた画像 Bの q点が重なるようにすれば良 、。図 27では両 時刻間の角度の変化はほとんどないが、角度変化がある場合には角度変化量に応 じて画像を回転させた上で合成すれば良い。さらにピッチ角の差がある場合にも、図 27の上下方向に差に応じた量だけ一方の画像をずらして合成すれば良 、。このよう にすることで、前記の画像を補正するものと同様の効果を得ることができる。
[0105] この実施例において第 4に特徴的な点は、図 8の S110の合成処理において、エツ ジ検出処理前の原画像の段階で現時点と過去の時点の画像を合成するようにしたこ とである。
[0106] それについて説明すると、図 29はエッジ検出処理を行う前において、換言すれば 原画像の段階で現時点と過去の時点との画像を合成した場合の画像を、図 30は特 許文献 2記載の従来技術のようにエッジ検出処理を行った後の、所謂、エッジ画像の 状態で現時点と過去の時点との合成を行った場合の画像を示している。
[0107] 図 30の従来技術の処理では、その画像 A, Bのように画像上で自車から遠方の走 行区分線の長さが短い、即ち、画像上での大きさが小さいため、現時点と過去の時 点の画像を別々にエッジ検出処理した場合、エッジとして認識されず、結果として図 30の画像 a, bのように、エッジ画像上の遠方においては破線で囲んで示すように何 もない状態となってしまう。
[0108] 続、て車両姿勢変化に基づく位置補正処理を行 、、図 30の画像 a'に示す位置補 正画像を得、続いて現時点と過去の時点とのエッジ画像を合成しても、図 30の画像 Dの破線で囲んだ領域のように原画像に見られる遠方の走行区分線に対応するエツ ジはないものとなる。
[0109] これに対し、図 29に示すように、過去の時点の画像(図 29の画像 A)を車両姿勢変 化に基づく位置補正(図 29の画像 A' )および画像の明るさ補正(図 29の画像 A")を 行 、、エッジ検出処理を行う前の原画像の段階で現時点と過去の時点の画像を合 成すると、各々の原画像上では短い遠方の走行区分線が図 29の画像 Cのように延 長されて長くなり、その後にエッジ検出処理を行っても、図 29の画像 Dに実線で囲ん だようにエッジとして検出されることとなる。
[0110] このように、この実施例においては、走行区分線の認識処理における撮影画像中 の少なくとも走行区分線の形状に変化を与えない処理段階で、より具体的にはエツ ジ検出前に前記撮影画像を合成する如く構成したので、即ち、エッジ検出処理前の 原画像の段階で現時点と過去の時点の画像を合成するようにしたので、遠方の走行 区分線も的確に検出することができ、よって走行区分線を見掛け上、延長することが でき、認識精度を向上させることができる。
[0111] 尚、エッジ検出処理前としたが、撮影した原画像上の走行区分線の形状、外形が 残っている状態であれば良ぐ先に述べたように、通常、エッジ検出処理は微分処理 、二値化処理、エッジ検出から構成されることから、エッジ検出処理前、つまり、微分 処理前でなくても二値化処理前で合成すれば本発明の効果は得られる。
[0112] 尚、この発明を、エッジ検出処理、ハフ(Hough)変換による走行区分線認識を例に 説明したが、この発明はそれに限られるものではなぐ他の手法、例えば、図 31に示 す、あるいは特開平 8— 297728号公報に記載されるようなパターンマッチングを用 いる手法に対しても走行区分線部分が延長されることにより、より精度良くパターンマ ツチングが可能となり有効である。図 32にそのパターン例を示す。
[0113] 即ち、走行区分線が車載のカメラにより撮影された画像における形状のパターンを 図 32に示すような複数のテンプレートとして予め設定しておき、これを撮影画像に図 31の中央の図のように順に当てはめていき、画像とテンプレートとの一致度を求め、 図 31の下図のように一致度の分布力も最も一致度が高い点がなすラインを走行区分 線とするなどの手法が知られており、このようなパターンマッチングにおいても本発明 により走行区分線が延長され、走行区分線の認識精度をより向上させることができる
[0114] また、この実施例においては、 S 100の処理において、合成されるべき画像の数は 2枚とした力 必要に応じてそれ以上の複数枚としても良い。さらに、この実施例にお いては周期的に撮影される画像の内から車速に応じて選択するようにしたが、撮影 手段を 2個以上設けるなどして、共通する同一の周期で撮影されていない画像の内 から車速に応じて選択するようにしても良 、。 [0115] また、 S108の補正において、画像力も得られる地平線の変化に代え、車両 12の適 宜位置にピッチ角センサを配置してその出力力も動的なずれを求めて補正しても良 い。
[0116] また、カメラ 10は車両前方の路面を含む領域を撮影するように構成した力 車両 12 が前進走行して ヽるときの車両後方の路面を含む領域を撮影する撮影手段 (カメラ) を設けるように構成し、その撮影手段が撮影した撮影画像カゝら車両後方の走行区分 線を認識するものでも良いことはいうまでもない。従って、この明細書で「車両の進行 方向」とは、車両の前後方向を示す意味で使用する。
[0117] この実施例は上記の如ぐ車両 12の進行方向の路面を含む領域を撮影する撮影 手段 (カメラ 10、画像処理 ECU44)と、前記撮影手段によって撮影された撮影画像 中の前記路面上の少なくとも破線状の走行区分線を認識可能な区分線認識手段( 画像処理 ECU44, S12から S16)と、前記撮影手段によって異なる時刻に撮影され た複数の撮影画像を合成して前記撮影画像中の前記走行区分線の長さを延長する 画像合成手段 (画像処理 ECU44, S12)とを備える車両用走行区分線認識装置に おいて、前記画像合成手段は、前記区分線認識手段による前記走行区分線の認識 処理における前記撮影画像中の少なくとも前記走行区分線の形状に変化を与えな Vヽ処理段階 (S 12)で前記撮影画像を合成する如く構成した。
[0118] また、車両 12の進行方向の路面を含む領域を撮影する撮影手段 (カメラ 10、画像 処理 ECU44)と、前記撮影手段によって撮影された撮影画像中のエッジを検出し、 検出したエッジに対してハフ変換を行うことで前記路面上の少なくとも破線状の走行 区分線を認識可能な区分線認識手段 (画像処理 ECU44, S12から S16)と、前記撮 影手段によって異なる時刻に撮影された複数の撮影画像を合成して前記撮影画像 中の前記走行区分線の長さを延長する画像合成手段 (画像処理 ECU44, S12)と を備える車両用走行区分線認識装置において、前記画像合成手段は、前記区分線 認識手段による前記走行区分線の認識処理における前記エッジ検出(S14)前に前 記撮影画像を合成する如く構成した。
産業上の利用可能性
[0119] この発明によれば、走行区分線の認識処理における撮影画像中の少なくとも走行 区分線の形状に変化を与えない処理段階で撮影画像を合成する如く構成したので 、遠方の走行区分線も的確に検出でき、よって走行区分線を見掛け上、延長でき、 認識精度を向上させられる車両用走行区分線認識装置を提供できる。また、走行区 分線にかすれ、欠けが生じて 、る場合や工事などによっては長さが短 、場合がある が、そのような場合にも走行区分線を精度良く認識でき、また、通常路面に描かれて いる点線 (破線)状の走行区分線をそのまま認識するよりも、走行区分線の長さが延 長されることにより、走行区分線の方向をより高精度に認識でき、結果として更に精度 良く走行区分線を認識できる車両用走行区分線認識装置を提供できる。

Claims

請求の範囲
[1] 車両の進行方向の路面を含む領域を撮影する撮影手段と、前記撮影手段によって 撮影された撮影画像中の前記路面上の少なくとも破線状の走行区分線を認識可能 な区分線認識手段と、前記撮影手段によって異なる時刻に撮影された複数の撮影 画像を合成して前記撮影画像中の前記走行区分線の長さを延長する画像合成手段 とを備える車両用走行区分線認識装置において、前記画像合成手段は、前記区分 線認識手段による前記走行区分線の認識処理における前記撮影画像中の少なくと も前記走行区分線の形状に変化を与えない処理段階で前記撮影画像を合成するこ とを特徴とする車両用走行区分線認識装置。
[2] 車両の進行方向の路面を含む領域を撮影する撮影手段と、前記撮影手段によって 撮影された撮影画像中のエッジを検出し、検出したエッジに対してハフ変換を行うこ とで前記路面上の少なくとも破線状の走行区分線を認識可能な区分線認識手段と、 前記撮影手段によって異なる時刻に撮影された複数の撮影画像を合成して前記撮 影画像中の前記走行区分線の長さを延長する画像合成手段とを備える車両用走行 区分線認識装置において、前記画像合成手段は、前記区分線認識手段による前記 走行区分線の認識処理における前記エッジ検出前に前記撮影画像を合成すること を特徴とする車両用走行区分線認識装置。
PCT/JP2005/008937 2004-05-19 2005-05-17 車両用走行区分線認識装置 WO2005111937A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP05741423A EP1760662A4 (en) 2004-05-19 2005-05-17 TRAVEL SECTION LINE KNOWLEDGE FOR A VEHICLE
US11/596,900 US7421095B2 (en) 2004-05-19 2005-05-17 Traffic lane marking line recognition system for vehicle
CN2005800157914A CN1954343B (zh) 2004-05-19 2005-05-17 车辆用行驶划分线识别装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-148577 2004-05-19
JP2004148577A JP3898709B2 (ja) 2004-05-19 2004-05-19 車両用走行区分線認識装置

Publications (1)

Publication Number Publication Date
WO2005111937A1 true WO2005111937A1 (ja) 2005-11-24

Family

ID=35394357

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/008937 WO2005111937A1 (ja) 2004-05-19 2005-05-17 車両用走行区分線認識装置

Country Status (5)

Country Link
US (1) US7421095B2 (ja)
EP (1) EP1760662A4 (ja)
JP (1) JP3898709B2 (ja)
CN (1) CN1954343B (ja)
WO (1) WO2005111937A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257681A (ja) * 2007-03-30 2008-10-23 Hyundai Motor Co Ltd 自動車用車線離脱防止方法
US20100121561A1 (en) * 2007-01-29 2010-05-13 Naoaki Kodaira Car navigation system
CN107292263A (zh) * 2017-06-19 2017-10-24 深圳市创艺工业技术有限公司 一种机动、电动车辆自动驾驶识别系统

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4659631B2 (ja) * 2005-04-26 2011-03-30 富士重工業株式会社 車線認識装置
JP4616068B2 (ja) * 2005-04-28 2011-01-19 本田技研工業株式会社 車両、画像処理システム、画像処理方法及び画像処理プログラム
JP4614826B2 (ja) * 2005-06-14 2011-01-19 トヨタ自動車株式会社 道路区画線検出装置
US8184159B2 (en) 2007-03-26 2012-05-22 Trw Automotive U.S. Llc Forward looking sensor system
EP2075170B1 (en) * 2007-12-28 2011-02-16 Magneti Marelli S.p.A. A driving assistance system for a vehicle travelling along a roadway that lacks lane demarcation lines
JP4697480B2 (ja) * 2008-01-11 2011-06-08 日本電気株式会社 車線認識装置、車線認識方法および車線認識プログラム
JP5065210B2 (ja) * 2008-09-17 2012-10-31 トヨタ自動車株式会社 車線認識装置
JP4656456B2 (ja) * 2008-10-22 2011-03-23 日本電気株式会社 車線区画線検出装置、車線区画線検出方法、及び車線区画線検出プログラム
DE102009007342A1 (de) * 2009-02-04 2010-08-05 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Ermitteln einer geltenden Fahrspurmarkierung
US8174374B2 (en) * 2009-06-30 2012-05-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for coding digital information in lane markings using an optical sensor
US8378799B2 (en) 2009-06-30 2013-02-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for coding information on a roadway surface subject to motion blur
CN101624008A (zh) * 2009-08-12 2010-01-13 刘胜恒 变频分动力高速汽车
JP5664152B2 (ja) * 2009-12-25 2015-02-04 株式会社リコー 撮像装置、車載用撮像システム及び物体識別装置
JP4962581B2 (ja) * 2010-03-03 2012-06-27 株式会社デンソー 区画線検出装置
US20110301813A1 (en) * 2010-06-07 2011-12-08 Denso International America, Inc. Customizable virtual lane mark display
JP5276637B2 (ja) * 2010-09-08 2013-08-28 富士重工業株式会社 車線推定装置
CN101976336A (zh) * 2010-10-21 2011-02-16 西北工业大学 一种基于模糊增强和曲面拟合的图像边缘特征提取方法
DE102010051206A1 (de) * 2010-11-12 2012-05-16 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen eines Bilds einer Fahrzeugumgebung und Abbildungsvorrichtung
KR101240469B1 (ko) * 2010-11-23 2013-03-11 현대모비스 주식회사 객체 인식 시스템, 차량용 장애물 인식 시스템 및 차량용 장애물 인식 방법
US20120309321A1 (en) * 2011-05-31 2012-12-06 Broadcom Corporation Synchronized calibration for wireless communication devices
EP2574958B1 (en) 2011-09-28 2017-02-22 Honda Research Institute Europe GmbH Road-terrain detection method and system for driver assistance systems
US9538144B2 (en) * 2012-05-02 2017-01-03 GM Global Technology Operations LLC Full speed lane sensing using multiple cameras
JP5817927B2 (ja) * 2012-05-18 2015-11-18 日産自動車株式会社 車両用表示装置、車両用表示方法及び車両用表示プログラム
EP2899669A1 (en) 2014-01-22 2015-07-29 Honda Research Institute Europe GmbH Lane relative position estimation method and system for driver assistance systems
CN104658265B (zh) * 2015-03-08 2017-02-08 未来汽车科技(深圳)有限公司 位于交通路口的跨实线并道车辆识别系统
US9884623B2 (en) * 2015-07-13 2018-02-06 GM Global Technology Operations LLC Method for image-based vehicle localization
US9829888B2 (en) 2015-11-17 2017-11-28 Ford Global Technologies, Llc Distinguishing lane markings for a vehicle to follow
JP6790895B2 (ja) * 2017-02-17 2020-11-25 セイコーエプソン株式会社 印刷装置及び印刷制御方法
WO2018232681A1 (en) * 2017-06-22 2018-12-27 Baidu.Com Times Technology (Beijing) Co., Ltd. TRAFFIC PREDICTION BASED ON CARD IMAGES FOR AUTONOMOUS DRIVING
DE102017011808A1 (de) * 2017-12-20 2019-06-27 Daimler Ag Verfahren zur Regelung der Bewegung eines Fahrzeugs in einem automatisierten Fahrbetrieb und Vorrichtung zur Durchführung des Verfahrens
JP7070082B2 (ja) * 2018-05-18 2022-05-18 株式会社デンソー 車載カメラ
US11199847B2 (en) * 2018-09-26 2021-12-14 Baidu Usa Llc Curvature corrected path sampling system for autonomous driving vehicles
US11068724B2 (en) * 2018-10-11 2021-07-20 Baidu Usa Llc Deep learning continuous lane lines detection system for autonomous vehicles
JP7197554B2 (ja) * 2020-12-28 2022-12-27 本田技研工業株式会社 車両制御システム及び区画線推定方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10320559A (ja) * 1997-05-20 1998-12-04 Nissan Motor Co Ltd 車両用走行路検出装置
JP2001236506A (ja) * 2000-02-22 2001-08-31 Nec Corp 白線検出方法および白線検出装置
JP2004110521A (ja) * 2002-09-19 2004-04-08 Denso Corp 変位データ抽出方法及び物体検出装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5359666A (en) * 1988-09-28 1994-10-25 Honda Giken Kogyo Kabushiki Kaisha Driving way judging device and method
JP2799279B2 (ja) 1993-03-15 1998-09-17 立山アルミニウム工業株式会社 連段窓
JP3169483B2 (ja) * 1993-06-25 2001-05-28 富士通株式会社 道路環境認識装置
EP0827127B1 (en) * 1996-08-28 2006-10-04 Matsushita Electric Industrial Co., Ltd. Local positioning apparatus, and method therefor
JP2002083285A (ja) * 2000-07-07 2002-03-22 Matsushita Electric Ind Co Ltd 画像合成装置および画像合成方法
JP2002029348A (ja) 2000-07-17 2002-01-29 Honda Motor Co Ltd 車両用外界認識装置
JP2002092796A (ja) 2000-09-18 2002-03-29 Toyota Motor Corp 車線認識装置
JP3651387B2 (ja) * 2000-11-22 2005-05-25 日産自動車株式会社 白線検出装置
JP3736346B2 (ja) 2000-12-26 2006-01-18 日産自動車株式会社 車線検出装置
JP3297040B1 (ja) * 2001-04-24 2002-07-02 松下電器産業株式会社 車載カメラの画像合成表示方法及びその装置
JP4156214B2 (ja) * 2001-06-13 2008-09-24 株式会社デンソー 車両周辺画像処理装置及び記録媒体
JP4024581B2 (ja) * 2002-04-18 2007-12-19 オリンパス株式会社 撮像装置
US7433494B2 (en) * 2002-09-19 2008-10-07 Denso Corporation Moving body detecting apparatus
US20050031169A1 (en) * 2003-08-09 2005-02-10 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10320559A (ja) * 1997-05-20 1998-12-04 Nissan Motor Co Ltd 車両用走行路検出装置
JP2001236506A (ja) * 2000-02-22 2001-08-31 Nec Corp 白線検出方法および白線検出装置
JP2004110521A (ja) * 2002-09-19 2004-04-08 Denso Corp 変位データ抽出方法及び物体検出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1760662A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100121561A1 (en) * 2007-01-29 2010-05-13 Naoaki Kodaira Car navigation system
US8175806B2 (en) * 2007-01-29 2012-05-08 Kabushiki Kaisha Toshiba Car navigation system
JP2008257681A (ja) * 2007-03-30 2008-10-23 Hyundai Motor Co Ltd 自動車用車線離脱防止方法
CN107292263A (zh) * 2017-06-19 2017-10-24 深圳市创艺工业技术有限公司 一种机动、电动车辆自动驾驶识别系统
CN107292263B (zh) * 2017-06-19 2019-01-15 盐城塞纳世信息技术有限公司 一种机动、电动车辆自动驾驶识别系统

Also Published As

Publication number Publication date
EP1760662A4 (en) 2009-06-17
CN1954343A (zh) 2007-04-25
US7421095B2 (en) 2008-09-02
JP2005332104A (ja) 2005-12-02
JP3898709B2 (ja) 2007-03-28
EP1760662A1 (en) 2007-03-07
US20070198146A1 (en) 2007-08-23
CN1954343B (zh) 2010-05-12

Similar Documents

Publication Publication Date Title
WO2005111937A1 (ja) 車両用走行区分線認識装置
WO2005111966A1 (ja) 車両用走行区分線認識装置
WO2005111965A1 (ja) 車両用走行区分線認識装置
US7415134B2 (en) Traffic lane marking line recognition system for vehicle
US8548200B2 (en) Lane-marker recognition system with improved recognition-performance
EP2251238B1 (en) Vehicle travel support device, vehicle, and vehicle travel support program
EP2045132B1 (en) Driving support device, driving support method, and computer program
WO2005111964A1 (ja) 車両用走行区分線認識装置
US7623700B2 (en) Stereoscopic image processing apparatus and the method of processing stereoscopic images
JP2008201178A (ja) 駐車支援装置
JP2006012191A (ja) 車両用走行区分線認識装置
JP7426174B2 (ja) 車両周囲画像表示システム及び車両周囲画像表示方法
JP4703544B2 (ja) 運転支援装置
JP2002163641A (ja) 車両用画像処理装置
CN113170057A (zh) 摄像部控制装置
JP4423926B2 (ja) 車両のレーン走行支援装置
JP3154671B2 (ja) 車両用走行区分帯検出装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11596900

Country of ref document: US

Ref document number: 2007198146

Country of ref document: US

Ref document number: 200580015791.4

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

WWE Wipo information: entry into national phase

Ref document number: 2005741423

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2005741423

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11596900

Country of ref document: US