WO2018131061A1 - 走行路認識装置及び走行路認識方法 - Google Patents

走行路認識装置及び走行路認識方法 Download PDF

Info

Publication number
WO2018131061A1
WO2018131061A1 PCT/JP2017/000404 JP2017000404W WO2018131061A1 WO 2018131061 A1 WO2018131061 A1 WO 2018131061A1 JP 2017000404 W JP2017000404 W JP 2017000404W WO 2018131061 A1 WO2018131061 A1 WO 2018131061A1
Authority
WO
WIPO (PCT)
Prior art keywords
lane line
vehicle
lane
information
travel path
Prior art date
Application number
PCT/JP2017/000404
Other languages
English (en)
French (fr)
Inventor
堀 保義
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to EP17891504.7A priority Critical patent/EP3570262A4/en
Priority to CN201780081899.6A priority patent/CN110140158A/zh
Priority to US16/467,575 priority patent/US11631256B2/en
Priority to JP2017541411A priority patent/JP6407447B1/ja
Priority to PCT/JP2017/000404 priority patent/WO2018131061A1/ja
Publication of WO2018131061A1 publication Critical patent/WO2018131061A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/24Direction of travel

Definitions

  • the present invention relates to a travel path recognition device and a travel path recognition method for recognizing a travel path on which a vehicle travels.
  • a travel path recognition device that recognizes a travel path on which the vehicle travels. For example, the travel path recognition device disclosed in Patent Document 1 estimates a lane boundary based on a point sequence of lane candidate points corresponding to a detected lane boundary, and uses the current calculation time as a reference before the set time advances. Based on this, the prediction parameter coefficient after the set time advance is set. Then, the travel path recognition apparatus estimates the lane after the set time has elapsed based on the prediction parameter coefficient. In other words, according to the travel path recognition device disclosed in Patent Document 1, a prediction parameter coefficient after a set time advance is set based on a point sequence of past lane candidate points, and a lane is estimated based on the prediction parameter coefficient. I am doing so.
  • the present invention has been made in view of the above-described problems, and an object thereof is to provide a technique capable of appropriately estimating lane marking information.
  • the travel path recognition apparatus includes a lane line acquisition unit that acquires lane line information related to the position and shape of the lane line ahead of the vehicle, based on the position of the vehicle, and a current line from when the lane line information is acquired.
  • a vehicle behavior acquisition unit that acquires vehicle behavior related to the vehicle speed and yaw rate of the vehicle, and a travel path recognition unit that recognizes a travel path on which the vehicle travels based on the lane marking information.
  • the traveling path recognition unit obtains the lane line information of the vehicle based on the vehicle behavior.
  • the current position lane line information is corrected to a plurality of current position lane line information related to the position and shape of the lane line with the current position as a reference, and one current position lane line information is used as estimated lane line information based on the plurality of current position lane line information
  • the estimated lane marking information is used for recognition of the travel route.
  • the traveling path recognition unit converts a plurality of lane line information into a plurality of current position lane line information based on the vehicle behavior when a plurality of pieces of lane line information of a predetermined number or more are acquired.
  • the current position lane line information is estimated as estimated lane line information based on a plurality of current position lane line information, and the estimated lane line information is used for recognition of the travel path. Thereby, estimated lane marking information can be estimated appropriately.
  • FIG. 3 is a flowchart showing the operation of the travel path recognition apparatus according to the first embodiment.
  • 3 is a flowchart showing the operation of the travel path recognition apparatus according to the first embodiment.
  • 3 is a flowchart showing the operation of the travel path recognition apparatus according to the first embodiment.
  • It is a figure which shows an example of the estimated lane marking information calculation process of the traveling path recognition apparatus which concerns on Embodiment 1.
  • FIG. 6 is a flowchart showing the operation of the travel path recognition apparatus according to the second embodiment.
  • It is a block diagram which shows an example of the hardware constitutions of a travel path recognition apparatus.
  • It is a block diagram which shows an example of the hardware constitutions of a travel path recognition apparatus.
  • FIG. 1 is a configuration diagram illustrating an example of a configuration of a driving support apparatus including a control unit 10 according to the first embodiment. Note that, in each embodiment, the same or similar parts are denoted by the same reference numerals, and redundant description is omitted as appropriate.
  • Steering device 4 steers tire 5 based on the behavior of steering wheel 2 connected to steering device 4.
  • the steering device 4 is connected to a motor 3, and torque generated by the motor 3 is appropriately applied to the steering device 4.
  • the motor 3 is driven based on the target current output from the control unit 10.
  • Wheel speed sensor 6 detects vehicle speed information related to the vehicle speed of vehicle 1.
  • vehicle speed information for example, the vehicle speed of the vehicle 1, the travel distance of the vehicle 1 from which the vehicle speed is obtained by time differentiation, the acceleration of the vehicle 1 from which the vehicle speed is obtained by time integration, and the like are used.
  • the yaw rate sensor 7 detects yaw rate information related to the yaw rate of the vehicle 1.
  • yaw rate information for example, the yaw rate of the vehicle 1, the yaw angle of the vehicle 1 from which the yaw rate can be obtained by time differentiation, the yaw moment of the vehicle 1 from which the yaw rate can be obtained by predetermined calculation, and the like are used.
  • the camera 8 is installed around the rearview mirror in the vehicle 1 and captures a front image of the vehicle 1 through the windshield of the vehicle 1.
  • the front image photographed by the camera 8 is used for detection of lane marking information, which will be described in detail later.
  • the control unit 10 is directly or indirectly connected to the motor 3, the wheel speed sensor 6, the yaw rate sensor 7, and the camera 8. A signal from each sensor and a front image from the camera 8 are input to the control unit 10, a target current that is a drive signal for the motor 3 is determined based on these inputs, and the target current is output to the motor 3.
  • the control unit 10 may have a control function of a general electric power steering device.
  • FIG. 2 is a block diagram showing functions of the travel path recognition apparatus realized by the control unit 10.
  • the travel support apparatus of FIG. 2 includes a vehicle behavior detection unit 21, a lane line detection unit 22 that detects lane line information, and a travel path recognition unit 23.
  • the vehicle behavior detection unit 21 that is a vehicle behavior acquisition unit includes a vehicle speed detection unit 21a and a yaw rate detection unit 21b. Based on the vehicle speed information detected by the wheel speed sensor 6, the vehicle speed detection unit 21 a detects the vehicle speed of the vehicle 1 from the time when the lane line detection unit 22 detects the lane line information to the present. Based on the yaw rate information detected by the yaw rate sensor 7, the yaw rate detection unit 21b detects the yaw rate of the vehicle 1 from the time when the lane line detection unit 22 detects the lane line information to the present.
  • the vehicle behavior detection unit 21 configured as described above detects vehicle behavior related to the vehicle speed and yaw rate of the vehicle 1 from the time of detection of the lane marking information to the present.
  • the vehicle behavior detection unit 21 outputs the detected vehicle behavior to the travel path recognition unit 23.
  • the lane line detection unit 22 that is a lane line acquisition unit detects lane line information based on the data of the front image captured by the camera 8, and the detected lane line information is, for example, at a cycle of 0.1 msec, the travel path recognition unit 23. Output to.
  • the lane line information is information relating to the position and shape of the lane line ahead of the vehicle 1 with reference to the position of the vehicle 1 at the time of image capturing.
  • the lane line information includes, for example, a lane line distance that is a distance between the vehicle 1 and a portion of the lane line on the side of the vehicle 1, and a vehicle angle that is an inclination of the traveling direction of the vehicle 1 with respect to the portion of the lane line.
  • the curvature of the lane line and the curvature change rate of the lane line are included.
  • the lane marking detection unit 22 extracts lane markings such as white lines located on the left and right sides of the road in the forward image from the front image captured by the camera 8 by a known method. And the lane marking detection part 22 calculates
  • the lane line detection unit 22 estimates the lane line extended to the position of the vehicle 1 by a known method by extrapolation, and calculates the distance from the position of the vehicle 1 at the time of imaging to the estimated lane line as described above. Calculated as the lane marking distance. Further, the lane line detection unit 22 obtains the inclination of the traveling direction at the time of imaging of the vehicle 1 with respect to the estimated lane line as the vehicle angle described above.
  • the traveling path recognition unit 23 stores the lane line information detected by the lane line detection unit 22, and estimates estimated lane line information based on the stored lane line information. And the traveling path recognition part 23 recognizes the traveling path where a vehicle drive
  • the traveling path recognition unit 23 stores up to 10 lane marking information. In such a configuration, when the lane line information can be obtained stably, for example, the lane line information from the current time to about 1 sec before is stored in the travel path recognition unit 23.
  • FIG. 3 is a flowchart showing the operation of the travel path recognition apparatus according to the first embodiment. The operation of FIG. 3 is executed at a constant cycle with a cycle of 0.01 seconds, for example.
  • step S1 the lane line detection unit 22 performs lane line detection processing to detect lane line information.
  • the lane line detection unit 22 detects lane line information including the above-described lane line distance, vehicle angle, curvature, and curvature change rate by using the above-described detection method and the like. Although not shown, it is assumed that the vehicle behavior is also detected in response to detection of the lane marking information.
  • step S2 the traveling path recognition unit 23 performs a traveling path recognition process, and estimates estimated lane marking information according to conditions.
  • the travel path recognition unit 23 uses a vehicle behavior to determine a plurality of lane marking information based on the current position of the vehicle 1. It correct
  • the estimation accuracy of the estimated lane line information can be increased.
  • a plurality of lane line information detected in the past is used for estimation of estimated lane line information, variations in lane line information due to detection errors and disturbances are prevented from affecting estimation of estimated lane line information. can do.
  • the travel path recognition unit 23 recognizes the travel path on which the vehicle 1 travels based on the estimated lane marking information.
  • the control unit 10 (FIG. 2) that realizes the travel path recognition device controls the current of the motor 3 based on the travel path recognized by the travel path recognition unit 23, so that a known steering is performed. Execute angle control. Thereby, for example, a lane keep assist function for maintaining the vehicle 1 traveling in a portion such as a central portion between lanes can be made appropriate.
  • FIG. 4 is a flowchart showing details of the travel route recognition process in step S2 of FIG.
  • the travel path recognition unit 23 performs vehicle behavior integration that integrates the vehicle behavior corresponding to the detected lane marking information.
  • the traveling path recognition unit 23 acquires the position and the traveling direction of the vehicle 1 that has changed from the time of detection to the present by accumulating the vehicle behavior from the time of detection of each lane marking to the present for each period. These are used for the conversion of the coordinate system of the intermediate lane marking information in the estimated lane marking information calculation process described later.
  • step S12 the travel path recognition unit 23 determines the new lane line information, which is the latest lane line information detected by the lane line detection unit 22, and the position of the vehicle 1 when the new lane line information is detected. Obtained from the line detector 22.
  • the cause of this time difference is the time required for the calculation when processing the forward image taken by the camera 8 to obtain the lane marking information, and the communication delay via a communication line such as CAN (Controller Area ⁇ Network). is there.
  • the time difference is negligible (for example, about 0.01 sec)
  • the first time point and the second time point can be considered to be the same, so both the travel distance and the vehicle rotation angle shift due to the time difference may be zero. .
  • the travel path recognition unit 23 may use the acquired position of the vehicle 1 as the position of the vehicle 1 detected 0.1 sec before the acquisition time point.
  • the position of the vehicle 1 before 0.1 sec is obtained by accumulating the vehicle behavior for 0.1 sec in the same manner as in step S11 described above.
  • step S13 the traveling path recognition unit 23 determines whether there are more than a predetermined number of lane marking information stored in the traveling path recognition unit 23.
  • the traveling path recognition unit 23 estimates estimated lane line information from a plurality of stored lane line information. For this reason, in order to obtain a stable estimated value as estimated lane marking information, a certain number of lane marking information is required.
  • 5 is used as the predetermined number.
  • the traveling path recognition unit 23 determines the number of stored lane line information, including the validity of the lane line information, and stores the lane line information stored according to the determination result. It may be discarded, that is, erased from memory. For example, it can be said that the lane line information of the lane line is not appropriate for the lane line that is more than the maximum distance (for example, 100 m) that can detect the lane line ahead of the vehicle 1 by the performance of the camera 8 or the like. For this reason, when the vehicle travel distance from the time of detection of the lane marking information to this step S13 exceeds the maximum distance, it can be said that the accuracy of the lane marking information is lowered.
  • the maximum distance for example, 100 m
  • the travel path recognition unit 23 uses a detectable range, which is a range that can be appropriately detected by the camera 8, as a threshold, and when the vehicle travel distance from the time of detection of lane marking information to this step S13 exceeds the threshold, The lane marking information may be deleted from the memory. In this case, the traveling path recognition unit 23 determines the number of lane marking information including the validity of the lane marking information. For this reason, it can suppress using the lane marking information with low precision in subsequent processes.
  • the traveling path recognition unit 23 may appropriately shorten the detectable range used as the threshold value in the determination of the validity of the lane marking information in accordance with each state detection.
  • the state detection the inclination and curvature of the vehicle 1 may be detected from the lane marking information.
  • the inter-vehicle distance to the preceding vehicle may be separately detected by the camera 8 or measured using a known radar or the like.
  • step S13 If it is determined in step S13 that the stored lane line information is greater than or equal to the predetermined number, the process proceeds to step S15, and the stored lane line information is less than the predetermined number. If it is determined, the process proceeds to step S14.
  • the travel path recognition unit 23 stores the new lane line information acquired in step S12 as it is and uses the lane line information stored in the travel path recognition unit 23. Update certain storage partition line information. At this time, since the lane line information stored is small, the traveling path recognition unit 23 does not output the estimated lane line information (step S19), and the processing in FIG. 4 ends.
  • step S15 when the process proceeds from step S13 to step S15, that is, when the storage lane line information includes more than a predetermined number of lane line information, the travel path recognition unit 23 is based on the storage lane line information.
  • the estimated lane line information calculation process A is executed, and estimated lane line information used in the next step S16 is estimated. Details of the estimated lane marking information calculation process A will be described later.
  • the traveling path recognition unit 23 compares the new lane marking information acquired in step S12 with the estimated lane marking information obtained in step S15, and whether these differences are within a predetermined value.
  • the predetermined value is appropriately set in order to exclude abnormal values such as abnormal lane marking information.
  • the predetermined value includes, for each of the lane line distance, the vehicle angle, and the curvature, a value that takes into account the change width of the road structure (lane line) during the calculation cycle and the change due to the vehicle behavior, A value obtained by adding a margin such as a detection error is set.
  • 0.5 [m], 0.1 [rad], and 0.002 [1 / m] are used as predetermined values for the lane line distance, the vehicle angle, and the curvature. Shall.
  • step S16 If it is determined in step S16 that the difference has exceeded a predetermined value in any of the lane line distance, vehicle angle, and curvature, the process proceeds to step S19. On the other hand, when it is determined that the difference between the lane line distance, the vehicle angle, and the curvature is within a predetermined value, the process proceeds to step S17.
  • the traveling path recognition unit 23 determines that the new lane line information acquired in step S12 is normal, stores the lane line information as it is, and stores the lane line information. Update. At the time of this update, if the number of storage lane line information exceeds the maximum storage number (here 10), the oldest lane line information is erased from the storage lane line information, and is acquired in step S12. The new lane marking information is included in the storage lane marking information.
  • step S18 the traveling path recognition unit 23 executes the estimated lane marking information calculation process B based on the storage lane marking information updated in step S17.
  • the difference between the estimated lane line information calculation process B and the estimated lane line information calculation process A in step S15 is the same in the processing contents except for the processing target.
  • the processing target of the estimated lane line information calculation process A in step S15 is storage lane line information not including the new lane line information acquired in step S12, but the process of the estimated lane line information calculation process B
  • the target is storage lane line information including the new lane line information acquired in step S12.
  • step S18 the traveling path recognition unit 23 outputs the estimated lane marking information calculated in step S18, and the process of FIG. 4 ends.
  • step S16 the traveling path recognition unit 23 determines that the new lane line information acquired in step S12 is abnormal, and does not include the lane line information in the storage lane line information.
  • the estimated lane marking information calculated in step S15 is output, and the processing of FIG.
  • FIG. 5 is a flowchart showing details of the estimated lane marking information calculation process performed in each of steps S15 and S18.
  • FIG. 6 is a diagram illustrating an example of estimated lane marking information calculation processing.
  • Steps S31 and S32 are performed for each of a predetermined number or more of lane marking information included in the storage lane marking information, but since the processing contents are the same, one lane marking information will be described as an example. To do.
  • step S31 the travel path recognition unit 23 reads the lane line information from the storage lane line information, and from the lane line distance k0, the vehicle angle k1, the curvature k2, and the curvature change rate k3 included in the lane line information. Find intermediate lane marking information.
  • the intermediate lane marking information is information that is being converted from the lane marking information to the current position lane marking information.
  • the intermediate lane marking information is the detection position when the vehicle 1 has advanced from the detection position DP (FIG. 6), which is the position of the vehicle 1 when the lane marking information is detected, to the current position CP (FIG. 6). It is the information regarding the position and shape of a division line in a coordinate system.
  • the detection position coordinate system is a coordinate system based on the detection position DP.
  • an orthogonal coordinate system in which the front-rear direction and the left-right direction of the vehicle 1 at the detection position DP are the x direction and the y direction, respectively, is used as the detection position coordinate system.
  • the intermediate lane marking information is information regarding the position and shape of the lane marking as described above, the lane marking information includes the lane marking distance, the vehicle angle, the curvature, and the curvature change rate similarly to the lane marking information.
  • the lane line distance k0 (L), the vehicle angle k1 (L), and the curvature k2 (L) of the lane line in the detection position coordinate system are: It can be obtained using the following equation (1) including the lane marking information k0 to k2.
  • the curvature change rate k3 (L) is constant as described above and is the same as k3.
  • the traveling path recognition unit 23 obtains the distance from the detection position DP to the current position CP based on the integrated value of the vehicle behavior acquired and updated in steps S11 and S12. And the traveling path recognition part 23 calculates
  • a deviation of the inclination of the vehicle 1 at the current position CP occurs.
  • a vertical movement amount (dx in FIG. 6) that is a movement amount in the x direction from the detection position DP to the current position CP may be substituted into L.
  • the steering angle is relatively large and the deviation is unacceptable at low speeds, such as when following a preceding vehicle in a traffic jam, the calculation can be performed considering the vehicle inclination at the current position CP. Good.
  • a value that can be obtained based on the integrated value of the vehicle behavior is a lateral movement amount dy that is a movement amount in the y direction from the detection position DP to the current position CP.
  • a lateral movement amount dy that is a movement amount in the y direction from the detection position DP to the current position CP.
  • an own vehicle angle change ⁇ which is an angle formed by the x direction of the detection position DP and the x direction of the current position CP.
  • the vehicle angle change ⁇ can be obtained by integrating the yaw rate from the time of detection to the present.
  • the vertical movement amount dx and the lateral movement amount dy are accumulated from the time of detection to the present, and the travel distance (Svsp) obtained by the accumulation is calculated using the vehicle angle change ⁇ as an x-direction component and a y-direction component. Can be obtained by separating them. Strictly speaking, errors also occur due to meandering and the like regarding the vehicle movement distances such as the vertical movement amount dx and the lateral movement amount dy, but it is assumed that the vehicle 1 is traveling at a relatively high speed as described above. It can be said that the error and its influence are small. Note that when theta is small, sin (theta) ⁇ theta, to approximate as cos ( ⁇ ) ⁇ 1- ⁇ 2/2, may reduce the computational load by the following equation (2).
  • the travel path recognition unit 23 obtains the vertical movement amount dx based on the integrated value of the vehicle behavior acquired and updated in Steps S11 and S12, and calculates the vertical movement amount dx by the above equation (1).
  • intermediate lane marking information is obtained. If this calculation is performed for each of a plurality of lane marking information, a plurality of pieces of intermediate lane marking information can be obtained.
  • the coordinate system of the intermediate lane line information is a detection position coordinate system, and the detection position coordinate system differs depending on the detection position of each lane line information, a plurality of intermediate lane line information should be subjected to processing such as averaging as it is. Absent. That is, when processing such as averaging is performed on a plurality of pieces of intermediate lane marking information, the coordinate systems of the lane marking information to be processed should be the same.
  • step S32 in FIG. 5 the traveling path recognition unit 23 changes the coordinate system of the plurality of intermediate lane marking information obtained in step S31 from the detection position coordinate system based on the detection position DP (FIG. 6).
  • the current position CP FIG. 6
  • a plurality of current position lane marking information is corrected. This makes it possible to use a value corresponding to the current position of the vehicle 1 for control and process values corresponding to the current position of the vehicle 1 collectively regardless of the detection position of each lane marking information. It becomes.
  • the current position lane marking information is information relating to the position and shape of the lane marking based on the current position coordinate system.
  • an orthogonal coordinate system in which the front-rear direction and the left-right direction of the vehicle 1 at the current position CP are the x ′ direction and the y ′ direction, respectively, is used as the current position coordinate system.
  • the current position lane line information is information related to the position and shape of the lane line as described above, the lane line distance, the vehicle angle, the curvature, and the curvature change rate are included in the same manner as the lane line information.
  • k0 (dx) may be converted from the detected position coordinate system to the current position coordinate system by a known coordinate conversion method.
  • the current position lane line information can be obtained by shifting the distance from the detection position DP to the current position CP by the moving distance (dx, dy) with respect to k0 (dx) and then rotating by the own vehicle angle change ( ⁇ ).
  • the vehicle lane line distance k0 ′ is obtained. Note that the position of the vehicle 1 in the x direction of the detection position coordinate system of k0 ′ is dx, and the position of the vehicle 1 in the x ′ direction of the current position coordinate system is 0.
  • the traveling path recognition unit 23 applies k0 (dx) of the intermediate lane marking information and dy and ⁇ obtained from the vehicle behavior to the following equation (3) to determine the lane marking distance of the current location lane marking information. Find k0 '.
  • the vehicle angle in the current position lane line information is the inclination between the vehicle inclination at the time of detection in the detection position coordinate system and the lane line, and thus needs to be converted to the current vehicle inclination. Since the change amount of the vehicle inclination from the time of detection to the present is ⁇ , the vehicle angle of the current position lane marking information is expressed by the following equation (4). Therefore, the traveling path recognition unit 23 obtains the vehicle angle k1 ′ of the current position lane line information by applying k1 (dx) of the intermediate lane line information and ⁇ obtained from the vehicle behavior to the following equation (4). .
  • the traveling path recognition unit 23 applies k2 (dx) of the intermediate lane marking information to the following equation (5) to obtain the curvature of the current position lane marking information.
  • step S32 the traveling path recognition part 23 acquires several present position division line information.
  • the travel path recognition unit 23 estimates one current position lane line information as estimated lane line information based on a plurality of current position lane line information.
  • the values of the plurality of current position lane marking information are values of the current position coordinate system converted in step S32, the values should be the same if detected and converted without error.
  • the traveling path recognition unit 23 estimates one current position lane line information as estimated lane line information by taking an average of a plurality of current position lane line information. Thereby, it is possible to estimate a stable estimated value and thus estimated lane marking information.
  • the estimation of estimated lane marking information is not limited to the above.
  • the validity of the lane markings described in step S13 above may be considered.
  • a weighted average obtained by weighting according to the travel distance from the time of detection may be taken. Specifically, if the mileage from the time of detection is longer and the weight is reduced as old information, and the weight is increased as new information as the mileage from the time of detection is short, the contribution rate of highly effective information will increase. The improvement of accuracy can be expected.
  • the travel path recognition unit 23 uses lane line information corrected by vehicle behavior for estimation of estimated lane line information, and thus is simply extrapolated.
  • the estimation accuracy can be increased as compared with the case where the method is used.
  • the traveling path recognition unit 23 uses a plurality of pieces of lane line information detected in the past for estimation of the estimated lane line information, variations in the lane line information due to detection errors and disturbances are estimated in the estimated lane line information. It is possible to suppress the influence.
  • the travel path recognition unit 23 has a difference between one new lane line information newly detected by the lane line detection unit 22 and the estimated lane line information within a predetermined threshold. Only in this case, the new lane marking information is included in the storage lane marking information (steps S16 and S17 in FIG. 4).
  • the storage lane line information here can be referred to as a plurality of lane line information used for estimation. According to such a configuration, it is possible to further suppress the variation in lane marking information due to detection errors and disturbances from affecting the estimation of estimated lane marking information.
  • ⁇ Embodiment 2> In the travel path recognition apparatus according to the first embodiment, it is determined whether or not one new lane line information newly detected by the lane line detection unit 22 is abnormal. It is configured so that it is included in the information and not included in the storage partition line information if it is not normal. However, the present invention is not limited to this, and the storage lane line information is abnormal by determining variations in the storage lane line information itself as in the travel path recognition device according to the second embodiment of the present invention described below. You may further determine whether there exists.
  • FIG. 7 is a flowchart showing details of the travel route recognition process according to the second embodiment.
  • step S19 is replaced with steps S20 to S22 in the travel path recognition processing (FIG. 4) according to the first embodiment, and the difference is determined in advance in step S16. If it is determined that it is not within the specified value, the same operation as the operation of the traveling path recognition apparatus according to the first embodiment is performed except that the process proceeds to step S22. Therefore, step S19 will be mainly described below with respect to steps S20 to S22.
  • the travel path recognition unit 23 includes a plurality of current lane marking information included in the storage lane line information calculated in steps S31 and S32 (FIG. 5) in the estimated lane marking information calculation process B in step S18.
  • the degree of variation is obtained for the position marking line information.
  • the travel path recognition unit 23 obtains the degree of variation for each of the lane line distance, the vehicle angle, and the lane line curvature included in each of the plurality of current position lane line information.
  • the degree of variation is described as being a variance, but is not limited thereto, and may be a standard deviation, for example. However, since the standard deviation requires square root, it is preferable to use a variance that does not require square root for the degree of variation when a reduction in arithmetic processing is required.
  • the traveling path recognition unit 23 determines whether or not the obtained variation degree is equal to or greater than a predetermined threshold value. If the variance is greater than or equal to the threshold, the process proceeds to step S21. If the variance is less than the threshold, the process proceeds to step S22.
  • the threshold used for the determination in step S20 is that the process does not proceed to step S21 in the normal state, and the process proceeds to step S21 in the case of an abnormal state in which the detection state deteriorates and erroneous detection frequently occurs. It is good to set it to a value that advances. For example, 0.16, 6.4 ⁇ 10 ⁇ 3, 1.0 ⁇ 10 ⁇ 6, etc. are used as threshold values for the car lane line distance, vehicle angle, and lane line curvature, respectively.
  • step S20 the traveling path recognition unit 23 deletes the storage lane marking information, and the process of FIG. 7 ends.
  • step S20 the traveling path recognition unit 23 determines that the stored lane marking information is normal, and outputs the estimated lane marking information calculated in step S18. Then, the process of FIG. 7 ends.
  • the traveling path recognition unit 23 obtains the degree of variation of the plurality of current position lane marking information, and the degree of variation is equal to or greater than a predetermined threshold. In some cases, the storage partition line information is erased.
  • the storage lane line information here can be referred to as a plurality of lane line information used for estimation. According to such a configuration, it is possible to further suppress the variation in lane marking information due to detection errors and disturbances from affecting the estimation of estimated lane marking information.
  • the lane line acquisition unit, the vehicle behavior acquisition unit, and the travel path recognition unit in the travel path recognition device are referred to as “a lane line acquisition unit and the like”.
  • the lane marking acquisition unit and the like are realized by the processing circuit 81 in FIG. 8 corresponding to the control unit 10 in FIG. That is, the processing circuit 81 includes a lane line acquisition unit that acquires lane line information, a vehicle behavior acquisition unit that acquires vehicle behavior related to the vehicle speed and yaw rate of the vehicle 1 from the time of acquisition of the lane line information to the present, A travel path recognition unit that recognizes a travel path on which the vehicle 1 travels based on the information.
  • Dedicated hardware may be applied to the processing circuit 81, or a processor that executes a program stored in the memory may be applied.
  • the processor corresponds to, for example, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a DSP (Digital Signal Processor) and the like.
  • the processing circuit 81 When the processing circuit 81 is dedicated hardware, the processing circuit 81 includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate). Array) or a combination thereof.
  • Each function of each unit such as a lane marking acquisition unit may be realized by a circuit in which processing circuits are distributed, or the function of each unit may be realized by a single processing circuit.
  • the processing circuit 81 When the processing circuit 81 is a processor, the functions of the lane marking acquisition unit and the like are realized by a combination with software or the like.
  • the software or the like corresponds to, for example, software, firmware, or software and firmware.
  • Software or the like is described as a program and stored in a memory.
  • the processor 83 applied to the processing circuit 81 reads and executes the program stored in the memory 84, whereby the wheel of FIG. 1 is connected via the input / output control interface (I / F) 82.
  • the travel path recognition device when executed by the processing circuit 81, acquires the lane line information and the vehicle behavior related to the vehicle speed and yaw rate of the vehicle 1 from the time of acquisition of the lane line information to the present. And a step of recognizing a travel path on which the vehicle 1 travels based on the lane marking information, and a memory 84 for storing a program to be executed as a result.
  • this program causes a computer to execute procedures and methods such as a lane marking acquisition unit.
  • the memory 84 is nonvolatile or non-volatile such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), or the like. Volatile semiconductor memory, HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disk), its drive device, etc., or any storage media used in the future May be.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), or the like.
  • Volatile semiconductor memory Volatile semiconductor memory, HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disk), its drive device, etc., or any storage media used in the future May be.
  • each function such as the lane marking acquisition unit is realized by either hardware or software
  • the present invention is not limited to this, and a configuration may be adopted in which a part of the lane marking acquisition unit or the like is realized by dedicated hardware and another part is realized by software or the like.
  • the function is realized by a processing circuit as dedicated hardware such as a receiver, and the processing circuit 81 as the processor 83 is stored in the memory 84 otherwise. The function can be realized by reading out and executing.
  • the processing circuit 81 can realize the above functions by hardware, software, or the like, or a combination thereof.
  • the travel path recognition device described above includes navigation devices such as PND (Portable Navigation) Device, communication terminals including mobile terminals such as mobile phones, smartphones, and tablets, and application functions installed on these devices,
  • the present invention can also be applied to a traveling path recognition system constructed as a system by appropriately combining servers.
  • each function or each component of the traveling path recognition device described above may be distributed and arranged in each device that constructs the system, or may be concentrated on any device. Good.
  • the present invention can be freely combined with each embodiment and each modification within the scope of the invention, or can be appropriately modified and omitted with each embodiment and each modification.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

区画線情報を適切に推定可能な技術を提供することを目的とする。走行路認識装置は、走行路認識部を備える。走行路認識部は、予め定められた個数以上の複数の区画線情報が取得された場合に、車両挙動に基づいて、複数の区画線情報を複数の現在位置区画線情報に補正する。そして、走行路認識部は、複数の現在位置区画線情報に基づいて一の現在位置区画線情報を推定区画線情報として推定し、当該推定区画線情報を走行路の認識に使用する。

Description

走行路認識装置及び走行路認識方法
 本発明は、車両が走行する走行路を認識する走行路認識装置及び走行路認識方法に関する。
 レーンキープアシスト機能を備える車両では、車両が走行する走行路を認識する走行路認識装置が用いられている。例えば特許文献1に開示の走行路認識装置は、検出した車線境界に対応する車線候補点の点列に基づいて車線境界を推定し、今回の演算時を基準として設定時間進む前における点列に基づいて設定時間進み後の予測パラメータ係数を設定する。そして、走行路認識装置は、この予測パラメータ係数に基づいて設定時間進み後の車線を推定する。つまり、特許文献1に開示の走行路認識装置によれば、過去の車線候補点の点列に基づいて設定時間進み後の予測パラメータ係数を設定し、この予測パラメータ係数に基づいて車線を推定するようにしている。
特開2012-058984号公報
 しかしながら、上記特許文献1に記載の技術では、検出した車線境界に対する車線候補点の点列を記憶した値を、車両挙動を考慮せずに、そのまま使用して予測パラメータ係数を設定する。この結果、車両挙動による変化分を考慮せずに、画像を撮像した時点における車両位置に対応する車線境界をそのまま使用するため、予測精度が比較的低いという問題がある。
 また、過去に検出して記憶した値をそのまま使用しているため、外乱等による検出値のばらつきの影響を受けやすいという問題がある。
 そこで、本発明は、上記のような問題点を鑑みてなされたものであり、区画線情報を適切に推定可能な技術を提供することを目的とする。
 本発明に係る走行路認識装置は、車両の位置を基準とする、前記車両前方の区画線の位置及び形状に関する区画線情報を取得する区画線取得部と、前記区画線情報の取得時から現在までの、前記車両の車速及びヨーレートに関する車両挙動を取得する車両挙動取得部と、前記区画線情報に基づいて前記車両が走行する走行路を認識する走行路認識部とを備える。前記走行路認識部は、前記区画線取得部が予め定められた個数以上の複数の前記区画線情報を取得した場合に、前記車両挙動に基づいて、前記複数の区画線情報を、前記車両の現在位置を基準とする、前記区画線の位置及び形状に関する複数の現在位置区画線情報に補正し、前記複数の現在位置区画線情報に基づいて一の現在位置区画線情報を推定区画線情報として推定し、当該推定区画線情報を前記走行路の認識に使用する。
 本発明によれば、走行路認識部は、予め定められた個数以上の複数の区画線情報が取得された場合に、車両挙動に基づいて、複数の区画線情報を複数の現在位置区画線情報に補正し、複数の現在位置区画線情報に基づいて一の現在位置区画線情報を推定区画線情報として推定し、当該推定区画線情報を走行路の認識に使用する。これにより、推定区画線情報を適切に推定することができる。
 本発明の目的、特徴、態様及び利点は、以下の詳細な説明と添付図面とによって、より明白となる。
コントロールユニットを備える運転支援装置の構成の一例を示す図である。 実施の形態1に係る走行路認識装置の機能を示すブロック図である。 実施の形態1に係る走行路認識装置の動作を示すフローチャートである。 実施の形態1に係る走行路認識装置の動作を示すフローチャートである。 実施の形態1に係る走行路認識装置の動作を示すフローチャートである。 実施の形態1に係る走行路認識装置の推定区画線情報算出処理の一例を示す図である。 実施の形態2に係る走行路認識装置の動作を示すフローチャートである。 走行路認識装置のハードウェア構成の一例を示すブロック図である。 走行路認識装置のハードウェア構成の一例を示すブロック図である。
 <実施の形態1>
 本発明の実施の形態1に係る走行路認識装置は、車両に搭載されたコントロールユニットによって実現される。図1は、本実施の形態1に係るコントロールユニット10を備える運転支援装置の構成の一例を示す構成図である。なお、各実施の形態において、同一または類似する部分は同一符号で示し、重複する説明は適宜省略する。
 操舵装置4は、操舵装置4に連結されたハンドル2の挙動に基づいてタイヤ5を転舵する。操舵装置4には、一般的な電動パワーステアリング装置と同様に、モータ3が連結されており、モータ3が発生するトルクが操舵装置4に適宜付与される。モータ3は、コントロールユニット10が出力する目標電流に基づいて駆動する。
 車輪速センサ6は、車両1の車速に関する車速情報を検出する。車速情報には、例えば、車両1の車速、時間微分によって当該車速が得られる車両1の走行距離、時間積分によって当該車速が得られる車両1の加速度などが用いられる。
 ヨーレートセンサ7は、車両1のヨーレートに関するヨーレート情報を検出する。ヨーレート情報には、例えば、車両1のヨーレート、時間微分によって当該ヨーレートが得られる車両1のヨー角、所定の計算によって当該ヨーレートが得られる車両1のヨーモーメントなどが用いられる。
 カメラ8は、車両1内のルームミラー周辺に設置され、車両1のフロントガラスを通じて車両1の前方画像を撮影する。カメラ8で撮影された前方画像は、後で詳細に説明する区画線情報の検出に用いられる。
 コントロールユニット10は、モータ3、車輪速センサ6、ヨーレートセンサ7、及び、カメラ8と直接的または間接的に接続されている。コントロールユニット10には、各センサからの信号及びカメラ8からの前方画像が入力され、これら入力に基づいてモータ3の駆動信号である目標電流を決定し、当該目標電流をモータ3に出力する。なお、コントロールユニット10は、一般的な電動パワーステアリング装置の制御機能を有してもよい。
 図2は、コントロールユニット10によって実現される走行路認識装置の機能を示すブロック図である。図2の走行支援装置は、車両挙動検出部21と、区画線情報を検出する区画線検出部22と、走行路認識部23とを備える。
 車両挙動取得部である車両挙動検出部21は、車速検出部21aと、ヨーレート検出部21bとを備える。車速検出部21aは、車輪速センサ6で検出された車速情報に基づいて、区画線検出部22が区画線情報を検出した時から現在までの車両1の車速を随時検出する。ヨーレート検出部21bは、ヨーレートセンサ7で検出されたヨーレート情報に基づいて、区画線検出部22が区画線情報を検出した時から現在までの車両1のヨーレートを随時検出する。
 以上のように構成された車両挙動検出部21は、区画線情報の検出時から現在までの、車両1の車速及びヨーレートに関する車両挙動を検出する。車両挙動検出部21は、検出した車両挙動を走行路認識部23に出力する。
 区画線取得部である区画線検出部22は、カメラ8で撮影された前方画像のデータに基づいて区画線情報を検出し、検出した区画線情報を例えば0.1msec周期で走行路認識部23に出力する。区画線情報は、画像撮影時の車両1の位置を基準とする、車両1前方の区画線の位置及び形状に関する情報である。区画線情報には、例えば、車両1と区画線の車両1側方の部分と間の距離である車区画線距離と、区画線の当該部分に対する車両1の進行方向の傾きである車両角度と、区画線の曲率と、区画線の曲率変化率とが含まれる。
 ここで、区画線情報の検出方法について説明する。区画線検出部22は、カメラ8で撮影された前方画像から、当該前方画像において道路の左右両側に位置する白線等の区画線を公知の方法で抽出する。そして、区画線検出部22は、得られた区画線について曲率及び曲率変化率を求める。以下、求められた曲率変化率は、撮像範囲内において一定であるものとして説明する。この場合、区画線検出部22は、撮像(検出)位置の曲率と、撮像範囲内において一定である曲率変化率とから、撮像された区画線のうち車両1前方部分について、撮像時点の車両1の位置を基準とする上述の曲率を求める。また、区画線検出部22は、公知の方法で車両1の位置まで延長した区画線を外挿法によって推定し、撮像時点の車両1の位置から、推定された区画線までの距離を、上述の車区画線距離として求める。また、区画線検出部22は、推定された区画線に対する、車両1の撮像時点の進行方向の傾きを、上述の車両角度として求める。
 走行路認識部23は、区画線検出部22で検出された区画線情報を記憶し、記憶した区画線情報に基づき推定区画線情報を推定する。そして、走行路認識部23は、推定区画線情報に基づいて、車両が走行する走行路を認識したり、推定区画線情報を外部に出力したりする。
 ここで、推定区画線情報の推定に用いられる区画線情報の個数が多いほど、推定区画線情報における推定値が安定するが、その一方で、記憶領域や演算負荷が増加してしまう。また、区画線情報が検出された時点と現時点との間の時間が長いほど、当該区画線情報を用いた推定区画線情報の推定精度は低下してしまう。そこで、本実施の形態1では、走行路認識部23は、最大10個まで区画線情報を記憶するものとする。このような構成では、安定して区画線情報が得られる場合には、例えば現在から約1sec前の時点までの区画線情報が、走行路認識部23に記憶されることになる。
 <動作>
 図3は、本実施の形態1に係る走行路認識装置の動作を示すフローチャートである。この図3の動作は、例えば0.01秒を周期とする一定周期で実行される。
 まずステップS1にて、区画線検出部22は、区画線検出処理を実施して区画線情報を検出する。区画線検出部22は、上述した検出方法などを用いることによって、上述した車区画線距離、車両角度、曲率及び曲率変化率を含む区画線情報を検出する。なお図示しないが、区画線情報の検出に応じて、車両挙動も検出されるものとする。
 ステップS2にて、走行路認識部23は、走行路認識処理を実施し、条件に応じて推定区画線情報を推定する。後の説明で明らかとなるように、本実施の形態1に係る走行路認識部23は、車両挙動に基づいて、複数の区画線情報を、車両1の現在位置を基準とする、区画線の位置及び形状に関する複数の現在位置区画線情報に補正する。そして、走行路認識部23は、複数の現在位置区画線情報に基づいて一の現在位置区画線情報を推定区画線情報として推定する。
 このような構成によれば、推定区画線情報の推定に、車両挙動で補正された区画線情報を用いるため、推定区画線情報の推定精度を高めることができる。また、推定区画線情報の推定に、過去に検出された複数の区画線情報を用いるため、検出誤差や外乱による区画線情報のばらつきが、推定区画線情報の推定に影響してしまうことを抑制することができる。
 走行路認識部23は、推定区画線情報に基づいて車両1が走行する走行路を認識する。本実施の形態1では、走行路認識装置を実現するコントロールユニット10(図2)が、走行路認識部23で認識された走行路に基づいてモータ3の電流を制御することによって、公知の操舵角制御を実行する。これにより、例えば、車両1が車線間の中央部分などの部分を走行することを維持するレーンキープアシスト機能を適切化することができる。
 図4は、図3のステップS2における走行路認識処理の詳細を示すフローチャートである。
 まずステップS11にて、走行路認識部23は、検出された各区画線情報に対応する車両挙動を積算する車両挙動積算を実施する。走行路認識部23は、各区画線を検出した時から現在までの車両挙動を周期毎に積算することで、検出時から現在までに変化した車両1の位置及び進行方向を取得する。これらは、後述の推定区画線情報算出処理における中間区画線情報の座標系の変換などに使用される。
 ステップS12にて、走行路認識部23は、区画線検出部22で検出された最新の区画線情報である新規区画線情報と、新規区画線情報の検出時における車両1の位置とを、区画線検出部22から取得する。
 なお、検出時の車両1の位置については、区画線検出部22が区画線検出した第1時点から走行路認識部23が区画線情報を取得した第2時点までの時間差による影響が無視できない場合がある。この時間差の原因としては、カメラ8が撮影した前方画像を処理して区画線情報を求める際の演算に必要な時間、及び、CAN(Controller Area Network)等の通信線の経由による通信遅れなどがある。例えば時間差が無視できるレベル(例えば0.01sec程度)であれば、上記第1時点と上記第2時点とは同時とみなせるため、時間差に起因する走行距離及び車両回転角のずれはともに0でよい。一方、例えば時間差が無視できないレベル(例えば0.1sec程度)であれば、その間に車両1は数m走行する。このような場合には、走行路認識部23は、取得した車両1の位置を、取得時点から0.1sec前に検出された車両1の位置として用いればよい。0.1sec前の車両1の位置は、0.1sec間の車両挙動を、前述のステップS11と同様に積算することで得られる。
 ステップS13にて、走行路認識部23は、自身が記憶している区画線情報が予め定められた個数以上存在するか判定する。後述するステップS15の推定区画線情報算出処理Aでは、走行路認識部23は、記憶した複数の区画線情報から推定区画線情報を推定する。このため、推定区画線情報として安定した推定値を得るためには、ある程度の個数の区画線情報が必要となる。一方、区画線情報の個数が過度に多くなってはじめて推定区画線情報を推定する場合には、推定区画線情報を使用する後段の制御を適切に実行できなくなってしまうだけでなく、記憶領域や処理に必要な時間が大きくなってしまう。そこで、本実施の形態1では、予め定められた個数として、例えば5個が用いられるものとする。
 なお、走行路認識部23は、記憶している区画線情報の個数を判定する際に、区画線情報の有効性も含めて判定し、その判定結果に応じて記憶している区画線情報を破棄する、つまり記憶から消去してもよい。例えば、カメラ8の性能等により車両1前方の区画線を検出できる最大距離(例えば100mなど)以上、車両1から離れた区画線については、当該区画線の区画線情報は適切でないといえる。このため、区画線情報の検出時から本ステップS13までの車両走行距離が上記最大距離を超えた場合には、その区画線情報の精度は低下しているといえる。そこで、走行路認識部23は、カメラ8が適切に検出できる範囲である検出可能範囲を閾値として用い、区画線情報の検出時から本ステップS13までの車両走行距離が当該閾値を超える場合に、当該区画線情報を記憶から消去してもよい。この場合には、走行路認識部23は、区画線情報の有効性も含めて区画線情報の個数を判定することとなる。このため、精度が低い区画線情報を、以降の処理において使用することを抑制することができる。
 さらに、区画線情報の検出時から本ステップS13までの車両走行距離が、カメラ8の検出可能範囲を超えていない場合であっても、例えば、急カーブ等で見通しが悪い場合、車両1と区画線との傾きが大きくて区画線の撮影範囲が狭くなる場合、または、車両1とその先行車両との間の車間距離が短い場合などには、カメラ8の検出可能範囲は、通常の検出可能範囲よりも狭くなると考えられる。そこで、走行路認識部23は、それぞれの状態検出に応じて、区画線情報の有効性の判定で閾値として用いられる検出可能範囲を適宜短縮してもよい。状態検出として、車両1の傾き及び曲率が、区画線情報から検出されてもよい。また状態検出として、先行車両までの車間距離が、カメラ8にて別途検出されてもよいし、公知のレーダ等を用いて計測されてもよい。
 ステップS13で、記憶している区画線情報が予め定められた個数以上存在すると判定された場合には処理がステップS15に進み、記憶している区画線情報が予め定められた個数未満しか存在しないと判定された場合には処理がステップS14に進む。
 ステップS13からステップS14に処理が進んだ場合には、走行路認識部23は、ステップS12で取得した新規区画線情報をそのまま記憶して、走行路認識部23が記憶している区画線情報である記憶区画線情報を更新する。この時点では記憶している区画線情報が少ないため、走行路認識部23は、推定区画線情報の出力(ステップS19)は行わず、図4の処理が終了する。
 一方、ステップS13からステップS15に処理が進んだ場合、つまり記憶区画線情報が、予め定められた個数以上の区画線情報を含む場合には、走行路認識部23は、記憶区画線情報に基づいて推定区画線情報算出処理Aを実行し、次ステップS16で使用する推定区画線情報を推定する。推定区画線情報算出処理Aの詳細は後述する。
 ステップS16にて、走行路認識部23は、ステップS12で取得した新規区画線情報と、ステップS15で求めた推定区画線情報とを比較し、これらの差が予め定められた値以内であるかを判定する。予め定められた値は、異常な区画線情報などの異常な値を除外するために適切に設定される。例えば、予め定められた値には、車区画線距離、車両角度及び曲率のそれぞれについて、演算周期の間における道路構造(区画線)の変化幅と、車両挙動による変化分を考慮した値と、検出誤差等の余裕とを加算した値が設定される。本実施の形態1では、車区画線距離、車両角度及び曲率の予め定められた値には、0.5[m]、0.1[rad]及び0.002[1/m]が用いられるものとする。
 ステップS16で、車区画線距離、車両角度及び曲率のいずれかにおいて、上記差が予め定められた値を超えたと判定された場合には処理がステップS19に進む。一方、車区画線距離、車両角度及び曲率のいずれも、上記差が予め定められた値以内であると判定された場合には処理がステップS17に進む。
 ステップS16からステップS17に処理が進んだ場合、走行路認識部23は、ステップS12で取得した新規区画線情報は正常であると判定して、当該区画線情報をそのまま記憶して記憶区画線情報を更新する。この更新の際に、記憶区画線情報の個数が、記憶最大個数(ここでは10個)を超える場合には、最も古い区画線情報を記憶区画線情報から消去してから、ステップS12で取得した新規区画線情報を記憶区画線情報に含める。
 ステップS18にて、走行路認識部23は、ステップS17で更新された記憶区画線情報に基づいて推定区画線情報算出処理Bを実行する。この推定区画線情報算出処理Bと、ステップS15の推定区画線情報算出処理Aとの違いは、処理対象が異なるのみで処理内容は同一である。具体的には、ステップS15の推定区画線情報算出処理Aの処理対象は、ステップS12で取得された新規区画線情報を含まない記憶区画線情報であるが、推定区画線情報算出処理Bの処理対象は、ステップS12で取得された新規区画線情報を含む記憶区画線情報である。
 ステップS18からステップS19に処理が進んだ場合、走行路認識部23は、ステップS18で算出された推定区画線情報を出力して、図4の処理が終了する。ステップS16からステップS19に処理が進んだ場合、走行路認識部23は、ステップS12で取得された新規区画線情報は異常であると判定して、当該区画線情報を記憶区画線情報に含めずに、ステップS15で算出された推定区画線情報を出力して、図4の処理が終了する。
 図5は、ステップS15及びS18のそれぞれで行われる推定区画線情報算出処理の詳細を示すフローチャートである。図6は、推定区画線情報算出処理の一例を示す図である。
 なお、ステップS31及びS32は、記憶区画線情報に含まれる予め定められた個数以上の区画線情報のそれぞれについて行われるが、処理内容は同一であるため、1つの区画線情報を例にして説明する。
 まずステップS31にて、走行路認識部23は、記憶区画線情報から区画線情報を読み出し、当該区画線情報に含まれる車区画線距離k0、車両角度k1、曲率k2及び曲率変化率k3から、中間区画線情報を求める。
 なお中間区画線情報は、区画線情報から現在位置区画線情報に変換する途中の情報である。ここでは、中間区画線情報は、車両1が、区画線情報を検出したときの車両1の位置である検出位置DP(図6)から現在位置CP(図6)に進んだ場合の、検出位置座標系における区画線の位置及び形状に関する情報である。
 検出位置座標系は、検出位置DPを基準とする座標系である。図6の例では、検出位置DPにおける車両1の前後方向及び左右方向をそれぞれx方向及びy方向とする直交座標系が、検出位置座標系として用いられている。中間区画線情報は、上述したように区画線の位置及び形状に関する情報であることから、区画線情報と同様に車区画線距離、車両角度、曲率及び曲率変化率を含む。
 次に、走行路認識部23が中間区画線情報を求める動作について説明する。
 車両1が検出位置DPから距離L[m]進んだ場合の、検出位置座標系における区画線の車区画線距離k0(L)、車両角度k1(L)、及び、曲率k2(L)は、区画線情報のk0~k2を含む次式(1)を用いて求めることができる。なお、曲率変化率k3(L)は上述したように一定であり、k3と同じである。
Figure JPOXMLDOC01-appb-M000001
 走行路認識部23は、ステップS11及びS12で取得及び更新した車両挙動の積算値に基づいて、検出位置DPから現在位置CPまでの距離を求める。そして、走行路認識部23は、当該距離を、上式(1)のLに代入することにより、中間区画線情報の車区画線距離、車両角度及び曲率を求める。
 厳密には、現在位置CPにおける車両1の傾き分のずれが生じる。しかしながら、レーンキープアシストが作動する状態では、車両1が比較的高速で走行していることが想定されるので、実際には車両1の傾きのずれはほとんど生じない。このため、中間区画線情報を求めるためには、検出位置DPから現在位置CPまでのx方向の移動量である垂直移動量(図6ではdx)をLに代入すればよい。一方、渋滞時の先行車両への追従する場合などのように、低速走行で操舵角が比較的大きくて上記ずれが許容できない場合には、現在位置CPにおける車両傾き分を考慮して計算すればよい。
 次に、車両挙動の積算値に基づいて垂直移動量dxを求めることについて説明する。なお、車両挙動の積算値に基づいて求めることができる値としては、上記垂直移動量dxのほかに、検出位置DPから現在位置CPまでのy方向の移動量である横方向移動量dyと、検出位置DPのx方向と現在位置CPのx方向とがなす角度である自車角度変化θとがある。これらは以下のように計算することができる。
 まず、自車角度変化θは、ヨーレートを検出時から現在まで積算することによって求めることができる。垂直移動量dx及び横方向移動量dyは、車速を検出時から現在まで積算し、当該積算によって得られる走行距離(Svsp)を、自車角度変化θを用いてx方向成分とy方向成分とに分離することによって求めることができる。垂直移動量dx及び横方向移動量dyなどの車両移動距離に関しても、厳密には蛇行等により誤差が生じるが、上記同様、車両1は比較的高速で走行していることを想定しているので、誤差及びその影響は小さいといえる。なお、θが小さい場合には、sin(θ)≒θ、cos(θ)≒1-θ/2として近似することで、次式(2)のように演算負荷を低減してもよい。
Figure JPOXMLDOC01-appb-M000002
 以上のことに鑑みて、走行路認識部23は、ステップS11及びS12で取得及び更新した車両挙動の積算値に基づいて垂直移動量dxを求め、垂直移動量dxを、上式(1)のLに代入することにより、中間区画線情報を求めるように構成されている。この演算を複数の区画線情報のそれぞれについて実施すれば、複数の中間区画線情報を得ることができる。しかしながら、中間区画線情報の座標系は検出位置座標系であり、検出位置座標系は各区画線情報の検出位置によって異なるので、複数の中間区画線情報についてそのまま平均化等の処理を行うべきではない。つまり、複数の中間区画線情報について平均化等の処理を行う場合には、処理対象となる区画線情報同士の座標系を同一にすべきである。
 そこで図5のステップS32にて、走行路認識部23は、ステップS31で得られた複数の中間区画線情報の座標系を、検出位置DP(図6)を基準とする検出位置座標系から、現在位置CP(図6)を基準とする現在位置座標系に変換することにより、複数の現在位置区画線情報に補正する。これにより、各区画線情報の検出位置にかかわらず、車両1の現在位置に対応した値を制御に使用すること、及び、車両1の現在位置に対応した値をまとめて処理することなどが可能となる。
 なお現在位置区画線情報は、現在位置座標系を基準とする区画線の位置及び形状に関する情報である。図6の例では、現在位置CPにおける車両1の前後方向及び左右方向をそれぞれx’方向及びy’方向とする直交座標系が、現在位置座標系として用いられている。現在位置区画線情報は、上述したように区画線の位置及び形状に関する情報であることから、区画線情報と同様に車区画線距離、車両角度、曲率及び曲率変化率を含む。
 次に、走行路認識部23が現在位置区画線情報を求める動作について説明する。
 まず、現在位置区画線情報の車区画線距離については、k0(dx)を、公知の座標変換方法で、検出位置座標系から現在位置座標系に変換すればよい。例えば、k0(dx)に対して、検出位置DPから現在位置CPまでの移動距離(dx、dy)分ずらした後、自車角度変化(θ)分だけ回転させれば、現在位置区画線情報の車区画線距離k0’が得られる。なお、k0’の検出位置座標系のx方向における車両1の位置はdxであり、現在位置座標系のx’方向における車両1の位置は0になることに注意する。以上より、現在位置区画線情報の車区画線距離k0’は、次式(3)のように表される。そこで、走行路認識部23は、中間区画線情報のk0(dx)と、車両挙動から求められるdy及びθとを次式(3)に適用して、現在位置区画線情報の車区画線距離k0’を求める。
Figure JPOXMLDOC01-appb-M000003
 現在位置区画線情報の車両角度は、検出位置座標系における検出時の車両傾きと区画線との傾きであるため、現在の車両傾きに変換する必要がある。検出時から現在までの車両傾きの変化量はθであることから、現在位置区画線情報の車両角度は、次式(4)のように表される。そこで、走行路認識部23は、中間区画線情報のk1(dx)と、車両挙動から求められるθとを次式(4)に適用して、現在位置区画線情報の車両角度k1’を求める。
Figure JPOXMLDOC01-appb-M000004
 現在位置区画線情報の区画線の曲率は、車両1の傾きは影響しないため、中間区画線情報の区画線の曲率をそのまま使用でき、現在位置区画線情報の曲率は、次式(5)のように表される。そこで、走行路認識部23は、中間区画線情報のk2(dx)を次式(5)に適用して、現在位置区画線情報の曲率を求める。
Figure JPOXMLDOC01-appb-M000005
 以上に説明したステップS32によって、走行路認識部23は、複数の現在位置区画線情報を取得する。
 図5のステップS33にて、走行路認識部23は、複数の現在位置区画線情報に基づいて一の現在位置区画線情報を推定区画線情報として推定する。ここで、複数の現在位置区画線情報の値は、ステップS32で変換された現在位置座標系の値であるため、誤差なく検出及び変換されていれば、互いに同じとなるべき値である。本実施の形態1では、走行路認識部23は、複数の現在位置区画線情報の平均をとることで、一の現在位置区画線情報を推定区画線情報として推定する。これにより、安定した推定値ひいては推定区画線情報を推定することができる。
 なお、推定区画線情報の推定は上述に限ったものではない。例えば、前述のステップS13で述べた区画線の有効性を考慮してもよい。また例えば、検出時からの走行距離に応じて重み付けをした加重平均をとってもよい。具体的には、検出時からの走行距離が長いほど古い情報として重み付けを小さくし、検出時からの走行距離が短いほど新しい情報として重み付けを大きくすると、有効性の高い情報の寄与率が高くなり、より精度向上が見込める。
 <実施の形態1のまとめ>
 以上のような本実施の形態1に係る走行路認識装置によれば、走行路認識部23は、推定区画線情報の推定に、車両挙動で補正された区画線情報を用いるため、単なる外挿法を用いる場合よりも、当該推定精度を高めることができる。また、走行路認識部23は、推定区画線情報の推定に、過去に検出された複数の区画線情報を用いるため、検出誤差や外乱による区画線情報のばらつきが、推定区画線情報の推定に影響してしまうことを抑制することができる。
 また本実施の形態1では、走行路認識部23は、区画線検出部22で新たに検出された一の新規区画線情報と、推定区画線情報との差が予め定められた閾値内である場合にのみ、新規区画線情報を記憶区画線情報含める(図4のステップS16及びS17)。ここでいう記憶区画線情報は、推定に用いられる複数の区画線情報と呼ぶことができる。このような構成によれば、検出誤差や外乱による区画線情報のばらつきが、推定区画線情報の推定に影響してしまうことをより抑制することができる。
 <実施の形態2>
 実施の形態1に係る走行路認識装置では、区画線検出部22で新たに検出された一の新規区画線情報が異常であるか否かを判定して、正常である場合には記憶区画線情報に含め、正常でない場合には記憶区画線情報に含めないようにするように構成した。しかしこれに限ったものではなく、以下で説明する本発明の実施の形態2に係る走行路認識装置のように、記憶区画線情報自体のばらつきを判定することにより、記憶区画線情報が異常であるか否かをさらに判定してもよい。
 図7は、本実施の形態2に係る走行路認識処理の詳細を示すフローチャートである。本実施の形態2に係る走行路認識装置は、実施の形態1に係る走行路認識処理(図4)においてステップS19をステップS20~22に代えたこと、及び、ステップS16にて差が予め定められた値以内でないと判定した場合には処理がステップS22に進むこと、を除けば、実施の形態1に係る走行路認識装置の動作と同様の動作を行う。そこで、以下、ステップS19をステップS20~22について主に説明する。
 ステップS18後のステップS20にて、走行路認識部23は、ステップS18の推定区画線情報算出処理B内のステップS31及びS32(図5)で演算された記憶区画線情報に含まれる複数の現在位置区画線情報について、ばらつき度合をもとめる。具体的には、走行路認識部23は、複数の現在位置区画線情報のそれぞれに含まれる、車区画線距離、車両角度及び区画線の曲率のそれぞれについてばらつき度合を求める。ここでは、ばらつき度合は、分散であるものとして説明するが、これに限ったものではなく、例えば標準偏差などであってもよい。ただし、標準偏差は開平を必要とするため、演算処理の低減が必要な場合などには、開平が不要な分散をばらつき度合に用いることが好ましい。
 走行路認識部23は、求めたばらつき度合が予め定められた閾値以上であるか否かを判定する。分散が閾値以上である場合には処理がステップS21に進み、分散が閾値未満である場合には処理がステップS22に進む。ここで、ステップS21に処理が進んだ場合には、次に説明するように記憶区画線情報を消去するため、次に推定区画線情報を推定して出力するまでに時間が掛かることになる。このため、ステップS20の判定に用いる閾値には、通常状態の場合には処理がステップS21に進まず、検出状態が悪化して誤検出が頻発するような異常状態の場合に処理がステップS21に進むような値に設定するとよい。例えば、車区画線距離、車両角度及び区画線の曲率のそれぞれの閾値には、それぞれ0.16、6.4×10-3及び1.0×10-6などが用いられる。
 ステップS20からステップS21に処理が進んだ場合には、走行路認識部23は、記憶区画線情報を消去して、図7の処理が終了する。
 一方、ステップS20からステップS22に処理が進んだ場合には、走行路認識部23は、記憶区画線情報は正常であると判定して、ステップS18で算出された推定区画線情報を出力して、図7の処理が終了する。
 <実施の形態2のまとめ>
 以上のような本実施の形態2に係る走行路認識装置によれば、走行路認識部23は、複数の現在位置区画線情報のばらつき度合を求め、当該ばらつき度合が予め定められた閾値以上である場合に、記憶区画線情報を消去する。ここでいう記憶区画線情報は、推定に用いられる複数の区画線情報と呼ぶことができる。このような構成によれば、検出誤差や外乱による区画線情報のばらつきが、推定区画線情報の推定に影響してしまうことをより抑制することができる。
 <変形例>
 以上の説明では、走行路の認識結果をレーンキープアシストに使用する装置について述べたが、これに限らず、走行路の認識結果を車線逸脱警報装置、自動運転装置等に使用してもよい。実施の形態で説明した技術は、それぞれの装置で区画線情報、ひいては走行路を使用する際に適用することができる。
 <その他の変形例>
 走行路認識装置における区画線取得部、車両挙動取得部及び走行路認識部を、以下「区画線取得部等」と記す。区画線取得部等は、図1のコントロールユニット10に対応する図8の処理回路81により実現される。すなわち、処理回路81は、区画線情報を取得する区画線取得部と、区画線情報の取得時から現在までの、車両1の車速及びヨーレートに関する車両挙動を取得する車両挙動取得部と、区画線情報に基づいて車両1が走行する走行路を認識する走行路認識部と、を備える。処理回路81には、専用のハードウェアが適用されてもよいし、メモリに格納されるプログラムを実行するプロセッサが適用されてもよい。プロセッサには、例えば、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)などが該当する。
 処理回路81が専用のハードウェアである場合、処理回路81は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。区画線取得部等の各部の機能それぞれは、処理回路を分散させた回路で実現されてもよいし、各部の機能をまとめて一つの処理回路で実現されてもよい。
 処理回路81がプロセッサである場合、区画線取得部等の機能は、ソフトウェア等との組み合わせにより実現される。なお、ソフトウェア等には、例えば、ソフトウェア、ファームウェア、または、ソフトウェア及びファームウェアが該当する。ソフトウェア等はプログラムとして記述され、メモリに格納される。図9に示すように、処理回路81に適用されるプロセッサ83は、メモリ84に記憶されたプログラムを読み出して実行することにより、入出力制御インタフェース(I/F)82を介して図1の車輪速センサ6、ヨーレートセンサ7、カメラ8及びモータ3等の外部装置との間で入出力される信号を処理する各部の機能を実現する。すなわち、走行路認識装置は、処理回路81により実行されるときに、区画線情報を取得するステップと、区画線情報の取得時から現在までの、車両1の車速及びヨーレートに関する車両挙動を取得するステップと、区画線情報に基づいて車両1が走行する走行路を認識するステップと、が結果的に実行されることになるプログラムを格納するためのメモリ84を備える。換言すれば、このプログラムは、区画線取得部等の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリ84は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリー、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)、そのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
 以上、区画線取得部等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、区画線取得部等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば、区画線取得部及び車両挙動取得部についてはレシーバなどの専用のハードウェアとしての処理回路でその機能を実現し、それ以外についてはプロセッサ83としての処理回路81がメモリ84に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 以上のように、処理回路81は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
 また、以上で説明した走行路認識装置は、PND(Portable Navigation Device)などのナビゲーション装置と、携帯電話、スマートフォン及びタブレットなどの携帯端末を含む通信端末と、これらにインストールされるアプリケーションの機能と、サーバとを適宜に組み合わせてシステムとして構築される走行路認識システムにも適用することができる。この場合、以上で説明した走行路認識装置の各機能あるいは各構成要素は、前記システムを構築する各機器に分散して配置されてもよいし、いずれかの機器に集中して配置されてもよい。
 なお、本発明は、その発明の範囲内において、各実施の形態及び各変形例を自由に組み合わせたり、各実施の形態及び各変形例を適宜、変形、省略したりすることが可能である。
 本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、本発明がそれに限定されるものではない。例示されていない無数の変形例が、本発明の範囲から外れることなく想定され得るものと解される。
 1 車両、21 車両挙動検出部、22 区画線検出部、23 走行路認識部。

Claims (5)

  1.  車両の位置を基準とする、前記車両前方の区画線の位置及び形状に関する区画線情報を取得する区画線取得部と、
     前記区画線情報の取得時から現在までの、前記車両の車速及びヨーレートに関する車両挙動を取得する車両挙動取得部と、
     前記区画線情報に基づいて前記車両が走行する走行路を認識する走行路認識部と
    を備え、
     前記走行路認識部は、
     前記区画線取得部が予め定められた個数以上の複数の前記区画線情報を取得した場合に、前記車両挙動に基づいて、前記複数の区画線情報を、前記車両の現在位置を基準とする、前記区画線の位置及び形状に関する複数の現在位置区画線情報に補正し、前記複数の現在位置区画線情報に基づいて一の現在位置区画線情報を推定区画線情報として推定し、当該推定区画線情報を前記走行路の認識に使用する、走行路認識装置。
  2.  請求項1に記載の走行路認識装置であって、
     前記走行路認識部は、
     前記区画線取得部で新たに取得された一の前記区画線情報と、前記推定区画線情報との差が予め定められた閾値内である場合にのみ、新たに取得された前記一の区画線情報を、推定に用いられる前記複数の区画線情報に含める、走行路認識装置。
  3.  請求項1または請求項2に記載の走行路認識装置であって、
     前記走行路認識部は、
     前記複数の現在位置区画線情報のばらつき度合を求め、前記ばらつき度合が予め定められた閾値以上である場合に、推定に用いられる前記複数の区画線情報を消去する、走行路認識装置。
  4.  請求項3に記載の走行路認識装置であって、
     前記複数の現在位置区画線情報のそれぞれは、
     前記車両と前記区画線の前記車両側方の部分と間の距離、前記区画線の前記部分に対する前記車両の進行方向の傾きである車両角度、及び、前記区画線の曲率を含み、
     前記ばらつき度合は、
     前記距離、前記車両角度及び前記曲率のそれぞれの標準偏差または分散を含む、走行路認識装置。
  5.  車両の位置を基準とする、前記車両前方の区画線の位置及び形状に関する区画線情報を取得し、
     前記区画線情報の取得時から現在までの、前記車両の車速及びヨーレートに関する車両挙動を取得し、
     前記区画線情報に基づいて前記車両が走行する走行路を認識し、
     前記走行路の認識は、
     予め定められた個数以上の複数の前記区画線情報が取得された場合に、前記車両挙動に基づいて、前記複数の区画線情報を、前記車両の現在位置を基準とする、前記区画線の位置及び形状に関する複数の現在位置区画線情報に補正し、前記複数の現在位置区画線情報に基づいて一の現在位置区画線情報を推定区画線情報として推定し、当該推定区画線情報を前記走行路の認識に使用する、走行路認識方法。
PCT/JP2017/000404 2017-01-10 2017-01-10 走行路認識装置及び走行路認識方法 WO2018131061A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP17891504.7A EP3570262A4 (en) 2017-01-10 2017-01-10 VEHICLE DETECTION DEVICE AND METHOD DETECTION METHOD
CN201780081899.6A CN110140158A (zh) 2017-01-10 2017-01-10 行驶路径识别装置及行驶路径识别方法
US16/467,575 US11631256B2 (en) 2017-01-10 2017-01-10 Travel path recognition apparatus and travel path recognition method
JP2017541411A JP6407447B1 (ja) 2017-01-10 2017-01-10 走行路認識装置及び走行路認識方法
PCT/JP2017/000404 WO2018131061A1 (ja) 2017-01-10 2017-01-10 走行路認識装置及び走行路認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/000404 WO2018131061A1 (ja) 2017-01-10 2017-01-10 走行路認識装置及び走行路認識方法

Publications (1)

Publication Number Publication Date
WO2018131061A1 true WO2018131061A1 (ja) 2018-07-19

Family

ID=62839809

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/000404 WO2018131061A1 (ja) 2017-01-10 2017-01-10 走行路認識装置及び走行路認識方法

Country Status (5)

Country Link
US (1) US11631256B2 (ja)
EP (1) EP3570262A4 (ja)
JP (1) JP6407447B1 (ja)
CN (1) CN110140158A (ja)
WO (1) WO2018131061A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021210049A1 (ja) * 2020-04-13 2021-10-21

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6986557B2 (ja) * 2017-05-19 2021-12-22 パイオニア株式会社 測定装置、測定方法およびプログラム
EP3767604A4 (en) * 2018-03-15 2021-11-03 Pioneer Corporation TRACK INFORMATION GENERATION PROCESS
JP7260385B2 (ja) * 2019-04-24 2023-04-18 トヨタ自動車株式会社 車両走行制御装置
KR102228278B1 (ko) * 2019-09-03 2021-03-16 충북대학교 산학협력단 라이다 센서를 이용한 차선인식 방법 및 그를 위한 장치
US11436843B2 (en) 2021-01-21 2022-09-06 Qualcomm Incorporated Lane mapping and localization using periodically-updated anchor frames

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067755A (ja) * 2001-08-28 2003-03-07 Nissan Motor Co Ltd 道路白線認識装置
JP2012058984A (ja) 2010-09-08 2012-03-22 Fuji Heavy Ind Ltd 車線推定装置
JP2016190530A (ja) * 2015-03-31 2016-11-10 株式会社アドヴィックス 車両用制御装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3400092B2 (ja) * 1994-05-17 2003-04-28 マツダ株式会社 自動車の走行路推定装置
JP3352528B2 (ja) * 1994-05-20 2002-12-03 マツダ株式会社 自動車の走行路推定装置
JPH1123291A (ja) * 1997-07-04 1999-01-29 Nissan Motor Co Ltd 車両用画像処理装置
JP4066869B2 (ja) * 2003-04-08 2008-03-26 トヨタ自動車株式会社 車両用画像処理装置
JP3722487B1 (ja) 2004-05-19 2005-11-30 本田技研工業株式会社 車両用走行区分線認識装置
JP4607193B2 (ja) * 2005-12-28 2011-01-05 本田技研工業株式会社 車両及びレーンマーク検出装置
US7876926B2 (en) * 2006-11-03 2011-01-25 Delphi Technologies, Inc. Lane marker detection and fitting methods
JP2009202673A (ja) * 2008-02-26 2009-09-10 Toyota Motor Corp 運転支援装置
JP5286214B2 (ja) * 2009-09-30 2013-09-11 日立オートモティブシステムズ株式会社 車両制御装置
JP5747482B2 (ja) * 2010-03-26 2015-07-15 日産自動車株式会社 車両用環境認識装置
JP5733395B2 (ja) * 2011-06-13 2015-06-10 日産自動車株式会社 車載用画像認識装置、撮像軸調整装置およびレーン認識方法
US9098751B2 (en) * 2011-07-27 2015-08-04 Gentex Corporation System and method for periodic lane marker identification and tracking
JP5971020B2 (ja) * 2011-08-22 2016-08-17 日産自動車株式会社 レーン認識装置
US20130253753A1 (en) * 2012-03-23 2013-09-26 Google Inc. Detecting lane markings
JP6049542B2 (ja) * 2013-05-31 2016-12-21 日立オートモティブシステムズ株式会社 車両制御システム
JP6260233B2 (ja) * 2013-12-02 2018-01-17 富士通株式会社 情報処理装置、カメラ取付角度の推定方法、及びプログラム
JP6306429B2 (ja) 2014-05-20 2018-04-04 国立大学法人電気通信大学 操舵制御システム
JP6076394B2 (ja) * 2015-04-01 2017-02-08 三菱電機株式会社 車両用操舵装置および車両操舵制御方法
JP6501602B2 (ja) * 2015-04-23 2019-04-17 本田技研工業株式会社 レーン検出装置及びその方法、カーブ開始点検出装置及びその方法、並びに操舵アシスト装置及びその方法
US9884623B2 (en) * 2015-07-13 2018-02-06 GM Global Technology Operations LLC Method for image-based vehicle localization
JP6659379B2 (ja) * 2016-01-28 2020-03-04 日立オートモティブシステムズ株式会社 道路情報認識システム及び道路情報認識方法
EP3217374A1 (en) * 2016-03-10 2017-09-13 Volvo Car Corporation Method and system for estimating a boundary of a road technical field
KR102452546B1 (ko) * 2016-12-15 2022-10-07 현대자동차주식회사 차량의 주행 경로 생성장치 및 그 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067755A (ja) * 2001-08-28 2003-03-07 Nissan Motor Co Ltd 道路白線認識装置
JP2012058984A (ja) 2010-09-08 2012-03-22 Fuji Heavy Ind Ltd 車線推定装置
JP2016190530A (ja) * 2015-03-31 2016-11-10 株式会社アドヴィックス 車両用制御装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3570262A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021210049A1 (ja) * 2020-04-13 2021-10-21
WO2021210049A1 (ja) * 2020-04-13 2021-10-21 三菱電機株式会社 走行路認識装置及び走行路認識方法
DE112020007074T5 (de) 2020-04-13 2023-03-02 Mitsubishi Electric Corporation Fahrspurerkennungsvorrichtung und fahrspurerkennungsverfahren
JP7325620B2 (ja) 2020-04-13 2023-08-14 三菱電機株式会社 走行路認識装置及び走行路認識方法

Also Published As

Publication number Publication date
EP3570262A1 (en) 2019-11-20
CN110140158A (zh) 2019-08-16
EP3570262A4 (en) 2019-12-18
JP6407447B1 (ja) 2018-10-17
US20210342603A1 (en) 2021-11-04
JPWO2018131061A1 (ja) 2019-01-17
US11631256B2 (en) 2023-04-18

Similar Documents

Publication Publication Date Title
JP6407447B1 (ja) 走行路認識装置及び走行路認識方法
JP6261832B1 (ja) 走行路認識装置及び走行路認識方法
US10800451B2 (en) Vehicle drive assist apparatus
US20230079730A1 (en) Control device, scanning system, control method, and program
US11193782B2 (en) Vehicle position estimation apparatus
JP5747787B2 (ja) 車線認識装置
JP5966747B2 (ja) 車両走行制御装置及びその方法
US9794543B2 (en) Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method
US9545922B1 (en) Lane keeping assistance system and method thereof
US20180165525A1 (en) Traveling lane determining device and traveling lane determining method
JP6142707B2 (ja) 車両位置補正装置
KR102086270B1 (ko) 주행 제어 장치의 제어 방법 및 주행 제어 장치
JP6302519B2 (ja) 車両の運転支援装置
US9676393B2 (en) System and method for detecting environment-induced disablement of advanced driver assistance system
US10657654B2 (en) Abnormality detection device and abnormality detection method
US11151395B2 (en) Roadside object detection device, roadside object detection method, and roadside object detection system
JP6590988B1 (ja) 区画線認識装置
JP3930309B2 (ja) 車両用運転支援装置
JP2019132762A (ja) 自車位置推定装置
JP2019121030A (ja) カメラずれ検出装置、カメラずれ検出方法および異常検出装置
JP2018043539A (ja) 車線逸脱抑制装置
KR20160056096A (ko) 차선 추정 장치 및 방법
JP2019120631A (ja) カメラずれ検出装置およびカメラずれ検出方法
KR102203947B1 (ko) 차선 유지 보조 시스템 및 그의 차선 유지 제어 방법
KR102597238B1 (ko) 듀얼 카메라를 이용한 차선 유지 보조 시스템의 시험 평가 장치 및 방법

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017541411

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17891504

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017891504

Country of ref document: EP

Effective date: 20190812